OpenAI ซีรีส์โมเดล o1 ที่รอคอยกันมานานกลายเป็นข่าวพาดหัวข่าวเนื่องมาจากความสามารถขั้นสูงในการใช้เหตุผล ซึ่งถือเป็นก้าวสำคัญในด้านปัญญาประดิษฐ์
ความสามารถในการใช้เหตุผลของ o1 ไม่ต่างจากคุณสมบัติที่คุ้นเคย Botpress ผู้ใช้ – Autonomous Node เปิดตัวในเดือนกรกฎาคม 2024 โดย Autonomous Node ถือเป็นแพลตฟอร์ม ตัวแทน AI รุ่นแรกในประเภทนี้
Sylvain Perron , ซีอีโอที่ Botpress และสถาปนิกหลักเบื้องหลัง Autonomous Nodes ของแพลตฟอร์ม ได้นั่งลงเพื่ออธิบายความคล้ายคลึงและความแตกต่างระหว่างเหตุผลทั้งสอง
Botpress ซีอีโอ Sylvain Perron เปรียบเทียบ OpenAI o1 และโหนดอัตโนมัติ
มีข้อเหมือนกันสำคัญบางประการระหว่าง OpenAI โมเดล o1 ใหม่ของ และ Botpress โหนดอัตโนมัติถูกต้องไหม?
มีแน่นอน มันตลกมากที่ได้เห็น o1 ออกมา แต่สิ่งสำคัญที่ควรทราบคือ เราไม่ได้เปรียบเทียบแอปเปิลกับแอปเปิลกัน
OpenAI o1 นั้นเป็นที่ชัดเจน LLM ในขณะที่ Autonomous Nodes เป็นคุณลักษณะของแพลตฟอร์ม คุณสามารถเชื่อมต่อ o1 เข้ากับ Botpress และใช้งานร่วมกับ Autonomous Nodes ของคุณ
แต่ทั้งคู่ก็ใช้การใช้ เหตุผลแบบลำดับความคิด ซึ่งเป็นแนวทางจากล่างขึ้นบนเพื่อสรุปว่าจะต้องทำอะไรและจะพูดอะไร
คุณสามารถอธิบายการใช้เหตุผลแบบลำดับความคิด และความแตกต่างจากวิธีที่แบบจำลองภาษาใช้สร้างการตอบสนองโดยทั่วไปได้หรือไม่
แน่นอน – ส่วนใหญ่ LLMs สร้างคำตอบโดยทำนายคำต่อไปจากคำก่อนหน้า โดยสร้างคำแรก จากนั้นใช้คำนั้นสร้างคำต่อไป และเป็นอย่างนี้ไปเรื่อยๆ วิธีนี้ใช้ได้กับการตอบคำถามง่ายๆ แต่ใช้ไม่ได้ผลกับงานที่ซับซ้อนกว่าซึ่งต้องใช้เหตุผลหลายขั้นตอน
ในทางกลับกัน การใช้เหตุผลแบบห่วงโซ่ความคิดคือเมื่อ AI แบ่งงานออกเป็นขั้นตอนย่อยๆ และให้เหตุผลอย่างชัดเจนในแต่ละขั้นตอนก่อนที่จะดำเนินการขั้นตอนต่อไป ซึ่งคล้ายกับการที่นักเรียนถูกขอให้สร้างคำตอบในโจทย์ข้อสอบ STEM
ตัวอย่างเช่น หาก AI สร้างรายชื่อผู้มีแนวโน้มจะเป็นลูกค้าใน CRM ซึ่งต้องตรวจสอบข้อมูลซ้ำ กำหนดรายชื่อผู้มีแนวโน้มจะเป็นลูกค้า และอื่นๆ AI จะต้องใช้การคิดแบบเป็นลำดับเพื่อคิดเกี่ยวกับแต่ละขั้นตอน และวางแผนลำดับการดำเนินการทั้งหมดก่อนจะเริ่มดำเนินการ AI จะไม่เริ่มกรอกแบบฟอร์มก่อนที่จะรู้ว่าเป็นข้อมูลซ้ำ แต่จะทราบก่อนที่จะเริ่มต้น
ดังนั้นระบบจะสามารถจัดการกับงานที่ซับซ้อนมากขึ้นที่มีการอ้างอิงหลายอย่างได้ แต่ระบบก็จะทำงานช้าลงด้วยเช่นกัน เนื่องจากต้องหยุดชั่วคราวและคิด มากกว่าแค่สร้างงานทันที
ทั้ง o1 และ Autonomous Nodes ใช้การให้เหตุผลแบบลำดับความคิด – เป็นกระบวนการเดียวกันในทั้งสองหรือไม่ หรือมีข้อแตกต่างระหว่างทั้งสองหรือไม่
มีทั้งความคล้ายคลึงและความแตกต่างอยู่บ้าง เรายังคงใช้การใช้เหตุผลแบบลำดับความคิด แต่เนื่องจากเราสร้างขึ้นสำหรับลูกค้าในโลกแห่งความเป็นจริง เราจึงปรับให้เหมาะสมเพื่อความเร็วและประสิทธิภาพในหลายๆ วิธีที่แตกต่างกัน
ด้วย Autonomous Nodes เราออกแบบระบบ ให้จัดการการดำเนินการหลายอย่างใน LLM ครั้งเดียว แนวคิดคือการคิดและดำเนินการภายในกระบวนการเดียวกัน เพื่อไม่ให้เสียเวลา
โหนดอัตโนมัติจะคิดและอัปเดตข้อมูลให้ผู้ใช้ เพื่อให้ผู้ใช้ไม่ต้องนั่งรอจนกระบวนการคิดเสร็จสิ้น ซึ่งจะคล้ายกับการสนทนาตามธรรมชาติมากกว่า โดยผู้ใช้จะไม่ถูกปล่อยให้รู้สึกตื่นเต้นนานเกิน 30 วินาที นักพัฒนาสามารถค้นหาความคิดที่ซ่อนอยู่ของผู้ใช้งานได้ LLM และแก้ไขปัญหาที่เกิดขึ้น
ในทางกลับกัน o1 คืนคำตอบหนึ่ง และมีการมองเห็นกระบวนการคิดของมันอย่างจำกัด OpenAI ให้ข้อมูลสรุปของลำดับความคิดโดยไม่แสดงข้อมูล ทำให้การแก้ไขปัญหายุ่งยากยิ่งขึ้น
ทั้งสองมีความแตกต่างอื่น ๆ อีกหรือไม่?
o1 ต้องใช้ผู้พัฒนาหรือแพลตฟอร์มเพื่อโฮสต์ฟังก์ชันที่เรียกใช้การเรียกใช้เครื่องมือ ในแต่ละขั้นตอนจำเป็นต้องมีการเรียกใช้ API แยกต่างหาก ซึ่งหมายความว่าโมเดลจะต้องร้องขอการดำเนินการหนึ่ง รอผลลัพธ์ จากนั้นจึงเรียกใช้การดำเนินการถัดไป และคุณต้องเรียกใช้ซ้ำแล้วซ้ำเล่า ซึ่งทำให้มีอุปสรรคในการใช้งานมากขึ้น เนื่องจากคุณต้องจัดเตรียมสถาปัตยกรรมการทำงานของฟังก์ชันพื้นฐาน
โหนดอัตโนมัติจะดำเนินการนี้โดยอัตโนมัติในเบื้องหลัง
o1 เปรียบเทียบกับต้นทุนและความเร็วได้อย่างไร?
สมมติว่าคุณกำลังใช้ LLM หรือตัวแทน AI เพื่อช่วยเหลือในงานของ Hubspot เช่น การแชทกับผู้เยี่ยมชมเว็บไซต์ซึ่งเป็นช่องทางในการสร้าง ลูกค้าเป้าหมายด้วย AI
หากคุณขอให้ o1 กรอกแบบฟอร์มข้อมูลผู้มีแนวโน้มจะเป็นลูกค้าบน Hubspot – ฉันหมายถึง สมมติว่าคุณสามารถเชื่อมต่อได้โดยไม่ต้องใช้ตัวเชื่อมต่อของบุคคลที่สาม – จะใช้เวลา 12 วินาทีและมีค่าใช้จ่ายมากกว่า 5 เท่าเมื่อเทียบกับการที่คุณทำบน Hubspot Botpress -
ส่วนหนึ่งของความเร็วนั้นมาจากการออกแบบตามรูปแบบของแพลตฟอร์มของเรา ซึ่งหมายความว่าระบบจะทราบล่วงหน้าว่าต้องใช้ข้อมูลใดและโครงสร้างของข้อมูลนั้นเป็นอย่างไร
ดังนั้นเมื่อคุณทำงานกับเครื่องมืออย่าง HubSpot หรือ Salesforce ระบบจะมีรูปแบบ JSON ที่กำหนดไว้ล่วงหน้าแล้วซึ่งแจ้งให้ทราบว่าจำเป็นต้องมีอินพุตอะไรบ้าง เช่น ชื่อ ที่อยู่อีเมล ชื่อบริษัท เป็นต้น
สิ่งนี้ช่วยให้ Autonomous Nodes พิจารณางานทั้งหมดตั้งแต่เริ่มต้น โดยไม่ต้องหยุดเพื่อขอข้อมูลเพิ่มเติมในแต่ละขั้นตอน
คุณสามารถลดความเร็วและขั้นตอนต่างๆ ได้โดยจัดเตรียมบริบทด้วยตัวเอง แต่ต้องแลกมากับการใช้เวลาสร้างแอปพลิเคชันบนพื้นฐาน o1 มากขึ้น นั่นจึงเป็นเรื่องของต้นทุนการบำรุงรักษาที่เพิ่มขึ้นด้วย
คุณกล่าวถึงความน่าเชื่อถือที่เพิ่มขึ้น อะไรทำให้ Autonomous Nodes น่าเชื่อถือมากกว่า o1?
วิธีที่ใหญ่ที่สุดที่เราใช้ในการสร้างผลลัพธ์ที่น่าเชื่อถือมากยิ่งขึ้น คือการผสมผสานการใช้เหตุผลแบบเป็นลำดับเข้ากับเครื่องมือโปรโตคอลที่เรียกใช้งานซึ่งเราสร้างขึ้น
สิ่งที่เราทำคือ การสร้างสภาพแวดล้อมที่มันคิดได้ และทั้งหมดอยู่ในโค้ด ไม่ใช่ข้อความธรรมดา พูดตามตรงว่ามันเร็วกว่าและเชื่อถือได้มากกว่า OpenAI เวอร์ชันนี้มีสาเหตุหลายประการ
อย่างหนึ่งคือมันสามารถพูดพร้อมกันได้ตลอดลำดับการกระทำ นั่นคือสิ่งที่ OpenAI โมเดลไม่ทำ
อีกเหตุผลหนึ่งก็คือ AI รู้จักรูปแบบผลลัพธ์ โดยรู้ว่าควรส่งออก JSON ประเภทใดตามแบบสอบถามที่ได้รับ
และเป็นสิ่งที่นักพัฒนาสามารถปรับแต่งได้ด้วยตัวเอง หากพวกเขาใช้สิ่งนี้ และได้รับคำถามที่คล้ายกันมากมายจากผู้ใช้ เช่นเดียวกับคนส่วนใหญ่ พวกเขาสามารถปรับแต่ง AI เพื่อให้ให้คำตอบที่ดีที่สุดและเหมาะสมที่สุดทุกครั้ง
ใช้ JSON สำหรับกระบวนการเท่าใด
ภาษาอังกฤษแบบธรรมดาไม่น่าเชื่อถือใช่ไหม ไม่เป็นทางการพอ ไม่เคร่งครัดพอ
ภาษาการเขียนโปรแกรมคือภาษาหนึ่ง แต่เป็นทางการ เป็นภาษาเฉพาะโดเมน คุณสามารถใช้ได้เฉพาะภายในขอบเขตและบทบาทของไวยากรณ์บางอย่างเท่านั้น
ดังนั้นเครื่องมือของเราจึงเรียก การตอบกลับเป็น JSON แทนภาษาอังกฤษ ซึ่งเป็นผลลัพธ์ JSON ที่มีรูปแบบ JSON แทนข้อความธรรมดา
เมื่อคุณสร้างคำขอเพื่อสร้างแบบฟอร์มสำหรับข้อมูลผู้มีแนวโน้มจะเป็นลูกค้าใน Hubspot แบบฟอร์มดังกล่าวจะเขียนเป็น JSON และรูปแบบ (ในรูปแบบ JSON เช่นกัน) จะให้คุณสมบัติทั้งหมดที่จำเป็นต้องรวมไว้ เช่น ชื่อ บริษัท เป็นต้น
ความแตกต่างที่สำคัญระหว่างการเรียกเครื่องมือระหว่าง Autonomous Nodes และโมเดล o1 คืออะไร
การเรียกใช้เครื่องมือของเรานั้นคำนึงถึงบริบทเป็นอย่างมาก เครื่องมือจะเข้าใจระบบทั้งหมดของคุณ การดำเนินการทั้งหมดที่เครื่องมือสามารถทำได้ และวิธีป้อนข้อมูลดังกล่าวลงในเครื่องมือถัดไป และเราสามารถสร้างบล็อกโค้ดหนึ่งบล็อกที่ให้ข้อมูลทั้งหมดนี้รวมกัน รวมทั้งให้คำตอบ ทั้งหมดนี้รวมอยู่ในบล็อกเดียว LLM เรียก.
ในทางทฤษฎี คุณสามารถใช้ o1 API เพื่อเรียกใช้เครื่องมือได้ แต่มีข้อจำกัดว่าคุณสามารถเรียกใช้เครื่องมือด้วยอะไรได้บ้าง Botpress ถูกสร้างขึ้นมาเพื่อสิ่งนี้ เรามีราวกั้นอยู่ด้านบนของส่วนอื่น LLMs , รวมทั้ง GPT -
โหนดอัตโนมัติสามารถ พูดคุยพร้อมกันได้ในขณะที่เรียกใช้เครื่องมือ ซึ่งไม่ใช่สิ่งที่ OpenAI รองรับในปัจจุบัน ซึ่งจะช่วยประหยัดเวลาในการเดินทางไปยังเซิร์ฟเวอร์และให้ประสบการณ์การใช้งานแบบสนทนาที่ดีขึ้น เนื่องจากผู้ใช้จะได้รับแจ้งก่อนที่จะเริ่มงานที่ต้องใช้เวลานาน
องค์กรส่วนใหญ่ได้รับการเตือนไม่ให้ใช้ ChatGPT ด้วยข้อมูลการทำงานที่ปลอดภัย ความกังวลของ Autonomous Nodes น้อยลงหรือไม่
แพลตฟอร์มของเราถูกสร้างมาสำหรับสภาพแวดล้อมที่มีปริมาณข้อมูลสูงและความหน่วงต่ำ และเราได้ออกแบบขึ้นมาโดยคำนึงถึงความต้องการเชิงปฏิบัติของธุรกิจต่างๆ
ข้อได้เปรียบของ Autonomous Nodes ไม่ใช่ว่าเราได้สร้าง AI ประเภทใหม่ขึ้นมาโดยสิ้นเชิง แต่เป็นเพราะ เราได้นำเทคโนโลยีที่มีอยู่แล้วมาประยุกต์ใช้วิศวกรรมอัจฉริยะ เพื่อให้ทำงานได้ดีขึ้นตามความต้องการทางธุรกิจ
เรามีแซนด์บ็อกซ์ที่ปลอดภัยสำหรับการสร้างการสื่อสารด้วย AI เมื่อคุณใช้ Autonomous Node มันจะรันแซนด์บ็อกซ์ลับเหล่านี้ให้ใช้งานฟรี แซนด์บ็อกซ์เหล่านี้ปลอดภัยและปรับขนาดได้ และหลังจากนั้นแซนด์บ็อกซ์ก็จะถูกทำลาย
นี่คือการแยกเสมือนจริงที่มีสองชั้น คือ การเช็คอินและการเช็คเอาท์ ค่อนข้างซับซ้อน แต่หมายความว่าเราสามารถดำเนินการในระดับขนาดใหญ่ได้ LLM -สร้างรหัสโดยมีความเสี่ยงด้านความปลอดภัยน้อยที่สุด
หากนักพัฒนาหรือผู้ที่ชื่นชอบ AI ต้องการทดลองใช้ Autonomous Node พวกเขาจะต้องทำอย่างไร?
เรามีบริการฟรีที่ใจดี ผู้ใช้ทุกคนสามารถทดลองใช้ได้ เราคิดว่ามันเจ๋งเกินกว่าที่จะจำกัดการใช้งาน ดังนั้น เพียงแค่สร้างบริการฟรี Botpress บัญชีและคุณสามารถดูได้ด้วยตัวคุณเอง
สมบูรณ์แบบ ขอบคุณมากที่มานั่งเชื่อมโยงจุดต่าง ๆ ระหว่างฟีเจอร์ทั้งสอง o1 กำลังสร้างหัวข้อข่าวมากมาย เป็นเรื่องดีที่ได้เข้าใจดีขึ้นว่ามันเชื่อมโยงกับอะไร Botpress กำลังพัฒนาอยู่
สารบัญ
ติดตามข่าวสารล่าสุดเกี่ยวกับตัวแทน AI
แบ่งปันสิ่งนี้บน: