โมเดล o1 ซีรีส์ใหม่ของ OpenAI ที่หลายคนรอคอย กลายเป็นข่าวดังเพราะความสามารถในการให้เหตุผลขั้นสูง ถือเป็นก้าวสำคัญของปัญญาประดิษฐ์
ความสามารถในการให้เหตุผลของ o1 ก็คล้ายกับฟีเจอร์ที่ผู้ใช้ Botpress คุ้นเคย นั่นคือ Autonomous Node ซึ่งเปิดตัวในเดือนกรกฎาคม 2024 และเป็นฟีเจอร์แรกในบรรดาแพลตฟอร์ม AI agent
Sylvain Perron ซีอีโอของ Botpress และผู้ออกแบบ Autonomous Nodes ได้มาอธิบายความเหมือนและความต่างของสองระบบที่ใช้เหตุผลนี้
ซีอีโอ Sylvain Perron ของ Botpress เปรียบเทียบ OpenAI o1 กับ Autonomous Node
มีความคล้ายคลึงกันอย่างมากระหว่างโมเดล o1 ใหม่ของ OpenAI กับ Botpress Autonomous Nodes ใช่ไหม?
ใช่ครับ มีหลายจุดที่คล้ายกันเลย ตอนที่ o1 เปิดตัวก็รู้สึกตลกดี แต่สิ่งสำคัญคือ เราไม่ได้เปรียบเทียบของเหมือนกันซะทีเดียว
OpenAI o1 เป็น LLM ส่วน Autonomous Nodes เป็นฟีเจอร์ของแพลตฟอร์ม คุณยังสามารถเชื่อมต่อ o1 กับ Botpress และใช้ร่วมกับ Autonomous Nodes ได้ด้วย
แต่ทั้งสองระบบใช้ chain-of-thought reasoning หรือการให้เหตุผลแบบลำดับขั้น เพื่อหาข้อสรุปว่าจะทำหรือพูดอะไรต่อไป
ช่วยอธิบาย chain-of-thought reasoning และความแตกต่างจากวิธีที่โมเดลภาษาโดยทั่วไปสร้างคำตอบได้ไหม?
แน่นอนครับ – ส่วนใหญ่ LLM จะสร้างคำตอบโดยทำนายคำถัดไปจากคำก่อนหน้าไปเรื่อย ๆ วิธีนี้ใช้ตอบคำถามตรงไปตรงมาได้ดี แต่จะล้มเหลวเมื่อเจองานซับซ้อนที่ต้องคิดหลายขั้นตอน
แต่ chain-of-thought reasoning คือ AI จะแบ่งงานออกเป็นขั้นย่อย ๆ แล้วคิดทีละขั้นก่อนจะไปขั้นต่อไป คล้ายกับเวลานักเรียนต้องแสดงวิธีคิดในข้อสอบวิชาวิทยาศาสตร์หรือคณิตศาสตร์
เช่น ถ้า AI ต้องสร้าง lead ใน CRM – ต้องเช็กข้อมูลซ้ำ, มอบหมาย lead ฯลฯ – มัน ต้องใช้ chain-of-thought reasoning เพื่อคิดแต่ละขั้น และวางแผนลำดับการทำงานทั้งหมดก่อนจะเริ่ม ไม่ใช่กรอกฟอร์มทันทีโดยไม่รู้ว่าซ้ำหรือไม่ แต่มันจะรู้ก่อนเริ่ม
ระบบจึงจัดการงานซับซ้อนที่มีหลายเงื่อนไขได้ แต่ก็จะช้าลงเพราะต้องหยุดคิด ไม่ใช่แค่สร้างคำตอบทันที
ทั้ง o1 และ Autonomous Nodes ใช้การให้เหตุผลแบบ chain-of-thought – กระบวนการเดียวกันหรือมีความต่างกัน?
มีทั้งจุดที่เหมือนและต่างกันครับ เรายังใช้ chain-of-thought reasoning อยู่ แต่เพราะเราสร้างเพื่อใช้งานจริงกับลูกค้า เราจึงปรับให้เร็วและมีประสิทธิภาพมากขึ้นในหลายจุด
สำหรับ Autonomous Nodes เราออกแบบระบบ ให้จัดการหลาย action ได้ใน LLM call เดียว แนวคิดคือคิดและลงมือทำในกระบวนการเดียวกัน จะได้ไม่เสียเวลา
Autonomous Nodes จะคิดและแจ้งความคืบหน้าให้ผู้ใช้ทราบระหว่างทาง ผู้ใช้จึงไม่ต้องรอจนกว่าระบบจะคิดเสร็จ เหมือนการสนทนาปกติที่คนจะไม่ถูกปล่อยให้รอเงียบ ๆ นาน ๆ นักพัฒนายังสามารถดูเบื้องหลังการคิดของ LLM และแก้ไขปัญหาได้ด้วย
แต่ o1 จะให้คำตอบทีละหนึ่ง และมองไม่เห็นกระบวนการคิดข้างใน OpenAI จะสรุป chain-of-thought ให้ดูแต่ไม่แสดงรายละเอียด ทำให้แก้ปัญหาได้ยากกว่า
มีความแตกต่างอื่น ๆ อีกหรือไม่ระหว่างสองระบบนี้?
o1 ต้องการให้นักพัฒนาหรือแพลตฟอร์มโฮสต์ฟังก์ชันที่เรียกใช้เครื่องมือ ทุกขั้นตอนต้องเรียก API แยกกัน หมายความว่าโมเดลต้องขอทำ action หนึ่ง รอผล แล้วค่อยขอ action ถัดไป และต้องเรียกซ้ำไปเรื่อย ๆ ทำให้ใช้งานยากขึ้นเพราะต้องเตรียมโครงสร้างฟังก์ชันรองรับเอง
แต่ Autonomous Nodes จัดการเรื่องนี้ให้อัตโนมัติในเบื้องหลัง
o1 เปรียบเทียบด้านต้นทุนและความเร็วอย่างไร?
สมมติว่าคุณใช้ LLM หรือ AI agent ช่วยงาน Hubspot เช่น คุยกับผู้เยี่ยมชมเว็บไซต์เพื่อ สร้าง lead ด้วย AI
ถ้าคุณให้ o1 กรอกฟอร์ม lead ใน Hubspot – สมมติว่าคุณเชื่อมต่อได้โดยไม่ต้องใช้ตัวกลาง – จะใช้เวลา 12 วินาทีและมีค่าใช้จ่ายมากกว่า Botpress ถึง 5 เท่า
ส่วนหนึ่งที่เร็วขึ้นเพราะแพลตฟอร์มของเราออกแบบโดยใช้ schema ทำให้ระบบรู้ล่วงหน้าว่าต้องใช้ข้อมูลอะไรและข้อมูลนั้นมีโครงสร้างแบบไหน
ดังนั้นเมื่อใช้งานกับเครื่องมืออย่าง HubSpot หรือ Salesforce ระบบจะมี JSON schema ที่กำหนดไว้แล้วว่าต้องใช้ input อะไรบ้าง เช่น ชื่อ อีเมล บริษัท ฯลฯ
จึงทำให้ Autonomous Nodes คิดวางแผนงานทั้งหมดตั้งแต่ต้นจนจบ โดยไม่ต้องหยุดถามข้อมูลเพิ่มทุกขั้น
คุณจะลดขั้นตอนและเวลาได้ถ้าให้ข้อมูลบริบทเอง แต่ก็ต้องใช้เวลาสร้างแอปพลิเคชันที่ใช้ o1 มากขึ้น ซึ่งหมายถึงค่าใช้จ่ายในการดูแลรักษาก็สูงขึ้นด้วย
คุณพูดถึงความน่าเชื่อถือที่สูงขึ้น อะไรทำให้ Autonomous Nodes น่าเชื่อถือกว่า o1?
สิ่งที่ทำให้ผลลัพธ์น่าเชื่อถือขึ้นมากคือการผสม chain of thought reasoning กับระบบเรียกใช้เครื่องมือแบบ protocol ที่เราสร้างขึ้น
สิ่งที่เราทำคือ สร้างสภาพแวดล้อมให้ AI คิดได้ – ทั้งหมดนี้อยู่ในโค้ด ไม่ใช่ข้อความธรรมดา ซึ่งจริง ๆ แล้วเร็วกว่าและน่าเชื่อถือกว่าเวอร์ชันของ OpenAI ด้วยเหตุผลหลายอย่าง
ข้อหนึ่งคือมันสามารถพูดคุยไปพร้อมกับทำงานในแต่ละขั้นได้ ซึ่ง OpenAI ยังทำแบบนี้ไม่ได้
อีกเหตุผลคือ AI รู้จัก schema ของผลลัพธ์ มันรู้ว่าควรสร้าง JSON แบบไหนจากคำถามที่ได้รับ
และนักพัฒนายังปรับแต่งเองได้ ถ้าใช้แล้วเจอคำถามซ้ำ ๆ จากผู้ใช้ ก็สามารถปรับ AI ให้ตอบได้ดีที่สุดทุกครั้ง
มันใช้ JSON ในกระบวนการมากแค่ไหน?
ภาษาอังกฤษธรรมดาไม่น่าเชื่อถือพอ จริงไหม? มันไม่เป็นทางการ ไม่เข้มงวดพอ
ภาษาโปรแกรมก็เหมือนภาษา แต่เป็นทางการ เป็นภาษาสำหรับงานเฉพาะ ใช้ได้ในขอบเขตและไวยากรณ์ที่กำหนด
ดังนั้นการเรียกใช้เครื่องมือของเรา ตอบกลับเป็น JSON แทนภาษาอังกฤษ เป็นผลลัพธ์ JSON ที่มี schema กำกับ ไม่ใช่ข้อความธรรมดา
เมื่อคุณขอสร้างฟอร์ม lead ใน Hubspot คำขอจะถูกเขียนเป็น JSON และ schema – ก็เป็น JSON – ระบุคุณสมบัติที่ต้องมี เช่น ชื่อ บริษัท ฯลฯ
ความแตกต่างหลักของการเรียกใช้เครื่องมือระหว่าง Autonomous Nodes กับ o1 คืออะไร?
การเรียกใช้เครื่องมือของเรารู้จักบริบทดีมาก เข้าใจทุกระบบของคุณ ทุก action ที่ทำได้ และข้อมูลจะถูกส่งต่อไปยังเครื่องมือถัดไปอย่างไร เราสามารถสร้างโค้ดบล็อกเดียวที่รวมทุกอย่างนี้ไว้ พร้อมคำตอบ ใน LLM call เดียว
ในทางทฤษฎี คุณใช้ o1 API เรียกใช้เครื่องมือได้ แต่มีข้อจำกัดเรื่องข้อมูลที่ใช้เรียก แต่ Botpress ถูกสร้างมาเพื่อสิ่งนี้ เรามีระบบป้องกันบน LLM อื่น ๆ รวมถึง GPT ด้วย
Autonomous Nodes ยังสามารถ พูดคุยไปพร้อมกับเรียกใช้เครื่องมือ ซึ่ง OpenAI ยังไม่รองรับ วิธีนี้ช่วยลดการสื่อสารกับเซิร์ฟเวอร์และให้ประสบการณ์สนทนาที่ดีกว่า เพราะผู้ใช้จะได้รับแจ้งก่อนเริ่มงานที่ใช้เวลานาน
หลายองค์กรถูกเตือนว่าไม่ควรใช้ ChatGPT กับข้อมูลงานที่เป็นความลับ แล้ว Autonomous Nodes มีความเสี่ยงน้อยกว่าหรือไม่?
แพลตฟอร์มของเราออกแบบมาสำหรับงานปริมาณมากและต้องการความหน่วงต่ำ และเราวางระบบโดยคำนึงถึงความต้องการจริงของธุรกิจ
จุดเด่นของ Autonomous Nodes ไม่ใช่ว่าเราสร้าง AI แบบใหม่หมดจด แต่ เรานำเทคโนโลยีที่มีอยู่มาวิศวกรรมให้ฉลาดขึ้น เพื่อให้เหมาะกับการใช้งานในธุรกิจ
เรามี sandbox ที่ปลอดภัยสำหรับ AI สร้างข้อความสื่อสาร เมื่อคุณใช้ Autonomous Node ระบบจะรัน sandbox ลับเหล่านี้ให้ฟรี ทั้งปลอดภัยและขยายขนาดได้ และเมื่อเสร็จงาน sandbox ก็จะถูกลบทิ้ง
นี่คือการแยกสภาพแวดล้อมเสมือนที่มีสองชั้น – การเช็คอินและเช็คเอาท์ ซึ่งค่อนข้างซับซ้อน แต่ข้อดีคือเราสามารถรันโค้ดที่สร้างโดย LLM ในขนาดใหญ่ได้โดยมีความเสี่ยงด้านความปลอดภัยน้อยมาก
ถ้านักพัฒนาหรือผู้สนใจ AI อยากลองใช้ Autonomous Node ต้องทำอย่างไรบ้าง?
เรามีแพ็กเกจฟรีที่ให้ใช้งานได้อย่างจุใจ ผู้ใช้ทุกคนสามารถทดลองใช้งานได้ เราคิดว่าฟีเจอร์นี้เจ๋งเกินกว่าจะจำกัดไว้ ดังนั้นแค่สมัครบัญชี Botpress ฟรีก็สามารถลองใช้ได้ด้วยตัวเอง





.webp)
