OpenAI 备受期待的 o1 模型系列因其先进的推理能力而成为头条新闻,这标志着人工智能领域的一大进步。
o1 的推理能力与 Botpress 用户熟悉的一个功能——Autonomous Node——有些类似。Autonomous Node 于 2024 年 7 月推出,是 AI agent 平台中首个此类功能。
Botpress CEO 兼 Autonomous Nodes 核心架构师 Sylvain Perron 亲自讲解了这两种推理实体的相似点与不同点。
Botpress CEO Sylvain Perron 对比 OpenAI o1 与 Autonomous Node
OpenAI 的新 o1 模型和 Botpress 的自主节点有很多相似之处,对吗?
确实如此。看到 o1 发布时我觉得很有趣。但需要注意的是,我们其实并不是在对比完全相同的东西。
OpenAI o1 显然是一个大语言模型(LLM),而 Autonomous Nodes 是平台功能。你甚至可以把 o1 接入 Botpress,与 Autonomous Nodes 一起使用。
但它们都采用了 链式思维推理,这是一种自下而上的方式,用于判断该做什么、该说什么。
你能解释一下链式思维推理是什么,以及它与语言模型通常生成回复的方式有何不同吗?
当然——大多数 LLM 是通过根据前一个词预测下一个词来生成回复的——先生成第一个词,然后用它生成下一个词,如此循环。这种方式适合回答简单问题,但在需要多步推理的复杂任务中就会出现很大问题。
而链式思维推理则是 AI 把任务拆解成更小的步骤,并在每一步都明确推理后再进行下一步。这类似于学生在理工科考试中需要逐步推导答案的过程。
比如说,如果 AI 要在 CRM 中创建一个线索——需要检查是否重复、分配线索等——它必须用链式思维推理来思考每一步,并在执行前规划好完整的操作流程。它不会在发现重复前就开始填写表单,而是在开始前就已经知道了。
因此,这个系统可以处理更复杂、依赖关系更多的任务,但也会因此变慢,因为它需要停下来思考,而不是直接生成结果。
o1 和 Autonomous Nodes 都采用链式思维推理——两者的过程完全一样吗,还是有区别?
有相似之处,也有不同点。我们依然采用链式思维推理,但因为我们面向实际客户,所以在速度和效率上做了多方面优化。
在 Autonomous Nodes 中,我们设计系统可以在一次 LLM 调用中处理多个动作。这样可以在同一流程中思考和执行,节省时间。
Autonomous Nodes 会在思考过程中向用户实时反馈进展,而不是让用户一直等待结果。这更接近自然对话,人不会被晾着等三十秒以上。开发者还能查看 LLM 的内部思路,方便排查问题。
而 o1 只返回一个答案,且对其思考过程的可见性有限。OpenAI 只提供链式思维的摘要,不展示具体过程,因此排查问题更难。
两者之间还有其他区别吗?
o1 需要开发者或平台托管调用工具的函数。每一步都要单独发起 API 调用,也就是说模型要请求一个动作,等结果,再请求下一个动作。你得一遍又一遍递归调用。这提高了使用门槛,因为你必须提供底层的函数运行架构。
Autonomous Nodes 则会在后台自动完成这些操作。
o1 在成本和速度方面表现如何?
比如你用 LLM 或 AI agent 协助 Hubspot 任务,比如与网站访客聊天,实现AI 线索生成。
如果你让 o1 在 Hubspot 填写线索表单——假设你能不用第三方连接器直接接入——它会花 12 秒,成本是用 Botpress 的 5 倍。
部分速度优势来自我们平台的基于 schema 的设计,这让系统一开始就知道需要哪些数据,以及数据结构是什么样的。
所以当你用 HubSpot 或 Salesforce 这类工具时,系统已经有预定义的 JSON schema,告诉它需要哪些输入——比如名字、邮箱、公司名等。
这让 Autonomous Nodes可以从一开始就推理整个任务,无需每一步都停下来询问信息。
你可以通过自己提供上下文来减少步骤和耗时,但这样会让基于 o1 的应用开发更耗时,维护成本也会增加。
你提到了更高的可靠性。是什么让自主节点比 o1 更可靠?
我们让输出更可靠的最大方法,就是把链式思维推理和我们自创的协议工具调用结合起来。
我们做的其实是创造了一个可以思考的环境——而且全在代码里,不是纯文本。说实话,这比 OpenAI 版本更快、更可靠,原因有几个。
首先,它可以在整个操作序列中同时进行对话。这是 OpenAI 模型做不到的。
另一个原因是 AI 知道输出的 schema。它知道根据收到的请求,应该输出什么类型的 JSON。
而且开发者可以自行调优。如果他们经常收到用户类似的问题,可以调整 AI,让它每次都给出最佳、最合适的答案。
它在流程中有多少部分使用了 JSON?
纯英文其实不可靠,对吧?它不够正式,也不够严谨。
编程语言也是一种语言,但它是正式的。它是领域专用语言,只能在特定规则和语法下使用。
所以我们的工具调用用 JSON 回复,而不是英文。输出是带有 JSON schema 的 JSON,而不是纯文本。
比如你请求在 Hubspot 创建线索表单,内容就是 JSON,schema 也是 JSON,里面包含了所有需要的属性,比如姓名、公司等。
Autonomous Nodes 和 o1 模型在工具调用上有何主要区别?
我们的工具调用高度具备上下文感知能力。它了解你的所有系统、可执行的所有操作,以及如何把数据传递给下一个工具。我们可以在一次 LLM 调用中生成包含所有这些内容的代码块,并给出答案。
理论上,你可以用 o1 API 进行工具调用,但可调用的内容有限制。而 Botpress 就是为此而生的。我们在其他 LLM(包括 GPT)之上加了保护机制。
Autonomous Nodes 还可以在调用工具时同时对话,而 OpenAI 目前不支持。这省去了与服务器的往返,提升了对话体验,用户在长时间任务开始前就会被告知。
大多数组织都被警告不要用 ChatGPT 处理安全工作数据。Autonomous Nodes 会更安全吗?
我们的平台专为高并发、低延迟场景打造,并根据企业的实际需求进行工程设计。
Autonomous Nodes 的优势不在于我们创造了全新的 AI 类型,而是我们用智能工程手段把现有技术优化得更适合企业需求。
我们为 AI 生成的通信提供安全沙箱。使用 Autonomous Node 时,这些安全沙箱是免费的,既安全又可扩展。任务完成后,沙箱会被销毁。
这是一个具有两层隔离的虚拟环境——包括登记进入和登记离开。确实比较复杂。但这样做的好处是,我们可以以极低的安全风险运行大规模的 LLM 生成代码。
如果开发者或 AI 爱好者想体验自主节点,需要怎么做?
我们提供了非常慷慨的免费额度。所有用户都可以免费试用。我们觉得这个功能太酷了,不应该设置门槛。所以,只需注册一个免费的 Botpress 账号,你就可以亲自体验。





.webp)
