我们最常被潜在客户和用户问到的问题之一是:“你们的意图分类器在哪里?”
我们没有。没错,这正是我们的选择。
Botpress 使用大语言模型(LLM)来识别用户意图。为什么?如果你正在构建聊天机器人或AI 智能体,这对开发者和用户来说都好得多。
我们对这个立场非常坚定,所以我想花几分钟解释一下我们为什么不使用意图分类器。
简而言之:更容易开发,更准确,也更易维护。
过去的(LLM 之前的)时代
(如果你已经了解意图分类器是什么以及它的作用,可以跳过本节。)
意图分类器是一种根据训练数据将用户输入归类到预设意图的工具。
开发者需要为每个可能的意图收集并标注大量示例,希望系统能将用户输入与这些示例匹配。
比如,在一个电商聊天机器人中,开发者可能会定义一个“TrackOrder”意图。示例话语包括:“我的包裹在哪里?”、“查询我的订单”、“你能帮我查一下配送状态吗?”
本质上,他们是在通过举例教AI智能体识别用户的意图。没错,这些都要手动输入。
幸运的是,随着LLM的进步,这种手动将各种表达方式映射到意图的需求几乎消失了。
但仍有很多对话式AI平台在用它们。为什么?我们接下来会讲。
意图分类器的4大缺点
不仅仅是流程更长——意图分类器有很多问题。比如:
1. 数据依赖性
意图分类器对数据需求极大。每个意图都需要大量、具有代表性的用户示例数据才能准确工作。没有这些数据,它们很难正确分类输入。
而构建这些数据集非常耗时。开发者要花大量时间收集和标注示例——毫无疑问,这不是他们时间的最佳利用方式。
2. 可扩展性有限
意图分类器也不适合扩展。添加新意图意味着要收集更多数据并重新训练模型,这很快就会成为开发瓶颈。而且,随着语言的变化,维护也会变得越来越麻烦。
3. 语言理解能力差
意图分类器缺乏真正的语言理解能力。它们难以应对语言的多样性,比如:
- 同义词
- 改写表达
- 含糊的说法
- 拼写错误
- 不熟悉的口语表达
- 不完整的输入
它们通常还会将每句话单独处理,无法在对话中保持上下文。
4. 过拟合
意图分类器容易过拟合,只记住训练示例而不是学习通用规律。
这意味着它们在遇到见过的原话时表现良好,但面对新或变化的输入时就会力不从心。这让它们在专业场景下显得非常脆弱。
LLM 优势的6个理由
LLM几乎解决了上述所有问题。它们能理解上下文和细微差别,开发者无需为其准备大量训练数据。基于LLM的智能体创建后即可直接对话。
1. 零样本学习能力
LLM无需示例就能学习。它们经过大量预训练,已经能理解上下文、细节和意图,无需开发者提供特定示例。
2. 理解细微差别
LLM在意图分类器无法胜任的地方表现出色。它们可以轻松理解习语、讽刺和模糊的语言。
它们在多样数据集上的广泛训练,使其能够把握人类交流中那些意图分类器常常遗漏的细微之处。
3. 更好的上下文理解
LLM不会丢失对话上下文。它们能记住之前的内容,让交流自然流畅、连贯。
这种上下文能力还能帮助澄清歧义。即使输入模糊或复杂,它们也能结合整个对话推断出含义。
4. 可扩展性
LLM在可扩展性上也远胜一筹。它们无需重新训练即可应对新话题,得益于其对语言的广泛理解。
这让它们几乎可以直接应对任何场景。对于多智能体系统,用LLM替代意图分类器显然是更优选择。
5. 灵活性
LLM不依赖死板的模板。它们的灵活性让回复更自然、多样,并能完美适应对话内容。相比脆弱的意图分类器,用户体验好得多。
6. 更少的训练数据需求
LLM无需特定任务的标注数据也能完成工作。它们的能力来自于对海量多样文本的预训练,不依赖于繁琐的人工标注数据集。
如有需要,开发者也可以自定义LLM以适配项目。例如,LLM可以用极少的数据进行微调,快速适应特定场景或行业。
为什么其他公司会使用意图分类器?
这是个好问题。如果大语言模型在意图分类上表现得更好,为什么还有那么多公司在用意图分类器呢?
答案其实不太好听,也不太委婉:这是遗留技术带来的问题。
大多数公司在使用意图分类器上有既得利益。他们已经建立了庞大的用户基础依赖于该系统,没有理由劝说用户放弃他们构建的系统。
但Botpress是以LLM为核心的
LLM在识别意图方面远胜于传统意图分类器。这也是我们在2020年彻底重写产品、转向LLM优先的原因。
我们知道更好的技术已经到来,所以选择了大胆转型,而不是固守旧有技术。
我们会添加意图分类器吗?
不会。我们非常重视开发者和用户的体验。
意图分类的未来
意图分类器已经是过去的工具。这就是我们全力投入LLM的原因。
随着LLM不断进步,基于Botpress的AI智能体也会越来越强大。我们已经准备好,也很期待持续提升对话式AI的能力上限。
如果你想用LLM打造灵活的AI智能体,欢迎在Botpress上开始构建。完全免费。







