Eine der häufigsten Fragen, die wir von potenziellen Kunden und Anwendern erhalten, lautet: "Wo sind Ihre Absichtsklassifikatoren?"
Wir haben keine. Und ja, das ist Absicht.
Botpress verwendet LLMs , um die Absicht der Nutzer zu erkennen. Und warum? Es ist sowohl für die Entwickler als auch für die Nutzer eines KI-Agenten um Größenordnungen besser.
Diese Haltung ist uns sehr wichtig, daher möchte ich kurz erläutern, warum wir keine Absichtserklärungen abgeben.
TLDR: Es ist einfacher zu erstellen, genauer und einfacher zu pflegen.
Die guten alten Zeiten (vorLLM)
(Wenn Sie bereits wissen, was Absichtsklassifikatoren sind und was sie tun, können Sie diesen Abschnitt überspringen).
Ein Intent Classifier ist ein Werkzeug, das Benutzereingaben auf der Grundlage von Trainingsdaten in vordefinierte Intents kategorisiert.
Die Entwickler müssen unzählige Beispiele für jede mögliche Absicht kuratieren und beschriften, in der Hoffnung, dass das System die Benutzereingaben mit diesen Beispielen abgleichen kann.
Bei einem E-Commerce-Chatbot könnten die Entwickler zum Beispiel eine Absicht wie "TrackOrder" definieren. Ihre Beispieläußerungen könnten sein: "Wo ist mein Paket?" "Verfolge meine Bestellung" und "Kannst du den Lieferstatus für mich überprüfen?".
Sie trainieren den KI-Agenten im Wesentlichen darauf, die Absicht des Nutzers zu erkennen, indem sie Beispiele geben. Und ja, sie müssen all diese Beispiele von Hand eingeben.
Glücklicherweise ist die Notwendigkeit dieser manuellen Zuordnung möglicher Äußerungen zu einer Absicht mit der Weiterentwicklung von LLMs nahezu verschwunden.
Aber viele KI-Plattformen verwenden sie immer noch. Und warum? Dazu kommen wir gleich.
4 Nachteile von Intent-Klassifikatoren
Nicht nur, dass es ein längerer Prozess ist - Absichtsklassifikatoren sind aus vielen Gründen schlecht. Hier sind ein paar:
1. Datenabhängigkeit
Intent-Klassifikatoren sind datenhungrig. Sie benötigen einen großen, repräsentativen Datensatz von Benutzerbeispielen für jede Absicht, um genau zu arbeiten. Ohne diesen können sie Eingaben nur schwer richtig klassifizieren.
Und der Aufbau dieser Datensätze ist ein hartes Stück Arbeit. Die Entwickler verbringen endlose Stunden mit dem Sammeln und Beschriften von Beispielen, was zweifelsohne keine gute Verwendung ihrer Zeit ist.
2. Begrenzte Skalierbarkeit
Intent-Klassifikatoren sind auch nicht für eine Skalierung ausgelegt. Das Hinzufügen neuer Intentionen bedeutet, dass mehr Daten gesammelt und das Modell neu trainiert werden muss, was schnell zu einem Engpass für die Entwicklung wird. Plus Außerdem kann die Wartung der Klassifikatoren Kopfzerbrechen bereiten, denn mit der Entwicklung des Sprachgebrauchs ändern sich auch die Äußerungen.
3. Schlechtes Sprachverständnis
Intent-Klassifikatoren fehlt es an echtem Sprachverständnis. Sie haben mit sprachlichen Variationen zu kämpfen, z. B.:
- Synonyme
- Paraphrasen
- Zweideutige Formulierungen
- Tippfehler
- Ungewohnte umgangssprachliche Ausdrücke
- Fragmentierte Eingaben
Außerdem verarbeiten sie in der Regel jede Äußerung isoliert, was bedeutet, dass sie nicht in der Lage sind, den Kontext während eines Gesprächs beizubehalten.
4. Überanpassung
Intent-Klassifikatoren neigen zur Überanpassung, d. h. sie merken sich Trainingsbeispiele, anstatt allgemeine Muster zu lernen.
Das bedeutet, dass sie bei exakten Phrasen, die sie gesehen haben, gut funktionieren, aber bei neuen oder unterschiedlichen Eingaben Schwierigkeiten haben. Das macht sie viel spröder, als es für einen professionellen Anwendungsfall angemessen wäre.
6 Gründe LLMs sind besser
LLMs haben diese Probleme fast vollständig gelöst. Sie verstehen Kontext und Nuancen, und die Entwickler müssen sie nicht erst mit Trainingsdaten füllen, um sie in Gang zu bringen. Ein auf LLM basierender Agent kann von dem Moment an, in dem er erstellt wird, mit der Konversation beginnen.
1. Zero-Shot-Learning-Fähigkeiten
LLMs brauchen keine Beispiele, um zu lernen. Aufgrund ihrer umfangreichen Vorbildung verstehen sie bereits Kontext, Nuancen und Absichten, ohne dass Entwickler sie mit konkreten Beispielen füttern müssen.
2. Eine Kleinigkeit namens Nuance
LLMs zeichnen sich dort aus, wo Absichtsklassifizierer versagen. Sie können Redewendungen, Sarkasmus und zweideutige Sprache mit Leichtigkeit interpretieren.
Ihr umfangreiches Training an verschiedenen Datensätzen gibt ihnen die Fähigkeit, die subtilen Nuancen der menschlichen Kommunikation zu erfassen, die Klassifikatoren oft übersehen.
3. Besserer Kontext
LLMs verlieren nicht den Überblick über das Gespräch. Sie erinnern sich an das, was zuvor gesagt wurde, wodurch die Interaktionen natürlicher und kohärenter werden.
Dieser Kontext hilft ihnen auch, Zweideutigkeiten zu klären. Selbst wenn der Input vage oder komplex ist, können sie ihn zusammensetzen, indem sie sich den weiteren Gesprächsverlauf ansehen.
4. Skalierbarkeit
LLMs sind 100 % besser bei der Skalierung. Dank ihres umfassenden Sprachverständnisses müssen sie nicht umgeschult werden, um neue Themen zu übernehmen.
Damit sind sie für nahezu jeden Anwendungsfall sofort einsatzbereit. Bei Multi-Agenten-Systemen ist es naheliegend, einen LLM anstelle eines Intent-Klassifikators zu verwenden.
5. Flexibilität
LLMs verlassen sich nicht auf starre Vorlagen. Ihre Flexibilität bedeutet, dass sich die Antworten natürlich, vielfältig und perfekt auf das Gespräch zugeschnitten anfühlen. Für die Nutzer sind sie eine viel bessere Erfahrung als spröde Absichtsklassifikatoren.
6. Weniger Trainingsdaten
LLMs benötigen keine aufgabenspezifisch markierten Daten, um ihre Arbeit zu erledigen. Ihre Leistungsfähigkeit beruht auf einem umfangreichen Vortraining mit verschiedenen Texten, so dass sie nicht auf mühsam kommentierte Datensätze angewiesen sind.
Bei Bedarf können Entwickler ein LLM jederzeit für ihr Projekt anpassen. Zum Beispiel kann LLMs mit minimalen Daten feinabgestimmt werden, so dass sie schnell an spezielle Anwendungsfälle oder Branchen angepasst werden können.
Warum verwenden andere Unternehmen Absichtsklassifikatoren?
Eine gute Frage. Wenn LLMs so viel besser in der Lage ist, Absichten zu klassifizieren, warum verwenden dann so viele Unternehmen immer noch Absichtsklassifizierer?
Die Antwort ist nicht schön, und sie ist auch nicht besonders diplomatisch: Es ist ein Problem der veralteten Technik.
Die meisten Unternehmen haben ein ureigenes Interesse an der Verwendung von Intent-Klassifikatoren. Sie haben eine riesige Installationsbasis aufgebaut, die auf diesem System läuft. Sie haben keinen Grund, ihre Nutzer von dem System, das sie aufgebaut haben, abzubringen.
Aber Botpress ist LLM-first
LLMs sind viel besser in der Lage, Absichten zu erkennen als altmodische Absichtsklassifikatoren. Deshalb haben wir von Grund auf neu geschrieben, um im Jahr 2020 LLM-first zu sein.
Wir wussten, dass bessere Technologien auf dem Markt waren, und anstatt uns an die alten Technologien zu klammern, investierten wir in den Sprung nach vorn.
Werden wir Absichtsklassifikatoren hinzufügen?
Nein. Wir kümmern uns zu sehr um die Erfahrungen unserer Bauherren und ihrer Nutzer.
Die Zukunft der Absichtsklassifizierung
Absichtsklassifizierer sind ein Werkzeug der Vergangenheit. Aus diesem Grund haben wir uns für LLMs entschieden.
Da LLMs immer besser wird, werden auch die KI-Agenten, die auf Botpress aufbauen, immer besser. Wir sind bereit und freuen uns darauf, die Messlatte für konversationelle KI weiter anzuheben.
Wenn Sie auf der Suche nach flexiblen KI-Agenten sind, die auf LLMs basieren, können Sie mit der Entwicklung auf Botpress beginnen. Es ist kostenlos.
Inhaltsübersicht
Bleiben Sie auf dem Laufenden mit den neuesten Informationen über KI-Agenten
Teilen Sie dies auf: