Eine der häufigsten Fragen, die uns potenzielle Kunden und Nutzer stellen, ist: „Wo sind eure Intent-Klassifizierer?“
Wir haben keine. Und ja, das ist beabsichtigt.
Botpress nutzt LLMs, um die Nutzerabsicht zu erkennen. Warum? Wenn du einen Chatbot erstellst oder einen KI-Agenten baust, ist das für Entwickler und Nutzer um ein Vielfaches besser.
Wir stehen zu dieser Entscheidung und ich möchte kurz erklären, warum wir keine Intent-Klassifizierer einsetzen.
Kurzfassung: Es ist einfacher zu bauen, genauer und leichter zu pflegen.
Die alten (Vor-LLM-)Zeiten
(Wenn du bereits weißt, was Intent-Klassifizierer sind und wie sie funktionieren, kannst du diesen Abschnitt überspringen.)
Ein Intent-Klassifizierer ist ein Werkzeug, das Nutzereingaben anhand von Trainingsdaten vordefinierten Absichten zuordnet.
Entwickler müssen unzählige Beispiele für jede mögliche Absicht sammeln und kennzeichnen, in der Hoffnung, dass das System die Nutzereingaben den Beispielen zuordnen kann.
Bei einem E-Commerce-Chatbot könnten Entwickler zum Beispiel eine Absicht wie „TrackOrder“ definieren. Beispielhafte Äußerungen wären: „Wo ist mein Paket?“, „Meine Bestellung verfolgen“ oder „Kannst du den Lieferstatus prüfen?“
Im Grunde bringen sie dem KI-Agenten bei, die Absicht des Nutzers anhand von Beispielen zu erkennen. Und ja, all diese Beispiele müssen manuell eingegeben werden.
Zum Glück ist dieses manuelle Zuordnen von möglichen Äußerungen zu einer Absicht mit dem Fortschritt der LLMs fast vollständig überflüssig geworden.
Dennoch setzen viele Conversational-AI-Plattformen weiterhin darauf. Warum? Dazu kommen wir gleich.
4 Nachteile von Intent-Klassifizierern
Es ist nicht nur ein aufwendiger Prozess – Intent-Klassifizierer haben aus vielen Gründen Nachteile. Hier einige davon:
1. Datenabhängigkeit
Intent-Klassifizierer sind extrem datenhungrig. Sie benötigen für jede Absicht eine große, repräsentative Menge an Nutzerbeispielen, um zuverlässig zu funktionieren. Fehlt diese, fällt die Klassifizierung schwer.
Und das Erstellen solcher Datensätze ist mühsam. Entwickler verbringen unzählige Stunden mit dem Sammeln und Kennzeichnen von Beispielen – definitiv keine sinnvolle Nutzung ihrer Zeit.
2. Eingeschränkte Skalierbarkeit
Intent-Klassifizierer sind nicht für Skalierung gemacht. Neue Absichten erfordern mehr Daten und ein erneutes Training des Modells – das wird schnell zum Entwicklungsengpass. Außerdem sind sie wartungsintensiv, denn Sprache entwickelt sich ständig weiter.
3. Schwaches Sprachverständnis
Intent-Klassifizierer verstehen Sprache nicht wirklich. Sie tun sich schwer mit Variationen wie:
- Synonyme
- Umformulierungen
- Mehrdeutige Formulierungen
- Tippfehler
- Unbekannte umgangssprachliche Ausdrücke
- Unvollständige Eingaben
Meistens verarbeiten sie jede Äußerung isoliert und können so den Gesprächskontext nicht aufrechterhalten.
4. Overfitting
Intent-Klassifizierer neigen zum Overfitting – sie merken sich Trainingsbeispiele, statt allgemeine Muster zu lernen.
Das bedeutet, sie funktionieren gut bei bekannten Phrasen, haben aber Probleme mit neuen oder abgewandelten Eingaben. Für professionelle Anwendungen sind sie dadurch viel zu fehleranfällig.
6 Gründe, warum LLMs besser sind
LLMs haben diese Probleme praktisch gelöst. Sie verstehen Kontext und Nuancen, und Entwickler müssen sie nicht erst mit Trainingsdaten füttern. Ein LLM-basierter Agent kann direkt nach der Erstellung loslegen.
1. Zero-shot-Lernfähigkeiten
LLMs brauchen keine Beispiele, um zu lernen. Durch ihr umfangreiches Vortraining verstehen sie Kontext, Nuancen und Absichten, ohne dass Entwickler ihnen spezielle Beispiele geben müssen.
2. Eine kleine Sache namens Nuance
LLMs sind dort stark, wo Intent-Klassifizierer versagen. Sie können Redewendungen, Sarkasmus und mehrdeutige Sprache problemlos interpretieren.
Ihr Training mit vielfältigen Datensätzen ermöglicht es ihnen, die feinen Nuancen menschlicher Kommunikation zu erfassen, die Intent-Klassifizierer oft übersehen.
3. Besserer Kontext
LLMs verlieren den Gesprächskontext nicht aus den Augen. Sie merken sich, was zuvor gesagt wurde, wodurch Gespräche natürlicher und zusammenhängender wirken.
Dieser Kontext hilft auch, Unklarheiten zu beseitigen. Selbst bei vagen oder komplexen Eingaben können sie durch den Gesamtverlauf des Gesprächs die Bedeutung erschließen.
4. Skalierbarkeit
LLMs sind in Sachen Skalierbarkeit unschlagbar. Sie müssen nicht neu trainiert werden, um neue Themen zu behandeln – dank ihres umfassenden Sprachverständnisses.
Dadurch sind sie sofort für nahezu jeden Anwendungsfall einsatzbereit. Für Multi-Agenten-Systeme ist der Einsatz von LLMs ein klarer Vorteil gegenüber Intent-Klassifizierern.
5. Flexibilität
LLMs sind nicht auf starre Vorlagen angewiesen. Ihre Flexibilität sorgt für natürliche, abwechslungsreiche und passgenaue Antworten. Für Nutzer ist das ein deutlich besseres Erlebnis als mit starren Intent-Klassifizierern.
6. Weniger Trainingsdaten
LLMs benötigen keine speziell gekennzeichneten Daten, um Aufgaben zu erfüllen. Ihre Stärke liegt im umfangreichen Vortraining mit vielfältigen Texten – sie sind also nicht auf mühsam annotierte Datensätze angewiesen.
Falls nötig, können Entwickler ein LLM individuell anpassen. LLMs lassen sich mit wenig Daten feinjustieren und so schnell auf spezielle Anwendungsfälle oder Branchen abstimmen.
Warum verwenden andere Unternehmen Intent-Klassifizierer?
Gute Frage. Wenn LLMs so viel besser darin sind, Intents zu klassifizieren, warum verwenden dann noch so viele Unternehmen Intent-Klassifizierer?
Die Antwort ist nicht schön und auch nicht besonders diplomatisch: Es liegt an veralteter Technologie.
Viele Unternehmen haben ein großes Interesse daran, Intent-Klassifizierer weiterzuverwenden. Sie haben riesige Installationsbasen darauf aufgebaut und keinen Grund, ihre Nutzer von ihrem bestehenden System abzubringen.
Aber Botpress setzt auf LLMs
LLMs sind bei der Erkennung von Absichten alten Intent-Klassifizierern weit überlegen. Deshalb haben wir 2020 alles neu entwickelt und Botpress konsequent auf LLMs ausgerichtet.
Wir wussten, dass bessere Technologie verfügbar ist, und statt an alten Lösungen festzuhalten, haben wir den Schritt nach vorn gewagt.
Werden wir Intent-Klassifizierer hinzufügen?
Nein. Uns ist das Erlebnis für Entwickler und Nutzer zu wichtig.
Die Zukunft der Intent-Klassifizierung
Intent-Klassifizierer sind ein Relikt der Vergangenheit. Deshalb setzen wir voll auf LLMs.
Mit der Weiterentwicklung der LLMs werden auch die KI-Agenten auf Botpress immer besser. Wir sind bereit und motiviert, das Potenzial von Conversational AI weiter auszubauen.
Wenn du flexible KI-Agenten mit LLMs entwickeln möchtest, kannst du direkt mit Botpress starten. Es ist kostenlos.







