- KI-Halluzinationen treten auf, wenn Modelle selbstbewusst falsche oder erfundene Informationen produzieren, die durch schlechte Datenqualität, Überanpassung oder zweideutige Eingabeaufforderungen verursacht werden.
- Halluzinationen reichen von sachlichen Fehlern bis hin zu gefälschten Inhalten und können das Vertrauen schädigen, Unternehmen Milliarden kosten oder schädliche Fehlinformationen verbreiten.
- Zu den wichtigsten Präventionsmaßnahmen gehören die Auswahl zuverlässiger KI-Plattformen, die Hinzufügung einer abruferweiterten Generierung (RAG), die Erstellung präziser Eingabeaufforderungen und die Einbeziehung menschlicher Aufsicht.
Glauben Sie, Joaquin Phoenix hätte sich in Scarlett Johansson verliebt, wenn er sie gefragt hätte, wie viele Rsin einer Erdbeere sind? Wenn Sie auf LinkedIn sind, wissen Sie, dass die Antwort 3 ist. (Oder, Sie wissen schon, wenn Sie lesen können.)

Aber für KI-Chatbots ist das nicht immer so einfach.
Wahrscheinlich haben Sie schon gesehen, wie sich die Leute über die Absurdität von KI-Halluzinationen lustig gemacht haben. Und um fair zu sein, ein KI-Modell mit scheinbar unendlichem Wissen, menschenähnlichen Denkfähigkeiten und blitzschneller Aufgabenausführung, das an einem Matheproblem auf Kindergartenniveau scheitert, ist, nun ja, irgendwie absurd.
Doch hinter dem Spaß und den Spielen verbirgt sich eine ernstere - und potenziell heimtückische - Realität.
In diesem Artikel spreche ich über KI-Halluzinationen - was sie sind, was sie verursacht, warum sie wichtig sind und welche Maßnahmen Sie ergreifen können, um sie zu verhindern.
Was ist eine AI-Halluzination?
Von einer KI-Halluzination spricht man, wenn ein KI-Modell Informationen präsentiert, die ungenau, irreführend oder völlig erfunden sind. Diese falschen Informationen können plausibel erscheinen und in vielen Fällen unentdeckt bleiben.
Aufgrund der weiten Verbreitung von LLMswerden Halluzinationen am häufigsten im Zusammenhang mit generativen Textmodellen genannt. In Wirklichkeit stellen sie ein Risiko für jede Anwendung der generativen KI dar.
Was verursacht Halluzinationen bei AI?
KI-Halluzinationen entstehen, wenn Modelle falsche Muster lernen.

Im Zusammenhang mit KI beziehen sich Muster auf die Fähigkeit, einzelne Trainingsbeispiele zur Verallgemeinerung über ungesehene Daten zu verwenden. Dies kann eine Reihe von Wörtern sein, die die Fortsetzung eines Textes bilden, oder die Verteilung von Bildpixeln, die einem Hund entsprechen.
Im Fall der LLM hat das Modell eine Reihe von Wörtern als wahrscheinlichste Antwort auf die Eingabeaufforderung des Benutzers angesehen, obwohl sie falsch ist.
Dafür könnte es einen oder mehrere der folgenden Gründe geben:
Qualitativ schlechte Trainingsdaten

ChatGPT und ähnliche LLMs werden mit einer Vielzahl von Daten trainiert. Diese Daten, so reichlich sie auch sein mögen, sind aus folgenden Gründen unvollkommen:
- Lücken bei bestimmten Themen
- Widerspiegelung von Vorurteilen in der realen Welt
- Bewusste Fehlinformation oder nicht gekennzeichnete Satire
- Verzerrt, wie bei unausgewogenen oder "schiefen" Daten.
Stellen Sie sich ein Szenario vor, in dem das Modell mit Informationen über alle griechischen Götter außer einem trainiert wurde.
Seine Fähigkeit, statistische Verbindungen zwischen Themen zu ziehen, die der griechischen Mythologie ähneln - Liebe, Ethik, Verrat -, könnte dazu führen, dass es eine erfundene Mythologie zusammenstellt, die es aufgrund seines statistischen Modells für "wahrscheinlich" hält.
Dies zeigt sich auch bei der Bilderzeugung, wo die meisten Aufforderungen für ein weibliches Subjekt hyper-sexualisierte Bilder erzeugen. Die Vorliebe für eine bestimmte Art der Darstellung bestimmt die Art der Bilder, die erzeugt werden.
Die Schreibweise von Erdbeere ist in den Trainingsdaten wahrscheinlich im Zusammenhang mit einer Diskussion über das doppelte R aufgetaucht, ein notorischer Schmerzpunkt von Nicht-Muttersprachlern des Englischen. In diesem Fall sind wahrscheinlich die Zahl 2 oder das Wort "double" im Zusammenhang mit der Schreibweise des Wortes aufgetaucht.
Andererseits ist es unwahrscheinlich, dass in den Daten erwähnt wird, dass es 3 Rshat.
Die Ausgabe ist absurd, denn die Aufforderung lautet: Unter welchen Umständen würde jemand ein Wort schreiben und dann nachfragen, wie es geschrieben wird?
Modellarchitektur und Generierungsmethode
Die Modelle bestehen aus atemberaubend komplexen neuronalen Netzwerkarchitekturen. Geringfügige Abweichungen wirken sich darauf aus, wie die Modelle mit ihren Trainingsdaten und Eingabeaufforderungen interagieren. Die Fähigkeit eines Modells, Halluzinationen abzuschwächen, wird durch rigorose Forschung und Tests schrittweise verbessert.
Hinzu kommt, wie die Generierung umgesetzt wird. Wort für Wort (eigentlich wortweise) sagen die Modelle das wahrscheinlichste nachfolgende Wort voraus. Also:
"Der schnelle braune Fuchs springt über den faulen ___."

Das wahrscheinlichste nächste Wort wird "Hund" sein. Aber auch andere Wörter sind möglich. Und eine Generierung, die nur auf der Bestimmung des wahrscheinlichsten nächsten Wortes basiert, führt zu uninteressanten, vorhersehbaren Ergebnissen.
Das bedeutet, dass kreative Sampling-Methoden eingesetzt werden müssen, um die Antworten spannend und dennoch kohärent zu halten. Dabei bleibt die Sachlichkeit manchmal auf der Strecke.
Überanpassung

Eine Überanpassung liegt vor, wenn das Modell so genau auf die Vorhersage der Daten trainiert wird, dass es nicht auf neue Eingaben verallgemeinert werden kann.
Also, wenn ich ein Model wäre (wie meine Mutter sagt, dass ich das sein sollte), dann wäre ich ein richtig trainiertes Model, wenn ich Hunde als solche erkennen würde:
Er ist pelzig, hat Hängeohren, ist verspielt und hat eine kleine braune Knopfnase.
Aber ich wäre überfordert, wenn ich sie nur als solche erkennen würde:
Er hat einen braunen Punkt unter dem Kinn, hört auf den Namen "Frank" und hat mein gutes Paar Nikes total zerkaut.
Im Rahmen eines LLMsieht es in der Regel so aus, dass es Informationen aus den Trainingsdaten wiederkäut, anstatt sich zurückzuziehen, wenn es die Antwort nicht kennt.
Angenommen, Sie fragen einen Chatbot nach den Rückgaberichtlinien eines Unternehmens. Wenn er sie nicht kennt, sollte er sie Ihnen mitteilen. Wenn er allerdings überfordert ist, könnte er die Richtlinien eines ähnlichen Unternehmens nennen.
Schlechtes Prompting
Die Unternehmen stellen Zertifikate für Prompt-Engineering aus, wohl wissend, dass KI nur so gut ist wie ihr Input.
Eine gut formulierte Aufforderung ist präzise formuliert, vermeidet Nischenterminologie und liefert den nötigen Kontext.
Der Grund dafür ist, dass Halluzinationen am Rande vieler unwahrscheinlicher Ergebnisse auftreten.
Angenommen, Sie fragen: "Was ist die Handlung von Shark Girl?" Nun, ein Mensch denkt "hm, Hai-Mädchen" .In der Welt der Statistik gibt es folgende Möglichkeiten:
- The Adventures of Sharkboy and Lavagirl - ein ziemlich beliebter Kinderfilm aus dem Jahr 2005 mit einem ähnlichen Namen.
- Ein Horror-/Thriller aus dem Jahr 2024 namens Shark Girl - weniger populär, aber aktueller und genauer.
- Ein gleichnamiges Kinderbuch von Anfang dieses Jahres, das das Modell möglicherweise indiziert hat.
Keines dieser Beispiele ist die naheliegendste Wahl, was zu einer "flacheren" Wahrscheinlichkeitsverteilung mit weniger Bindung an ein Thema oder eine Erzählung führt. Eine effektivere Aufforderung würde einen Kontext liefern, d. h. sie würde deutlich machen, auf welches Beispiel sich der Nutzer bezieht.
Diese Suppe aus Zweideutigkeit und tangentialer Relevanz kann zu einer Antwort führen, die genau das ist: eine erfundene, generische Handlung für eine Geschichte über Haie.
Um die Wahrscheinlichkeit von Halluzinationen zu verringern, muss man die Unsicherheit verringern.
Arten von AI-Halluzinationen
Bis jetzt habe ich nur in groben Zügen über Halluzinationen gesprochen. In Wirklichkeit berühren sie fast alle Aspekte der KI. Um der Klarheit willen ist es jedoch am besten, die verschiedenen Kategorien zu betrachten.
Sachliche Irrtümer
Hier kommt das Erdbeerbeispiel ins Spiel. Es gibt Fehler in Details von ansonsten sachlichen Aussagen. Das kann das Jahr sein, in dem ein bestimmtes Ereignis stattgefunden hat, die Hauptstadt eines Landes oder die Zahlen einer Statistik.

Winzige Details in einer ansonsten guten Antwort können besonders heimtückisch sein, vor allem, wenn es sich um Details handelt, an die sich Menschen oft nicht erinnern, wie z. B. genaue Zahlen.
Vorgefertigter Inhalt
Im Jahr 2023 behauptete Google Bard fälschlicherweise, dass mit dem James-Webb-Teleskop die ersten Bilder von Exoplaneten aufgenommen wurden. Dabei handelte es sich nicht um technische Ungenauigkeiten - es war schlichtweg falsch.
Das können kühne Behauptungen wie oben sein, aber häufiger sind es URLs, die nirgendwo hinführen, oder erfundene Code-Bibliotheken und Funktionen.
Es sei darauf hingewiesen, dass die Grenze zwischen sachlichen Fehlern und erfundenen Inhalten nicht immer eindeutig ist.
Nehmen wir an, wir diskutieren über einen Forscher. Wenn wir eine Arbeit von ihm zitieren, aber das Jahr falsch angeben, ist das ein sachlicher Fehler. Und wenn wir den Namen falsch zitieren, was dann? Was ist mit dem Namen und dem Jahr?
Fehlinformationen
Dies kann unter eine der beiden vorangegangenen Kategorien fallen, bezieht sich aber auf falsche Informationen, bei denen die Quelle transparenter ist.
Die KI von Google , die bekanntlich Klebstoffpizza und das Essen von Steinen empfiehlt, ist ein großartiges Beispiel dafür; das Ausgangsmaterial ist offensichtlich satirisch und im Allgemeinen harmlos - Reddit-Kommentare, die von The Onion geschrieben wurden, aber das Training des Modells hatte das nicht berücksichtigt.

Risiken von AI-Halluzinationen
1. Vertrauensverlust
Wir schätzen die Freiheit, unsere Aufgaben an KI abzugeben, aber nicht auf Kosten unseres Vertrauens.
Das jüngste Missgeschick von Cursor AI - ein Kundendienst-Bot, der eine restriktive Richtlinie erfindet - hat viele Nutzer dazu veranlasst, ihre Abonnements zu kündigen, da sie die Zuverlässigkeit des Unternehmens in Frage stellen.
2. Kosten
KI hat in vielen Unternehmen eine Vorreiterrolle eingenommen. Das ist zwar gut so, aber ein Fehler kann teuer werden.
Die James-Webb-Halluzination von Google führte innerhalb weniger Stunden zu einem Rückgang der Alphabet-Aktien um 100 Milliarden Dollar. Und das ist noch vor den Kosten für das erneute Training der Modelle.
3. Schädliche Fehlinformationen
Wir lachen über die Absurdität von Klebepizza, aber wie sieht es mit irreführenden medizinischen Dosierungen aus?
Ich bin der Erste, der das Kleingedruckte mit den Warnhinweisen gegen eine schnelle Antwort von AI eintauscht. Aber was ist, wenn sie falsch ist? Mit ziemlicher Sicherheit wird sie nicht alle möglichen medizinischen Bedingungen berücksichtigen.
3. Sicherheit und Malware
Wie bereits erwähnt, erfindet die KI häufig die Namen von Codebibliotheken. Wenn Sie versuchen, eine nicht existierende Bibliothek zu installieren, passiert nichts.
Stellen Sie sich nun vor, ein Hacker bettet Schadsoftware in den Code ein und lädt ihn unter dem Namen einer allgemein bekannten Bibliothek hoch. Sie installieren die Bibliothek, und 💨poof💨: Sie sind gehackt.
Das gibt es, und man nennt es Slopsquatting.
Abgesehen von der groben Bezeichnung schadet es nie, kritisch zu prüfen, was man installiert, und jeden exotisch klingenden Bibliotheksnamen doppelt zu überprüfen.
Schritte zur Verhinderung von AI-Halluzinationen
Wenn Sie die Modelle nicht trainieren, können Sie auf der Daten- und Architekturseite nur wenig tun.
Die gute Nachricht ist, dass es immer noch Vorsichtsmaßnahmen gibt, die Sie ergreifen können, und die den Unterschied ausmachen können, wenn es darum geht, halluzinationsfreie AI zu versenden.
Wählen Sie ein Modell und eine Plattform, der Sie vertrauen können
Sie sind nicht auf sich allein gestellt. KI-Unternehmen haben ein großes Interesse daran, das Vertrauen zu erhalten, und das bedeutet, dass sie keine Halluzinationen haben.
Je nachdem, was Sie mit KI machen, haben Sie fast immer mindestens ein paar Optionen, und eine gute KI-Plattform macht diese zugänglich. Diese Plattformen sollten transparent darüber sein, wie sie Halluzinationen abmildern.
RAG (Retrieval-Augmented Generation) verwenden

Lassen Sie das Modell nicht auf sein eigenes Wissen vertrauen. Wenn Sie Ihr Modell mit RAG ausstatten, wird deutlich, dass Informationen verfügbar sind und wo man sie finden kann.
Es ist am besten, KI auf einer Plattform laufen zu lassen, die einfache Anweisungen für die Implementierung effektiver RAG enthält.
Gründliche Anweisungen hinzufügen
Wenn Sie es einmal gehört haben, haben Sie es schon tausendmal gehört: Müll rein, Müll raus.
"Eine Antwort auf die Frage des Nutzers ist keine Erfolgsgarantie. Allerdings, etwas wie:
# Anweisungen
Bitte beziehen Sie sich ausschließlich auf das FAQ-Dokument. Wenn die Antwort dort nicht erscheint:
* Teilen Sie dem Benutzer höflich mit, dass die Information nicht verfügbar ist.
* Bieten Sie an, das Gespräch an einen menschlichen Agenten weiterzuleiten.
wird Ihren Agenten in Schach halten. Eine klare Aufforderung mit festen Leitplanken ist die beste Verteidigung gegen einen abtrünnigen Mitarbeiter.
Menschliche Verifizierung
Zum Thema Eskalation: Eine Person, die bereit ist, die Unzulänglichkeiten der KI zu prüfen, zu bewerten und zu beseitigen.
Durch die Möglichkeit, Gespräche zu eskalieren oder rückwirkend zu überprüfen, können Sie herausfinden, was funktioniert und was von Halluzinationen bedroht ist. Human-in-the-Loop - die menschlicheAufsicht über KI-gesteuerte Workflows - ist hier ein Muss.
Nutzen Sie noch heute halluzinationsfreies AI
Die Ungewissheit über die Zuverlässigkeit von KI könnte Unternehmen von der digitalen Transformation abhalten.
Die RAG-Funktionen von Botpress, die Integration von Menschen in die Schleife und die umfassenden Sicherheitssysteme machen KI sicher und zuverlässig. Ihr Agent arbeitet für Sie, nicht andersherum.
Beginnen Sienoch heute mit demBau. Es ist kostenlos.