Wenn Sie einen GPT Chatbot wie ChatGPT verwendet haben, ist Ihnen wahrscheinlich die unterschiedliche Qualität der Ausgabe aufgefallen.
Manchmal spuckt sie genau das aus, was man braucht. Ein anderes Mal hat man den Verdacht, dass die "Intelligenz" der KI eine Farce ist.
Sie können Ihr ChatGPT Spiel verbessern, indem Sie die Art der Eingabeaufforderung verbessern. Die Gedankenkette regt LLM dazu an, eine Aufgabe Schritt für Schritt zu durchdenken, bevor man eine Antwort gibt.
Neuere KI-Modelle und -Funktionen beginnen damit, die Gedankenkette direkt einzubauen, so dass ihre Modelle das Problem automatisch und ohne zusätzliche Aufforderung durchdenken.
Was ist Gedankenkettenführung?
Chain-of-Thought-Prompting ist eine Prompt-Engineering-Technik in der KI, die Modelle anweist, komplexe Aufgaben aufzuschlüsseln und jeden Schritt zu durchdenken, bevor eine Antwort gegeben wird.
Sie werden vielleicht auch den Begriff "chain-of-thought reasoning" hören. Damit ist der schrittweise Prozess gemeint, den das Modell durchläuft, um die anstehende Aufgabe zu lösen.
Die OpenAI o1 Modelle benötigen keine Gedankenkettenführung, da sie bereits über eine eingebaute Gedankenkettenführung verfügen. Aber Sie können die Gedankenkettensteuerung für jeden LLM-fähigen Chatbot verwenden.
Wie funktioniert das Denken in der Gedankenkette?
Beim Chain-of-Thought-Denken wird ein Problem in kleinere, logische Schritte zerlegt, die der KI-Chatbot nacheinander lösen muss.
Zunächst identifiziert die KI die wichtigsten Teile des Problems. Dann bearbeitet sie jeden Teil der Reihe nach und überlegt, wie ein Schritt zum nächsten führt. Jeder Schritt baut auf dem vorhergehenden auf, so dass die KI methodisch zu einer logischen Schlussfolgerung gelangen kann.
Beispiele für Gedankenkettenanregungen
Die berühmte "Erdbeere" als Aufforderung
ChatGPT und andere LLMs haben gut dokumentierte Schwächen. Eine davon ist ihre Unfähigkeit, korrekt zu erkennen, wie viele "R" in dem Wort "Erdbeere" enthalten sind (wahrscheinlich die berühmte Einschränkung hinter dem Codenamen der o1-Modelle: Strawberry).
ChatGPT-4o verwendet keine Gedankenkette. Stattdessen bezieht es sich auf seine Trainingsdaten und generiert eine Antwort, die darauf basiert, wie wahrscheinlich es ist, dass jedes Wort auf das vorherige folgt. Das klingt zwar meistens korrekt, aber es wird nur erzeugt, um die menschliche Sprache zu imitieren - nicht um zu denken oder zu forschen.
Wenn Sie ChatGPT-4o die berühmte Erdbeerfrage stellen, ist es nicht in der Lage, die richtige Antwort zu geben:
Sie können jedoch eine Technik der Gedankenkette verwenden, um dem Chatbot von LLM zu helfen, die richtige Antwort zu finden:
Die neueste Version von ChatGPT, die auf OpenAI o1-preview basiert, ist die erste große LLM , die ohne zusätzliche Eingabeaufforderung eine Gedankenkette nutzt.
Es knackt die Antwort auf Anhieb, weil es angewiesen wurde, automatisch denselben Prozess zu befolgen wie bei der zweiten ChatGPT-4o Aufforderung oben. Der einzige Unterschied besteht darin, dass es diesen Prozess ohne zusätzliche Aufforderung durchführt.
Mathematik
Wenn Sie einer älteren Version von ChatGPT eine Mathefrage aus einem Grundschullehrbuch stellen würden, würde sie nicht immer richtig liegen.
Mehrstufige mathematische Probleme erfordern logisches Denken, das in früheren LLMs nicht vorhanden war. Man konnte zwar jeden Schritt des Problems aufschlüsseln, aber wenn man die richtigen Schritte nicht kannte, konnte LLM nicht helfen.
ChatGPT-4o ist in der Lage, die Antwort auf die Frage zu finden, indem er die einzelnen Schritte des Problems aufschlüsselt:
AI-Agenten verbunden mit Hubspot
Als Beispiel für eine reale Anwendung nehmen wir einen KI-Agenten auf LLM, der in Hubspot integriert wurde. Ein Vertriebsteam nutzt diesen KI-Agenten, um neue Leads zu verarbeiten, die über verschiedene Kanäle gesammelt werden.
Szenario
EinVertriebsmitarbeiter sendet einen neuen Lead an den KI-Agenten und bittet ihn, ihn in Hubspot zu registrieren und eine E-Mail zum ersten Kontaktpunkt zu senden, aber nicht auszufüllen, wenn der Lead bei einem Unternehmen arbeitet, das bereits ein Interessent ist.
LLM ohne gedankliche Verkettung von Argumenten
Der LLM-gestützte KI-Agent registriert den Lead und versendet die E-Mail, ohne zu prüfen, ob das Unternehmen bereits ein Interessent ist.
LLM mit gedanklicher Verknüpfung
Der LLM-gestützte KI-Agent prüft, ob das Unternehmen bereits ein Interessent ist, bevor er aktiv wird. Ist dies der Fall, überspringt er die Registrierung und das Versenden der E-Mail. Ist dies nicht der Fall, registriert er den Lead und versendet die E-Mail, wobei er die Anweisungen des Verkäufers genau befolgt.
Wann sollte ich die Gedankenkettenführung einsetzen?
Die Gedankenkette eignet sich am besten für Szenarien, die ein schrittweises Denken erfordern.
In Frage kommen vor allem Aufgaben, die logische Schlussfolgerungen, mathematische Probleme, verfahrenstechnische Aufgaben oder jede Situation, die mehrstufige Antworten erfordert, beinhalten.
Aber halt: Argumente klingen gut - warum sollte ich sie nicht ständig verwenden?
Gute Frage. Nicht alle Fragen erfordern eine Argumentation. Zum Beispiel:
- Einfache Sachfragen wie "Was ist die Hauptstadt von Kanada?
- Einzelschrittaufgaben, wie z. B. "Wie viel ist 145 + 37?
- Aufgaben zur Generierung von Inhalten, z. B. "Schreiben Sie eine höfliche 3-Satz-E-Mail, in der Sie meinen Kollegen fragen, ob er mit seinem Projekt schon fertig ist".
Prompting ändern vs. Gedankenketten-Prompting
Prompt Chaining und Chain-of-Thought Prompting sind unterschiedliche Prompting-Strategien zur Verbesserung der generativen KI-Leistung, auch wenn sie dem Namen nach ähnlich sind.
Gedankenkettenanregung
Beim Chain-of-Thought Prompting leitet der Benutzer die KI an, die Gründe für ihre Antwort in einer einzigen Antwort zu erläutern. Dadurch wird die KI aufgefordert, jeden Schritt des Problemlösungsprozesses zu durchlaufen, aber dies geschieht in einer einzigen Eingabeaufforderung und Antwort.
So kann zum Beispiel eine Aufforderung zu einer Gedankenkette in einer einzigen Nachricht ausgeführt werden:
"Ein HR-Team muss 5 Leistungsbewertungen von Mitarbeitern überprüfen. Jede dauert 30 Minuten, und sie brauchen 15 Minuten zur Vorbereitung. Für die Beurteilungen der älteren Mitarbeiter werden jeweils 10 Minuten zusätzlich benötigt. Wie lange dauert es, 5 Beurteilungen für ältere und 25 für jüngere Mitarbeiter zu erstellen? Erläutern Sie Ihre Überlegungen Schritt für Schritt."
Promptverkettung
Beim Prompt Chaining wird die Aufgabe in einzelne Schritte mit mehreren Prompts unterteilt, die jeweils auf dem vorherigen Ergebnis aufbauen. Dies hilft dabei, die KI zu strukturieren und durch eine komplexe Aufgabe zu leiten, die wahrscheinlich auch logisches Denken erfordert.
Die erste Aufforderung könnte wie folgt aussehen:
Aufforderung 1: Nennen Sie die wichtigsten Herausforderungen, denen sich ein Unternehmen bei der Umstellung auf Telearbeit stellen könnte.
Ausgabe:
- Lücken in der Kommunikation
- Aufrechterhaltung der Produktivität
- Technologische Infrastruktur
- Engagement der Mitarbeiter
Die nächsten Aufforderungen könnten diese Konzepte weiter vertiefen. Zum Beispiel:
Aufforderung 2: Bitte sagen Sie mir, wie ein Unternehmen Lösungen für Kommunikationslücken bei der Umstellung auf Fernarbeit finden kann.
Nach der nächsten Ausgaberunde kann das nächste Glied der Kette sein:
Aufforderung 3: Welchen allgemeinen Herausforderungen sehen sich Unternehmen gegenüber, wenn sie diese Lösungen einführen?
Die beiden sind sich zwar ähnlich, verfolgen aber unterschiedliche Ansätze, um aus den generativen KI-Tools die detailliertesten und relevantesten Inhalte zu extrahieren.
Gedankenkettenabfrage zu Botpress
Botpress Die Benutzer sind bereits mit einer Funktion vertraut, bei der eine Gedankenkette zum Einsatz kommt.
Der Autonomous Node wurde im Juli 2024 auf Botpress vorgestellt, einer Plattform für die Entwicklung von KI-Agenten. Der Autonomous Node ist in der Lage, mehrstufige Arbeitsabläufe zu automatisieren und eigenständig Entscheidungen zu treffen.
Ein autonomer Knoten kann erstellt und mit einer einfachen Textzeile aufgefordert werden, z. B. "Ihr Ziel ist es, qualifizierte Leads zu generieren. Erstellen Sie Leads in Salesforce, wenn ein Benutzer eine Kaufabsicht angibt.'
Der KI-Agent, den Sie mithilfe dieses autonomen Knotens erstellen, wird eine Vielzahl von Aktionen ausführen, um sein Ziel zu erreichen, unabhängig von den von Menschen gestalteten Arbeitsabläufen. Er kann auch je nach Bedarf zwischen verschiedenen LLMs wechseln und dabei entscheiden, ob er der Geschwindigkeit oder der Leistung den Vorzug gibt.
Bauen Sie Ihren eigenen autonomen Agenten
Botpress ist die einzige KI-Agentenplattform, mit der Sie wirklich autonome Agenten erstellen können.
Das offene und flexible Botpress Studio ermöglicht unzählige Anwendungsfälle in verschiedenen Branchen, von der Personalabteilung bis zur Lead-Generierung. Unsere vorgefertigte Integrationsbibliothek und die umfangreichen Tutorials ermöglichen es den Nutzern, KI-Agenten ganz einfach von Grund auf zu entwickeln.
Beginnen Sie noch heute mit dem Bau. Es ist kostenlos.
Inhaltsübersicht
Bleiben Sie auf dem Laufenden mit den neuesten Informationen über KI-Agenten
Teilen Sie dies auf: