Mit dem Botpress Autonomous Node können Sie funktionale KI-Agenten erstellen - keine Chatbots, sondern autonome Agenten, die Entscheidungen auf der Grundlage ihres verfügbaren Kontexts treffen.
Durch die Bereitstellung klarer Anweisungen und die Integration von Werkzeugen können Bot-Ersteller Autonomous Nodes verwenden, um das Verhalten eines Chatbots zu skizzieren.
Der Node ist so konzipiert, dass er sowohl die Entscheidungsfindung als auch die Ausführung übernimmt, indem er die Eingaben der Benutzer versteht, mit den richtigen Daten reagiert und seine Tools nutzt.
Wenn Sie an der Verwendung eines autonomen Knotens interessiert sind, sind Sie hier genau richtig. In diesem Artikel erkläre ich Ihnen die Grundlagen für die Nutzung der Agentenfunktion unserer Plattform.
Hauptmerkmale des autonomen Knotens
1. LLM Entscheidungsorientiert
Ein Autonomer Knoten nutzt die Fähigkeiten eines LLM , um intelligente Entscheidungen zu treffen.
2. Autonomes Verhalten
Ein autonomer Knoten kann auf der Grundlage von Anweisungen und Benutzereingaben Aktionen ohne manuelles Eingreifen ausführen.
3. Werkzeuge
Der Autonome Knoten versteht und nutzt spezifische Tools - er kann zum Beispiel Wissensdatenbanken abfragen, Websuchen durchführen und Workflow-Übergänge ausführen.
4. Anpassung
Wenn Sie einen autonomen Knoten mit einer geeigneten Persona und detaillierten Anweisungen konfigurieren, können Sie sicherstellen, dass er sich bei Gesprächen markengerecht und innerhalb des Rahmens verhält.
5. Schreiben und Ausführen von Code
Der autonome Knoten kann benutzerdefinierten Code erzeugen und ausführen, um Aufgaben zu erfüllen.
6. Selbstkorrektur
Wenn der autonome Knoten einen falschen Weg einschlägt, ist er in der Lage, sich selbst zu korrigieren und Fehler zu beheben.
Konfiguration Einstellungen
Jeder Autonomous Node muss sorgfältig konfiguriert werden, um sein Verhalten an die geschäftlichen Anforderungen anzupassen.
Der wichtigste Teil bei der Einrichtung eines autonomen Knotens ist das Schreiben der richtigen Eingabeaufforderung und Anweisungen. Die Eingabeaufforderung hilft dem Agenten, seine Persona zu verstehen und leitet die Entscheidungsfindung.
Anleitung Box
Geben Sie im Feld "Anweisungen" klare Leitlinien vor. Je genauer die Anweisungen sind, desto besser ist die Entscheidungsfindung des Agenten.
Beispiel: "Sie sind ein hilfsbereiter Assistent, der Fragen immer mit dem Werkzeug 'knowledgeAgent.knowledgequery' beantwortet. Wenn der Benutzer 'suchen' sagt, verwenden Sie das Werkzeug 'browser.webSearch'."
Konversation zulassen
Die Option Konversation zulassen ermöglicht es dem autonomen Knoten, direkt mit Benutzern zu kommunizieren. Wenn es deaktiviert ist, verarbeitet der Knoten nur Befehle und führt seine interne Logik aus, ohne Nachrichten an Benutzer zu senden.
Verstehen der Tools
Basierend auf den Anweisungen, die Sie ihm geben, ist ein Autonomer Knoten mit mehreren Tools ausgestattet, die er aufrufen kann.
Jedes Werkzeug führt eine bestimmte Aktion aus - das Verständnis, wann und wie diese Werkzeuge zu verwenden sind, ist für die Entscheidungsfindung des Knotens entscheidend.
Die 7 gängigsten Tools
- global.think: Erlaubt der LLMz-Engine zu reflektieren, bevor sie fortfährt.
- browser.webSearch: Ermöglicht es dem Agenten, im Internet nach Antworten zu suchen.
- knowledgeAgent.knowledgequery: Fragt eine interne Wissensdatenbank nach relevanten Informationen ab.
- clock.setReminder: Setzt eine Erinnerung für zukünftige Aufgaben oder Antworten.
- workflow.transition: Führt einen Workflow-Übergang aus und wechselt auf der Grundlage von Benutzereingaben von einem Teil der Konversation zu einem anderen.
- chat.sendText: Sendet eine Textnachricht als Antwort an den Benutzer.
- chat.waitForUserInput: Hält die Ausführung an und wartet auf weitere Eingaben des Benutzers.
Indem Sie festlegen, welches Tool als Reaktion auf Benutzeraktionen verwendet werden soll, können Sie den Ablauf und die Ergebnisse der Konversation steuern.
So können Sie beispielsweise LLM anweisen, bestimmte Aktionen immer dann durchzuführen, wenn bestimmte Bedingungen erfüllt sind: "Wenn der Benutzer '1' sagt, verwenden Sie das Werkzeug 'workflow.transition', um zum nächsten Schritt überzugehen."
Oder: "Wenn der Benutzer eine Frage stellt, versuchen Sie zunächst, sie mit dem Werkzeug 'knowledgeAgent.knowledgequery' zu beantworten."
Beispiel Workflow
Im Folgenden wird Schritt für Schritt gezeigt, wie der Autonome Knoten konfiguriert werden und während eines Gesprächs funktionieren könnte:
1. Benutzereingabe
Der Benutzer tippt eine Frage über das Produkt des Unternehmens ein.
2. Ausführung von Befehlen
Der Autonome Knoten folgt der Aufforderung und verwendet das Werkzeug knowledgeAgent.knowledgequery, um die interne Wissensbasis zu durchsuchen.
3. LLM Entscheidung
Wenn die Wissensdatenbank keine zufriedenstellende Antwort bereithält, kann der Knoten das Werkzeug browser.webSearch verwenden, um im Internet nach weiteren Informationen zu suchen.
4. Nachricht senden
Sobald die Antwort fertig ist, verwendet der Knoten chat.sendText, um dem Benutzer mit den entsprechenden Informationen zu antworten.
5. Warten auf Eingabe
Nach der Beantwortung verwendet der Knoten chat.waitForUserInput , um auf weitere Anfragen oder Interaktionen des Benutzers zu warten.
Wie man Anweisungen schreibt
Wie das Beispiel zeigt, sind klare Anweisungen für ein korrektes Verhalten des autonomen Knotens unerlässlich.
Die Fähigkeit der LLM, Entscheidungen zu treffen, wird stark von der Art und Weise beeinflusst, wie die Anweisungen strukturiert sind.
Hier sind 3 bewährte Verfahren für das Schreiben von Anweisungen für Ihren autonomen Knoten:
1. Spezifisch sein
Verwenden Sie anstelle von vagen Befehlen eine eindeutige Sprache, die dem Agenten klare Anweisungen gibt.
Beispiel: "Wenn der Benutzer 'Hilfe' sagt, sende ihm mit 'chat.sendText' eine vordefinierte Liste von Support-Optionen."
2. Werkzeugverwendung definieren
Geben Sie explizit an, welches Werkzeug unter welchen Umständen verwendet werden sollte.
Beispiel: "Verwenden Sie immer 'knowledgeAgent.knowledgequery' für die Beantwortung von produktbezogenen Fragen."
3. Den Fluss lenken
Verwenden Sie klare Übergänge und Schritte, um sicherzustellen, dass das Gespräch in die richtige Richtung läuft.
Beispiel: "Wenn die Wissensdatenbank nicht antworten kann, gehen Sie zu einer Suchanfrage mit 'browser.webSearch' über."
Weitere Informationen finden Sie unter den folgenden Links:
- Bewährte Praktiken für das Prompt Engineering mit der OpenAI API
- Aufbau von Systemen mit der ChatGPT API
- ChatGPT Promptes Engineering für Entwickler
Markdown-Syntax verwenden
Bevor wir beginnen, ist es wichtig, über die Bedeutung der Markdown-Syntax zu sprechen.
Um eine strukturierte, visuell klare Eingabeaufforderung zu erstellen, ist es wichtig, die Markdown-Syntax zu verwenden, z. B. Überschriften, Aufzählungspunkte und fettgedruckten Text.
Diese Syntax hilft LLM dabei, die Hierarchie der Anweisungen zu erkennen und zu respektieren, indem sie es anleitet, zwischen Hauptabschnitten, Unteranweisungen und Beispielen zu unterscheiden.
Wenn es Ihnen schwer fällt, die Markdown-Syntax zu verwenden, dann verwenden Sie eine beliebige Struktur, die Ihnen leicht fällt - solange Sie klar und hierarchisch bleiben.
Mehr über Markdown Basic Syntax
Nützliche Hinweise
Dieser Abschnitt enthält eine Liste der gebräuchlichsten Beispiele und Muster, die Sie verwenden können, um das Verhalten des Autonomen Knotens zu steuern.
Diese Beispiele stammen aus der Praxis und zeigen, wie verschiedene Szenarien mit Hilfe spezifischer Anweisungen und Hilfsmittel zu bewältigen sind.
Fokus auf internes Wissen
Um sicherzustellen, dass der Knoten zwischen Support-Fragen und anderen Arten von Anfragen (wie z. B. Preise oder Funktionen) unterscheidet, können Sie ihn wie folgt steuern:
**WICHTIGER allgemeiner Prozess**
- Das knowledgeAgent.knowledgequery-Tool ist nur für supportbezogene Fragen zu verwenden und NICHT für allgemeine Fragen zu Funktionen oder Preisen.
- Das Tool browser.websearch ist NUR für Supportfragen zu verwenden und NICHT für allgemeine Fragen zu Funktionen oder Preisen.
Diese Aufforderung stellt sicher, dass LLM bestimmte Tools nur im Zusammenhang mit Support-Anfragen verwendet und die Kontrolle über die Art der abgerufenen Informationen behält.
Übergangsknoten in einen Unterstrom
Manchmal soll der Bot aus dem Autonomen Knoten in einen Subflow wechseln.
Angenommen, Sie möchten, dass Ihr Bot eine Benutzer-E-Mail erfasst und dann in anderen Systemen nach weiteren Informationen zu dieser E-Mail sucht, um die Kontaktinformationen zu ergänzen.
In diesem Fall muss der Bot möglicherweise die Schleife des autonomen Knotens verlassen und in einen Subflow eintauchen, der viele Schritte/Systeme enthält, um den Kontakt zu bereichern:
Wenn der Benutzer weitere Informationen zu einer E-Mail wünscht, geht er zum Übergangstool.
Diese Anweisung weist den Knoten an, das Tool workflow.transition aufzurufen, wenn der Benutzer nach weiteren Details zu E-Mails fragt, und den Gesprächsfluss entsprechend zu lenken.
Füllen einer Variablen und Ausführen einer Aktion
Für Szenarien, in denen der Knoten gleichzeitig Eingaben erfassen und eine Aktion auslösen soll, können Sie ihn entsprechend auffordern:
Wenn der Benutzer weitere Informationen über eine E-Mail wünscht, gehen Sie zum Übergangstool und geben Sie in die Variable "E-Mail" die E-Mail ein, nach der der Benutzer fragt.
Hier leiten Sie den Knoten nicht nur an, den Übergang auszulösen, sondern auch die E-Mail des Benutzers zu extrahieren und in einer Variablen zu speichern, um später in der Konversation ein dynamisches Verhalten zu ermöglichen.
Manipulation der Antwort auf der Grundlage einer Bedingung
Manchmal soll der Knoten zusätzliche Logik auf der Grundlage von Bedingungen ausführen. Hier ein Beispiel für eine Eingabeaufforderung zur Bereitstellung von Videolinks:
Wenn der Benutzer "1" auswählt, sagen Sie etwas wie "Danke" und verwenden Sie dann das Übergangswerkzeug.
Diese Eingabeaufforderung hilft dem Knoten, die erwartete Struktur eines Videolinks zu verstehen und zu wissen, wie er zu ändern ist, wenn der Benutzer auf einen bestimmten Punkt im Video verweisen möchte.
Beispiel für die Verwendung einer Vorlage für Videolinks
Sie können die Eingabeaufforderung weiter verdeutlichen, indem Sie ein konkretes Beispiel dafür geben, wie sich das System bei der Beantwortung einer Benutzeranfrage nach Videolinks verhalten sollte:
**Video Link Example:**
If the user is asking for a video link, the link to the video is provided below. To direct them to a specific second, append the "t" parameter with the time you want to reference. For example, to link to the 15-second mark, it should look like this: "t=15":
"""{{workflow.contentLinks}}"""
Dadurch erhält der Knotenpunkt eine klare Anleitung zur dynamischen Generierung von Videolinks mit bestimmten Zeitstempeln, was konsistente und benutzerfreundliche Antworten gewährleistet.
Fehlersuche und Diagnose
Wenn man das Verhalten des autonomen Knotens im Emulator testet, ist es wichtig zu diagnostizieren, was unter der Haube passiert. Wie trifft der Knoten seine Entscheidungen?
Hier erfahren Sie, wie Sie den Denkprozess und die Leistung des Knotens überprüfen und Fehler beheben können.
Drei Möglichkeiten zur Fehlerbehebung
1. Untersuchen Sie den Geist des Knotens
Wenn Sie auf " Inspect" klicken, können Sie einen Blick auf den internen Zustand des autonomen Knotens werfen und verstehen, was der LLM gerade verarbeitet. Durch Inspektion können Sie sehen:
- Welche Anweisungen der Knoten vorrangig behandelt
- Wie das Programm Ihre Eingabeaufforderung interpretiert
- ob sie sich an die von Ihnen vorgegebenen Auflagen und Anweisungen hält
Wenn Sie bemerken, dass der Knoten nicht richtig reagiert oder bestimmte Anweisungen zu ignorieren scheint, können Sie durch eine Überprüfung feststellen, ob er die Eingabeaufforderung falsch verstanden hat oder ein bestimmtes Werkzeug nicht ausführen konnte.
2. Überprüfen Sie die Registerkarte "Tools
Im Abschnitt Tools werden alle verfügbaren Tools angezeigt, die der Autonome Knoten nutzen kann. Jedes Mal, wenn Sie eine neue Karte hinzufügen oder eine Änderung an der Knotenkonfiguration vornehmen, wird die Liste "Tools" aktualisiert.
- Vergewissern Sie sich, dass die aufgelisteten Instrumente denjenigen entsprechen, die im Entscheidungsprozess des Knotens voraussichtlich zur Verfügung stehen werden.
- Achten Sie darauf, dass die Werkzeugnamen in Ihrer Eingabeaufforderung richtig geschrieben sind, damit der Knoten die angegebene Aktion korrekt ausführen kann.
3. Prüfen Sie die Registerkarte Wiederholungen
Der autonome Knoten versucht in der Regel, alle Anweisungen innerhalb von ein oder zwei Iterationen auszuführen. Die Anzahl der Iterationen hängt von der Komplexität der Eingabeaufforderung ab und davon, wie der Knoten sie analysiert.
Bei komplexeren Aufgaben kann der Knoten mehrere Iterationen benötigen, um Daten zu sammeln, Entscheidungen zu treffen oder externe Informationen abzurufen.
Wenn Sie die Registerkarte Wiederholungen (oder die Registerkarte Alle) betrachten, können Sie das verstehen:
- Wie viele Iterationen waren erforderlich, bis der Knoten seine endgültige Entscheidung getroffen hat.
- Was hat den Knoten veranlasst, mehrere Schritte zu unternehmen (z. B. das Abrufen zusätzlicher Daten von Tools wie knowledgeAgent.knowledgequery oder browser.webSearch).
- Warum ein bestimmtes Ergebnis erzielt wurde.
Häufige Probleme bei der Fehlerbehebung
Modellgröße
Es kann sein, dass der autonome Knoten Ihrer Eingabeaufforderung nicht folgt, einen Teil der Eingabeaufforderung statt der gesamten Eingabeaufforderung ausführt oder die "workflowQueue" aufruft, ohne die "workflowExecuteAll"-Tools aufzurufen.
Es ist sinnvoll, die Größe des Autonomen Knotens LLM immer auf ein kleineres Modell zu ändern - weil es billiger ist -, aber das hat seinen Preis.
Eine kleinere LLM könnte dazu führen, dass Teile der Eingabeaufforderung abgeschnitten werden, insbesondere der Definitions-Wrapper, den Botpress hinzufügt, um sicherzustellen, dass LLM versteht, wie die Karten funktionieren, welche Parameter erforderlich sind usw. Ohne dies wüsste der Bot nicht, wie er richtig handeln soll.
LLMz-Version
Vergewissern Sie sich immer, dass Sie die neueste stabile Version von LLMz verwenden. Es ist die autonome Engine, die den autonomen Knoten zum Arbeiten anleitet.
Sie enthält auch Fehlerkorrekturen, die die Eingabeaufforderungen für LLMs anpassungsfähiger machen.
Beispiel: Diagnose der Codeerstellung
Nehmen wir an, ein Autonomer Knoten erzeugt Code, folgt aber der Eingabeaufforderung nicht richtig. So könnten Sie das Problem beheben:
- Untersuchen: Überprüfen Sie, welche Anweisungen der Knoten befolgt. Versteht er die Aufforderung zur Codegenerierung richtig?
- Werkzeuge: Vergewissern Sie sich, dass der Knoten Zugriff auf die erforderlichen Tools hat (z. B. Tools zur Codegenerierung oder zur Abfrage der Wissensdatenbank). Stellen Sie sicher, dass die Eingabeaufforderung explizit auf diese Werkzeuge verweist.
- Iterationen: Auf der Registerkarte "Iterationen" können Sie sehen, wie der Knoten den Punkt erreicht hat, an dem der Code generiert wurde. Hat er einen oder mehrere Schritte unternommen? Wurde zuerst eine Wissensdatenbank abgefragt, oder wurde versucht, den Code sofort zu generieren?
Lösung: Wenn der Bot den Code nicht richtig generiert:
- Vergewissern Sie sich, dass das für die Codegenerierung verwendete Tool in der Eingabeaufforderung korrekt referenziert ist.
- Passen Sie die Anweisungen so an, dass der Knoten zu bestimmten Schritten angeleitet wird, wie z. B. zuerst das Abrufen von relevantem Wissen, bevor die Codegenerierung versucht wird.
Beispiel für eine vollständige Aufforderung
**IMPORTANT: Query Knowledge Base is to be used only for support questions related explicitly to student courses, and NOT for general features or pricing inquiries.
**Role Description:
You are an AI-powered troubleshooting chatbot named XYZ Assistant’, focused on providing support related to professional courses offered by XYZ LMS. Your primary goal is to handle student inquiries efficiently by retrieving accurate information from the knowledge base and answering questions clearly.
**Tone and Language:
• Maintain a courteous, professional, and helpful demeanor at all times.
• Use language that is clear, concise, and appropriate for students and professionals in finance and investment.
• Ensure user data is handled securely and confidentially, adhering to all relevant data protection policies.
• Utilize information solely from **LMS Knowledge Base**.
• Personalize interactions to enhance user engagement and satisfaction.
• Reflect **XYZ branding** throughout the conversation, ensuring clarity and professionalism.
• Avoid providing answers outside the knowledge base or surfing the internet for information.
• If the user expresses frustration, acknowledge their concern and reassure them that you are here to help.
**Interaction Flow and Instructions
1. Greeting and Initial Query
• Start with a friendly and professional greeting.
• Encourage users to ask questions about course content, support materials, or other course-related concerns.
2. Information Retrieval and Issue Resolution
• Utilize the ‘Query Knowledge Base’ tool to find accurate answers to student inquiries.
• Provide clear, concise, and helpful responses to resolve the user's question.
• If the inquiry involves linking to a video, use the provided video link structure. To link to a specific moment in the video, append the "t" parameter for the desired time (e.g., for the 15-second mark, use "t=15").
3. Conclusion
Once the issue is resolved, politely conclude the interaction and ask if there's anything else you can assist with.
**Extra Instructions
*Video Link Example
-If the user is asking for a video link, the link to the video is provided below. To direct them to a specific second, append the "t" parameter with the time you want to reference. For example, to link to the 15-second mark, it should look like this: "t=15":
"""{{workflow.contentLinks}}"""
*Handling Edge Cases
If the user asks a general or unclear question, prompt them to provide more details so that you can offer a better solution.
Aufschlüsselung der Aufforderung
In der vollständigen Eingabeaufforderung oben hat der Nutzer einen KI-Assistenten erstellt, der Fragen von Studenten zu Bildungskursen beantwortet.
Das obige Beispiel ist ein Leitfaden, der für Ihre Bedürfnisse abgeändert werden kann, aber dieses Layout ist das, was ich bisher für die effektivste Struktur gehalten habe.
Gehen wir der Frage nach, warum die Aufforderung so gestaltet ist, wie sie gestaltet ist:
1. Wichtiger Hinweis
**WICHTIG: Query Knowledge Base darf nur für Supportfragen verwendet werden, die sich explizit auf Schülerkurse beziehen, und NICHT für allgemeine Fragen zu Funktionen oder Preisen.
Zweck: Legen Sie fest, wann und wie das Query Knowledge Base Tool verwendet werden soll. Betonen Sie, dass es ausschließlich für kursbezogene Unterstützung und nicht für allgemeine Anfragen zu Funktionen oder Preisen gedacht ist.
Bedeutung: Hilft dabei, den Bereich des Bots einzugrenzen, seine Antworten zu fokussieren und die Relevanz für die Nutzer zu erhöhen, insbesondere um sicherzustellen, dass die Antworten mit Bildungsinhalten übereinstimmen.
2. Rolle Beschreibung
Sie sind ein KI-gesteuerter Chatbot zur Fehlerbehebung mit dem Namen XYZ Assistant", der sich darauf konzentriert, Unterstützung in Bezug auf die von XYZ LMS angebotenen Fachkurse zu leisten. Ihr Hauptziel ist es, Anfragen von Studierenden effizient zu bearbeiten, indem Sie genaue Informationen aus der Wissensdatenbank abrufen und Fragen klar beantworten.
Zweck: Definiert die Rolle der KI als unterstützende Assistentin, wobei ihr Hauptziel darin besteht, kursbezogene Anfragen zu lösen.
Bedeutsamkeit: Stellt sicher, dass die Antworten des Assistenten mit dem beabsichtigten Zweck übereinstimmen, die Erwartungen der Benutzer erfüllen und für seinen Bereich (in diesem Fall XYZ LMS) relevant bleiben.
3. Tonfall und Sprache
- Bewahren Sie jederzeit ein höfliches, professionelles und hilfsbereites Auftreten.
- Verwenden Sie eine klare, prägnante und für Studenten und Fachleute aus dem Finanz- und Investitionsbereich angemessene Sprache.
- Stellen Sie sicher, dass die Benutzerdaten sicher und vertraulich behandelt werden und halten Sie sich an alle relevanten Datenschutzrichtlinien.
-Verwenden Sie ausschließlich Informationen aus der **LMS-Wissensdatenbank**. Passen Sie die Interaktionen an, um das Engagement und die Zufriedenheit der Nutzer zu erhöhen.
-Geben Sie während des gesamten Gesprächs das **XYZ-Branding**wieder und sorgen Sie für Klarheit und Professionalität.
- Vermeiden Sie es, Antworten außerhalb der Wissensdatenbank zu geben oder das Internet nach Informationen zu durchsuchen.
- Wenn der Benutzer seine Frustration zum Ausdruck bringt, erkennen Sie sein Anliegen an und versichern Sie ihm, dass Sie für ihn da sind.
Zweck: Anleitung für das Auftreten, den Ton und die Professionalität des Assistenten bei gleichzeitiger Wahrung eines sicheren und datenschutzgerechten Umgangs.
Bedeutung: Setzt einen freundlichen und sicheren Akzent, der mit dem Branding und den Erwartungen der Nutzer an einen unterstützenden und professionellen Assistenten übereinstimmt.
4. Interaktionsablauf und Anweisungen
Begrüßung und erste Abfrage
- Beginnen Sie mit einer freundlichen und professionellen Begrüßung.
- Ermutigen Sie die Nutzer, Fragen zum Kursinhalt, zu den Hilfsmaterialien oder zu anderen kursbezogenen Anliegen zu stellen.
Zweck: Diese Richtlinie weist den Assistenten an, mit einer freundlichen, professionellen Begrüßung zu beginnen und die Benutzer zu ermutigen, spezifische Fragen zu ihrem Kurs zu stellen.
Bedeutung: Es wird ein einladender Einstiegspunkt geschaffen, der das Engagement des Benutzers erhöht und dem Bot hilft, Details für eine bessere Antwort zu sammeln.
Informationsbeschaffung und Problemlösung
- Nutzen Sie das Tool "Wissensdatenbank abfragen", um genaue Antworten auf Schüleranfragen zu finden.
- Geben Sie klare, prägnante und hilfreiche Antworten, um die Frage des Benutzers zu beantworten.
- Wenn die Anfrage eine Verknüpfung zu einem Video beinhaltet, verwenden Sie die vorgegebene Videolinkstruktur. Um einen Link zu einem bestimmten Moment im Video zu erstellen, fügen Sie den Parameter "t" für die gewünschte Zeit hinzu (z. B. für die 15-Sekunden-Marke verwenden Sie "t=15").
Zweck: Den Assistenten anleiten, die Wissensbasis für relevante, klare Antworten zu nutzen. Darüber hinaus enthält es einen strukturierten Ansatz für die gemeinsame Nutzung von Videoressourcen mit zeitbasierten Links.
Bedeutung: Ermöglicht effiziente, präzise Antworten und eine strukturierte Art und Weise, inhaltsspezifische Anfragen wie z. B. Videos zu beantworten, und fördert so ein nahtloses Nutzererlebnis.
Schlussfolgerung
Sobald das Problem gelöst ist, schließen Sie das Gespräch höflich ab und fragen Sie, ob Sie noch etwas für Sie tun können.
Zweck: Leitet den Bot an, wie er Interaktionen höflich abschließt und fragt, ob weitere Hilfe benötigt wird.
Bedeutung: Behält während der gesamten Interaktion einen professionellen und unterstützenden Ton bei und ermöglicht es den Nutzern, bei Bedarf weiter mitzumachen.
5. Zusätzliche Anweisungen
If the user is asking for a video link, the link to the video is provided below. To direct them to a specific second, append the "t" parameter with the time you want to reference. For example, to link to the 15-second mark, it should look like this: "t=15":
"""{{workflow.contentLinks}}"""
Zweck: Veranschaulichung des Formats für die Verknüpfung mit bestimmten Teilen eines Videos, um den Schülern zu helfen, genaue Informationen zu finden.
Bedeutung: Schafft Klarheit über die gemeinsame Nutzung von Videoressourcen, insbesondere für zeitlich begrenzte Unterrichtsinhalte.
*Behandlung von Grenzfällen
Wenn der Nutzer eine allgemeine oder unklare Frage stellt, sollten Sie ihn auffordern, weitere Einzelheiten anzugeben, damit Sie eine bessere Lösung anbieten können.
Zweck: Bereitet den Assistenten auf die Bearbeitung vager oder allgemeiner Anfragen vor, indem er den Benutzer zu weiteren Details auffordert.
Bedeutung: Hilft, Verwirrung zu vermeiden und stellt sicher, dass der Assistent die Fragen der Benutzer so spezifisch wie möglich beantworten kann.
Erstellen Sie noch heute einen AI-Agenten
Botpress ist eine vollständig erweiterbare KI-Agentenplattform für Unternehmen.
Unsere allumfassende KI-Plattform als Service (PaaS) ermöglicht Unternehmen die Entwicklung, Bereitstellung und Überwachung von LLM-gestützten Lösungen.
Durch die Anwendung in verschiedenen Branchen, Anwendungsfällen und Geschäftsprozessen sind Botpress Projekte stets skalierbar, sicher und markengerecht.
Mit über 500.000 Nutzern und Millionen von Bots, die weltweit eingesetzt werden, ist Botpress die Plattform der Wahl für Unternehmen und Entwickler gleichermaßen. Unsere hohe Sicherheit und unser engagierter Kundendienst stellen sicher, dass Unternehmen für den Einsatz von KI-Agenten auf Unternehmensniveau bestens gerüstet sind.
Durch die effektive Konfiguration von Autonomous Nodes mit geeigneten Eingabeaufforderungen und Tooldefinitionen können Unternehmen intelligente Agenten erstellen, die Benutzerinteraktionen selbstständig abwickeln.
Beginnen Sie noch heute mit dem Bau. Es ist kostenlos.
Inhaltsübersicht
Bleiben Sie auf dem Laufenden mit den neuesten Informationen über KI-Agenten
Teilen Sie dies auf: