Autonomiczny węzeł Botpress umożliwia tworzenie funkcjonalnych agentów AI - nie chatbotów, ale autonomicznych agentów, którzy podejmują decyzje w oparciu o dostępny kontekst.
Zapewniając jasne instrukcje i integrując narzędzia, twórcy botów mogą korzystać z Autonomous Nodes, aby nakreślić zachowanie chatbota.
Node został zaprojektowany do obsługi zarówno procesu decyzyjnego, jak i wykonawczego poprzez zrozumienie danych wejściowych użytkownika, reagowanie za pomocą odpowiednich danych i wykorzystywanie jego narzędzi.
Jeśli jesteś zainteresowany korzystaniem z Autonomous Node, jesteś we właściwym miejscu. W tym artykule przedstawię podstawy korzystania z funkcji agentowej naszej platformy.
Kluczowe cechy węzła autonomicznego
1. LLM Podejmowanie decyzji
Autonomiczny węzeł wykorzystuje możliwości strony LLM do podejmowania inteligentnych decyzji.
2. Zachowanie autonomiczne
Autonomiczny węzeł może wykonywać działania bez ręcznej interwencji w oparciu o instrukcje i dane wejściowe użytkownika.
3. Narzędzia
Autonomiczny węzeł rozumie i wykorzystuje określone narzędzia - na przykład może przeszukiwać bazy wiedzy, przeprowadzać wyszukiwanie w sieci i wykonywać przejścia przepływu pracy.
4. Personalizacja
Konfigurując węzeł autonomiczny z odpowiednią personą i szczegółowymi instrukcjami, można upewnić się, że zachowuje się on zgodnie z marką i zakresem podczas konwersacji.
5. Pisanie i wykonywanie kodu
Autonomiczny węzeł może generować i wykonywać niestandardowy kod w celu realizacji zadań.
6. Autokorekta
Jeśli autonomiczny węzeł znajdzie się na niewłaściwej ścieżce, ma możliwość autokorekty i wyjścia z błędów.
Ustawienia konfiguracji
Każdy autonomiczny węzeł wymaga starannej konfiguracji, aby dostosować jego zachowanie do potrzeb biznesowych.
Najważniejszą częścią konfiguracji autonomicznego węzła jest napisanie odpowiedniego monitu i instrukcji. Podpowiedź pomaga agentowi zrozumieć jego osobowość i kieruje podejmowaniem decyzji.
Pole instrukcji
W polu Instrukcje należy podać jasne wytyczne. Im bardziej szczegółowe instrukcje, tym lepsze podejmowanie decyzji przez agenta.
Przykład: "Jesteś pomocnym asystentem, który zawsze odpowiada na pytania za pomocą narzędzia 'knowledgeAgent.knowledgequery'. Jeśli użytkownik powie "wyszukaj", użyj narzędzia "browser.webSearch"".
Zezwalaj na rozmowę
Przełącznik Zezwalaj na konwersację umożliwia węzłowi autonomicznemu bezpośrednią komunikację z użytkownikami. Jeśli jest wyłączony, węzeł przetwarza tylko polecenia i wykonuje swoją wewnętrzną logikę bez wysyłania wiadomości do użytkowników.
Zrozumienie narzędzi
W oparciu o instrukcje przekazane przez użytkownika, węzeł autonomiczny jest wyposażony w kilka narzędzi, które może wywołać.
Każde narzędzie wykonuje określoną czynność - zrozumienie, kiedy i jak korzystać z tych narzędzi, ma kluczowe znaczenie dla podejmowania decyzji przez węzeł.
7 najpopularniejszych narzędzi
- global.think: Umożliwia silnikowi LLMz zastanowienie się przed kontynuowaniem.
- browser.webSearch: Umożliwia agentowi wyszukiwanie odpowiedzi w Internecie.
- knowledgeAgent.knowledgequery: Wyszukuje istotne informacje w wewnętrznej bazie wiedzy.
- clock.setReminder: Ustawia przypomnienie dla przyszłych zadań lub odpowiedzi.
- workflow.transition: Wykonuje przejście przepływu pracy, przechodząc z jednej części konwersacji do drugiej na podstawie danych wprowadzonych przez użytkownika.
- chat.sendText: Wysyła wiadomość tekstową do użytkownika jako odpowiedź.
- chat.waitForUserInput: Wstrzymuje wykonywanie i czeka na dalsze dane wejściowe od użytkownika.
Określając, które narzędzie ma być używane w odpowiedzi na działania użytkownika, można kontrolować przebieg i wyniki konwersacji.
Na przykład można poinstruować LLM , aby zawsze wykonywał określone działania, gdy spełnione są określone warunki: "Gdy użytkownik powie '1', użyj narzędzia 'workflow.transition', aby przejść do następnego kroku".
Lub: "Jeśli użytkownik zada pytanie, najpierw spróbuj na nie odpowiedzieć za pomocą narzędzia 'knowledgeAgent.knowledgequery'".
Przykładowy przepływ pracy
Oto przykład krok po kroku, jak można skonfigurować autonomiczny węzeł i jak może on działać podczas rozmowy:
1. Wprowadzanie danych przez użytkownika
Użytkownik wpisuje pytanie dotyczące produktu firmy.
2. Wykonywanie instrukcji
Autonomiczny węzeł podąża za monitem i używa narzędzia knowledgeAgent.knowledgequery do przeszukiwania wewnętrznej bazy wiedzy.
3. LLM Decyzja
Jeśli baza wiedzy nie zawiera satysfakcjonującej odpowiedzi, węzeł może użyć narzędzia browser.webSearch do przeszukania sieci w celu uzyskania dodatkowych informacji.
4. Wyślij wiadomość
Gdy odpowiedź jest gotowa, węzeł używa chat.sendText, aby odpowiedzieć użytkownikowi z odpowiednimi informacjami.
5. Oczekiwanie na dane wejściowe
Po udzieleniu odpowiedzi węzeł korzysta z funkcji chat.waitForUserInput , aby oczekiwać na dalsze zapytania lub interakcje ze strony użytkownika.
Jak pisać instrukcje
Jak pokazano w przykładzie, jasne instrukcje są niezbędne do zapewnienia prawidłowego zachowania węzła autonomicznego.
Na zdolność LLMdo podejmowania decyzji duży wpływ ma sposób, w jaki skonstruowane są instrukcje.
Oto 3 najlepsze praktyki dotyczące pisania instrukcji dla węzła autonomicznego:
1. Bądź konkretny
Zamiast niejasnych poleceń, używaj wyraźnego języka, który jasno prowadzi agenta.
Przykład: "Jeśli użytkownik powie 'help', wyślij mu predefiniowaną listę opcji pomocy technicznej za pomocą 'chat.sendText'".
2. Definiowanie użycia narzędzia
Wyraźnie określ, które narzędzie powinno być używane w jakich okolicznościach.
Przykład: "Zawsze używaj 'knowledgeAgent.knowledgequery' do odpowiadania na pytania związane z produktem".
3. Poprowadź przepływ
Używaj jasnych przejść i kroków, aby upewnić się, że rozmowa przebiega we właściwym kierunku.
Przykład: "Jeśli baza wiedzy nie może udzielić odpowiedzi, przejdź do zapytania wyszukiwania za pomocą 'browser.webSearch'".
Więcej informacji można znaleźć pod następującymi linkami:
- Najlepsze praktyki w zakresie szybkiej inżynierii za pomocą interfejsu API OpenAI
- Tworzenie systemów za pomocą interfejsu API ChatGPT
- ChatGPT Szybka inżynieria dla deweloperów
Korzystanie ze składni Markdown
Przed rozpoczęciem ważne jest, aby porozmawiać o znaczeniu korzystania ze składni Markdown.
Aby stworzyć uporządkowaną, przejrzystą wizualnie podpowiedź, konieczne jest użycie składni markdown, takiej jak nagłówki, wypunktowania i pogrubiony tekst.
Ta składnia pomaga LLM rozpoznać i przestrzegać hierarchii instrukcji, prowadząc go do rozróżnienia między głównymi sekcjami, pod-instrukcjami i przykładami.
Jeśli trudno jest ci używać składni Markdown , użyj dowolnej struktury, która jest dla ciebie łatwa - o ile zachowasz przejrzystość i hierarchię.
Więcej informacji o podstawowej składni Markdown
Przydatne podpowiedzi
Ta sekcja zawiera listę najpopularniejszych przykładów i wzorców, których można użyć do kontrolowania zachowania węzła autonomicznego.
Przykłady te pochodzą z praktycznego doświadczenia i pokazują, jak radzić sobie z różnymi scenariuszami przy użyciu określonych instrukcji i narzędzi.
Koncentracja na wiedzy wewnętrznej
Aby upewnić się, że węzeł rozróżnia pytania dotyczące pomocy technicznej od innych typów zapytań (takich jak ceny lub funkcje), można go poprowadzić w następujący sposób:
**WAŻNE procesy ogólne**
- Narzędzie knowledgeAgent.knowledgequery może być używane wyłącznie do zadawania pytań związanych z pomocą techniczną, a NIE do zadawania pytań dotyczących ogólnych funkcji lub cen.
- Narzędzie browser.websearch powinno być używane WYŁĄCZNIE w przypadku pytań dotyczących pomocy technicznej i NIE powinno być używane w przypadku pytań dotyczących ogólnych funkcji lub cen.
Ten monit gwarantuje, że strona LLM będzie korzystać z określonych narzędzi tylko w kontekście zapytań związanych z pomocą techniczną, zachowując kontrolę nad rodzajem pobieranych informacji.
Przejście węzła do przepływu podrzędnego
Czasami bot ma zostać przeniesiony z węzła autonomicznego do przepływu podrzędnego.
Załóżmy, że chcesz, aby Twój bot zbierał adres e-mail użytkownika, a następnie szukał więcej informacji o tym e-mailu w innych systemach, aby wzbogacić dane kontaktowe.
W takim przypadku może być konieczne, aby bot wyszedł z pętli węzła autonomicznego i zagłębił się w przepływ podrzędny, który zawiera wiele kroków/systemów w celu wzbogacenia tego kontaktu:
Gdy użytkownik chce uzyskać więcej informacji na temat wiadomości e-mail, przechodzi do narzędzia transformacji.
Ta instrukcja mówi węzłowi, aby wywoływał narzędzie workflow.transition za każdym razem, gdy użytkownik poprosi o więcej szczegółów na temat wiadomości e-mail, odpowiednio kierując przepływem konwersacji.
Wypełnianie zmiennej i wykonywanie akcji
W przypadku scenariuszy, w których węzeł ma jednocześnie przechwytywać dane wejściowe i wyzwalać akcję, można wyświetlić odpowiedni monit:
Gdy użytkownik chce uzyskać więcej informacji na temat wiadomości e-mail, przejdź do narzędzia transformacji i wypełnij zmienną "email" wiadomością e-mail, o którą pyta użytkownik.
W tym przypadku węzeł nie tylko wyzwala przejście, ale także wyodrębnia i przechowuje adres e-mail użytkownika w zmiennej, umożliwiając dynamiczne zachowanie w dalszej części konwersacji.
Manipulowanie odpowiedzią na podstawie warunku
Czasami będziesz chciał, aby węzeł wykonywał dodatkową logikę w oparciu o warunki. Oto przykładowy monit związany z udostępnianiem linków wideo:
Jeśli użytkownik wybierze "1", powiedz coś w rodzaju "dziękuję", a następnie użyj narzędzia przejścia.
Ten monit pomaga węzłowi zrozumieć oczekiwaną strukturę łącza wideo i sposób jego modyfikacji, gdy użytkownik prosi o odniesienie do określonego punktu w filmie.
Przykład użycia szablonu dla linków wideo
Możesz dodatkowo wyjaśnić monit, podając rzeczywisty przykład tego, jak system powinien się zachować, odpowiadając na żądanie użytkownika dotyczące linków wideo:
**Video Link Example:**
If the user is asking for a video link, the link to the video is provided below. To direct them to a specific second, append the "t" parameter with the time you want to reference. For example, to link to the 15-second mark, it should look like this: "t=15":
"""{{workflow.contentLinks}}"""
Daje to węzłowi jasne wytyczne dotyczące dynamicznego generowania linków wideo z określonymi znacznikami czasu, zapewniając spójne i przyjazne dla użytkownika odpowiedzi.
Rozwiązywanie problemów i diagnostyka
Podczas testowania zachowania autonomicznego węzła w emulatorze ważne jest, aby zdiagnozować, co dzieje się pod maską. W jaki sposób węzeł podejmuje decyzje?
Oto jak można rozwiązywać problemy i sprawdzać proces myślowy i wydajność węzła.
Trzy sposoby rozwiązywania problemów
1. Sprawdź umysł węzła
Klikając przycisk Inspect (Sprawdź), można zajrzeć do wewnętrznego stanu węzła autonomicznego i zrozumieć, co przetwarza strona LLM . Podczas inspekcji można zobaczyć:
- Jakie instrukcje węzeł traktuje priorytetowo
- Jak interpretuje monit użytkownika
- Niezależnie od tego, czy przestrzega ograniczeń i instrukcji dostarczonych przez użytkownika
Jeśli zauważysz, że węzeł nie reaguje poprawnie lub wydaje się ignorować pewne instrukcje, inspekcja ujawni, czy źle zrozumiał monit lub nie wykonał określonego narzędzia.
2. Sprawdź kartę Narzędzia
Sekcja Narzędzia wyświetla wszystkie dostępne narzędzia, z których może korzystać węzeł autonomiczny. Za każdym razem, gdy dodawana jest nowa karta lub wprowadzana jest zmiana w konfiguracji węzła, lista narzędzi jest aktualizowana.
- Upewnij się, że wymienione narzędzia pasują do tego, co ma być dostępne w procesie decyzyjnym węzła.
- Upewnij się, że nazwy narzędzi są poprawnie napisane w monicie, aby węzeł mógł poprawnie wykonać określoną akcję.
3. Sprawdź zakładkę Iteracje
Autonomiczny węzeł zazwyczaj próbuje wykonać wszystkie instrukcje w ciągu jednej lub dwóch iteracji. Liczba iteracji zależy od złożoności monitu i sposobu jego analizy przez węzeł.
W przypadku bardziej złożonych zadań węzeł może wykonać wiele iteracji w celu zebrania danych, podjęcia decyzji lub pobrania informacji zewnętrznych.
Przeglądając zakładkę Iteracje (lub zakładkę Wszystkie), można to zrozumieć:
- Ile iteracji było wymaganych, aby węzeł podjął ostateczną decyzję.
- Co spowodowało, że węzeł wykonał wiele kroków (np. pobranie dodatkowych danych z narzędzi takich jak knowledgeAgent.knowledgequery lub browser.webSearch).
- Dlaczego osiągnięto określony wynik.
Typowe problemy z rozwiązywaniem problemów
Rozmiar modelu
Węzeł autonomiczny może nie podążać za monitem, wykonując część monitu zamiast jego całości lub wywołując "workflowQueue" bez wywoływania narzędzi "workflowExecuteAll".
Sensowna jest zawsze zmiana rozmiaru węzła autonomicznego LLM na mniejszy model - ponieważ jest to tańsze - ale wiąże się to z kosztami.
Mniejsza strona LLM może skutkować obcięciem części monitu, w szczególności opakowania definicji, które Botpress dodaje, aby upewnić się, że LLM rozumie, jak działają karty, jakie parametry są wymagane itp. Bez tego bot nie wiedziałby, jak prawidłowo działać.
Wersja LLMz
Zawsze upewnij się, że używasz najnowszej stabilnej wersji LLMz. Jest to autonomiczny silnik, który kieruje pracą autonomicznego węzła.
Zawiera również poprawki błędów, dzięki czemu podpowiedzi są bardziej niezależne od LLMs.
Przykład: Diagnozowanie tworzenia kodu
Załóżmy, że autonomiczny węzeł generuje kod, ale nie podąża za monitem poprawnie. Oto jak można to rozwiązać:
- Sprawdź: Sprawdź, jakie instrukcje wykonuje węzeł. Czy poprawnie rozumie żądanie wygenerowania kodu?
- Narzędzia: Sprawdź, czy węzeł ma dostęp do niezbędnych narzędzi (np. narzędzi do generowania kodu lub narzędzi do zapytań w bazie wiedzy). Upewnij się, że monit wyraźnie odwołuje się do tych narzędzi.
- Iteracje: Spójrz na kartę iteracji, aby zobaczyć, w jaki sposób węzeł osiągnął punkt generowania kodu. Czy wykonał jeden czy wiele kroków? Czy najpierw wysłał zapytanie do bazy wiedzy, czy od razu próbował wygenerować kod?
Rozwiązanie: Jeśli bot nie generuje kodu poprawnie:
- Upewnij się, że narzędzie używane do generowania kodu jest poprawnie przywoływane w monicie.
- Dostosuj instrukcje tak, aby węzeł był prowadzony do wykonania określonych kroków, takich jak najpierw pobranie odpowiedniej wiedzy przed próbą wygenerowania kodu.
Przykład pełnej zachęty
**IMPORTANT: Query Knowledge Base is to be used only for support questions related explicitly to student courses, and NOT for general features or pricing inquiries.
**Role Description:
You are an AI-powered troubleshooting chatbot named XYZ Assistant’, focused on providing support related to professional courses offered by XYZ LMS. Your primary goal is to handle student inquiries efficiently by retrieving accurate information from the knowledge base and answering questions clearly.
**Tone and Language:
• Maintain a courteous, professional, and helpful demeanor at all times.
• Use language that is clear, concise, and appropriate for students and professionals in finance and investment.
• Ensure user data is handled securely and confidentially, adhering to all relevant data protection policies.
• Utilize information solely from **LMS Knowledge Base**.
• Personalize interactions to enhance user engagement and satisfaction.
• Reflect **XYZ branding** throughout the conversation, ensuring clarity and professionalism.
• Avoid providing answers outside the knowledge base or surfing the internet for information.
• If the user expresses frustration, acknowledge their concern and reassure them that you are here to help.
**Interaction Flow and Instructions
1. Greeting and Initial Query
• Start with a friendly and professional greeting.
• Encourage users to ask questions about course content, support materials, or other course-related concerns.
2. Information Retrieval and Issue Resolution
• Utilize the ‘Query Knowledge Base’ tool to find accurate answers to student inquiries.
• Provide clear, concise, and helpful responses to resolve the user's question.
• If the inquiry involves linking to a video, use the provided video link structure. To link to a specific moment in the video, append the "t" parameter for the desired time (e.g., for the 15-second mark, use "t=15").
3. Conclusion
Once the issue is resolved, politely conclude the interaction and ask if there's anything else you can assist with.
**Extra Instructions
*Video Link Example
-If the user is asking for a video link, the link to the video is provided below. To direct them to a specific second, append the "t" parameter with the time you want to reference. For example, to link to the 15-second mark, it should look like this: "t=15":
"""{{workflow.contentLinks}}"""
*Handling Edge Cases
If the user asks a general or unclear question, prompt them to provide more details so that you can offer a better solution.
Podział obietnic
W powyższym podpowiedzi użytkownik stworzył asystenta AI, który odpowiada na pytania studentów dotyczące kursów edukacyjnych.
Powyższy przykład jest wskazówką, którą można dostosować do własnych potrzeb, ale ten układ jest tym, co do tej pory uznałem za najbardziej efektywną strukturę.
Zastanówmy się, dlaczego podpowiedź jest ułożona w taki, a nie inny sposób:
1. Ważna uwaga
**WAŻNE: Baza wiedzy zapytań może być używana wyłącznie do zadawania pytań związanych z kursami dla studentów, a NIE do zadawania pytań dotyczących ogólnych funkcji lub cen.
Cel: Określenie, kiedy i w jaki sposób należy korzystać z narzędzia Query Knowledge Base. Podkreśla, że jest ono przeznaczone wyłącznie do wsparcia związanego z kursem, a nie do ogólnych zapytań o funkcje lub ceny.
Znaczenie: Pomaga zawęzić zakres bota, skupiając jego odpowiedzi i zwiększając ich znaczenie dla użytkowników, w szczególności zapewniając zgodność odpowiedzi z treściami edukacyjnymi.
2. Opis roli
Jesteś opartym na sztucznej inteligencji chatbotem o nazwie XYZ Assistant, którego zadaniem jest zapewnianie wsparcia związanego z profesjonalnymi kursami oferowanymi przez XYZ LMS. Twoim głównym celem jest skuteczna obsługa zapytań studentów poprzez pobieranie dokładnych informacji z bazy wiedzy i udzielanie jasnych odpowiedzi na pytania.
Cel: Definiuje rolę AI jako asystenta zorientowanego na wsparcie, jasno określając jego główny cel, jakim jest rozwiązywanie zapytań związanych z kursem.
Znaczenie: Zapewnia, że odpowiedzi asystenta są zgodne z jego przeznaczeniem, zarządzając oczekiwaniami użytkowników i pozostając istotnymi dla jego domeny (którą w tym przypadku jest XYZ LMS).
3. Ton i język
- Zachowanie uprzejmej, profesjonalnej i pomocnej postawy przez cały czas.
- Używanie języka, który jest jasny, zwięzły i odpowiedni dla studentów i profesjonalistów w dziedzinie finansów i inwestycji.
- Upewnij się, że dane użytkownika są przetwarzane w sposób bezpieczny i poufny, przestrzegając wszystkich odpowiednich zasad ochrony danych.
-Wykorzystywanie informacji pochodzących wyłącznie z **LMS Knowledge Base**. Personalizowanie interakcji w celu zwiększenia zaangażowania i satysfakcji użytkowników.
-Odzwierciedlaj markę **XYZ** podczas całej rozmowy, zapewniając przejrzystość i profesjonalizm.
- Unikaj udzielania odpowiedzi poza bazą wiedzy lub surfowania po Internecie w poszukiwaniu informacji.
- Jeśli użytkownik wyraża frustrację, potwierdź jego obawy i zapewnij go, że jesteś tutaj, aby mu pomóc.
Cel: Zapewnienie wskazówek dotyczących zachowania, tonu i profesjonalizmu asystenta przy jednoczesnym zachowaniu bezpiecznych, chroniących dane interakcji.
Znaczenie: Nadaje przyjazny i bezpieczny ton, zgodny z brandingiem i oczekiwaniami użytkowników dotyczącymi wspierającego i profesjonalnego asystenta.
4. Przepływ interakcji i instrukcje
Powitanie i wstępne zapytanie
- Zacznij od przyjaznego i profesjonalnego powitania.
- Zachęć użytkowników do zadawania pytań dotyczących treści kursu, materiałów pomocniczych lub innych kwestii związanych z kursem.
Cel: Ta dyrektywa nakazuje asystentowi rozpoczęcie od ciepłego, profesjonalnego powitania i zachęcenia użytkowników do zadawania szczegółowych pytań dotyczących ich kursu.
Znaczenie: Ustanawia zachęcający punkt wejścia, który zwiększa zaangażowanie użytkownika i pomaga botowi zebrać szczegóły w celu uzyskania lepszej odpowiedzi.
Wyszukiwanie informacji i rozwiązywanie problemów
- Korzystanie z narzędzia "Query Knowledge Base" w celu znalezienia dokładnych odpowiedzi na pytania studentów.
- Zapewnij jasne, zwięzłe i pomocne odpowiedzi, aby rozwiązać pytanie użytkownika.
- Jeśli zapytanie obejmuje link do filmu, użyj dostarczonej struktury linków wideo. Aby połączyć się z określonym momentem w filmie, dołącz parametr "t" dla żądanego czasu (np. dla 15-sekundowego znaku użyj "t=15").
Cel: Poinstruowanie asystenta, aby korzystał z bazy wiedzy w celu uzyskania odpowiednich, jasnych odpowiedzi. Dodatkowo zawiera ustrukturyzowane podejście do udostępniania zasobów wideo z linkami opartymi na czasie.
Znaczenie: Umożliwia wydajne, precyzyjne odpowiedzi i ustrukturyzowany sposób odpowiadania na zapytania dotyczące treści, takie jak filmy, sprzyjając płynnemu doświadczeniu użytkownika.
Wnioski
Gdy problem zostanie rozwiązany, grzecznie zakończ interakcję i zapytaj, czy możesz jeszcze w czymś pomóc.
Cel: Prowadzi bota, jak grzecznie zakończyć interakcję, pytając, czy potrzebna jest dalsza pomoc.
Znaczenie: Utrzymuje profesjonalny i wspierający ton podczas całej interakcji i pozwala użytkownikom kontynuować zaangażowanie w razie potrzeby.
5. Dodatkowe instrukcje
If the user is asking for a video link, the link to the video is provided below. To direct them to a specific second, append the "t" parameter with the time you want to reference. For example, to link to the 15-second mark, it should look like this: "t=15":
"""{{workflow.contentLinks}}"""
Cel: Demonstruje format linkowania do określonych części filmu, aby pomóc uczniom znaleźć dokładne informacje.
Znaczenie: Zapewnia jasność w zakresie udostępniania zasobów wideo, zwłaszcza w przypadku treści instruktażowych określonych czasowo.
*Obsługa skrajnych przypadków
Jeśli użytkownik zadaje ogólne lub niejasne pytanie, poproś go o podanie większej ilości szczegółów, abyś mógł zaoferować lepsze rozwiązanie.
Cel: Przygotowuje asystenta do obsługi niejasnych lub ogólnych zapytań, prosząc użytkowników o więcej szczegółów.
Znaczenie: Pomaga uniknąć nieporozumień i zapewnia, że asystent może odpowiedzieć na pytania użytkownika z jak największą szczegółowością.
Stwórz agenta AI już dziś
Botpress to w pełni rozszerzalna platforma agentów AI dla przedsiębiorstw.
Nasza kompleksowa konwersacyjna platforma AI jako usługa (PaaS) umożliwia firmom tworzenie, wdrażanie i monitorowanie rozwiązań opartych na LLM.
Stosowane w różnych branżach, przypadkach użycia i procesach biznesowych, projekty Botpress są zawsze skalowalne, bezpieczne i zgodne z marką.
Z ponad 500 000 użytkowników i milionami botów wdrożonych na całym świecie, Botpress jest platformą wybieraną zarówno przez firmy, jak i deweloperów. Nasz wysoki poziom bezpieczeństwa i dedykowana obsługa klienta zapewniają, że firmy są w pełni wyposażone do wdrażania agentów AI klasy korporacyjnej.
Skutecznie konfigurując autonomiczne węzły z odpowiednimi podpowiedziami i definicjami narzędzi, organizacje mogą tworzyć inteligentnych agentów, którzy autonomicznie obsługują interakcje użytkowników.
Zacznij budować już dziś. To nic nie kosztuje.
Spis treści
Bądź na bieżąco z najnowszymi informacjami na temat agentów AI
Udostępnij to na: