Se avete usato un chatbot diGPT come ChatGPT, avrete probabilmente notato la qualità variabile dell'output.
A volte produce esattamente ciò di cui si ha bisogno. Altre volte si sospetta che l'"intelligenza" dell'IA sia un po' una farsa.
Potete migliorare il vostro ChatGPT migliorando il modo in cui lo richiedete. Il prompt a catena di pensiero incoraggia LLM a ragionare passo dopo passo su un compito prima di generare una risposta.
I modelli e le funzioni di IA più recenti iniziano a incorporare direttamente il ragionamento a catena di pensiero, in modo che i loro modelli ragionino automaticamente sul problema senza bisogno di ulteriori istruzioni.
Che cos'è il prompt a catena di pensieri?
Il prompting a catena di pensieri è una tecnica di ingegneria dell'IA che istruisce i modelli a scomporre compiti complessi, ragionando su ogni fase prima di rispondere.
Si potrebbe anche sentire il termine "ragionamento a catena". Si riferisce al processo graduale che il modello seguirà per ragionare sul compito da svolgere.
I modelli diOpenAI o1 non richiedono la richiesta della catena del pensiero, perché hanno già il ragionamento a catena incorporato. Ma è possibile utilizzare la richiesta di ragionamento a catena su qualsiasi chatbot basato su LLM.
Come funziona il ragionamento a catena?
Il ragionamento a catena comporta la scomposizione di un problema in fasi logiche più piccole che il chatbot AI deve risolvere in sequenza.
In primo luogo, l'IA identifica le parti chiave del problema. Poi elabora ogni parte in sequenza, considerando come un passo conduce al successivo. Ogni passo si basa sul precedente, consentendo all'IA di muoversi metodicamente verso una conclusione logica.
Esempi di sollecitazione della catena di pensiero
La famosa richiesta "fragola
ChatGPT e altri LLMs hanno debolezze ben documentate. Uno di questi è la loro incapacità di identificare correttamente quante "R" ci sono nella parola "fragola" (probabilmente il famoso limite dietro il nome in codice dei modelli o1: Strawberry).
ChatGPT-4o non utilizza il ragionamento a catena. Al contrario, fa riferimento ai dati di addestramento e genera una risposta in base alla probabilità che ogni parola segua la precedente. Anche se nella maggior parte dei casi può sembrare corretto, sta generando solo per imitare il linguaggio umano, non per ragionare o condurre ricerche.
Quando si pone a ChatGPT-4o la famosa domanda sulle fragole, non è in grado di dare la risposta corretta:
Tuttavia, è possibile utilizzare una tecnica di prompting a catena di pensieri per aiutare il chatbot LLM ad arrivare alla risposta corretta:
L'ultima iterazione di ChatGPT, alimentata da OpenAI o1-preview, è la prima grande LLM a utilizzare il ragionamento a catena di pensiero senza ulteriori suggerimenti.
La risposta viene trovata al primo tentativo, perché è stata istruita a seguire automaticamente lo stesso processo del secondo prompt ChatGPT-4o di cui sopra. L'unica differenza è che questo processo viene eseguito senza ulteriori istruzioni.
Matematica
Se si chiedesse a una vecchia versione di ChatGPT una domanda di matematica tratta da un libro di testo delle elementari, non sempre la risposta sarebbe corretta.
I problemi matematici a più fasi richiedono un ragionamento che non era presente nel precedente LLMs. Si poteva scomporre ogni fase del problema, ma se non si conoscevano i passaggi corretti, LLM non poteva aiutare.
ChatGPT-4o è in grado di ragionare sulla risposta alla domanda scomponendo la serie di passaggi del problema:
Agenti AI collegati a Hubspot
Per un'applicazione reale, prendiamo un agente di intelligenza artificiale basato su LLM e integrato in Hubspot. Un team di vendita utilizza questo agente AI per elaborare i nuovi contatti raccolti attraverso i canali.
Scenario
Unvenditore invia un nuovo lead all'agente AI e gli chiede di registrarlo in Hubspot e di inviare un'e-mail di primo contatto, ma di non compilarlo se il lead lavora in un'azienda già prospect.
LLM senza ragionamenti a catena
L'agente AI di LLM registra il lead e invia l'e-mail senza verificare se l'azienda è già un prospect, mancando la condizione chiave.
LLM con il ragionamento a catena
L'agente AI di LLM controlla se l'azienda è già un potenziale cliente prima di agire. Se si tratta di un prospect, salta la registrazione e l'invio dell'e-mail; in caso contrario, registra il lead e invia l'e-mail, seguendo accuratamente le istruzioni del venditore.
Quando è opportuno utilizzare il prompt della catena di pensiero?
Il prompt della catena del pensiero è più adatto a scenari che richiedono un ragionamento graduale.
I candidati principali sono i compiti che implicano deduzioni logiche, problemi matematici, compiti procedurali o qualsiasi situazione che richieda risposte in più fasi.
Ma aspettate: il ragionamento sembra ottimo, perché non dovrei usarlo sempre?
Buona domanda. Non tutte le domande richiedono un ragionamento. Per esempio:
- Domande semplici e concrete, come "Qual è la capitale del Canada?".
- Problemi a passo singolo, come "Quanto fa 145 + 37?".
- Compiti di generazione di contenuti, come "Scrivi un'e-mail educata di 3 frasi per chiedere al mio collega se ha già finito il suo progetto".
Cambiamento del prompt vs. prompt della catena di pensiero
Sebbene il nome sia simile, il concatenamento dei prompt e la catena di pensieri sono strategie di prompt diverse per migliorare i risultati dell'intelligenza artificiale generativa.
Sollecitazione della catena di pensiero
Con il prompt a catena di pensieri, l'utente guida l'intelligenza artificiale a spiegare il ragionamento alla base della sua risposta in un'unica risposta. In questo modo l'IA è indotta a ripercorrere ogni fase del processo di risoluzione del problema, ma con un'unica richiesta e risposta.
Ad esempio, una richiesta di catena di pensieri può essere realizzata in un solo messaggio:
"Un team delle risorse umane deve esaminare 5 valutazioni delle prestazioni dei dipendenti. Ognuna richiederà 30 minuti e hanno bisogno di 15 minuti per prepararsi in anticipo. Le valutazioni dei senior richiederanno 10 minuti in più per ciascuna. Quanto tempo ci vorrà per completare 5 valutazioni senior e 25 valutazioni junior? Esponete il vostro ragionamento passo per passo".
Concatenamento dei prompt
Con il concatenamento dei prompt, il compito viene suddiviso in fasi separate con più prompt, ognuno dei quali si basa sul risultato precedente. Questo aiuta a strutturare e guidare l'intelligenza artificiale attraverso un compito complesso che probabilmente implica un ragionamento.
Il primo prompt potrebbe essere del tipo:
Prompt 1: Identificare le principali sfide che un'azienda potrebbe affrontare nel passaggio al lavoro a distanza.
Uscita:
- Lacune nella comunicazione
- Mantenere la produttività
- Infrastruttura tecnologica
- Impegno dei dipendenti
I prossimi suggerimenti potrebbero approfondire questi concetti. Ad esempio:
Prompt 2: Mi dica come un'azienda può trovare soluzioni alle lacune di comunicazione quando si passa al lavoro a distanza.
Dopo il prossimo ciclo di uscita, l'anello successivo della catena può essere:
Prompt 3: Quali sono le sfide comuni che le aziende devono affrontare quando adottano queste soluzioni?
Quindi, pur essendo simili, i due approcci sono diversi per estrarre i contenuti più approfonditi e rilevanti dagli strumenti di IA generativa.
Spunto per la catena di pensiero su Botpress
Botpress Gli utenti hanno già familiarità con una funzione che utilizza il ragionamento a catena.
Il Nodo Autonomo ha debuttato nel luglio del 2024 su Botpress, una piattaforma per la creazione di agenti AI. Il Nodo Autonomo è in grado di automatizzare i flussi di lavoro in più fasi e di prendere decisioni in modo autonomo.
Un nodo autonomo può essere creato e sollecitato con una semplice riga di testo, come "Il vostro scopo è generare lead qualificati. Crea lead in Salesforce quando un utente indica un intento di acquisto".
L'agente AI costruito con questo Nodo Autonomo compie una serie di azioni per raggiungere il suo obiettivo, indipendentemente dai flussi di lavoro progettati dagli esseri umani. Può anche passare da un sito LLMs all'altro in base alle necessità, decidendo di privilegiare la velocità o la potenza.
Costruite il vostro agente autonomo
Botpress è l'unica piattaforma per agenti di intelligenza artificiale che consente di costruire agenti veramente autonomi.
Lo Studio Botpress , aperto e flessibile, consente di creare infiniti casi d'uso in tutti i settori, dalle risorse umane alla lead generation. La nostra libreria di integrazioni precostituite e le ampie esercitazioni consentono agli utenti di creare facilmente agenti AI da zero.
Iniziate a costruire oggi stesso. È gratuito.
Indice dei contenuti
Rimanete aggiornati sulle ultime novità in materia di agenti AI
Condividi questo articolo su: