
Probabilmente conoscete l'argomento più caldo dell'anno: Gli agenti di intelligenza artificiale. La maggior parte di questi agenti AI sono agentiLLM .
"La rivoluzione a cui abbiamo assistito è costruita intorno a questi modelli linguistici", spiega Will Knight, scrittore di tecnologia di Wired. "Non è la stessa cosa di un sistema di intelligenza artificiale che è intrinsecamente un agente".
Gli agenti LLM possono essere costruiti per completare qualsiasi tipo di compito basato sul linguaggio, con la potenza degli LLMs che alimentano bot come ChatGPT e Claude.
E grazie alle loro capacità linguistiche e analitiche, stanno lentamente conquistando i posti di lavoro dei colletti bianchi, con oltre l'80% delle aziende che prevedono di utilizzare agenti AI nei prossimi anni.
Mentre l'ampia categoria degli agenti di IA comprende applicazioni non linguistiche (sistemi di raccomandazione di contenuti, riconoscimento di immagini, controllo robotico, ecc.), gli agenti di LLM sono tipicamente software di IA conversazionale.
Cosa sono gli agenti di LLM ?
LLM Gli agenti sono strumenti basati sull'intelligenza artificiale che utilizzano modelli linguistici di grandi dimensioni per interpretare il linguaggio, conversare ed eseguire compiti.
Questi agenti si basano su algoritmi complessi addestrati su grandi quantità di dati testuali, che consentono loro di comprendere e produrre linguaggio in modo da imitare la comunicazione umana.
LLM Gli agenti possono essere integrati in agenti AI, chatbot AI, assistenti virtuali, software di generazione di contenuti e altri strumenti applicati.
Come funzionano gli agenti LLM ?
Gli agenti LLM combinano la potenza di un LLM con il recupero, il ragionamento, la memoria e l'uso di strumenti per completare autonomamente i compiti. Vediamo cosa fa ciascuno di questi componenti.
In combinazione, queste capacità consentono agli agenti LLM di eseguire flussi di lavoro complessi e multi-fase in completa autonomia.
Ad esempio:
- Un agente di vendita B2B recupera i dati CRM su un prospect, analizza la progressione della trattativa, ricorda le interazioni passate con il prospect in modo da personalizzare il follow-up e utilizza le API di e-mail e calendario per inviare e programmare.
- Un agente IT recupera i registri di sistema per diagnosticare un errore, analizza le fasi di risoluzione dei problemi per individuare la strategia migliore, ricorda cosa ha funzionato nei problemi degli utenti precedenti ed esegue gli script per riavviare i servizi o creare un ticket.
Quali sono le 4 caratteristiche che definiscono un agente LLM ?

Le caratteristiche principali di un agente LLM sono quattro:
1. Modello linguistico
Il modello linguistico viene spesso considerato il "cervello" di un agente LLM . La sua qualità e la sua scala influenzano direttamente le prestazioni dell'agente LLM .
Si tratta di un sofisticato algoritmo addestrato su enormi insiemi di testo, che gli consente di comprendere il contesto, riconoscere gli schemi e produrre risposte coerenti e pertinenti al contesto.
- Identificare e imparare i modelli linguistici
- Ottenere un grado di consapevolezza contestuale (grazie ai suoi vasti dati di formazione)
- Adattarsi a diversi ambiti e gestire un'ampia gamma di argomenti
Il modello linguistico determina la profondità, l'accuratezza e la pertinenza delle risposte e costituisce la base delle capacità linguistiche dell'agente.
2. La memoria
La memoria si riferisce alla capacità di conservare le informazioni provenienti da interazioni passate, come fatti, preferenze dell'utente o argomenti in diverse sessioni.
Questo migliora la comprensione contestuale dell'agente e rende le conversazioni più continue e pertinenti.
In alcune configurazioni, la memoria consente all'agente di conservare le informazioni nel tempo. In questo modo è possibile un'interazione a lungo termine in cui l'agente "impara" dal comportamento o dalle preferenze ripetute dell'utente, sebbene ciò sia spesso regolato per motivi di privacy e di rilevanza.
3. Uso dello strumento
L'uso dello strumento porta un agente di LLM dalla conversazione all'azione.
Un agente LLM può integrarsi con applicazioni esterne, database o API per eseguire funzioni specifiche.
Ciò significa che possono recuperare informazioni in tempo reale, eseguire azioni esterne o accedere a database specializzati, fornendo informazioni in tempo reale. Questo include:
- Chiamare le API
- Acquisizione di dati in tempo reale, come gli aggiornamenti meteo o i prezzi delle azioni.
- Programmazione di riunioni o appuntamenti
- Interrogazione di database, come cataloghi di prodotti o documenti di politica del personale.
L'uso degli strumenti consente all'agente LLM di passare da un sistema passivo, basato sulla conoscenza, a un partecipante attivo in grado di interfacciarsi con altri sistemi.
4. Pianificazione
La pianificazione è la capacità di un agente di LLM di suddividere compiti complessi in una serie di fasi gestibili.
Un agente di LLM può pianificare con o senza feedback. La differenza?
- La pianificazione senza feedback significa che l'agente LLM creerà un piano basato sulla sua comprensione iniziale. È più veloce e più semplice, ma manca di adattabilità.
- Pianificazione con feedback significa che un agente di LLM può perfezionare continuamente il suo piano, prendendo input dall'ambiente. È più complesso, ma lo rende molto più flessibile e migliora le prestazioni nel tempo.
Pianificando, un agente di LLM può creare flussi logici che si muovono progressivamente verso una soluzione, rendendolo più efficace nel gestire richieste complesse.
Quali sono i diversi tipi di agenti LLM ?
.webp)
Agenti conversazionali (ad es. assistenza clienti e lead generation)
Questi tipi di agenti si impegnano in un dialogo naturale con gli utenti: spesso forniscono informazioni, rispondono a domande e assistono in vari compiti.
Questi agenti si basano su LLMs per comprendere e generare risposte simili a quelle umane.
Esempi: Agenti di assistenza clienti e chatbot sanitari
Agenti orientati ai compiti (ad es. assistenti AI e flussi di lavoro AI)
Concentrati sull'esecuzione di compiti specifici o sul raggiungimento di obiettivi predefiniti, questi agenti interagiscono con gli utenti per capire le loro esigenze e poi eseguono azioni per soddisfarle.
Esempi: Assistenti AI e bot HR
Agenti creativi (ad esempio, strumenti per la generazione di contenuti)
In grado di generare contenuti originali e creativi come opere d'arte, musica o scritti, questi agenti utilizzano LLMs per comprendere le preferenze umane e gli stili artistici, consentendo loro di produrre contenuti che risuonano con il pubblico.
Esempi: Strumenti per la generazione di contenuti e di immagini (come Dall-E).
Agenti collaborativi (ad esempio agenti AI aziendali)
Questi agenti lavorano a fianco degli esseri umani per realizzare obiettivi o compiti condivisi, facilitando la comunicazione, il coordinamento e la cooperazione tra i membri del team o tra gli esseri umani e le macchine.
LLMs possono supportare gli agenti collaborativi assistendoli nel processo decisionale, generando rapporti o fornendo approfondimenti.
Esempi: La maggior parte degli agenti AI aziendali e i chatbot per la gestione dei progetti.
In che modo le imprese utilizzano gli agenti LLM ?
Le aziende traggono vantaggio dagli agenti di LLM nelle aree che comportano l'elaborazione e la risposta al linguaggio naturale, come rispondere alle domande, fornire indicazioni, automatizzare i flussi di lavoro e analizzare il testo.
Le aziende utilizzano spesso gli agenti di LLM per il marketing, l'analisi dei dati, la conformità, l'assistenza legale, il supporto sanitario, le attività finanziarie e l'istruzione.
Ecco 3 dei casi d'uso più diffusi degli agenti di LLM :
Assistenza clienti
Secondo uno studio condotto su 167 aziende dall'esperto di automazione Pascal Bornet, il servizio clienti è il caso d'uso più diffuso per l'adozione di agenti LLM .
LLM Gli agenti sono ampiamente utilizzati nell'assistenza clienti per gestire le domande frequenti, risolvere i problemi e fornire assistenza 24 ore su 24, 7 giorni su 7.
Questi agenti possono interagire con i clienti in tempo reale, offrendo aiuto immediato o inoltrando richieste complesse ad agenti umani.
Vedi anche: Che cos'è un chatbot del servizio clienti?
Vendite e generazione di lead
Nel settore delle vendite, gli agenti LLM sono utilizzati per la generazione di lead AI e possono anche qualificare i lead in seguito, coinvolgendo i potenziali clienti in conversazioni, valutando le esigenze e raccogliendo informazioni preziose.
Possono anche automatizzare le interazioni di follow-up, inviando raccomandazioni personalizzate o informazioni sui prodotti in base agli interessi del cliente.
Vedi anche: Come utilizzare l'intelligenza artificiale per le vendite
Supporto interno: Risorse umane e IT
Per il supporto interno, gli agenti LLM semplificano i processi HR e IT gestendo le richieste più comuni dei dipendenti.
In effetti, lo studio Bornet ha rilevato che gli agenti LLM nelle operazioni interne sono stati i più efficaci dal punto di vista dei costi, con un risparmio del 30-90% del tempo precedentemente impiegato per svolgere le attività interne.
Nel settore delle risorse umane, rispondono a domande su argomenti quali benefit, politiche di congedo e buste paga, mentre nel settore IT si occupano della risoluzione di problemi tecnici di base o dell'automazione di attività di routine come l'impostazione degli account.
In questo modo i team HR e IT possono concentrarsi su responsabilità più complesse, invece che su attività ripetitive.
Vedi anche: I migliori agenti AI per le risorse umane
Come migliorare LLM Risposte degli agenti
Se stai personalizzando un LLM per un progetto di intelligenza artificiale , potresti voler modificare le risposte standard che un modello pubblico fornirebbe agli utenti. (Non puoi far sì che il tuo chatbot consigli la concorrenza, eh?) Potresti anche voler utilizzare una logica aziendale personalizzata , in modo che funzioni più come un dipendente formato che come una generazione casuale di linguaggio.
Esistono quattro concetti generali che migliorano la qualità di LLM risposte:
- RAG
- Sintonizzazione fine
- Richiesta di N-shot
- Ingegneria tempestiva
1. Generazione con recupero aumentato
RAG è un nome elegante per una cosa semplice che abbiamo fatto tutti in ChatGPT: incollare del testo in ChatGPT e fare una domanda su di esso.
Un esempio tipico è la richiesta di sapere se un certo prodotto è in stock su un sito di e-commerce, e un chatbot cerca le informazioni in un catalogo di prodotti (invece che in Internet).
In termini di velocità di sviluppo e di informazioni in tempo reale, RAG è un must.
Di solito non influisce sul modello da scegliere, tuttavia nulla impedisce di creare un endpoint API LLM che interroga le informazioni e le risposte e di utilizzare questo endpoint come se fosse il proprio LLM.
L'utilizzo di RAG per un chatbot basato sulla conoscenza è spesso più facile da mantenere, in quanto non è necessario mettere a punto un modello e mantenerlo aggiornato, il che può anche ridurre i costi.
2. Messa a punto fine
La messa a punto consiste nel fornire esempi al modello in modo che impari a svolgere bene un determinato compito. Se volete che eccella nel parlare del vostro prodotto, potreste fornire una serie di esempi delle migliori telefonate di vendita della vostra azienda.
Se il modello è open source, chiedetevi se il vostro team ha una capacità ingegneristica sufficiente per mettere a punto un modello.
Se il modello è closed source e viene fornito come servizio ( GPT-4 o Claude), di solito i vostri ingegneri possono mettere a punto i modelli personalizzati utilizzando le API. Il prezzo di solito aumenta notevolmente con questo metodo, ma la manutenzione è minima o nulla.
Ma per molti casi d'uso, la messa a punto non è il primo passo verso l'ottimizzazione del modello.
Un ottimo caso di messa a punto è la costruzione di un knowledge bot per le conoscenze statiche. Fornendo esempi di domande e risposte, dovrebbe essere in grado di rispondere in futuro senza cercare la risposta. Ma non è una soluzione pratica per le informazioni in tempo reale.
3. Apprendimento N-shot
Il modo più rapido per iniziare a migliorare la qualità delle risposte è quello di fornire esempi in una singola chiamata API LLM .
Zero-shot - fornire zero esempi di ciò che si sta cercando in una risposta - è il modo in cui la maggior parte di noi usa ChatGPT. L'aggiunta di un solo esempio (o one-shot) è di solito sufficiente per vedere un miglioramento sostanziale nella qualità della risposta.
Più di un esempio è considerato n-shot. N-shot non cambia il modello, a differenza del fine-tuning. Si stanno semplicemente fornendo esempi appena prima di chiedere una risposta, ogni volta che si pone una domanda.
Ma questa strategia non può essere utilizzata in modo eccessivo: i modelli di LLM hanno una dimensione massima del contesto e vengono valutati in base alla dimensione del messaggio. La messa a punto può eliminare la necessità di n esempi, ma richiede più tempo per essere messa a punto.
4. Tecniche di ingegneria rapida
Esistono altre tecniche di prompt engineering, come la chain-of-thought, che costringono i modelli a pensare ad alta voce prima di trovare una risposta.
Esiste anche il concatenamento dei prompt , che incoraggia i modelli a suddividere le attività complesse in passaggi più piccoli eseguendo più prompt in sequenza.
Queste strategie possono aumentare significativamente la qualità e l'affidabilità delle risposte, soprattutto per le attività che richiedono un ragionamento intenso, ma spesso comportano risposte più lunghe, un maggiore utilizzo di token e prestazioni più lente.
Questo aumenta la qualità della risposta, ma a costo della lunghezza, del costo e della velocità della risposta.
Come costruire un LLM Agente in 6 passaggi

1. Definire gli obiettivi
Il primo passo nella costruzione di un agente di intelligenza artificiale o di un chatbot è quello di stabilire cosa si vuole che faccia esattamente.
Chiarite cosa volete che l'agente di LLM realizzi, sia che si tratti di assistere le richieste dei clienti, generare contenuti o gestire compiti specifici.
L'identificazione di obiettivi chiari determinerà l'impostazione e la configurazione dell'agente.
2. Scegliere una piattaforma di IA
Le migliori piattaforme di intelligenza artificiale dipendono interamente dai vostri obiettivi e dalle vostre esigenze.
Scegliete una piattaforma che sia in linea con le vostre esigenze, considerando fattori come le opzioni di personalizzazione, le capacità di integrazione, la facilità d'uso e il supporto.
La piattaforma dovrebbe:
- Supportare il caso d'uso desiderato
- Offrite la vostra preferenza LLMs
- Offrire capacità di integrazione
3. Configurare il LLM
In base alle opzioni della piattaforma, è possibile scegliere un modello precostituito LLM o, se necessario, perfezionarlo per attività specifiche.
Molte piattaforme offrono modelli linguistici integrati, preaddestrati e pronti all'uso.
Se siete interessati a personalizzare l'utilizzo di LLM , leggete il nostro articolo sulla scelta di un'opzione personalizzata di LLM per il vostro progetto di intelligenza artificiale da parte del nostro ingegnere della crescita, Patrick Hamelin.
4. Integrare gli strumenti
La maggior parte delle piattaforme offre opzioni di integrazione per strumenti esterni. Collegate tutte le API, i database o le risorse a cui il vostro agente dovrà accedere, come i dati del CRM o le informazioni in tempo reale.
5. Testare e perfezionare
Testate a fondo l'agente utilizzando gli strumenti di test integrati nella piattaforma. Regolate i parametri, la formulazione dei messaggi e i flussi di lavoro in base ai risultati dei test, per assicurarvi che l'agente funzioni bene negli scenari reali.
6. Distribuire e monitorare
Utilizzate gli strumenti di monitoraggio della piattaforma per monitorare le interazioni e le prestazioni dell'agente dopo la distribuzione.
Raccogliere informazioni e perfezionare l'impostazione in base alle esigenze, sfruttando i meccanismi di feedback forniti dalla piattaforma.
Distribuire un agente LLM personalizzato
LLM Gli agenti stanno raggiungendo tassi di adozione di massa tra le imprese - nel servizio clienti, nelle operazioni interne e nell'e-commerce. Le aziende che tardano ad adottare l'intelligenza artificiale ne subiranno le conseguenze.
Botpress è una piattaforma di agenti AI estensibile all'infinito costruita per le aziende. Il nostro stack consente agli sviluppatori di creare agenti LLM con tutte le funzionalità necessarie.
La nostra suite di sicurezza avanzata garantisce che i dati dei clienti siano sempre protetti e completamente controllati dal vostro team di sviluppo.
Iniziate a costruire oggi stesso. È gratuito.
Oppure contattate il nostro team per saperne di più.