
Vous connaissez probablement le sujet le plus brûlant de l'année : les agents d'intelligence artificielle. La plupart de ces agents d'IA sont des agentsLLM .
"La révolution que nous avons connue s'est construite autour de ces modèles de langage", explique Will Knight, rédacteur technique à Wired. "Ce n'est pas tout à fait la même chose qu'un système d'IA qui est intrinsèquement un agent.
Les agents LLM peuvent être construits pour accomplir n'importe quel type de tâche linguistique, avec la puissance des LLMs qui alimentent des robots tels que ChatGPT et Claude.
Grâce à leur langage et à leurs capacités analytiques, ils prennent peu à peu possession des postes de travail des cols blancs. Plus de 80 % des entreprises prévoient d'utiliser des agents d'IA au cours des prochaines années.
Alors que la catégorie générale des agents d'IA comprend des applications non linguistiques (systèmes de recommandation de contenu, reconnaissance d'images, contrôle robotique, etc.), les agents LLM sont généralement des logiciels d'IA conversationnelle.
Que sont les agents LLM ?
LLM sont des outils alimentés par l'IA qui utilisent de grands modèles linguistiques pour interpréter le langage, avoir des conversations et effectuer des tâches.
Ces agents sont construits sur la base d'algorithmes complexes formés à partir de grandes quantités de données textuelles, ce qui leur permet de comprendre et de produire du langage d'une manière qui imite la communication humaine.
LLM peuvent être intégrés dans des agents d'IA, des chatbots d'IA, des assistants virtuels, des logiciels de génération de contenu et d'autres outils appliqués.
Comment fonctionnent les agents LLM ?
Les agents LLM combinent la puissance d'un LLM avec la récupération, le raisonnement, la mémoire et l'utilisation d'outils pour accomplir des tâches de manière autonome. Voyons ce que fait chacun de ces composants.
En combinaison, ces capacités permettent aux agents LLM d'exécuter des flux de travail complexes à plusieurs étapes en toute autonomie.
Par exemple :
- Un agent commercial B2B récupère les données CRM d'un prospect, analyse la progression de l'affaire, se souvient des interactions passées avec le prospect afin de personnaliser le suivi, et utilise les API de courrier électronique et de calendrier pour envoyer et planifier.
- Un agent informatique consulte les journaux du système pour diagnostiquer une erreur, analyse les étapes de dépannage pour trouver la meilleure stratégie, se souvient de ce qui a fonctionné pour les problèmes précédents des utilisateurs et exécute des scripts pour redémarrer les services ou créer un ticket.
Quelles sont les 4 caractéristiques d'un agent LLM ?

Un agent LLM présente quatre caractéristiques essentielles :
1. Modèle linguistique
Le modèle linguistique est souvent considéré comme le "cerveau" d'un agent LLM . Sa qualité et son échelle influencent directement les performances de l'agent LLM .
Il s'agit d'un algorithme sophistiqué formé sur d'énormes ensembles de données textuelles, ce qui lui permet de comprendre le contexte, de reconnaître des schémas et de produire des réponses cohérentes et adaptées au contexte.
- Identifier et apprendre des modèles linguistiques
- Acquérir une certaine connaissance du contexte (grâce à ses vastes données d'entraînement)
- S'adapter à différents domaines et traiter un large éventail de sujets
Le modèle linguistique détermine la profondeur, la précision et la pertinence des réponses, ce qui constitue la base des capacités linguistiques de l'agent.
2. Mémoire
La mémoire fait référence à la capacité de conserver des informations provenant d'interactions antérieures, comme des faits, des préférences d'utilisateurs ou des sujets, d'une session à l'autre.
Cela améliore la compréhension du contexte par l'agent et rend les conversations plus continues et plus pertinentes.
Dans certaines configurations, la mémoire permet à l'agent de conserver des informations au fil du temps. Cela permet une interaction à long terme où l'agent "apprend" du comportement ou des préférences répétées de l'utilisateur - bien que cela soit souvent réglementé pour des raisons de protection de la vie privée et de pertinence.
3. Utilisation des outils
Son utilisation permet à l'agent LLM de passer de la conversation à l'action.
Un agent LLM peut s'intégrer à des applications externes, des bases de données ou des API pour exécuter des fonctions spécifiques.
Cela signifie qu'ils peuvent rechercher des informations en temps réel, exécuter des actions externes ou accéder à des bases de données spécialisées, ce qui leur permet de fournir des informations en temps réel. Il s'agit notamment de
- Appeler des API
- L'intégration de données en direct, telles que les prévisions météorologiques ou les cours de la bourse.
- Programmation de réunions ou de rendez-vous
- Interroger des bases de données, comme des catalogues de produits ou des documents sur la politique des ressources humaines
L'utilisation d'outils permet à l'agent LLM de passer d'un système passif, basé sur la connaissance, à un participant actif capable d'interagir avec d'autres systèmes.
4. Planification
La planification est la capacité d'un agent LLM à décomposer des tâches complexes en une série d'étapes gérables.
Un agent LLM peut planifier avec ou sans retour d'information. Quelle est la différence ?
- La planification sans retour d'information signifie que l'agent LLM créera un plan basé sur sa compréhension initiale. C'est plus rapide et plus simple, mais cela manque d'adaptabilité.
- La planification avec retour d'information signifie qu'un agent LLM peut continuellement affiner son plan en tenant compte des informations fournies par son environnement. C'est plus complexe, mais cela permet d'être beaucoup plus flexible et d'améliorer les performances au fil du temps.
En planifiant, un agent LLM peut créer des flux logiques qui évoluent progressivement vers une solution, ce qui le rend plus efficace dans le traitement des demandes complexes.
Quels sont les différents types d'agents LLM ?
.webp)
Agents conversationnels (par exemple, assistance à la clientèle et génération de leads)
Ces types d'agents engagent un dialogue naturel avec les utilisateurs - ils fournissent souvent des informations, répondent à des questions et aident à accomplir diverses tâches.
Ces agents s'appuient sur LLMs pour comprendre et générer des réponses semblables à celles des humains.
Exemples : Agents d'assistance à la clientèle et chatbots de soins de santé
Agents orientés vers les tâches (par exemple, assistants et flux de travail d'IA)
Axés sur l'exécution de tâches spécifiques ou la réalisation d'objectifs prédéfinis, ces agents interagissent avec les utilisateurs pour comprendre leurs besoins, puis exécutent des actions pour les satisfaire.
Exemples : Assistants d'IA et bots RH
Agents créatifs (par exemple, outils de génération de contenu)
Capables de générer des contenus originaux et créatifs tels que des œuvres d'art, de la musique ou des écrits, ces agents utilisent LLMs pour comprendre les préférences humaines et les styles artistiques, ce qui leur permet de produire des contenus qui trouvent un écho auprès du public.
Exemples : Outils de génération de contenu et outils de génération d'images (comme Dall-E)
Agents collaboratifs (par exemple, agents d'intelligence artificielle d'entreprise)
Ces agents travaillent aux côtés des humains pour atteindre des objectifs ou accomplir des tâches communes, en facilitant la communication, la coordination et la coopération entre les membres d'une équipe ou entre les humains et les machines.
LLMs peuvent soutenir les agents collaboratifs en aidant à la prise de décision, en produisant des rapports ou en fournissant des informations.
Exemples : La plupart des agents d'IA d'entreprise et des chatbots de gestion de projet.
Comment les entreprises utilisent-elles les agents de LLM ?
Les entreprises tirent profit des agents LLM dans les domaines qui impliquent le traitement et la réponse au langage naturel, comme répondre à des questions, fournir des conseils, automatiser des flux de travail et analyser du texte.
Les entreprises utilisent souvent les agents LLM pour le marketing, l'analyse de données, la conformité, l'assistance juridique, l'aide aux soins de santé, les tâches financières et l'éducation.
Voici trois des cas d'utilisation les plus courants des agents LLM :
Soutien à la clientèle
Selon une étude de Pascal Bornet, expert en automatisation, portant sur 167 entreprises, le service client est le cas d'utilisation le plus populaire pour l'adoption d'agents LLM .
LLM Les agents sont largement utilisés dans l'assistance à la clientèle pour traiter les FAQ, résoudre les problèmes et fournir une assistance 24 heures sur 24 et 7 jours sur 7.
Ces agents peuvent dialoguer avec les clients en temps réel, en leur offrant une aide immédiate ou en transmettant les demandes complexes à des agents humains.
Voir aussi : Qu'est-ce qu'un chatbot de service client ?
Ventes et génération de leads
Dans le domaine de la vente, les agents LLM sont utilisés pour la génération de leads par l'IA - ils peuvent même qualifier les leads par la suite en engageant des conversations avec les clients potentiels, en évaluant leurs besoins et en recueillant des informations précieuses.
Ils peuvent également automatiser les interactions de suivi, en envoyant des recommandations personnalisées ou des informations sur les produits en fonction des centres d'intérêt du client.
Voir aussi : Comment utiliser l'IA pour les ventes
Soutien interne : RH et TI
En ce qui concerne l'assistance interne, les agents du LLM rationalisent les processus RH et informatiques en traitant les demandes courantes des employés.
En fait, l'étude Bornet a montré que les agents LLM dans les opérations internes étaient les plus rentables, économisant 30 à 90 % du temps nécessaire pour accomplir les tâches internes.
Dans le domaine des ressources humaines, ils répondent aux questions sur des sujets tels que les avantages sociaux, les politiques en matière de congés et la paie, tandis que dans le domaine des technologies de l'information, ils assurent le dépannage des problèmes techniques de base ou automatisent les tâches de routine telles que la configuration des comptes.
Cela permet aux équipes RH et informatiques de se concentrer sur des responsabilités plus complexes, au lieu de s'occuper de tâches répétitives.
Voir aussi : Les meilleurs agents d'IA pour les RH
Comment s'améliorer LLM Réponses des agents
Si vous personnalisez un LLM pour un projet d'IA , vous souhaiterez peut-être modifier les réponses standard qu'un modèle public fournirait aux utilisateurs. (Vous ne pouvez pas demander à votre chatbot de recommander la concurrence, hein ?) Vous souhaiterez peut-être également qu'il utilise une logique métier personnalisée , afin qu'il fonctionne davantage comme un employé formé que comme une génération de langage aléatoire.
Il existe quatre concepts généraux qui améliorent la qualité de LLM réponses:
- RAG
- Mise au point
- Invitation à la prise de vue N
- Ingénierie rapide
1. Génération augmentée par récupération
RAG est un nom de fantaisie pour une chose simple que nous avons tous faite sur ChatGPT: coller un texte dans ChatGPT et poser une question à ce sujet.
Un exemple typique est la question de savoir si un certain produit est en stock sur un site de commerce électronique, et un chatbot recherche l'information dans un catalogue de produits (au lieu d'aller sur l'internet).
En termes de rapidité de développement et d'obtention d'informations en temps réel, RAG est indispensable.
Cela n'affecte généralement pas le modèle que vous choisirez, mais rien ne vous empêche de créer un point de terminaison de l'API LLM qui demande des informations et des réponses et d'utiliser ce point de terminaison comme s'il s'agissait d'un point de terminaison à part entière LLM.
L'utilisation de RAG pour un chatbot basé sur la connaissance est souvent plus facile à maintenir, car il n'est pas nécessaire d'affiner un modèle et de le maintenir à jour, ce qui peut également réduire les coûts.
2. Réglage fin
La mise au point consiste à fournir des exemples à votre modèle afin qu'il apprenne à bien exécuter une tâche donnée. Si vous voulez qu'il excelle à parler de votre produit, vous pouvez lui fournir une série d'exemples des meilleurs appels de vente de votre entreprise.
Si le modèle est libre, demandez-vous si votre équipe dispose d'une capacité d'ingénierie suffisante pour affiner un modèle.
Si le modèle est fermé et fourni en tant que service - GPT-4 ou Claude - vous pouvez généralement demander à vos ingénieurs d'affiner les modèles personnalisés à l'aide d'API. Le prix augmente généralement de manière substantielle avec cette méthode, mais il n'y a que peu ou pas de maintenance.
Mais pour de nombreux cas d'utilisation, le réglage fin n'est pas la première étape de l'optimisation de votre modèle.
La construction d'un bot de connaissances pour les connaissances statiques est un bon exemple de réglage fin. En donnant des exemples de questions et de réponses, il devrait être capable d'y répondre à l'avenir sans avoir à chercher la réponse. Mais ce n'est pas une solution pratique pour les informations en temps réel.
3. Apprentissage N-shot
Le moyen le plus rapide d'améliorer la qualité des réponses est de fournir des exemples dans un seul appel à l'API LLM .
La plupart d'entre nous utilisent ChatGPT pour donner zéro exemple de ce qu'ils recherchent dans une réponse. L'ajout d'un seul exemple (ou one-shot) suffit généralement à améliorer considérablement la qualité de la réponse.
Plus d'un exemple est considéré comme n-shot. Le n-shot ne modifie pas le modèle, contrairement au fine-tuning. Vous donnez simplement des exemples juste avant de demander une réponse, à chaque fois que vous posez une question.
Mais il ne faut pas abuser de cette stratégie : les modèles LLM ont une taille de contexte maximale et sont tarifés en fonction de la taille du message. Un réglage fin peut supprimer la nécessité d'avoir recours à des exemples à n clichés, mais il faut plus de temps pour y parvenir.
4. Techniques d'ingénierie rapides
Il existe d'autres techniques d'ingénierie rapide, comme la chaîne de pensée, qui obligent les modèles à réfléchir à voix haute avant de trouver une réponse.
Il existe également un enchaînement d'invites , qui encourage les modèles à diviser les tâches complexes en étapes plus petites en exécutant plusieurs invites en séquence.
Ces stratégies peuvent augmenter considérablement la qualité et la fiabilité des réponses, en particulier pour les tâches nécessitant un raisonnement intensif, mais elles se font souvent au prix de réponses plus longues, d’une utilisation plus élevée des jetons et de performances plus lentes.
La qualité de la réponse s'en trouve améliorée, mais au détriment de la longueur, du coût et de la rapidité de la réponse.
Comment construire un LLM Agent en 6 étapes

1. Définir les objectifs
La première étape de la création d'un agent d'IA ou d'un chatbot consiste à déterminer exactement ce que vous voulez qu'il accomplisse.
Précisez ce que vous attendez de l'agent LLM , qu'il s'agisse de répondre aux demandes des clients, de générer du contenu ou de gérer des tâches spécifiques.
L'identification d'objectifs clairs déterminera l'installation et la configuration de l'agent.
2. Choisir une plateforme d'IA
Les meilleures plateformes d'IA dépendent entièrement de vos objectifs et de vos besoins.
Choisissez une plateforme qui correspond à vos besoins, en tenant compte de facteurs tels que les options de personnalisation, les capacités d'intégration, la facilité d'utilisation et l'assistance.
La plateforme devrait :
- Soutenir le cas d'utilisation souhaité
- Proposez votre solution préférée LLMs
- Offrir des capacités d'intégration
3. Configurez le LLM
En fonction des options de la plateforme, vous pouvez choisir une version préétablie de LLM ou affiner un modèle pour des tâches spécialisées si nécessaire.
De nombreuses plateformes proposent des modèles linguistiques intégrés, pré-entraînés et prêts à l'emploi.
Si vous souhaitez personnaliser votre utilisation de LLM , lisez notre article sur le choix d'une option LLM personnalisée pour votre projet d'IA par notre ingénieur de croissance, Patrick Hamelin.
4. Intégrer les outils
La plupart des plateformes proposent des options d'intégration pour les outils externes. Connectez les API, les bases de données ou les ressources auxquelles votre agent devra accéder, telles que les données CRM ou les informations en temps réel.
5. Tester et affiner
Testez l'agent de manière approfondie à l'aide des outils de test intégrés à la plateforme. Ajustez les paramètres, la formulation des messages et les flux de travail en fonction des résultats des tests afin de vous assurer que l'agent fonctionne bien dans des scénarios réels.
6. Déployer et surveiller
Utilisez les outils de surveillance de la plateforme pour suivre les interactions et les performances de l'agent après son déploiement.
Recueillir des informations et affiner la configuration si nécessaire, en tirant parti des mécanismes de retour d'information fournis par la plateforme.
Déployer un agent LLM personnalisé
LLM Les agents de l'IA atteignent des taux d'adoption massifs dans les entreprises - dans le service à la clientèle, les opérations internes et le commerce électronique. Les entreprises qui tardent à adopter cette technologie en subiront les conséquences si elles manquent la vague de l'IA.
Botpress est une plateforme d'agents d'intelligence artificielle extensible à l'infini, conçue pour les entreprises. Notre site stack permet aux développeurs de créer des agents LLM dotés de toutes les fonctionnalités dont vous pourriez avoir besoin.
Notre suite de sécurité améliorée garantit que les données des clients sont toujours protégées et entièrement contrôlées par votre équipe de développement.
Commencez à construire dès aujourd'hui. C'est gratuit.
Ou contactez notre équipe pour en savoir plus.