Si vous avez utilisé un chatbotGPT comme ChatGPT, vous avez probablement remarqué la qualité variable des résultats.
Parfois, elle produit exactement ce dont vous avez besoin. D'autres fois, vous soupçonnez que l'"intelligence" de l'IA n'est qu'une farce.
Vous pouvez améliorer votre ChatGPT en améliorant la façon dont vous l'invoquez. L'incitation à la chaîne de pensée encourage LLM à raisonner sur une tâche étape par étape avant de générer une réponse.
Les nouveaux modèles et fonctions d'IA commencent à intégrer directement le raisonnement par chaîne de pensée, de sorte que leurs modèles traitent automatiquement le problème sans autre forme de procès.
Qu'est-ce que l'incitation à la chaîne de pensée ?
La chaîne de pensée est une technique d'ingénierie de l'IA qui demande aux modèles de décomposer les tâches complexes, en raisonnant à chaque étape avant de répondre.
Vous pouvez également entendre le terme "raisonnement en chaîne". Ce terme fait référence au processus étape par étape que le modèle suivra pour raisonner à travers la tâche à accomplir.
Les modèlesOpenAI o1 n'ont pas besoin d'être guidés par la chaîne de pensée, car ils intègrent déjà le raisonnement par la chaîne de pensée. Mais vous pouvez utiliser l'incitation à la réflexion en chaîne sur n'importe quel chatbot alimenté par LLM.
Comment fonctionne le raisonnement en chaîne ?
Le raisonnement par chaîne de pensée consiste à décomposer un problème en étapes plus petites et logiques que le chatbot IA doit résoudre dans l'ordre.
Tout d'abord, l'IA identifie les éléments clés du problème. Ensuite, elle traite chaque partie dans l'ordre, en examinant comment une étape mène à la suivante. Chaque étape s'appuie sur la précédente, ce qui permet à l'IA d'avancer méthodiquement vers une conclusion logique.
Exemples d'incitation à la réflexion en chaîne
Le célèbre prompteur à la fraise
ChatGPT et autres LLMs ont des faiblesses bien documentées. L'une d'entre elles est leur incapacité à identifier correctement le nombre de "R" dans le mot "fraise" (il s'agit probablement de la fameuse limitation à l'origine du nom de code des modèles o1 : Strawberry).
ChatGPT-4o n'utilise pas de raisonnement en chaîne. Au lieu de cela, il se réfère à ses données d'apprentissage et génère une réponse basée sur la probabilité que chaque mot suive le précédent. Bien que cela puisse sembler correct la plupart du temps, il ne génère qu'une imitation du langage humain, et non un raisonnement ou une recherche.
Lorsque vous posez à ChatGPT-4o la fameuse question de la fraise, il est incapable de donner la bonne réponse :
Cependant, vous pouvez utiliser une technique d'incitation à la réflexion en chaîne pour aider le chatbot alimenté par LLM à trouver la bonne réponse :
La dernière itération de ChatGPT, alimentée par OpenAI o1-preview, est la première version majeure de LLM à utiliser le raisonnement par chaîne de pensée sans aucune incitation supplémentaire.
Il trouve la réponse du premier coup, parce qu'il a reçu l'instruction de suivre automatiquement le même processus que la deuxième invite ChatGPT-4o ci-dessus. La seule différence est qu'il suit ce processus sans autre forme de procès.
Mathématiques
Si vous posiez à une ancienne version de ChatGPT une question de mathématiques tirée d'un manuel d'école primaire, elle ne répondrait pas toujours correctement.
Les problèmes mathématiques à plusieurs étapes requièrent un raisonnement qui n'était pas présent dans les versions antérieures de LLMs. Vous pouviez décomposer chaque étape du problème, mais si vous ne connaissiez pas les étapes correctes, un site LLM ne pouvait pas vous aider.
ChatGPT-4o est capable de raisonner la réponse à la question en décomposant la série d'étapes du problème :
Agents d'intelligence artificielle connectés à Hubspot
Prenons l'exemple d'un agent d'intelligence artificielle alimenté par LLM et intégré à Hubspot. Une équipe de vente utilise cet agent d'intelligence artificielle pour traiter les nouvelles pistes au fur et à mesure qu'elles sont recueillies sur les différents canaux.
Scénario
Unvendeur envoie un nouveau prospect à l'agent IA et lui demande de l'enregistrer dans Hubspot et d'envoyer un premier courriel de contact, mais de ne pas le remplir si le prospect travaille dans une entreprise qui est déjà un client potentiel.
LLM sans raisonnement en chaîne
L'agent IA alimenté par LLM enregistre le lead et envoie l'e-mail sans vérifier si l'entreprise est déjà un prospect, manquant ainsi la condition clé.
LLM avec un raisonnement en chaîne
L'agent IA alimenté par LLM vérifie si l'entreprise est déjà un prospect avant d'agir. S'il s'agit d'un prospect, il saute l'étape de l'enregistrement et de l'envoi de l'e-mail ; dans le cas contraire, il enregistre le lead et envoie l'e-mail, en suivant précisément les instructions du vendeur.
Quand dois-je utiliser la chaîne de pensée ?
L'incitation à la chaîne de pensée est plus efficace dans les scénarios qui nécessitent un raisonnement étape par étape.
Les tâches qui impliquent des déductions logiques, les problèmes mathématiques, les tâches procédurales ou toute autre situation nécessitant des réponses en plusieurs étapes sont des candidats de choix.
Mais attendez : le raisonnement semble excellent - pourquoi ne l'utiliserais-je pas tout le temps ?
Bonne question. Toutes les questions ne nécessitent pas un raisonnement. Par exemple :
- Des questions factuelles simples, comme "Quelle est la capitale du Canada ?
- Problèmes à une seule étape, comme "Quel est le résultat de 145 + 37 ?
- Tâches de génération de contenu, comme "Rédiger un courriel poli de trois phrases pour demander à mon collègue s'il a terminé son projet".
Incitation au changement vs incitation à la chaîne de pensée
Bien que leur nom soit similaire, l'enchaînement d'invites et l'enchaînement de pensées sont des stratégies d'incitation différentes visant à améliorer les résultats de l'IA générative.
Incitation à la réflexion en chaîne
Avec la chaîne de pensée, l'utilisateur guide l'IA pour qu'elle explique le raisonnement qui sous-tend sa réponse en une seule réponse. L'IA est ainsi invitée à parcourir chaque étape du processus de résolution du problème, mais cela se fait en une seule invite et une seule réponse.
Par exemple, une chaîne de réflexion peut être réalisée en un seul message :
"Une équipe de RH doit passer en revue 5 évaluations de performance de salariés. Chacune prendra 30 minutes et ils ont besoin de 15 minutes pour se préparer à l'avance. Les évaluations des seniors nécessiteront 10 minutes supplémentaires chacune. Combien de temps faudra-t-il pour réaliser 5 évaluations seniors et 25 évaluations juniors ? Expliquez votre raisonnement étape par étape".
Chaînage rapide
Avec l'enchaînement d'invites, la tâche est divisée en étapes distinctes avec plusieurs invites, chacune s'appuyant sur le résultat précédent. Cela permet de structurer et de guider l'IA dans une tâche complexe qui implique probablement un raisonnement.
La première invite peut ressembler à ce qui suit :
Invitation 1: Identifiez les principaux défis auxquels une entreprise peut être confrontée lors de la transition vers le travail à distance.
Sortie:
- Lacunes en matière de communication
- Maintenir la productivité
- Infrastructure technologique
- Engagement des salariés
Les questions suivantes peuvent approfondir ces concepts. Par exemple :
Invitation 2: Dites-moi comment une entreprise peut trouver des solutions aux problèmes de communication lors de la transition vers le travail à distance.
Après le prochain cycle de production, le prochain maillon de la chaîne peut être :
Invitation 3: Quels sont les défis communs auxquels les entreprises sont confrontées lorsqu'elles adoptent ces solutions ?
Ainsi, bien que les deux soient similaires, ils adoptent des approches différentes pour extraire le contenu le plus approfondi et le plus pertinent des outils d'IA générative.
Chaîne de réflexion Botpress
Botpress sont déjà familiarisés avec une fonction qui utilise le raisonnement en chaîne.
Le nœud autonome a fait ses débuts en juillet 2024 sur Botpress, une plateforme de création d'agents d'intelligence artificielle. Le nœud autonome est capable d'automatiser des flux de travail en plusieurs étapes et de prendre des décisions de manière autonome.
Un nœud autonome peut être créé et invité par une simple ligne de texte, comme "Votre objectif est de générer des pistes qualifiées. Créez des pistes dans Salesforce lorsqu'un utilisateur indique une intention d'achat".
L'agent d'IA que vous construisez à l'aide de ce nœud autonome entreprendra diverses actions pour atteindre son objectif, indépendamment des flux de travail conçus par les humains. Il peut également passer d'un site LLMs à l'autre en fonction des besoins, en décidant de donner la priorité à la vitesse ou à la puissance.
Créez votre propre agent autonome
Botpress est la seule plateforme d'agents d'IA qui vous permet de créer des agents véritablement autonomes.
L'ouverture et la flexibilité de Botpress Studio permettent une infinité de cas d'utilisation dans tous les secteurs d'activité, des RH à la génération de leads. Notre bibliothèque d'intégration prédéfinie et nos tutoriels détaillés permettent aux utilisateurs de créer facilement des agents d'intelligence artificielle à partir de zéro.
Commencez à construire dès aujourd'hui. C'est gratuit.
Table des matières
Restez au courant des dernières nouveautés en matière d'agents d'IA
Partager ce message sur :