La série de modèles o1 tant attendue d’OpenAI a fait la une pour ses capacités avancées de raisonnement, marquant une avancée majeure en intelligence artificielle.
Les capacités de raisonnement de o1 ne sont pas si éloignées d’une fonctionnalité bien connue des utilisateurs de Botpress : l’Autonomous Node. Lancé en juillet 2024, l’Autonomous Node était le premier du genre parmi les plateformes d’agents IA.
Sylvain Perron, PDG de Botpress et architecte principal derrière les Autonomous Nodes de la plateforme, a pris le temps d’expliquer les similitudes et différences entre ces deux entités de raisonnement.
Sylvain Perron, PDG de Botpress, compare OpenAI o1 et l’Autonomous Node
Il existe d’importantes similitudes entre le nouveau modèle o1 d’OpenAI et les Autonomous Nodes de Botpress, n’est-ce pas ?
Oui, tout à fait. C’était assez amusant de voir arriver o1. Mais il faut bien noter que la comparaison n’est pas totalement équivalente.
OpenAI o1 est, évidemment, un LLM, alors que les Autonomous Nodes sont une fonctionnalité de plateforme. On peut même brancher o1 sur Botpress et l’utiliser avec les Autonomous Nodes.
Mais tous deux utilisent le raisonnement en chaîne, une approche ascendante pour déterminer quoi faire et quoi dire.
Pouvez-vous expliquer le raisonnement chain-of-thought et en quoi il diffère de la façon dont les modèles de langage génèrent habituellement des réponses ?
Bien sûr – la plupart des LLM génèrent des réponses en prédisant le mot suivant à partir du précédent : ils produisent un mot, puis s’appuient dessus pour générer le suivant, et ainsi de suite. Cela fonctionne pour des questions simples, mais échoue complètement sur des tâches complexes nécessitant plusieurs étapes de raisonnement.
Le raisonnement en chaîne, au contraire, consiste pour une IA à décomposer une tâche en étapes plus petites et à raisonner explicitement sur chacune avant de passer à la suivante. C’est un peu comme lorsqu’on demande à un élève de détailler son raisonnement dans un exercice scientifique.
Par exemple, si une IA doit créer un lead dans un CRM – vérifier les doublons, attribuer le lead, etc. – elle doit utiliser le raisonnement en chaîne pour réfléchir à chaque étape et planifier toute la séquence d’actions avant de commencer. Elle ne commence pas à remplir un formulaire avant d’avoir vérifié s’il s’agit d’un doublon, elle le sait dès le départ.
Le système peut donc gérer des tâches complexes avec plusieurs dépendances, mais cela le ralentit aussi car il doit s’arrêter pour réfléchir, au lieu de générer une réponse immédiate.
o1 et Autonomous Nodes utilisent tous deux le raisonnement par chaîne de pensées – s’agit-il du même processus ou y a-t-il des différences ?
Il y a des points communs et des différences. Nous utilisons toujours le raisonnement en chaîne, mais comme nous construisons pour des clients réels, nous optimisons la rapidité et l’efficacité de plusieurs façons.
Avec les Autonomous Nodes, nous avons conçu le système pour gérer plusieurs actions en un seul appel LLM. L’idée est de réfléchir et d’agir dans le même processus, pour ne pas perdre de temps.
Les Autonomous Nodes réfléchissent et informent l’utilisateur en cours de route, afin que celui-ci ne reste pas simplement à attendre la fin du raisonnement. Cela ressemble plus à une conversation naturelle, où l’on ne laisse pas quelqu’un patienter dans le vide pendant 30 secondes. Les développeurs peuvent aussi consulter les raisonnements internes du LLM et diagnostiquer ce qui a pu poser problème.
À l’inverse, o1 renvoie une seule réponse, et la visibilité sur son raisonnement est limitée. OpenAI fournit un résumé du raisonnement en chaîne sans le montrer, ce qui complique le diagnostic.
Existe-t-il d’autres différences entre les deux ?
o1 nécessite qu’un développeur ou une plateforme héberge des fonctions pour appeler les outils. Chaque étape demande un appel API séparé : le modèle doit demander une action, attendre le résultat, puis demander la suivante. Et il faut répéter ce processus encore et encore. Cela rend l’utilisation plus complexe, car il faut fournir toute l’architecture d’exécution des fonctions.
Les Autonomous Nodes gèrent cela automatiquement en arrière-plan.
Comment o1 se positionne-t-il en termes de coût et de rapidité ?
Imaginons que vous utilisiez un LLM ou un agent IA pour vous aider sur Hubspot, par exemple pour discuter avec des visiteurs du site dans le cadre de la génération de leads par IA.
Si vous demandiez à o1 de remplir un formulaire de lead sur Hubspot – en supposant que vous puissiez le connecter sans passerelle tierce – cela prendrait 12 secondes et coûterait 5 fois plus cher que sur Botpress.
Une partie de cette rapidité vient de la conception basée sur des schémas de notre plateforme, ce qui permet au système de savoir à l’avance quelles données sont nécessaires et à quoi ressemble leur structure.
Ainsi, lorsqu’on travaille avec un outil comme HubSpot ou Salesforce, le système dispose déjà d’un schéma JSON prédéfini qui précise les champs requis – prénom, adresse e-mail, nom de l’entreprise, etc.
Cela permet aux Autonomous Nodes de raisonner sur l’ensemble de la tâche dès le départ, sans devoir s’arrêter à chaque étape pour demander des informations supplémentaires.
On peut réduire le nombre d’étapes et accélérer le processus en fournissant soi-même le contexte, mais cela demande plus de temps pour développer une application basée sur o1. Cela augmente donc aussi les coûts de maintenance.
Vous évoquez une fiabilité accrue. Qu’est-ce qui rend les Autonomous Nodes plus fiables que o1 ?
La principale amélioration de la fiabilité vient du mélange entre le raisonnement en chaîne et l’appel d’outils via notre protocole.
En fait, nous avons créé un environnement où l’IA peut réfléchir – et tout cela en code, pas en texte brut. Honnêtement, c’est plus rapide et plus fiable que la version OpenAI, pour plusieurs raisons.
Premièrement, l’IA peut communiquer simultanément tout au long de la séquence d’actions, ce que le modèle OpenAI ne fait pas.
Ensuite, l’IA connaît le schéma de sortie attendu. Elle sait quel type de JSON elle doit produire selon la requête reçue.
Et c’est aussi personnalisable par les développeurs. S’ils reçoivent beaucoup de questions similaires de la part des utilisateurs, ils peuvent ajuster l’IA pour qu’elle fournisse à chaque fois la réponse la plus adaptée.
À quel point le processus utilise-t-il le format JSON ?
L’anglais courant n’est tout simplement pas fiable, n’est-ce pas ? Ce n’est pas assez formel, ni assez strict.
Un langage de programmation est un langage, mais il est formel. C’est un langage spécifique à un domaine, utilisable uniquement dans certaines limites et avec une syntaxe précise.
Nos appels d’outils répondent en JSON plutôt qu’en anglais. La sortie est en JSON avec un schéma JSON, et non en texte brut.
Quand on fait une demande de création de formulaire de lead sur Hubspot, c’est écrit en JSON, et le schéma – aussi en JSON – indique toutes les propriétés à inclure, comme le nom, l’entreprise, etc.
Quelles sont les principales différences entre l’appel d’outils des Autonomous Nodes et celui du modèle o1 ?
Notre appel d’outils est très sensible au contexte. Il comprend tous vos systèmes, toutes les actions possibles, et comment les données peuvent être transmises à l’outil suivant. On peut générer un seul bloc de code qui regroupe tout cela, et fournit aussi une réponse, le tout en un seul appel LLM.
En théorie, on peut utiliser l’API o1 pour faire de l’appel d’outils, mais il y a des contraintes sur ce qu’on peut transmettre à l’outil. Botpress est conçu pour cela. Nous avons mis en place des garde-fous au-dessus d’autres LLM, y compris GPT.
Les Autonomous Nodes peuvent aussi communiquer en même temps qu’ils appellent des outils, ce que OpenAI ne propose pas actuellement. Cela évite un aller-retour vers le serveur et améliore l’expérience conversationnelle, car les utilisateurs sont informés avant le lancement d’une tâche longue.
La plupart des organisations sont mises en garde contre l’utilisation de ChatGPT avec des données sensibles. Y a-t-il moins de risques avec les Autonomous Nodes ?
Notre plateforme est conçue pour des environnements à fort volume et faible latence, avec les besoins concrets des entreprises à l’esprit.
L’avantage des Autonomous Nodes n’est pas d’avoir inventé un nouveau type d’IA, mais d’avoir appliqué une ingénierie intelligente à la technologie existante pour mieux répondre aux besoins des entreprises.
Nous proposons des environnements sécurisés pour la génération de communications par IA. Lorsqu’on utilise un Autonomous Node, il exécute gratuitement ces environnements isolés. Ils sont sécurisés et évolutifs. Et une fois la tâche terminée, l’environnement est détruit.
Il s'agit d'un isolement virtuel à deux niveaux : l'entrée et la sortie. C'est assez complexe. Mais cela nous permet d'exécuter du code généré par des LLM à grande échelle avec un minimum de risques de sécurité.
Si des développeurs ou passionnés d’IA souhaitent essayer l’Autonomous Node, que doivent-ils faire ?
Nous proposons une formule gratuite très généreuse. Tous nos utilisateurs peuvent l’essayer. Nous avons trouvé que cette fonctionnalité était trop intéressante pour la restreindre. Il suffit donc de créer un compte Botpress gratuit pour tester par vous-même.





.webp)
