- Le système "Human-in-the-loop" (HITL) associe la surveillance humaine à des systèmes d'intelligence artificielle pour améliorer la précision.
- Les humains interviennent en annotant les données, en examinant les résultats de l'IA, en gérant les escalades et en guidant les améliorations du modèle.
- HITL renforce la fiabilité, atténue les préjugés, permet l'apprentissage continu et rend les systèmes d'IA plus transparents.
- Les cas d'utilisation couvrent les voitures autonomes, les robots de vente au détail, les contrôles des risques financiers et les décisions en matière de soins de santé.
Si vous envisagez d'améliorer votre entreprise grâce à l'IA, vous n'êtes pas seul. Les chatbots d'IA étant le canal de communication qui connaît la croissance la plus rapide, ils ne sont plus un luxe, mais une attente.
Mais renoncer à ce contrôle peut être un peu effrayant. Décharger des opérations cruciales sur un algorithme dit "boîte noire" peut sembler un grand acte de foi.
C'est pourquoi les entreprises s'appuient sur l'intervention humaine pour piloter l'IA. Presque tous les cadres d'agents d'IA prévoient une intervention humaine dans la boucle, c'est-à-dire une surveillance humaine des opérations d'IA.

Dans cet article, je vais expliquer ce que c'est, comment cela fonctionne, et donner quelques exemples de la façon dont l'intervention humaine est utilisée quotidiennement pour donner aux utilisateurs plus de contrôle sur les chatbots et les agents d'IA.
Qu'est-ce que l'humain dans la boucle ?
Human-in-the-loop (HITL) est une approche collaborative de l'IA dans laquelle l'apport humain est utilisé pour améliorer ou étendre les capacités de l'IA. Il peut s'agir de données annotées par l'homme, de résultats de modèles corrigés ou de l'exécution par l'homme de tâches complètes dans les cas où l'IA est incertaine ou jugée inefficace.
Ce terme peut être quelque peu ambigu. Techniquement, il désigne toute implication humaine dans le cycle de vie des applications d'IA, depuis l'étiquetage des données et l'évaluation des modèles jusqu'à l'apprentissage actif et l'escalade.
Dans la pratique, lorsque les fournisseurs d'IA proposent une fonctionnalité HITL, cela signifie généralement un contrôle des résultats de l'IA : la possibilité d'examiner les réponses et de transmettre les interactions du chatbot à des agents humains.
Les avantages de l'IA en boucle humaine
L'IA est peut-être incroyablement efficace pour reconnaître des schémas subtils, mais les gens sont intelligents.
HITL consiste à combiner un niveau de nuance humain avec l'efficacité de l'automatisation des flux de travail par l'IA afin que les réponses soient adaptées à l'expérience que les utilisateurs et les prestataires recherchent.
1. Précision et fiabilité
Il n'y a pas de doute là-dessus. Qu'est-ce qui est mieux qu'une simple IA ? Une IA qui a été corrigée.
Non seulement il est optimisé pour traiter les cas particuliers, mais il est fiable dans le sens où les utilisateurs savent que les résultats seront continuellement examinés et améliorés.

2. Atténuation des préjugés
Les données sont imparfaites et les résultats des modèles le reflètent. Le biais - le fait de privilégier certains résultats par rapport à d'autres - est un problème qui touche l'apprentissage automatique et l'IA.
La génération d'images à connotation raciale ou la détermination des qualifications professionnelles en fonction du sexe sont des exemples de la manière dont l'IA reflète les préjugés présents dans les données d'apprentissage.
HITL permet de signaler ces problèmes et d'orienter le modèle vers des résultats plus équitables.
3. Amélioration continue et adaptabilité
La formation n'est pas terminée simplement parce qu'un modèle est en production. HITL permet au modèle de continuer à s'entraîner sur de nouvelles données afin de mieux généraliser dans des cas inédits.
Par exemple, le fait de modifier le texte généré ou de suivre les sélections de contenu des utilisateurs fournit davantage de données que le modèle peut utiliser pour s'améliorer.
Mais il ne suffit pas qu'un modèle s'améliore, il faut aussi qu'il change.
Il est facile de prendre pour acquis les façons dont nous nous adaptons à un monde en constante évolution. Avec l'IA, ce n'est pas une évidence. HITL combine expertise et jugement nuancé pour que les résultats d'un modèle restent en phase avec l'époque.
4. Transparence et confiance
L'implication des humains rend les décisions de l'IA plus transparentes. En corrigeant les résultats ou en résolvant les cas de faible certitude, les utilisateurs peuvent être rassurés sur le fait qu'ils interagissent avec un algorithme sensé.
Il nous permet de contrôler l'IA, et non l'inverse.
Cas d'utilisation de l'homme dans la boucle
1. L'auto-conduite

Avec une valeur de marché qui devrait atteindre 3,9 billions deUSD au cours de la prochaine décennie, la conduite autonome pourrait bien être la prochaine grande frontière de l'IA. Elle s'appuie sur des modèles de détection d'objets et sur une prise de décision instantanée pour simuler la conduite d'une personne.
Mais pour un dispositif aussi peu interventionniste, il s'appuie assez largement sur les humains. Les modèles observent en permanence les habitudes de conduite des humains et comparent leurs décisions à leurs propres prédictions.
2. Commerce de détail
Un chatbot de vente au détail est un excellent moyen d'automatiser les interactions avec les clients tout en offrant une expérience personnalisée. HITL vous permet de faire en sorte que cette expérience soit fluide et conforme à votre activité. Par exemple, vous pourriez :
- Examiner et corriger les recommandations du bot en matière de produits
- Demander au client d'exposer ses besoins fondamentaux avant de le mettre en contact avec un agent humain.
3. Les finances
Les chatbots financiers sont un excellent moyen de faire coïncider l'automatisation de l'IA et l'expertise humaine.
Les systèmes de détection des fraudes sont très efficaces pour repérer les activités suspectes dans les transactions. Mais toutes les activités suspectes ne sont pas infâmes, et vous ne voulez pas que votre carte soit annulée chaque fois que vous changez votre commande de café.
Le HITL peut reporter les cas à faible certitude et à faible risque sur les humains.
L'évaluation du risque de prêt est un autre domaine dans lequel l'IA excelle : elle est capable de calculer des probabilités à partir de toutes sortes de données apparemment sans rapport entre elles. Cependant, ces données comporteront très certainement un certain nombre de biais.
Le maintien de l'équité et l'atténuation des préjugés nécessitent souvent l'aide d'une personne réelle.
4. Santé

L'utilisateur de reddit dont la vie a été sauvée par Claude sera le premier à défendre le potentiel de l'IA dans le domaine de la santé.
Les chatbots d'IA médicale ont montré une partie de leur potentiel, mais cela ne s'arrête pas là : L'IA peut aider à déterminer un diagnostic à partir d'une lecture d'IRM, ou suggérer des suivis en fonction des résultats d'examens. Mais je ne suis pas prêt à renoncer aux médecins.
Le HITL offre le meilleur des deux mondes : il permet de détecter des cas que les médecins auraient pu manquer, tout en leur laissant la possibilité de prendre la décision finale.
Utiliser dès aujourd'hui l'IA augmentée par l'homme
Botpress a des milliers de bots déployés avec une supervision humaine transparente, et c'est la plateforme d'agents d'intelligence artificielle la plus flexible du marché.
Botpress est livré avec une intégration HITL, un créateur visuel par glisser-déposer, et un déploiement sur tous les canaux de communication populaires (y compris Slack, Telegram, WhatsApp, web), de sorte que l'utilisation de l'IA ne signifie pas l'abandon de votre touche personnelle.
Commencez à construire dès aujourd'hui. C'est gratuit.
FAQ
Comment savoir si mon système d'IA a besoin d'une implication humaine dans la boucle ?
Votre système d'IA a probablement besoin d'une implication humaine dans la boucle s'il traite des décisions à fort enjeu, s'il est fréquemment confronté à des situations ambiguës ou rares, s'il risque de produire des résultats biaisés ou nuisibles, ou s'il opère dans des domaines où la précision absolue et le jugement humain sont essentiels pour assurer la conformité ou la confiance des clients.
L'humain dans la boucle peut-il être utilisé dans des processus d'entreprise non techniques, ou seulement dans des modèles d'IA ?
L'approche "human-in-the-loop" peut être utilisée dans des processus commerciaux non techniques tels que l'examen des réclamations des clients ou la modération de contenu, car elle consiste à insérer un jugement humain dans tout flux de travail automatisé où les décisions de la machine seule pourraient être insuffisantes.
L'utilisation d'un humain dans la boucle signifie-t-elle que mon système d'IA est moins avancé ?
L'utilisation d'un humain dans la boucle ne signifie pas que votre système d'IA est moins avancé. Cela montre que vous donnez la priorité à la sécurité et à l'équité en combinant la vitesse et la reconnaissance des formes de l'IA avec le jugement humain pour des décisions nuancées, ce qui est souvent essentiel.
L'IA en boucle humaine est-elle rentable pour les petites entreprises ou seulement pour les grandes ?
L'IA "human-in-the-loop" est de plus en plus rentable pour les petites entreprises, car les outils modernes permettent d'impliquer sélectivement des humains uniquement dans les cas délicats, ce qui minimise les coûts de main-d'œuvre tout en améliorant la précision et la confiance sans avoir besoin d'une main-d'œuvre nombreuse.
Combien coûte l'ajout de processus humains dans la boucle d'un système d'IA ?
L'ajout de processus humains dans la boucle peut avoir un coût allant de minime - si vous utilisez occasionnellement du personnel interne - à important, s'élevant à des centaines ou des milliers de dollars par mois si vous avez besoin de réviseurs dédiés ou de contractants spécialisés, les coûts dépendant en grande partie du volume et de la complexité des tâches que les humains doivent traiter.
Comment les humains sont-ils "dans la boucle" de l'IA ?
Un pipeline d'IA bien huilé comportera plusieurs points d'entrée pour les humains.
L'IA est entraînée à découvrir des modèles dans ses données d'apprentissage, puis à généraliser ces modèles à de nouvelles données inédites. Nous décidons des données que le modèle voit, mais pas des modèles qu'il tire de ces données.
À chaque étape du processus (collecte de données, formation et déploiement), c'est aux personnes de s'assurer que le modèle fonctionne comme prévu.
En fonction du lieu et de la manière dont cette intervention humaine se produit, elle peut entrer dans l'une des catégories suivantes :
Fournir un retour d'information pour un apprentissage continu
Vous savez, lorsque ChatGPT vous demande laquelle de deux réponses est la meilleure ? Les commentaires peuvent être traités comme de nouvelles données sur lesquelles le modèle peut s'entraîner.
Le retour d'information ne doit pas nécessairement être explicite.
Pensez aux recommandations des médias sociaux. Un modèle prédictif suggère constamment des contenus en fonction de votre historique. Au fur et à mesure que vous utilisez la plateforme, votre choix de contenu est utilisé comme données pour entraîner en permanence le modèle de recommandation.
Dans ce cas, vous êtes l'humain. Et en utilisant l'application, vous servez de guide pour les recommandations futures.
C'est là que la boucle est bouclée : le modèle est entraîné sur des données, les utilisateurs interagissent avec le modèle et ces interactions créent à leur tour des données sur lesquelles le modèle est à nouveau entraîné.
Gestion des situations d'escalade
Le HITL ne vise pas nécessairement à améliorer le système. Il s'agit parfois de confier les cas difficiles à des humains.
Prenons l'exemple d'un chatbot d'assistance à la clientèle. Il décharge une bonne partie du travail de votre équipe en répondant à 95 % des questions de manière claire, concise et précise.
Mais il y a aussi ces 5 %.
Certains cas sont hyper-spécifiques ou suffisamment obscurs pour ne pas être pris en compte par l'IA. Bien que l'intervention humaine n'améliore pas le modèle dans ce cas, il s'agit d'un excellent exemple de la manière dont les humains et l'apprentissage automatique peuvent travailler en symbiose.
Annoter les données pour la formation
D'un point de vue technique, la quasi-totalité de l'apprentissage automatique s'appuie sur un mécanisme HITL. C'est pourquoi, lorsque nous parlons de HITL, nous nous référons principalement aux catégories ci-dessus.
Cela dit, je m'en voudrais de ne pas attirer l'attention sur le travail humain et l'expertise dans la boucle de l'apprentissage automatique.
Les données sont l'épine dorsale de l'IA, qui repose sur les humains. Les modèles d'IA sont entraînés à prédire des étiquettes sur la base des données d'entrée. Les étiquettes sont les résultats attendus de l'IA, et c'est à nous, les humains, de les créer.
Voici quelques exemples d'étiquetage humain :
Évaluation des performances du modèle
La majeure partie du temps consacré à l'élaboration de modèles d'IA consiste à déterminer comment les améliorer. Bien qu'il existe une infinité de mesures que vous pouvez calculer, comme la précision et le rappel, il faut l'avis d'un expert pour comprendre comment le modèle fonctionne et, plus important encore, ce qu'il faut faire pour y remédier.
Par exemple, un chercheur peut remarquer que le modèle identifie très bien les images de chiens, mais pas les hot-dogs. Ce problème peut généralement être résolu en ajoutant ou en diversifiant les images de hot-dogs.
Il arrive qu'un modèle de conversation ait du mal à se souvenir des informations contenues dans les messages précédents. Le chercheur s'attaque généralement à ce problème en apportant des ajustements de bas niveau à l'architecture du modèle ou à la méthode de génération.