.webp)
Vous recâblez votre pipeline d'agents d'IA pour la dixième fois aujourd'hui - une autre intégration d'API fragile, une autre série de passages de contexte manuels juste pour éviter que les choses ne se cassent. Coder en dur les flux d'authentification, normaliser les réponses de l'API, assembler les points d'extrémité : ce n'est pas du développement d'IA, c'est l'enfer de l'intégration.
Construire des agents d'IA qui tirent des données de plusieurs sources de manière transparente devrait être facile, mais la réalité d'aujourd'hui est fragmentée, répétitive et difficile à mettre à l'échelle. Chaque outil parle sa propre langue, ce qui vous oblige à trouver des solutions de contournement au lieu de créer une véritable automatisation.
Anthropic tente de changer cela avec Model Context Protocol (MCP) - un moyen standardisé pour les agents d'IA de récupérer et d'utiliser des données externes sans le cauchemar de l'intégration sans fin. Mais cela résout-il le problème ? Voyons ce qu'il en est.
Qu'est-ce qu'un protocole ?
Un protocole est un ensemble de règles et de conventions qui définissent la manière dont les systèmes communiquent et échangent des données. Contrairement à une API, une interface spécifique à la mise en œuvre, un protocole établit une norme universelle pour les interactions. Voici quelques exemples bien connus :
- HTTP (Hypertext Transfer Protocol) - Définit la manière dont les navigateurs web et les serveurs communiquent.
- OAuth (Open Authorization Protocol) - Norme d'authentification sécurisée entre différentes plateformes.
Les protocoles garantissent l'interopérabilité - au lieu que chaque système réinvente la manière dont les données doivent être échangées, un protocole normalise le processus, ce qui réduit la complexité et rend les intégrations plus évolutives.
Bien que les protocoles ne soient pas obligatoires ou appliqués, leur adoption au fil du temps peut façonner les fondements de l'interaction des systèmes à l'échelle mondiale. Nous l'avons vu avec l'évolution du protocole HTTP vers le protocole HTTPS, plus sûr et largement accepté, qui a fondamentalement changé la manière dont les données sont transmises sur l'internet.
Qu'est-ce que le protocole de contexte de modèle (MCP) ?
Model Context Protocol (MCP) est un standard ouvert développé par Anthropic pour rationaliser la manière dont les modèles d'intelligence artificielle accèdent et interagissent avec des sources de données externes.
Au lieu d'exiger des systèmes d'IA qu'ils s'appuient sur des intégrations d'API personnalisées, des demandes structurées manuellement et une authentification par service, MCP fournit un cadre unifié permettant aux agents d'IA d'extraire, de traiter et d'agir sur des données structurées d'une manière normalisée.
En termes plus simples, le MCP définit la manière dont les modèles d'IA doivent demander et consommer des données externes - qu'elles proviennent de bases de données, d'API, de stockage en nuage ou d'applications d'entreprise - sans que les développeurs aient à coder en dur une logique spécifique à chaque source d'API.
Pourquoi le programme MCP a-t-il été créé ?
Les modèles d'IA, en particulier les LLMs (grands modèles de langage) et les agents autonomes, ont besoin d'accéder à des outils et à des bases de données externes pour générer des réponses précises et contextuelles. Cependant, les interactions actuelles entre l'IA et l'API sont inefficaces et génèrent des frais généraux importants pour les développeurs.
Aujourd'hui, l'intégration d'un agent d'intelligence artificielle avec des systèmes externes nécessite :
- Intégrations API personnalisées pour chaque outil (CRM, stockage en nuage, systèmes de billetterie, etc.).
- Configuration de l'authentification par API (OAuth, clés API, jetons de session).
- Formatage manuel des données pour rendre les réponses de l'API utilisables par les modèles d'IA.
- Gestion des limites de taux et traitement des erreurs entre les différents services.
Cette approche n'est pas évolutive. Chaque nouvelle intégration nécessite une logique personnalisée, du débogage et de la maintenance, ce qui rend l'automatisation pilotée par l'IA lente, coûteuse et fragile.
En définissant un protocole commun, le MCP rend les modèles d'IA plus sensibles aux données sans obliger les développeurs à créer des passerelles API personnalisées pour chaque système avec lequel ils interagissent.
Limites du MCP
Le protocole de contexte de modèle (MCP) est une étape importante pour rendre les modèles d'intelligence artificielle plus capables d'interagir avec des systèmes externes de manière structurée et évolutive. Toutefois, comme toute technologie émergente, il présente des limites qu'il convient de combler avant de l'adopter à grande échelle.
Défis d'authentification
L'une des plus grandes promesses de la MCP est de rendre les agents d'intelligence artificielle moins dépendants des intégrations spécifiques aux API. Cependant, l'authentification (AuthN) reste un défi majeur.
Aujourd'hui, l'authentification des API est un processus fragmenté : certains services utilisent OAuth, d'autres s'appuient sur des clés d'API et d'autres encore exigent une authentification basée sur la session. Cette incohérence fait que l'intégration de nouvelles API prend du temps, et MCP ne dispose pas actuellement d'un cadre d'authentification intégré pour gérer cette complexité.
MCP nécessite encore un mécanisme externe pour authentifier les demandes d'API, ce qui signifie que les agents d'IA utilisant MCP doivent s'appuyer sur des solutions supplémentaires, telles que Composio, pour gérer les informations d'identification de l'API. L'authentification figure sur la feuille de route de MCP, mais jusqu'à ce qu'elle soit pleinement mise en œuvre, les développeurs auront toujours besoin de solutions de contournement pour gérer l'authentification à travers plusieurs systèmes.
Manque de clarté dans la gestion de l'identité
Une autre question non résolue est celle de la gestion de l'identité : qui un système externe voit-il lorsqu'un agent d'intelligence artificielle fait une demande par l'intermédiaire de MCP ?
Par exemple, si un assistant IA interroge Slack via MCP, Slack doit-il reconnaître la demande comme provenant de :
- L'utilisateur final (c'est-à-dire que l'IA agit pour le compte d'un être humain).
- L'agent d'IA lui-même ? (Ce qui obligerait Slack à gérer séparément les interactions basées sur l'IA).
- Un compte système partagé (qui pourrait poser des problèmes de sécurité et de contrôle d'accès).
Ce problème est encore plus complexe dans les environnements d'entreprise, où les politiques de contrôle d'accès déterminent qui peut récupérer quelles données. Sans une cartographie claire des identités, les intégrations MCP pourraient être confrontées à un accès restreint, à des risques de sécurité ou à des incohérences entre les différentes plates-formes.
La prise en charge d'OAuth est prévue pour MCP, ce qui peut aider à clarifier le traitement des identités, mais jusqu'à ce qu'elle soit pleinement mise en œuvre, les modèles d'IA peuvent avoir des difficultés avec l'accès aux services tiers basé sur les autorisations.
Verrouillage des fournisseurs et fragmentation de l'écosystème
MCP est actuellement une initiative menée par Anthropic, ce qui soulève des questions quant à sa normalisation à long terme. Au fur et à mesure de l'évolution des écosystèmes d'IA, il est fort possible que d'autres acteurs majeurs, tels que OpenAI ou DeepSeek, développent leurs propres protocoles pour les interactions entre l'IA et les systèmes.
Si plusieurs normes concurrentes émergent, le secteur pourrait se fragmenter, obligeant les développeurs à choisir entre des approches différentes et incompatibles. Il reste à voir si le MCP restera l'approche dominante ou s'il deviendra simplement l'une des nombreuses options concurrentes.
Les fournisseurs d'IA vont-ils se standardiser autour du MCP ?
MCP offre un cadre universel pour réduire la fragmentation dans les intégrations d'IA, où chaque connexion nécessite actuellement des solutions personnalisées qui augmentent la complexité.
Pour que le MCP devienne une norme largement acceptée, les principaux fournisseurs d'IA doivent l'adopter. Des entreprises comme OpenAI, Google DeepMind et Meta ne se sont pas encore engagées, ce qui rend sa viabilité à long terme incertaine. En l'absence d'une collaboration à l'échelle du secteur, le risque de voir apparaître de multiples protocoles concurrents reste élevé.
Certaines entreprises ont déjà commencé à utiliser MCP. Replit, Codeium et Sourcegraph l'ont intégré pour rationaliser la manière dont leurs agents d'intelligence artificielle interagissent avec les données structurées. Cependant, une adoption plus large est nécessaire pour que MCP dépasse le stade des premières expérimentations.
Au-delà des entreprises spécialisées dans l'IA, les efforts de normalisation à l'échelle mondiale pourraient influencer l'avenir du MCP. Des organisations comme ISO/IEC JTC 1/SC 42 s'efforcent de définir des cadres d'intégration de l'IA. Des initiatives nationales, telles que le comité chinois de normalisation de l'IA, mettent en évidence la course à l'élaboration de la prochaine génération de protocoles d'IA.
Le MCP est encore en évolution. Si l'industrie s'aligne sur elle, les intégrations d'IA pourraient devenir plus interopérables et évolutives. Toutefois, si des normes concurrentes apparaissent, les développeurs risquent d'être confrontés à un écosystème fragmenté plutôt qu'à une solution unifiée.
Créer des agents d'IA qui s'intègrent aux API
MCP simplifie les interactions avec l'IA, mais l'authentification et l'accès structuré à l'API restent des défis majeurs. Botpress offre un support OAuth et JWT, permettant aux agents d'IA de s'authentifier en toute sécurité et d'interagir avec Slack, Google Calendar, Notion, et plus encore.
Avec le nœud autonome, les agents d'intelligence artificielle peuvent prendre des décisions LLM et exécuter des tâches de manière dynamique. Botpress fournit une méthode structurée pour construire des agents d'intelligence artificielle qui se connectent à plusieurs systèmes.
Commencez à construire aujourd'hui - c'est gratuit.
Comment fonctionne le programme MCP ?
Aujourd'hui, les agents d'intelligence artificielle s'appuient sur des appels d'API personnalisés, une authentification par service et une analyse manuelle des réponses, créant ainsi un réseau fragile d'intégrations difficiles à faire évoluer.
Plutôt que de forcer les agents d'IA à interagir avec les API de manière isolée, MCP établit un protocole unifié qui fait abstraction de la complexité de l'authentification, de l'exécution des requêtes et du formatage des données, ce qui permet aux systèmes d'IA de se concentrer sur le raisonnement plutôt que sur la logique d'intégration de bas niveau.
L'architecture client-serveur de MCP
MCP repose sur un modèle client-serveur qui structure la manière dont les modèles d'intelligence artificielle récupèrent et interagissent avec les sources de données externes.
Au lieu que les modèles d'IA fassent des demandes directes d'API, les serveurs MCP gèrent la complexité de l'authentification, de la récupération des données et de la normalisation des réponses. Cela signifie que les agents d'IA n'ont plus besoin de gérer plusieurs identifiants d'API, différents formats de demande ou des structures de réponse incohérentes.
Par exemple, si un modèle d'IA doit extraire des informations de plusieurs services comme Google Drive, Slack et une base de données, il n'interroge pas chaque API séparément. Il envoie une seule demande structurée à un serveur MCP, qui traite la demande, rassemble les données des sources nécessaires et renvoie une réponse bien organisée.
Cycle de vie des demandes et des réponses MCP
Une interaction MCP typique suit un cycle demande-réponse structuré qui élimine les appels API redondants et normalise la récupération des données.
1. L'agent d'intelligence artificielle envoie une demande structurée au serveur MCP. Au lieu d'élaborer des demandes d'API individuelles, l'agent définit les données dont il a besoin dans un format uniforme.
{
"request_id" : "xyz-987",
"queries" : [
{"source": "github", "action": "get_recent_commits", "repo": "company/project"},
{"source": "slack", "action": "fetch_unread_messages", "channel": "engineering"}
]
}
2. Le serveur MCP traite la demande en validant l'authentification, en vérifiant les autorisations et en déterminant les systèmes externes à interroger.
3. Les requêtes sont exécutées en parallèle, ce qui signifie que les données de plusieurs services sont récupérées en même temps plutôt que de manière séquentielle, réduisant ainsi le temps de latence global.
4. Les réponses provenant de différentes sources sont normalisées dans un format structuré que les modèles d'intelligence artificielle peuvent facilement traiter.
{
"github": {
"recent_commits" : [
{"author": "Alice", "message": "Refactored AI pipeline", "timestamp": "2024-03-12T10:15:00Z"}
]
},
"slack": {
"unread_messages" : [
{"user": "Bob", "text": "Hey, can you review the PR?", "timestamp": "2024-03-12T09:45:00Z"}
]
}
}
Contrairement aux réponses API brutes qui nécessitent une analyse manuelle, MCP garantit que toutes les données récupérées suivent un format prévisible et structuré, ce qui facilite leur compréhension et leur utilisation par les modèles d'IA.
Exécution des requêtes et agrégation des réponses
MCP est conçu pour optimiser la façon dont les modèles d'IA interagissent avec les systèmes externes en introduisant un processus d'exécution structuré.
En réduisant les demandes redondantes, en normalisant les réponses et en gérant l'authentification de manière centralisée, MCP élimine les frais généraux inutiles de l'API et rend l'automatisation pilotée par l'IA plus évolutive.