MCP (Model Context Protocol) : le standard qui connecte l'IA à vos systèmes

  • mise à jour : 20 février 2026
  • 8 minutes
Article écrit par

Adopté par OpenAI, Google et Microsoft en 2025, le MCP (Model Context Protocol) est le standard universel qui permet aux agents IA de se connecter à vos outils et données d'entreprise. 

Vous avez peut-être remarqué que votre assistant IA favori ne peut pas accéder à vos fichiers Google Drive, envoyer un message Slack ou consulter votre CRM. Cette limitation est en train de disparaître grâce au Model Context Protocol, un protocole ouvert qui standardise la communication entre les modèles d'IA et les systèmes externes.

Lancé par Anthropic en novembre 2024, le MCP s'est imposé en un an comme le standard pour connecter les agents IA aux outils et données d'entreprise. Fin 2025, OpenAI, Google et Microsoft l'ont adopté, et le protocole a été transféré à la Linux Foundation sous l'égide de l'Agentic AI Foundation.

Qu'est-ce que le MCP ?

Le Model Context Protocol (MCP) est un protocole ouvert qui permet aux applications d'intelligence artificielle de se connecter de manière standardisée à des sources de données et des outils externes. Concrètement, il définit comment un agent IA peut interroger une base de données, exécuter une action dans un logiciel tiers, ou accéder à des fichiers, le tout via une interface universelle.

La métaphore la plus utilisée pour décrire le MCP est celle du "port USB-C de l'IA" : de la même façon qu'un seul type de connecteur permet de brancher n'importe quel périphérique à un ordinateur, le MCP permet à n'importe quel modèle d'IA de se connecter à n'importe quel service, sans développer d'intégration spécifique.

Le protocole s'inspire du Language Server Protocol (LSP), qui a standardisé la communication entre les éditeurs de code et les langages de programmation. MCP reprend cette philosophie en utilisant JSON-RPC 2.0 pour la communication entre clients et serveurs.

Pourquoi le MCP est-il nécessaire ?

Avant le MCP, chaque intégration entre un modèle d'IA et un système externe nécessitait un développement sur mesure. Un assistant IA capable d'accéder à Slack, GitHub et Google Drive devait être connecté via trois intégrations distinctes, chacune avec sa propre logique, ses propres API et ses propres problèmes de maintenance.

Cette fragmentation créait plusieurs problèmes majeurs :

  • Multiplication des efforts de développement : Chaque nouvelle source de données exigeait un connecteur dédié. Une entreprise avec 50 outils SaaS devait potentiellement développer et maintenir 50 intégrations différentes.

  • Isolation contextuelle des modèles : Même les modèles les plus performants restaient "aveugles" aux données d'entreprise. Ils ne pouvaient répondre qu'à partir de leurs données d'entraînement, sans accès aux informations en temps réel.

  • Difficultés de mise à l'échelle : L'ajout de nouvelles capacités à un agent IA impliquait des cycles de développement longs, incompatibles avec l'agilité attendue des équipes Product.

Le MCP résout ces problèmes en proposant une couche d'abstraction : les développeurs implémentent le protocole une seule fois côté agent, et accèdent instantanément à tout l'écosystème des serveurs MCP disponibles.

Transformez vos prompts en composants en quelques secondes grâce au tutoriel MCP Figma de notre Product Builder Antoine Fornas !

Architecture du MCP : clients, serveurs et host

L'architecture MCP repose sur un modèle client-serveur avec trois composants principaux :

L'Host (application hôte)

L'Host est l'application qui orchestre l'ensemble du système. Il gère l'interface utilisateur, la mémoire de session et la coordination des différents clients. Claude Desktop, un IDE comme Cursor ou Zed, ou une application métier intégrant l'IA peuvent jouer ce rôle.

Le Client MCP

Le Client est le composant protocolaire qui maintient une connexion avec un serveur MCP spécifique. Chaque client gère la communication avec un seul serveur. Ses responsabilités incluent : découvrir les capacités exposées par le serveur (tools, resources, prompts), invoquer les outils disponibles et gérer l'authentification.

Le Serveur MCP

Le Serveur expose les capacités d'un système externe. Il peut s'agir d'un serveur qui encapsule l'API GitHub, d'un autre qui donne accès à une base PostgreSQL, ou d'un serveur personnalisé pour votre CRM maison. Le serveur reçoit les requêtes du client, exécute la logique métier correspondante et renvoie les résultats.

Flux de communication type

Voici comment se déroule une interaction MCP complète :

1. Initialisation : L'Host démarre et crée les clients MCP nécessaires. Chaque client effectue un handshake avec son serveur pour échanger les informations de version et de capacités.

2. Découverte : Les clients interrogent leurs serveurs pour obtenir la liste des Tools, Resources et Prompts disponibles.

3. Invocation : Lorsque l'utilisateur pose une question nécessitant des données externes ("Quels sont les tickets ouverts dans Jira ?"), le modèle détermine quel outil utiliser et l'Host ordonne au client d'envoyer la requête au serveur approprié.

4. Exécution et réponse : Le serveur exécute l'action (appel API Jira), récupère les données et les renvoie au client, qui les transmet au modèle pour formulation de la réponse finale.

Les 3 primitives du MCP : Tools, Resources, Prompts

Le MCP expose trois types de capacités, appelées "primitives", chacune servant un objectif distinct :

Tools : les actions que l'IA peut exécuter

Les Tools sont des fonctions que le modèle peut invoquer pour effectuer des actions ou récupérer des informations. Ils représentent les "verbes" du système : créer un ticket, envoyer un email, interroger une base de données.

Chaque Tool est défini par un nom unique, une description en langage naturel et un schéma JSON décrivant ses paramètres d'entrée. Le modèle décide de manière autonome quand utiliser un Tool en fonction du contexte de la conversation.

Les Tools sont découverts via l'endpoint tools/list et invoqués via tools/call. Cette standardisation permet à n'importe quel client MCP d'utiliser n'importe quel Tool sans configuration spécifique.

Resources : les données accessibles à l'IA

Les Resources représentent les sources de données que le serveur expose au modèle. Contrairement aux Tools qui exécutent des actions, les Resources fournissent du contexte (documents, fichiers de configuration, logs, états système).

Chaque Resource est identifiée par une URI unique (par exemple file:///docs/readme.md ou db://users/recent). Le serveur peut définir ses propres schémas d'URI personnalisés selon ses besoins.

Les Resources sont particulièrement utiles pour le RAG (Retrieval-Augmented Generation) : elles permettent d'injecter du contexte pertinent dans les conversations sans que le modèle ait à effectuer de recherche active.

Prompts : les templates d'interaction réutilisables

Les Prompts sont des templates de messages prédéfinis que le serveur expose pour standardiser certaines interactions. Ils permettent de définir des workflows récurrents avec des paramètres personnalisables.

Un serveur MCP pour la revue de code pourrait exposer un Prompt "review-pull-request" qui structure automatiquement la demande d'analyse en incluant le contexte du repository, les conventions de l'équipe et les critères de revue.

Les Prompts sont contrôlés par l'utilisateur (et non par le modèle) : c'est l'utilisateur qui choisit explicitement d'activer un Prompt, souvent via une interface de type commande slash (/review, /summarize).

Synthèse des trois primitives

Primitive Contrôle Fonction Exemple
Tools Modèle Exécuter des actions Créer un ticket Jira
Resources Application Fournir du contexte Contenu d'un fichier de logs
Prompts Utilisateur Structurer les interactions Template de revue de code

L'adoption massive du MCP en 2025

L'année 2025 a marqué l'adoption généralisée du MCP par l'ensemble de l'écosystème IA. Ce qui avait démarré comme une initiative d'Anthropic est devenu un standard industriel en moins de 12 mois.

Chronologie de l'adoption

  • Novembre 2024 : Anthropic lance le MCP avec des SDK Python et TypeScript, accompagnés de serveurs de référence pour GitHub, Slack, Google Drive, PostgreSQL et Puppeteer.

  • Début 2025 : Les éditeurs d'outils de développement Zed, Replit et Codeium annoncent leur compatibilité avec le protocole. Block et Apollo intègrent MCP dans leurs systèmes internes.

  • Mars 2025 : OpenAI adopte le MCP dans son Agents SDK, son API Responses et l'application ChatGPT Desktop. Sam Altman déclare simplement : "People love MCP."

  • Avril 2025 : Google DeepMind confirme le support MCP dans les futurs modèles Gemini, qualifiant le protocole de réponse à "la demande croissante d'agents IA contextuellement conscients".

  • Mai 2025 : Microsoft et GitHub rejoignent le comité de pilotage MCP. Windows 11 annonce une intégration native du protocole.

  • Novembre 2025 : La spécification est mise à jour avec des fonctionnalités majeures : opérations asynchrones, statelessness, identité serveur et registre communautaire officiel.

  • Décembre 2025 : Anthropic transfère le MCP à l'Agentic AI Foundation (AAIF), une entité sous la Linux Foundation cofondée avec OpenAI et Block, soutenue par Google, Microsoft, AWS, Cloudflare et Bloomberg.

L'écosystème MCP aujourd'hui

En février 2026, l'écosystème MCP compte plus de 13 000 serveurs publiés sur GitHub. Les SDK officiels totalisent plus de 97 millions de téléchargements mensuels (Python et TypeScript). Claude intègre désormais un répertoire de plus de 75 connecteurs natifs.

Des frameworks comme LangChain, Hugging Face et Deepset ont intégré le MCP dans leurs outils de développement, facilitant la création d'agents connectés pour les développeurs.

Sécurité et gouvernance du MCP

La puissance du MCP, qui à l'IA d'exécuter du code et d'accéder à des données arbitraires, implique des responsabilités importantes en matière de sécurité.

Principes de sécurité du protocole

La spécification MCP définit plusieurs principes que les implémentations doivent respecter :

  • Consentement explicite : L'Host doit obtenir le consentement de l'utilisateur avant toute invocation d'outil. Aucune action ne doit être exécutée automatiquement sans validation humaine.

  • Validation des entrées : Les serveurs doivent valider rigoureusement tous les paramètres reçus pour prévenir les attaques par injection.

  • Méfiance par défaut : Les descriptions d'outils fournies par les serveurs doivent être considérées comme non fiables, sauf si le serveur est explicitement approuvé.

  • Sandboxing : Les outils doivent opérer dans des environnements isolés avec des permissions minimales.

Les défis de sécurité identifiés

Une étude académique publiée en avril 2025 a mis en lumière plusieurs vulnérabilités potentielles : risques d'injection de code via les connecteurs MCP, exfiltration de données, et attaques de type "rug pull" où un serveur initialement fiable devient malveillant après mise à jour.

Ces risques soulignent l'importance d'une gouvernance rigoureuse : inventaire des serveurs MCP déployés, évaluation continue des configurations, et contrôle d'accès granulaire aux outils exposés.

Le MCP en entreprise : cas d'usage Product

Pour les équipes Product, le MCP ouvre des possibilités concrètes d'automatisation et d'augmentation des workflows quotidiens.

Automatisation de la discovery

Un agent IA connecté via MCP à vos outils de feedback (Intercom, Zendesk, ProductBoard) peut automatiquement synthétiser les retours utilisateurs, identifier les patterns récurrents et suggérer des opportunités d'amélioration, sans que le PM ait à jongler entre cinq interfaces différentes.

Gestion augmentée du backlog

En connectant votre assistant IA à Jira ou Linear via MCP, vous pouvez demander : "Quels sont les tickets bloqués depuis plus de 5 jours ?" ou "Crée une user story à partir de cette conversation client" et obtenir une réponse ou une action immédiate.

Aide à la décision data-driven

Un serveur MCP connecté à vos outils analytics (Amplitude, Mixpanel, votre data warehouse) permet d'interroger vos données en langage naturel : "Quel est le taux de conversion du nouveau onboarding par cohorte ?" sans écrire une ligne de SQL.

Orchestration cross-tools

Le vrai potentiel du MCP se révèle dans les workflows multi-outils : "Prends les feedbacks négatifs de la semaine dans Intercom, crée un résumé, génère les user stories correspondantes dans Linear, et programme une notification Slack pour l'équipe." Une seule instruction déclenche une chaîne d'actions coordonnées.

FAQ

Quelle est la différence entre MCP et les API classiques ?

Les API traditionnelles nécessitent une intégration spécifique pour chaque service. Le MCP standardise cette communication : un agent compatible MCP peut se connecter à n'importe quel serveur MCP sans développement additionnel. C'est la différence entre avoir un chargeur différent pour chaque appareil versus un seul câble USB-C universel.

Le MCP est-il réservé aux développeurs ?

L'implémentation de serveurs MCP requiert des compétences techniques. Cependant, l'utilisation d'agents compatibles MCP est accessible à tous : l'utilisateur final interagit en langage naturel, sans connaître les détails du protocole sous-jacent.

Comment démarrer avec le MCP ?

Pour les développeurs, les SDK officiels Python et TypeScript sont disponibles sur GitHub. La documentation complète se trouve sur modelcontextprotocol.io. Pour les utilisateurs, Claude Desktop intègre nativement le MCP avec un catalogue de connecteurs prêts à l'emploi.

Le MCP est-il sécurisé pour un usage en entreprise ?

Le protocole lui-même ne garantit pas la sécurité, il fournit un cadre que les implémentations doivent respecter. Un déploiement entreprise nécessite une gouvernance appropriée : validation des serveurs, contrôle des permissions, audit des accès et politique de consentement utilisateur.

Quelle relation entre MCP et les Skills Anthropic ?

Les Skills sont des instructions de contexte chargées à la demande, tandis que le MCP permet des connexions dynamiques à des systèmes externes. Les deux approches sont complémentaires : un agent peut utiliser des Skills pour structurer son comportement et le MCP pour accéder aux données et exécuter des actions.

Conclusion

Le Model Context Protocol représente un tournant dans l'intégration des agents IA aux systèmes d'entreprise. En standardisant la communication entre modèles et outils, il élimine la fragmentation qui limitait jusqu'ici l'utilité pratique de l'IA dans les workflows quotidiens.

Pour les équipes Product et Tech, le MCP n'est pas une technologie à surveiller pour demain. Les organisations qui maîtrisent cette brique d'infrastructure pourront construire des agents véritablement utiles, capables d'agir dans leur contexte métier plutôt que de simplement générer du texte.

Envie de devenir un Product Builder ? Découvrez les formations IA de Thiga Academy, qui couvrent en détail les cas d'usage d'intelligence artificielle dans un contexte Produit, de la création d'agents à la maîtrise des outils.

La newsletter qui produit son effet

COVER PM

La newsletter Product Management.

Contenus exclusifs, actualités, humeurs, devenez incollables en Produit