Le Protocole MCP c’est un peu le mot-clé qui anime les cools kids qui code avec l’IA en ce moment. On voit passer pas mal de choses sur le sujet qui sont plus ou moins précises. Ça serait un nouveau protocole ouvert que toutes les IAs ont adoptées. Une révolution de l’agentique ? Je ne suis pas sûr que les utilisateurs d’IA, même les plus avancés, aient bien compris ce que c’est l’agentique.
Récemment, j’étais en train de vibecoder sur un projet perso. On avait bien écrit avec ChatGPT, la documentation, qui décrit la machine à état, le readme qui décrit le but du projet, un markdown qui décrit la plateforme de marque et l’identité visuelle, tout ça est dans son “Projet”. Et pourtant il me fatigue.
Il me soûle parce qu’il oublie mon fichier index.html à chaque conversation.
Il me fait répéter les principes de séparations entre la logique métier et l’interface que l’on a défini ensemble.
Je dois lui rappeler à chaque fois quel est le contexte, quel est le CSS.
Au début, on discutait dans le métro de la feature à faire, et en arrivant à la maison, je codais direct.
Maintenant, c’est devenu pénible. Je pourrais passer à Cursor, ou Github Copilot, mais cela ne serait pas la même conversation que j’ai aujourd’hui à parler directement avec ChatGPT.
La solution ? Le protocole MCP pour Model Context Protocol. On fait le point sur ce que c’est et ce que ça va vraiment changer dans notre quotidien (ou pas).
Quels sont les cas d’usage du protocole MCP ?
J’ai envie de vous dire que les protocoles MCP résolvent le problème que l’IA n’a pas résolu. Laissez-moi vous le décrire.
La gestion de la connaissance dans une organisation a toujours été une obsession pour moi.
Flashback #1 : Redmine, Word et SVN
Par exemple, sur mes premiers projets d’applis mobiles, j’avais souvent une grosse maquette en PSD (et pas de licence Photoshop officielle pour la découper), un cahier des charges au format Docx, que le chef de projet avait transcrit dans un Redmine pour que le client puisse voir l’avancement du projet. Tout le code était sur un serveur SVN et on n’avait pas de documentation de celui-ci.
Flashback #2 : Bitbucket, Confluence et Jira
Sur les projets suivants, on m’a dit que le code était la documentation ou la spécification. Donc pas de cahier des charges. Mais maintenant, on est agile donc le chef de projet a mis un Jira avec le Dashboard Todo, Doing, Done. On fait des sprints planning et on s’est mis d’accord sur la définition of done.
Les tickets sont fait par le PO au fur et à mesure que le projet avance. Généralement la semaine pour la suivante. Le code est sur Bitbucket. Mais parfois on sait pas où mettre la doc alors on a un confluence. Le confluence, on enterre des choses dedans parce qu’en vrai, on ne sait jamais retrouver ce qu’on y a mis la veille.
Flashback #3 : Github, Google et …
Dans mes boites suivantes, on utilise Github pour le code, les tickets sont sur github issue, on a google drive et je commence à limiter les endroits où s’éparpillent les choses. Mais bon, plusieurs années après, on a un Notion un peu obsolète que plus personne n’utilise. Une partie des supports sur Canvas, l’autre sur GDrive. Les projets Adobe sont sûrs des SSDs et sauvegardés sur un NAS (parfois). On a une partie des maquettes sur Sketch, l’autre sur Figma (invision a envoyé un mail pour dire qu’ils avaient tout supprimé).
ChatGPT sait tout sauf ce qui m’intéresse
Et moi, je parle à ChatGPT qui n’a accès à rien de tout ça. Google essaie de me forcer à utiliser Gemini mais il ne comprend rien au Français pour l’instant (parce que j’ai mon workspace en anglais).
On a stocké des Téraoctets de données qui ne sont pas exploitables. Si on lance ChatGPT dessus, il va halluciner au bout de quelques minutes. Et de manière irrémédiable.
C’est ça l’impression que peut avoir un dev sénior qui connait par cœur les 30K lignes de code de son projet Spring tout bien rangé. Il parle à ChatGPT qui a lu tout GitHub, mais n’a rien à dire d’intelligent sur son code. Ok, tu ne sers à rien.
Et moi, je passe mon temps à chercher les informations dans un logiciel ou dans un autre.
Est-ce qu’on peut faire un RAG ? (Retrieval-Augmented Generation)
Alors pendant quelques mois, les Consultants IA étaient des Rag Machine (🤘🎸).
Ces consultants compilent toute la connaissance dans quelque chose de digeste, de simple pour une LLM.
C’est un peu comme si on cherchait à transformer toute la base de connaissance non structurée (le Notion, le Jira, le github) en une FAQ qui a réponse à tout.
Par exemple, si je demande au Gemini de la boîte, si c’est mieux d’indenter avec des espaces ou des tabs, il ne me répond pas avec des punchlines trouvées sur Reddit ou Stackoverflow, il me répond avec un extrait de la politique de la boite. C’est utile, c’est pertinent, c’est pratique.
Cela permet aussi d’avoir un peu plus la main sur ce que répond l’IA dans des cas métiers précis. Si le bot était à côté de la plaque, c’est probablement que le RAG était pas bien.
RAG again and again
Le problème, c’est que ces RAGs sont généralement figés dans le temps. C’est une photo qu’on a mis longtemps à builder. Et ils ne sont jamais parfaits. Quand ils sont trop petits, ce n’est pas assez bien. Quand ils sont trop gros, l’IA hallucine.
Les construire est une chimie finie, un travail d’artisan, un chef-d’œuvre jamais fini.
C’est bien parce que ça fait bosser des consultants en IA. C’est chiant pour le client parce que ça demande un consultant en IA qui coûte cher.
🎊 Bonne nouvelle, on va pouvoir les remplacer par un serveur MCP
Alors c’est quoi le protocole MCP ?
Le Model Context Protocol est la réponse d’Anthropic à cette problématique.
C’est une interface open-source qui permet à l’IA de sortir de son bocal.
Quand tu travailles avec Claude, tu lui donnes le lien de ton serveur MCP Github et il va savoir l’interroger pour trouver ce qu’il cherche. Et surtout, il va pouvoir prendre ce qui lui faut sans faire déborder son bocal. Oui parce qu’un RAG trop grand, c’est un peu comme remplir le bocal avec une citerne d’1m cube d’eau. Il hallucine très vite.
Tu peux lui donner le serveur MCP branché sur le Figma et il va trouver les maquettes. Si la doc est sur JIRA, il va pouvoir accéder au ticket sur lequel tu travailles avec le serveur approprié.
Si ton collègue a fait un Notion que tu n’ouvres jamais, tu pourras faire un serveur MCP pour que ton agent conversationnel aille y piocher les informations pertinentes.
Et surtout, tu peux faire bosser l’IA pour qu’il dépasse le silo. Dans Figma, tu peux lui demande d’aller modifier le CSS. Dans Cursor, tu peux lui demander de mettre à jour la documentation utilisateur.
Plus besoin de changer de contexte en permanence et de synchroniser 4 sources de vérité.
Ne jetez pas vos RAGs !
Oui, ça va, les consultants IAs ne vont pas être au chômage demain, rassurez-vous. Les RAGs d’aujourd’hui pourront être interfacés derrière un serveur MCP. C’est toujours mieux d’avoir de la donnée raffinée. C’est juste qu’on va pouvoir mieux découper les RAGs, et surtout l’IA ne sera pas obligée de tout manger avant de travailler. Elle ira piocher ce dont elle a besoin.
Attend, mais c’est bien sécurisé tout ça ?
Bonne question !
On parle d’un serveur qui expose sur une URL tout ce qu’il faut pour qu’une IA scrappe votre base de connaissance. Alors oui, vous allez devoir donner votre token github à votre serveur MCP Github pour que le code soit accessible à votre agent.
Il faudra donc faire attention à ce qu’on utilise. Si c’est un service managé, comme un SaaS, on est en train de donner le token à un tiers. Il faut qu’il soit digne de confiance.
Comment débuter avec le protocole MCP ?
Alors revenons à mon projet perso du début. Je demande à ChatGPT comment faire un serveur MCP parce que j’en ai marre de lui donner la becquée avec mon code vanillaJS.
Dans un premier temps, il me recommande d’utiliser un serveur MCP Github et de l’héberger sur ma machine. Il faudra juste l’exposer sur le web pour lui donner le lien. Alors je lui explique qu’avec mon macbook et ma livebox c’est pas une super idée.
Pas de soucis ! Il me propose de faire un serveur simplifié qu’il va écrire lui-même et de l’héberger sur Replit. Sauf que bon, je vais devoir mettre mon token Github sur ce Replit. Ah ben oui, du coup c’est peut-être mieux que je passe mon repo en open-source et que je lui donne directement le lien. J’ai pas envie
Bienvenue au far west des serveurs MCPs
Github a commencé à communiquer sur un serveur MCP officiel, mais il est encore en préversion et ça ne fonctionne pas sur mon repo pour une raison qui nous échappe.
ChatGPT très raisonnable me propose une matrice de décision entre : utiliser Cursor, utiliser Github Copilot ou attendre que le serveur officiel MCP de Github soit dispo.
En pratique, vous allez trouver toute une quantité de serveurs MCPs sur Github : https://github.com/modelcontextprotocol/servers.
Mais vous allez devoir les hoster vous-même.
Et ensuite, votre modèle IA ne sera pas forcément un client MCP officiel. En pratique, GPT-4o y arrive parce qu’il sait scrapper. Mais OpenAI n’a pas fait de déclaration officielle sur le sujet. Claude est le seul client MCP officiel. Et donc ça marchera vraiment mieux si vous utilisez Claude.
On voudrait demain que le serveur MCP Github ce soit une option à activer sur votre repo github et un truc activable en un clic sur ChatGPT ou Le Chat de Mistral.
Ce n’est pas le cas tout de suite.
Est-ce que le Protocole MCP est réellement un standard qui va s’imposer ?
OpenAI n’a pas fait de déclaration sur le sujet et laisse Anthropic et Claude surfer sur sa propre vague.
Github a annoncé un serveur officiel. Mais est-ce qu’ils ont vraiment envie de donner des ressources à un projet qui va tuer leur poule aux œufs d’or : Github Copilot.
Ce n’est pas parce qu’un éditeur propose un standard ouvert et open-source que ses concurrents s’empressent de l’adopter. En particulier quand cet éditeur est quasiment une filiale d’Amazon qui a un historique prédateur envers l’écosystème open source.
OpenAI n’open-source plus ces modèles. Mais ils ont un problème de monétisation et s’ils ne trouvent pas une solution, ils vont se faire croquer par Microsoft, leur fournisseur cloud. Pendant ce temps, OpenAI envisagerait d’acheter Windsurf pour 3 Milliards de dollars. Cela feraient d’eux-même un concurrent de Github Copilot, un produit de Microsoft.
Pendant ce temps-là, Microsoft pousse les fabricants de PC à adopter le label “Copilot-ready” qui remplace Cortana (on est plus dans Halo). Et Google nous met Gemini partout dans workspace. Elon Musk a sûrement un outil Grok du code en embuscade.
Bref, les GAFAMs sont armés jusqu’aux dents. Et se livre une guerre corporate inspirée de Cyberpunk 2077.
Allez-vous adopter le protocole MCP ?
Au fond, si les clients — ceux qui font des RAGs aujourd’hui — adoptent MCP et encouragent l’usage de Claude, les autres n’auront pas le choix.
C’est vous qui avez les dés en main. Tentez-vous un double 6 ?