- A Kind of Magic
- Posts
- Connecte Claude à un serveur MCP
Connecte Claude à un serveur MCP
À la une : Meta lance sa famille de modèles Llama 4

Au menu d’aujourd’hui :
🤝 Des cas concrets vus sur le terrain
🔗 Un exemple simple pour comprendre les MCP
🗞️ À la une : Meta lance sa famille de modèles Llama 4
📮 4 autres news en bref
💎 5 ressources de la semaine

🤝 Des cas concrets vus sur le terrain
Les meilleurs cas d’usages IA sont ceux qui viennent du terrain. Dans cette section on t’emmène avec nous au premier rang de cette exploration aux côtés de nos clients.
On a officialisé le lancement de notre agence la semaine dernière (si tu as loupé ça, tu peux retrouver les détails ici).
#1 Conseils pratiques pour doper ton SEO avec le l’IA
Ces dernières semaines, on a bossé avec plusieurs équipes SEO pour booster leur productivité avec de l'IA.
On a vu un impact radical :
Générer des briefs de rédaction ultra fouillés en 4 minutes vs 4h.
Rédiger des articles complets, au style et au standard de l'entreprise en 10 minutes vs 1 jour.
Automatiser le maillage interne avec les pages mères, soeurs et filles en 1 clic.
etc.
Voici 5 conseils pratiques pour faire pareil dans ton équipe :
Garbage in, Garbage out → Donne un maximum de contexte en entrée et automatise la recherche d'infos.
Utilise un IDE pour itérer sur tes prompts → Tu as besoin d'un IDE pour facilement switcher d'un modèle à l'autre, versionner, comparer les outputs etc. Promptmetheus est une option solide.
Fais du prompt chaining → Pour obtenir des résultats satisfaisants, tu dois combiner plusieurs prompts.
Utilise plusieurs modèles → Choisis le bon modèle pour le bon prompt. Pense aussi à varier les paramètres : température, Top P etc.
Documente avec des schémas → Les schémas te permettent de documenter chaque maillon du workflow de production de contenu, isoler les outputs, et itérer en conséquence.

Exemple de schéma mis en production chez un client.
On propose des appels découverte gratuits pour échanger sur ta problématique SEO et te conseiller sur l’intégration de l’IA dans tes process.
#2 Gemini 2.5 Pro Experimental
On a remplacé o3-mini par Gemini 2.5 Experimental chez plusieurs clients et… ils sont contents des résultats.

(Promis c’est un vrai retour 😅)
Pour les tâches de raisonnement, le nouveau modèle de Google sorti le 25 mars, est un cran plus fort que les autres modèles.
On a observé des résultats excellents dans les cas suivants :
Gestion de contexte long → Ex : nettoyer du markdown de dizaines de pages web
Nombreuses instructions à respecter → Ex : prompt complexe avec une longue grille d’analyse
Trouver une aiguille dans une botte de foin → Ex : trouver les citations pertinentes dans un transcript hyper long
Orchestration agentique → Ex : il est utilisé par Devin, l’agent de code vertical
Tu as un besoin spécifique ? Parlons-en :)
🔗 Un exemple simple pour comprendre les MCP
C’est le sujet chaud du moment 🔥
Tous les outils SaaS créent leurs propres serveurs MCP. Par exemple, GitHub et ElevenLabs ont annoncé le lancement de leurs propres serveurs MCP cette semaine.

Mais alors c’est quoi un MCP ?
MCP ça veut dire Model Context Protocol.
C’est un protocole de communication entre un LLM et des outils, créé en novembre 2024 par Anthropic.
En langage humain, c’est juste un pont entre un LLM et un outil.
Ce pont fait la traduction entre des requêtes en langage naturel du côté du LLM et des instructions compréhensibles par l’outil.
Cette traduction permet au LLM de déclencher des actions dans un outil.

Super rapport de a16z sur l’AI tooling que je vous ai mis dans les “💎 Ressources”
Prenons un exemple concret
Pour utiliser l’API de Firecrawl (API de scraping)
Exemple sans MCP
On doit faire un call API au bon endpoint. Ça implique de regarder la documentation API de Firecrawl pour savoir quel endpoint appeler et rédiger soi-même la requête.

Exemple de requête pour scraper un url
Exemple avec MCP
Lorsque le LLM est connecté au MCP :
On formule la demande en langage naturel.
Le modèle comprend automatiquement quel endpoint utiliser.
Claude génère et envoie la requête API appropriée sans intervention supplémentaire.

Et on obtient la réponse attendue !

It’s a kind of maagiiiic 🎶
On voit bien l’intérêt en terme de gain de productivité, mais pourquoi c’est game changer ?
Game changer : Des agents IA super connectés
Le vrai game changer est au niveau des agents IA.
L’intérêt d’un agent IA c’est d’être connecté à des outils pour pouvoir agir de manière autonome.
Sans serveur MCP, il faut créer ces outils, les “câbler” manuellement avec l’agent en lui donnant des instructions précises sur comment les utiliser.
Voilà un exemple réel avec l’extrait d’un prompt d’un agent de création de contenu sur relevance.ai. On a explicitement créé et nommé des outils et on donne des instructions à chaque sous-agent sur comment les utiliser.

Ça se fait, mais c’est pas du tout optimal :
Risque d’oubli quand on ajoute un outil (il faut modifier les prompts à plusieurs endroits).
C’est hyper chronophage et fastidieux.
Compliqué à maintenir.
Difficilement scalable, au bout d’un moment l’agent perd pied.
En étant connecté à un serveur MCP, l’agent peut :
Lister les outils disponibles
Comprendre les actions possibles
Remplir les paramètres de manière autonome
Déclencher les actions

Non seulement on gagne énormément de temps dans la construction des agents mais surtout on peut construire des agents beaucoup plus complexes et intelligents.
Un exemple simple : Connecter Claude Desktop à Firecrawl
Dans cette vidéo, je te montre comment connecter Claude Desktop à Firecrawl en 3 minutes.
D’autres exemples intéressants
Créer un agent vocal sur ElevenLabs
Un MCP pour Perplexity
Un MCP pour Whatsapp
Ce repo GitHub recense les serveurs officiels et des serveurs créés par des membres de la communauté.

🗞️ À la une

Meta dévoile sa nouvelle génération de modèles Llama 4, introduisant Scout (109B paramètres) et Maverick (400B paramètres), dotés de capacités multimodales impressionnantes et de fenêtres de contexte étendues allant jusqu'à 10M de tokens.
Le modèle Scout surpasse Gemma 3 et Mistral 3 sur les benchmarks, tandis que Maverick dépasse GPT-4o et Gemini 2.0 Flash tout en étant plus économique, les deux modèles étant immédiatement disponibles au téléchargement.
Meta a également annoncé Behemoth, un modèle enseignant de 2T paramètres encore en entraînement, qui surpasserait déjà GPT-4.5, Claude 3.7 et Gemini 2.0 Pro.

📮 Autres news en bref
OpenAI repousse le lancement de GPT-5 de quelques mois mais prévoit de sortir o3 et o4-mini dans les prochaines semaines.
OpenAI envisage l'acquisition de io Products, la startup d'appareils IA de Jony Ive, pour plus de 500M$, visant à créer un "téléphone sans écran".
Runway dévoile Gen-4 Turbo, capable de générer des vidéos de 10 secondes en seulement 30 secondes.
Shopify impose l'utilisation de l'IA à l'échelle de l'entreprise, exigeant une justification pour toute tâche non réalisable par l'IA (must read).
💎 Ressources
Google DeepMind publie un rapport de 145 pages sur sa stratégie de sécurité pour l'AGI, prévoyant des modèles de niveau humain d'ici 2030.
A16z propose une analyse approfondie du MCP et de l'avenir des outils d'IA.
Amazon lance "Buy for Me", un agent IA capable d'effectuer des achats sur d'autres sites web.
Anthropic introduit Claude for Education, une version spécialisée de son assistant IA pour l'éducation.
Google présente NotebookLM Discover Sources, un outil de recherche de sources web basé sur la description de sujets.

🎤 À toi le micro
Voilà, c’est la fin de cette 22ème édition de A Kind of Magic, j’espère qu’elle t’a été utile.
N’hésite pas à la partager si c’était le cas.
Dispo pour échanger en réponse à cet e-mail ou sur Linkedin.
Et si tu as un besoin en IA dans ton entreprise, n’hésite pas à prendre rdv pour en discuter.
À jeudi !

Jean-Charles