Dans vos locaux
Pour ancrer les apprentissages et encourager la dynamique collective.
Maîtrisez le standard Model Context Protocol (MCP) pour connecter de manière sécurisée et universelle les LLM à vos propres sources de données, outils et environnements de développement locaux ou cloud.
import { Server } from "@modelcontextprotocol/sdk/server/index.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
const server = new Server({
name: "my-data-source",
version: "1.0.0"
}, {
capabilities: { resources: {}, tools: {} }
});
await server.connect(new StdioServerTransport());Le Model Context Protocol (MCP) est une révolution dans l'intégration de l'IA générative. Plutôt que de multiplier les intégrations spécifiques, MCP offre un standard ouvert permettant aux LLM d'accéder nativement à vos bases de données, fichiers et APIs. Cette formation vous apprendra à construire des serveurs MCP personnalisés, à gérer les permissions de contexte et à configurer des clients (comme Claude Desktop ou des IDEs) pour qu'ils puissent agir directement sur vos outils de travail. Vous découvrirez comment structurer les ressources et les outils pour offrir aux modèles une vision claire et sécurisée de votre environnement métier.
Les objectifs
Expliquer le rôle et les principes du Model Context Protocol (MCP)
Comprendre comment MCP standardise l’accès des LLM à des données et des outils externes
Identifier les cas d’usage pertinents pour l’utilisation de MCP
Mettre en œuvre une connexion entre un LLM et un service externe via MCP
Créer un serveur MCP simple exposant des données ou des fonctions applicatives
Appliquer les premières bonnes pratiques de sécurité et de fiabilité dans une intégration MCP
Public visé
Développeurs et ingénieurs logiciels intégrant des LLM dans des applications
Ingénieurs DevOps ou MLOps impliqués dans des projets d’IA appliquée
Architectes techniques concevant des architectures orientées IA
Responsables techniques souhaitant comprendre les mécanismes standards de connexion entre LLM et systèmes externes
Toute personne amenée à concevoir ou piloter des intégrations entre IA générative, outils et données
Prérequis
Compréhension générale du fonctionnement des grands modèles de langage (LLM)
Bases solides en développement logiciel
Connaissances des API REST et des échanges de données structurées (JSON)
Expérience avec un langage de programmation tel que Python ou JavaScript
Notions d’architecture applicative ou de systèmes distribués
Pour ancrer les apprentissages et encourager la dynamique collective.
Pour allier flexibilité et interactions en temps réel avec le formateur.
Pour favoriser la concentration, les échanges et le confort des apprenants.