Cursus
Formation Déployer et utiliser un modèle open source type Mistral (niveau technique)
Objectifs
Décrire les caractéristique et les avantages des principaux modèles open source.
Déployer un modèle Mistral.
Concevoir et créer un chatbot connecté à des documents internes.
Ecrire des scripts Python pour générer des réponses via l'API Mistral.
Appliquer les bonnes pratiques de sécurité et de conformité, y compris le RGPD et les exigences de l'AI Act pour héberger et gérer des données localement.
Pré-requis
Participants
Programme de formation
PANORAMA DES MODÈLES OPEN SOURCE
Mistral, Llama 3, Falcon, Gemma
Pourquoi choisir un modèle open source ?
Modèle vs LLM hébergé (Azure, OpenAI, Anthropic)
DÉPLOIEMENT DE MISTRAL
Utiliser Ollama, Text Generation WebUI, HuggingFace
Exécution locale vs cloud
Premiers tests en ligne de commande ou via API
Contraintes matérielles, performance, sécurité
INTÉGRATION SIMPLE VIA API
Générer des réponses via l'API Mistral (vLLM, Transformers, etc.)
Utiliser l'API dans un script Python
Notions de token, prompt, température, top-p...
RAG (RETRIEVAL AUGMENTED GENERATION)
Introduction au RAG : ajouter de la mémoire et des données à son IA
Intégration avec LangChain / LlamaIndex
Créer un chatbot connecté à ses propres documents
BONNES PRATIQUES DE SÉCURITÉ ET CONFORMITÉ
RGPD et IA souveraine : héberger les données localement
Logs, effacement de données, authentification, isolation
Application aux exigences de l'AI Act (registre, gouvernance)
PROTOTYPAGE D'UN USE CASE
Création d'un assistant IA métier
Déploiement local ou en cloud souverain
Présentation de l'architecture technique + plan d'évolution