Formations informatiques à Grenoble et Sophia Antipolis

Formation RAG et Fine Tuning d’un LLM

Objectifs

Décrire le fonctionnement et les limites d'une LLM.

Expliquer les concepts clés du RAG.

Créer un Pipeline RAG avec LangChain.

Expliquer les techniques de fine tuning sur un LLM.

Evaluer et optimiser les performances d'un modèle.

Déployer un modèle en production.

Pré-requis

Bonne connaissance du langage Python et avoir quelques connaissances de base en Deep Learning et NLP

Participants

Chercheurs et ingénieurs en IA souhaitant optimiser et personnaliser des LLM

Programme de formation

RAG et Fine Tuning d’un LLM

INTRODUCTION A L'IA GENERATIVE ET AUX LLM

  1. Rappels sur le Deep Learning

  2. Rappels sur l'architecture Transformer

  3. Forces et faiblesses d'un LLM

  4. Les principaux LLM à notre disposition

  5. Première utilisation de ces modèles

  6. Que sont le RAG (Retrieval Augmented Generation) et le Fine Tuning ?

LE RAG (RETRIEVAL AUGMENTED GENERATION)

  1. Les concepts clés du RAG

    • Qu'est-ce qu'un embedding (un plongement) ?
    • Word embedding VS Sentence embedding
    • Bases de données vectorielles
  2. Indexation des données

    • Chargement des données (PDF, Docx, Json, Web scraping,...)
    • La vectorisation des données (FAISS, ChromaDB, Weaviate)
    • Les modèles d'embedding (Mistral-Embed, OpenAI, Sentence Transformers)
  3. Mécanisme de récupération des données

    • Recherche sémantique
    • Similarité cosinus, re-ranking
  4. Génération augmentée

    • Techniques de prompt engineering
    • Fusion des données récupérées avec un LLM
    • Mise en oeuvre d'une interface graphique avec Gradio
  5. Cas d'usage et enjeux stratégiques

    • Applications du RAG dans l'industrie
    • Mise en oeuvre agents conversationnels avec une base de connaissances personnalisée

MISE EN OEUVRE D'UN PIPELINE POUR SON RAG

  1. Pourquoi utiliser des Tool Chains ?

  2. Les principaux outils de Pipeline

    • LangChain
    • LlamaIndex
    • Haystack
  3. Création d'un Pipeline RAG avec LangChain

    • Configuration des outils
    • Intégration des modèles de langage
    • Exécution et test du Pipeline
  4. Agents LLM et logique ReAct

    • Qu'est-ce qu'un agent LLM ?
    • Qu'est-ce que la Logique ReAct (Reasoning and Acting) ?
    • Exemples d'agents avec LangChain

REALISER UN FINE TUNING

  1. Fine Tuning Complet VS Fine Tuning léger (LoRA, QLoRA...)

  2. Préparation des données

    • Nettoyage et structuration des données
    • Formats de fichiers utilisables (JSONL, HF datasets...)
    • Stratégies d'annotation et de génération de prompts
  3. Augmentation des données

  4. Mise en oeuvre du Fine Tuning

    • Les API utilisables
    • Gestion des ressources GPU
  5. Evaluation et métriques de performance

  6. Distillation de modèles

OPTIMISATION ET DEPLOIEMENT

  1. Quantization et compression d'un modèle

  2. Déploiement d'un modèle fine tuned

    • Le logiciel Gradio
    • Le déploiement en API via FastAPI
    • Les logiciels Jan.ai et Ollama

FINE TUNING VS RAG

  1. Comparaison entre les deux techniques

  2. Combiner les approches pour améliorer les performances

Durée
3 jours
Lieux
Meylan Moirans Sophia Dans vos locaux Classe distancielle
Groupe de 8 personnes maximum
Demandez un devis
Cette thématique vous intéresse ?
Nos experts conçoivent votre formation sur-mesure On adore les moutons à 5 pattes !
Formations dans la même thématique