ai:comprendre_les_capacites_et_limites_des_llm
                Différences
Ci-dessous, les différences entre deux révisions de la page.
| Prochaine révision | Révision précédente | ||
| ai:comprendre_les_capacites_et_limites_des_llm [2025/10/20 20:48] – créée admin | ai:comprendre_les_capacites_et_limites_des_llm [2025/10/20 21:13] (Version actuelle) – [Pour en savoir plus] admin | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ======  | + | ======  | 
| - | ==== 🎯 Objectif du Prompt ==== | + | Un LLM (Large Language Model)  | 
| - | Ce prompt  | + | |
| - | * Analyser  | + | |
| - | * Produire une documentation structurée | + | |
| - | * Générer des recommandations argumentées | + | |
| - | * Identifier  | + | |
| - | Il repose sur une **combinaison de techniques puissantes**  | + | <WRAP center round tip 60%> | 
| - | * ReAct (reasoning + acting) | + | 🎯 Objectif  | 
| - | * Chain of Thought (CoT) | + | </ | 
| - | * Atomisation (découpage de problème) | + | |
| - | * Chain of Verification (CoV) | + | |
| - | * Few-shot learning (exemples guidés) | + | |
| - | * Compositional Chain of Thought (CCoT) | + | |
| - | ==== 👥 À qui s’adresse ce guide ? ==== | + | ====== Anatomie d'un LLM ====== | 
| - | * Responsables qualité | + | |
| - | * DSI et chefs de projets IT | + | |
| - | * Consultants métiers | + | |
| - | * Experts en réglementation | + | |
| - | * Rédacteurs de documents normatifs | + | |
| - | * Ingénieurs méthodes et amélioration continue | + | |
| - | ==== 🧩 Structure  | + | ===== Synthèse générale  | 
| - | Lors du partage du prompt, il suffit de **personnaliser les sections en gras** : | + | |
| - | < | + | Les LLM modernes reposent sur une architecture appelée  | 
| - | Contexte : | + | |
| - | Tu es un expert en [spécialité : ex. validation logicielle, lean management, documentation qualité, analyse de risques], spécialisé dans [secteur d’activité : ex. biotechnologies, | + | |
| - | Objectif : | + | |
| - | Ta mission est de [objectif clair : ex. analyser un processus métier pour identifier les points de non-conformité selon GAMP5 et générer un plan d’action]. | + | |
| - | Contraintes : | + | |
| - | - Respecter [normes ou référentiels : ex. ISO 9001, GxP, 21 CFR Part 11] | + | |
| - | - Répondre de façon exploitable dans un environnement professionnel | + | |
| - | - Documenter la démarche de raisonnement | + | |
| - | --- | + | |
| - | 1. **Décompose la tâche (atomisation)** en sous-problèmes simples et indépendants. | + | |
| - | Pour chaque sous-problème : | + | |
| - | - Pose une hypothèse | + | |
| - | - Propose une solution | + | |
| - | - Donne une justification (CoT) | + | |
| - | 2. **Raisonne étape par étape (Chain of Thought)** pour chaque sous-problème. | + | |
| - | 3. **Agis à chaque étape si nécessaire (ReAct)** : interroge des données fictives, simule une analyse, rédige un exemple  | + | |
| - | 4. **Combine les sous-résolutions (CCoT)** pour formuler une réponse globale cohérente. | + | |
| - | 5. **Vérifie chaque sous-réponse (Chain of Verification)**  | + | |
| - | 6. **Inspire-toi des exemples suivants (Few-shot learning)**  | + | |
| - | - Exemple 1 : | + | |
| - |       | + | |
| - |       | + | |
| - | - Exemple 2 : | + | |
| - |       | + | |
| - |       | + | |
| - | </ | + | |
| - | ==== 🧪 Exemple de cas d’usage ==== | + | - **Tokenisation** : découpage du texte en unités appelées tokens. | 
| - | **Contexte  | + | - **Embeddings** : conversion des tokens en vecteurs numériques. | 
| - | Un responsable qualité doit générer une fiche d'analyse  | + | - **Codage positionnel** : ajout d'une information sur la place des mots. | 
| + | - **Attention multi-têtes** : prise en compte du contexte. | ||
| + |   - **Réseau  | ||
| + |   - **Fine-tuning** : spécialisation du modèle  | ||
| - | **Extrait personnalisé du prompt :** | + | Ce processus  | 
| - | < | + | |
| - | Tu es un expert en validation qualité, spécialisé dans le transport pharmaceutique sous température dirigée. | + | |
| - | Ta mission  | + | |
| - | Contraintes : respecter  | + | |
| - | Utilise ReAct, CoT, Atomisation, | + | |
| - | </ | + | |
| - | ==== 🧭 Étapes pour utiliser le prompt ==== | + | ➡️  | 
| - | 1. **Copier-coller le template** dans un outil comme ChatGPT, Claude ou Mistral. | + | |
| - | 2. **Adapter le contexte, la mission et les contraintes** à la situation métier. | + | |
| - | 3. Ajouter **1 à 2 exemples concrets (few-shot)**  | + | |
| - | 4. Lancer  | + | |
| - | 5. **Lire la synthèse**, vérifier la cohérence. | + | |
| - | 6. Utiliser la section de vérification  | + | |
| - | ==== 🪪 Bonnes pratiques de diffusion interne ==== | + | ➡️  | 
| - | * 📂 **Stocker le prompt dans un dossier partagé** (ex : Notion, GitBook, SharePoint) | + | |
| - | * 🧑🏫 **Former les collaborateurs à la lecture structurée**  | + | |
| - | * 📝 **Créer un formulaire d’usage** où chaque personne peut proposer une version adaptée  | + | |
| - | * 💬 **Inclure une boucle de feedback** pour améliorer le prompt (ce qui a bien marché, ce qui a bloqué) | + | |
| - | ==== ✅ Check-list avant usage ==== | + | Ces représentations enrichies passent ensuite dans un **réseau  | 
| - | ^ Élément ^ OK ? ^ | + | |
| - | | Contexte bien défini ? | ✅ / ❌ | | + | |
| - | | Objectif clair et mesurable ? | ✅ / ❌ | | + | |
| - | | Normes et contraintes identifiées ? | ✅ / ❌ | | + | |
| - | | Exemples few-shot pertinents ? | ✅ / ❌ | | + | |
| - | | Attente  | + | |
| - | ==== 📦 Versions dérivées recommandées ==== | + | ➡️  | 
| - | Tu peux créer des **templates spécialisés** à partir  | + | |
| - | * 💊 *Analyse  | + | |
| - | * 📃 *Rédaction d’URS / FRS / DQ* | + | |
| - | * 🛠️ *Évaluation d’un outil IT en vue d’un audit* | + | |
| - | * 📈 *Plan de migration SI ou plan d’amélioration Lean* | + | |
| + | Enfin, le modèle peut être affiné (**fine-tuning**) pour s' | ||
| + | |||
| + | ➡️ **Le fine-tuning** consiste à réentraîner légèrement un modèle existant sur un domaine particulier (ex. médical, juridique, industriel) afin qu'il donne de meilleures réponses dans ce contexte précis. | ||
| + | |||
| + | Ce processus est entièrement **parallélisable** – c' | ||
| + | |||
| + | L' | ||
| + | |||
| + | ===== Embeddings – Transformer les mots en vecteurs ===== | ||
| + | |||
| + | * Chaque mot ou token est converti en vecteur numérique dense appelé **embedding**. | ||
| + |   * Un **vecteur**, | ||
| + |   * Exemple : le mot " | ||
| + | |||
| + | ➡️ **Pourquoi vectoriser les mots ?** | ||
| + | Un ordinateur ne comprend pas les mots comme nous. Il ne manipule que des nombres. Pour qu'il puisse « traiter » un mot comme " | ||
| + | |||
| + | ➡️ **Le calcul matriciel, c'est quoi ?** | ||
| + | Une **matrice** est un tableau de nombres, comme une grille ou une feuille Excel. Un vecteur est une ligne ou une colonne de cette grille. Les **calculs matriciels** consistent à multiplier, additionner ou transformer ces tableaux pour faire circuler l' | ||
| + | |||
| + | ➡️ **Pourquoi c'est si utile ?** | ||
| + | Grâce aux vecteurs et aux matrices, un modèle peut : | ||
| + | |||
| + |   * mesurer la similarité entre deux mots (ex. " | ||
| + |   * capter des relations sémantiques (ex. " | ||
| + | * apprendre à traiter le langage comme un système de relations mathématiques. | ||
| + | |||
| + | ➡️ **Pendant l' | ||
| + | Le modèle ajuste les valeurs dans ses vecteurs pour apprendre à prédire les bons mots selon le contexte. Il utilise les calculs matriciels pour comparer ses prédictions avec la réalité (les textes qu'on lui montre), puis il se corrige (via une technique appelée rétropropagation). | ||
| + | |||
| + | ➡️ **Pendant l' | ||
| + | Une fois entraîné, le modèle utilise ces vecteurs pour analyser une phrase qu'on lui donne, en appliquant les mêmes calculs que pendant l' | ||
| + | |||
| + | <WRAP center round info 60%> | ||
| + | 🧪 **Exercice :** Montrer que " | ||
| + | |||
| + | **Explication :** | ||
| + | Chaque mot est représenté par un vecteur dans un espace mathématique. Si deux mots ont des significations proches ou sont liés par une relation logique, leurs vecteurs auront une certaine proximité ou structure commune. | ||
| + | |||
| + | Dans cet exemple : | ||
| + | |||
| + |   * " | ||
| + |   * " | ||
| + |   * " | ||
| + | |||
| + | Si l'on soustrait le concept de masculin (" | ||
| + | Puis, en ajoutant le vecteur " | ||
| + | |||
| + | Le résultat de cette opération vectorielle (roi - homme + femme) donne un vecteur très proche de celui de " | ||
| + | |||
| + | **Conclusion :** Cela démontre que les modèles peuvent apprendre des relations sémantiques profondes uniquement à partir des statistiques d' | ||
| + | </ | ||
| + | |||
| + | ===== Positional Encoding – Situer les mots dans la phrase ===== | ||
| + | |||
| + | * Les embeddings ne contiennent pas la **position** des mots dans une phrase. | ||
| + |   * Or, l' | ||
| + | * Un codage positionnel est donc ajouté à chaque vecteur pour indiquer **à quelle place** se trouve le mot dans la séquence. | ||
| + | |||
| + | ➡️ **Pourquoi c'est important ?** | ||
| + | Sans position, une phrase comme « Le chat mange la souris » pourrait être interprétée comme identique à « La souris mange le chat ». Or, le sens est radicalement différent. Les modèles doivent donc intégrer une notion de **séquentialité**, | ||
| + | |||
| + | ➡️ **Comment ça marche ?** | ||
| + | Le codage positionnel ajoute à chaque vecteur d' | ||
| + | |||
| + | ➡️ **Effet combiné :** | ||
| + | Chaque mot est donc représenté à la fois par son sens (embedding) **et** par sa position (codage positionnel). Cela permet au modèle de comprendre que deux occurrences du même mot peuvent avoir des rôles différents selon où elles apparaissent. | ||
| + | |||
| + | <WRAP center round tip 60%> | ||
| + | 💡 **Analogie :** Lire un livre sans ponctuation ni paragraphes – c'est difficile à suivre. Le codage positionnel, | ||
| + | </ | ||
| + | |||
| + | ===== Attention et Multi-head Attention – Comprendre le contexte ===== | ||
| + | |||
| + | ➡️ **Origine du concept** : Le mécanisme d' | ||
| + | |||
| + | {{ : | ||
| + | |||
| + | ➡️ **Avantage majeur** : L' | ||
| + | |||
| + | ➡️ **Conséquence sur les LLM** : Ce mécanisme est au cœur de l' | ||
| + | |||
| + | ➡️ **Principe :** | ||
| + | L' | ||
| + | |||
| + | ➡️ **Fonctionnement :** | ||
| + | |||
| + | - Chaque token est projeté en **Query (Q)**, **Key (K)** et **Value (V)**. | ||
| + | - Le modèle calcule la **similarité entre Q et K** pour chaque mot de la séquence. | ||
| + | - Une fonction **softmax** (fonction de normalisation qui convertit des nombres en probabilités) est appliquée aux scores pour produire des poids. | ||
| + | - Ces poids pondèrent les V, générant une sortie contextuelle. | ||
| + | |||
| + | ➡️ **Multi-head attention :** | ||
| + | |||
| + | * Chaque tête se concentre sur un aspect (grammaire, sujet, objet…) | ||
| + | * Elles travaillent en parallèle puis sont combinées. | ||
| + | |||
| + | <WRAP center round tip 60%> | ||
| + | 💡 **Exemple :** | ||
| + | Dans "Le chat noir saute sur la table" | ||
| + | |||
| + |   * Une tête relie « chat » à « saute » (sujet/ | ||
| + | * Une autre relie « chat » à « noir » (description). | ||
| + | * Une autre relie « saute » à « table » (lieu). | ||
| + | </ | ||
| + | |||
| + | ===== Réseau de neurones – Le " | ||
| + | |||
| + | * La sortie de la multi-head attention est traitée par un **réseau de neurones profond**. | ||
| + |   * Il applique des transformations linéaires, suivies de fonctions d' | ||
| + | * Cela génère une **probabilité pour chaque mot du vocabulaire**. | ||
| + | |||
| + | <WRAP center round info 60%> | ||
| + | 📌 **Exemple :** Sur "Le chat boit du...", | ||
| + | |||
| + | * lait : 89 % | ||
| + | * vin : 4 % | ||
| + | * miel : 2 % | ||
| + | </ | ||
| + | |||
| + | <WRAP center round important 60%> | ||
| + | 🎓 **Zoom technique :** Des mécanismes comme Add & Norm (normalisation + connexions résiduelles) assurent la stabilité et la convergence de l' | ||
| + | </ | ||
| + | |||
| + | ===== Fine-tuning – Adapter le modèle à un domaine ===== | ||
| + | |||
| + | Une fois le modèle de base entraîné sur un corpus généraliste, | ||
| + | |||
| + | Le fine-tuning permet de spécialiser un modèle généraliste afin qu'il utilise un vocabulaire adapté, respecte un cadre métier, réponde dans un style précis, ou suive des règles métiers spécifiques. C'est une étape cruciale pour rendre les modèles plus utiles, plus précis et plus fiables dans des contextes professionnels ou sensibles. | ||
| + | |||
| + | Il existe plusieurs méthodes : | ||
| + | |||
| + | * **Fine-tuning total** : tous les paramètres du modèle sont réentraînés. Cela permet une personnalisation poussée mais nécessite beaucoup de données, de puissance de calcul, et de précautions pour ne pas dégrader les capacités initiales. | ||
| + |   * **Instruction tuning** : le modèle apprend à mieux suivre des instructions formulées en langage naturel (par exemple : « Résume ce texte », « Explique comme à un enfant »), en s' | ||
| + |   * **Adapters ou LoRA** : ces méthodes ajoutent des composants modulaires entraînables, | ||
| + | |||
| + | ➡️ Le fine-tuning n'est possible que si l'on a **accès aux poids du modèle**. Les //poids// sont les paramètres appris par le modèle lors de son entraînement. Ce sont des millions (voire des milliards) de valeurs numériques qui déterminent comment le modèle interprète les données d' | ||
| + | |||
| + | ➡️ **Impact pour l' | ||
| + | |||
| + |   * Les modèles **ouverts** permettent une personnalisation avancée, l' | ||
| + |   * Les modèles **fermés** offrent souvent de meilleures performances prêtes à l' | ||
| + | |||
| + | <WRAP center round tip 60%> | ||
| + | 🎯 **Exemples :** | ||
| + | |||
| + |   * Un assistant RH entraîné sur la convention collective, les procédures internes, et les politiques RH de l' | ||
| + | * Un chatbot médical capable de reformuler des diagnostics dans un langage accessible pour les patients, tout en respectant les recommandations officielles du domaine de santé. | ||
| + | </ | ||
| + | |||
| + | ====== Limites des LLM ====== | ||
| + | |||
| + | Même très performants, | ||
| + | |||
| + | * 🧠 **Pas de compréhension réelle** : ils ne « savent » pas, ils prédisent. Ils ne possèdent pas de représentation du monde ni de raisonnement conscient. | ||
| + |   * 🗓️ **Connaissances figées** : sauf si reliés à une base externe, les modèles n'ont accès qu'aux données sur lesquelles ils ont été entraînés, | ||
| + |   * 🔗 **Pas de capacité native de recherche ou de calcul** : un LLM n'est pas capable par lui-même d' | ||
| + |   * 🎭 **Hallucinations** : les LLM peuvent produire des réponses incorrectes, | ||
| + | * 🔍 **Dépendance au prompt** : la formulation de la question ou de la consigne influence fortement la qualité de la réponse. Des formulations imprécises ou ambiguës peuvent induire le modèle en erreur. | ||
| + |   * ⚙️ **Biais** : les modèles reproduisent les biais présents dans les données d' | ||
| + | |||
| + | <WRAP center round alert 60%> | ||
| + | 🚨 **Exemple :** un LLM peut inventer une référence scientifique inexistante ou adopter un ton sexiste ou stéréotypé si mal configuré. | ||
| + | </ | ||
| + | |||
| + | ====== Pour en savoir plus ====== | ||
| + | |||
| + | Quelques documentaires : | ||
| + | |||
| + |   * [[https:// | ||
| + |   * [[https:// | ||
| + | |||
| + | ---- | ||
| + | [[principes_de_base_du_prompt_engineering|Principes de base du prompt engineering]] | ||
ai/comprendre_les_capacites_et_limites_des_llm.1760986117.txt.gz · Dernière modification :  de admin
                
                