ai:comprendre_les_capacites_et_limites_des_llm
                Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| ai:comprendre_les_capacites_et_limites_des_llm [2025/10/20 21:03] – [2.3 Attention et Multi-head Attention – Comprendre le contexte] admin | ai:comprendre_les_capacites_et_limites_des_llm [2025/10/20 21:13] (Version actuelle) – [Pour en savoir plus] admin | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ======  | + | ====== Le rôle d'un LLM ====== | 
| Un LLM (Large Language Model) est un système d' | Un LLM (Large Language Model) est un système d' | ||
| Ligne 7: | Ligne 7: | ||
| </ | </ | ||
| - | ======  | + | ====== Anatomie d'un LLM ====== | 
| ===== Synthèse générale du fonctionnement des Transformers ===== | ===== Synthèse générale du fonctionnement des Transformers ===== | ||
| Ligne 38: | Ligne 38: | ||
| L' | L' | ||
| - | ===== 2.1 Embeddings – Transformer les mots en vecteurs ===== | + | ===== Embeddings – Transformer les mots en vecteurs ===== | 
| * Chaque mot ou token est converti en vecteur numérique dense appelé **embedding**. | * Chaque mot ou token est converti en vecteur numérique dense appelé **embedding**. | ||
| Ligne 83: | Ligne 83: | ||
| </ | </ | ||
| - | ===== 2.2 Positional Encoding – Situer les mots dans la phrase ===== | + | ===== Positional Encoding – Situer les mots dans la phrase ===== | 
| * Les embeddings ne contiennent pas la **position** des mots dans une phrase. | * Les embeddings ne contiennent pas la **position** des mots dans une phrase. | ||
| Ligne 102: | Ligne 102: | ||
| </ | </ | ||
| - | ===== 2.3 Attention et Multi-head Attention – Comprendre le contexte ===== | + | ===== Attention et Multi-head Attention – Comprendre le contexte ===== | 
| ➡️ **Origine du concept** : Le mécanisme d' | ➡️ **Origine du concept** : Le mécanisme d' | ||
| Ligne 129: | Ligne 129: | ||
| <WRAP center round tip 60%> | <WRAP center round tip 60%> | ||
| 💡 **Exemple :** | 💡 **Exemple :** | ||
| - | Dans "Le chat noir saute sur la table"  | + | Dans "Le chat noir saute sur la table" | 
|   * Une tête relie « chat » à « saute » (sujet/ |   * Une tête relie « chat » à « saute » (sujet/ | ||
| Ligne 136: | Ligne 136: | ||
| </ | </ | ||
| - | ===== 2.4 Réseau de neurones – Le " | + | ===== Réseau de neurones – Le " | 
| * La sortie de la multi-head attention est traitée par un **réseau de neurones profond**. | * La sortie de la multi-head attention est traitée par un **réseau de neurones profond**. | ||
| Ligne 154: | Ligne 154: | ||
| </ | </ | ||
| - | ===== 2.5 Fine-tuning – Adapter le modèle à un domaine ===== | + | ===== Fine-tuning – Adapter le modèle à un domaine ===== | 
| Une fois le modèle de base entraîné sur un corpus généraliste, | Une fois le modèle de base entraîné sur un corpus généraliste, | ||
| Ligne 180: | Ligne 180: | ||
| </ | </ | ||
| - | ======  | + | ====== Limites des LLM ====== | 
| Même très performants, | Même très performants, | ||
| Ligne 201: | Ligne 201: | ||
|   * [[https:// |   * [[https:// | ||
|   * [[https:// |   * [[https:// | ||
| + | |||
| + | ---- | ||
| + | [[principes_de_base_du_prompt_engineering|Principes de base du prompt engineering]] | ||
ai/comprendre_les_capacites_et_limites_des_llm.1760986982.txt.gz · Dernière modification :  de admin
                
                