ai:parcours_de_formation_pour_debuter
                Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédente | |||
| ai:parcours_de_formation_pour_debuter [2025/10/20 21:43] – admin | ai:parcours_de_formation_pour_debuter [2025/10/20 21:54] (Version actuelle) – admin | ||
|---|---|---|---|
| Ligne 9: | Ligne 9: | ||
| ==== Ressources recommandées (FR) ==== | ==== Ressources recommandées (FR) ==== | ||
| - |   * **Introduction au Machine Learning** de l' | + |   * [[https:// | 
| - | * **Fondamentaux du Machine Learning** sur OpenClassrooms (accessible gratuitement) : présente les bases théoriques du ML et leurs applications | + |   * [[https:// | 
| - |   * Ces cours vous aideront à appréhender les algorithmes classiques (régression linéaire/ | + |   * Ces cours vous aideront à appréhender les algorithmes classiques (régression linéaire/ | 
| ==== Ressources recommandées (EN) ==== | ==== Ressources recommandées (EN) ==== | ||
| - |   * **Machine Learning** de Andrew Ng (Coursera) : classique disponible en anglais (sous-titré), | + |   * [[https:// | 
| - | * **Machine Learning Crash Course** de Google (15 heures, 12 modules, >100 exercices) : tutoriel interactif avec interface française abordant la création de modèles de régression et classification | + |   * [[https:// | 
| - | * **Google Colab** : environnement cloud gratuit pour exécuter du code Python en ML | + |   * [[https:// | 
| ==== Approche d' | ==== Approche d' | ||
| Ligne 35: | Ligne 35: | ||
| ==== Ressources recommandées (FR) ==== | ==== Ressources recommandées (FR) ==== | ||
| - | * **Machine Learning France** sur YouTube : tutoriel sur **scikit-learn appliqué au NLP** (présentation de TF-IDF) | + |   * [[https:// | 
| - | * Supports de cours universitaires (Inria, ENS) | + |   * Supports de cours universitaires ([[https:// | 
| - | * Blog "Le TAL pour les nuls" | + |   * Blog [[https:// | 
| ==== Ressources recommandées (EN) ==== | ==== Ressources recommandées (EN) ==== | ||
| - |   * **"A Code-First Introduction to NLP"** de fast.ai (Rachel Thomas et Jeremy Howard) : cours gratuit (vidéos YouTube + notebooks Python) couvrant un large spectre, des méthodes NLP traditionnelles jusqu' | + |   * [[https:// | 
| - |   * **" | + |   * [[https:// | 
| - | * **spaCy 101** : tutoriel officiel de spaCy pour débuter avec cette bibliothèque moderne de NLP | + |   * [[https:// | 
| ==== Pratique ==== | ==== Pratique ==== | ||
| * Créez un notebook où vous nettoyez un corpus de tweets, retirez les stopwords, et calculez les TF-IDF | * Créez un notebook où vous nettoyez un corpus de tweets, retirez les stopwords, et calculez les TF-IDF | ||
| - | * Construisez un classifieur de spam/ham avec un modèle naïve Bayes entraîné sur du texte vectorisé | + |   * Construisez un classifieur de spam/ham avec un modèle naïve Bayes entraîné sur du texte vectorisé  | 
| - |   * Explorez les capacités de spaCy : tokenisation, | + |   * Explorez les capacités de [[https:// | 
| + |   * Téléchargez des [[https:// | ||
| ===== Phase 3 : Modèles de Deep Learning pour le NLP (Semaines 9 à 12) ===== | ===== Phase 3 : Modèles de Deep Learning pour le NLP (Semaines 9 à 12) ===== | ||
| Ligne 57: | Ligne 58: | ||
| ==== Ressources recommandées (EN) ==== | ==== Ressources recommandées (EN) ==== | ||
| - | * **Deep Learning Specialization** de Andrew Ng (Coursera) : inclut un cours sur les réseaux récurrents et le NLP. Gratuit en audit. | + |   * [[https:// | 
| - | * **Sequence Models** (cours 5 de la spécialisation Deep Learning) : focus sur RNN, LSTM, attention, et embeddings | + |   * [[https:// | 
| - | * **TensorFlow / PyTorch tutorials** : tutoriels officiels pour construire des modèles RNN/LSTM sur du texte | + |   * [[https:// | 
| ==== Pratique ==== | ==== Pratique ==== | ||
| - | * Chargez des word embeddings pré-entraînés (word2vec ou GloVe) et explorez les voisins sémantiques de mots | + |   * Chargez des word embeddings pré-entraînés ([[https:// | 
| - | * Construisez un modèle LSTM simple pour la classification de sentiment (IMDB reviews) | + |   * Construisez un modèle LSTM simple pour la classification de sentiment ([[https:// | 
| * Testez différentes architectures (RNN vanilla vs LSTM vs GRU) et observez les différences de performance | * Testez différentes architectures (RNN vanilla vs LSTM vs GRU) et observez les différences de performance | ||
| + |   * Utilisez [[https:// | ||
| ===== Phase 4 : Transformers et modèles pré-entraînés (Semaines 13 à 16) ===== | ===== Phase 4 : Transformers et modèles pré-entraînés (Semaines 13 à 16) ===== | ||
| Ligne 73: | Ligne 75: | ||
| ==== Ressources recommandées (EN) ==== | ==== Ressources recommandées (EN) ==== | ||
| - |   * **Hugging Face NLP Course** : cours complet et gratuit couvrant les Transformers, | + |   * [[https:// | 
| - | * **The Illustrated Transformer** (blog de Jay Alammar) : explication visuelle claire du fonctionnement des Transformers | + |   * [[https:// | 
| - | * **Attention is All You Need** (papier original) : pour les plus curieux, lecture du papier fondateur | + |   * [[https:// | 
| ==== Ressources recommandées (FR) ==== | ==== Ressources recommandées (FR) ==== | ||
| - |   * **Cours sur les Transformers** : certains  | + |   * Certains  | 
| - |   * Traductions  | + |   * [[https:// | 
| ==== Pratique ==== | ==== Pratique ==== | ||
| - |   * Utilisez la bibliothèque  | + |   * Utilisez la bibliothèque  | 
| * Fine-tunez un modèle pré-entraîné (DistilBERT) sur un dataset de votre choix | * Fine-tunez un modèle pré-entraîné (DistilBERT) sur un dataset de votre choix | ||
| - | * Explorez le Hub Hugging Face : testez différents modèles sur des tâches variées (NER, QA, résumé) | + |   * Explorez le [[https:// | 
| ===== Phase 5 : IA générative et LLM (Semaines 17 à 20) ===== | ===== Phase 5 : IA générative et LLM (Semaines 17 à 20) ===== | ||
| Ligne 94: | Ligne 96: | ||
| ==== Ressources recommandées (EN) ==== | ==== Ressources recommandées (EN) ==== | ||
| - |   * **DeepLearning.AI courses on Generative AI** : plusieurs cours courts gratuits sur le prompt engineering, | + |   * [[https:// | 
| - | * **OpenAI Cookbook** : collection de notebooks et guides pratiques pour utiliser les APIs GPT | + |   * [[https:// | 
| - | * **LangChain documentation** : pour construire des applications complexes avec les LLM | + |   * [[https:// | 
| ==== Ressources recommandées (FR) ==== | ==== Ressources recommandées (FR) ==== | ||
| Ligne 106: | Ligne 108: | ||
| * Expérimentez avec différentes techniques de prompting (zero-shot, few-shot, chain-of-thought) | * Expérimentez avec différentes techniques de prompting (zero-shot, few-shot, chain-of-thought) | ||
| - | * Construisez un chatbot simple avec LangChain et un LLM | + |   * Construisez un chatbot simple avec [[https:// | 
| * Créez une application RAG (Retrieval-Augmented Generation) connectant un LLM à vos documents | * Créez une application RAG (Retrieval-Augmented Generation) connectant un LLM à vos documents | ||
| + |   * Explorez [[https:// | ||
| ===== Phase 6 : Prompt Engineering avancé (Semaines 21 à 24) ===== | ===== Phase 6 : Prompt Engineering avancé (Semaines 21 à 24) ===== | ||
| Ligne 124: | Ligne 127: | ||
| ==== Ressources recommandées ==== | ==== Ressources recommandées ==== | ||
| - | * **Prompt Engineering Guide** : guide complet et gratuit sur toutes les techniques | + |   * [[https:// | 
| - | * **OpenAI Prompt Engineering Guide** : meilleures pratiques officielles | + |   * [[https:// | 
| - | * Cours et tutoriels sur le prompt engineering avancé | + |   * [[https:// | 
| ==== Pratique ==== | ==== Pratique ==== | ||
| Ligne 149: | Ligne 152: | ||
| ==== Newsletters ==== | ==== Newsletters ==== | ||
| - | * **The Batch** (DeepLearning.AI) : actualités IA hebdomadaires | + |   * [[https:// | 
| - | * **Import AI** (Jack Clark) : résumés de recherche en IA | + |   * [[https:// | 
| - | * **NLP News** (Sebastian Ruder) : focus sur le NLP | + |   * [[https:// | 
| ==== Blogs et sites ==== | ==== Blogs et sites ==== | ||
| - | * **Papers with Code** : dernières publications avec code | + |   * [[https:// | 
| - | * **Hugging Face Blog** : tutoriels et annonces | + |   * [[https:// | 
| - | * **Distill.pub** : articles de recherche visuels et pédagogiques | + |   * [[https:// | 
| - |   * **Jay Alammar' | + |   * [[https:// | 
| ==== Podcasts ==== | ==== Podcasts ==== | ||
| - | * **Lex Fridman Podcast** : interviews de chercheurs en IA | + |   * [[https:// | 
| - | * **The TWIML AI Podcast** : discussions techniques | + |   * [[https:// | 
| - | * **Practical AI** : applications concrètes de l'IA | + |   * [[https:// | 
| ==== Conférences (en ligne) ==== | ==== Conférences (en ligne) ==== | ||
| - | * **NeurIPS, ICML, ACL** : conférences majeures avec présentations en ligne | + |   * [[https:// | 
| - | * **Hugging Face Community Events** : webinars réguliers | + |   * [[https:// | 
| ===== Exemples de mini-projets pour consolider l' | ===== Exemples de mini-projets pour consolider l' | ||
| Ligne 177: | Ligne 180: | ||
| Entraînez un modèle pour prédire si des avis textuels sont positifs ou négatifs. | Entraînez un modèle pour prédire si des avis textuels sont positifs ou négatifs. | ||
| - | **Données** : critiques de films (IMDB, Allociné) | + | **Données** : [[https:// | 
| **Progression** : | **Progression** : | ||
| * Commencez par un modèle simple (Naive Bayes avec TF-IDF) | * Commencez par un modèle simple (Naive Bayes avec TF-IDF) | ||
| - | * Passez à un Transformer pré-entraîné (DistilBERT) fine-tuné | + |   * Passez à un Transformer pré-entraîné ([[https:// | 
| * Comparez les performances | * Comparez les performances | ||
| Ligne 203: | Ligne 206: | ||
| Découvrez les thèmes dominants dans un corpus de documents. | Découvrez les thèmes dominants dans un corpus de documents. | ||
| - | **Méthode** : LDA (Latent Dirichlet Allocation) | + | **Méthode** : [[https:// | 
| - | **Données** : articles de blog, nouvelles  | + | **Données** : articles de blog, [[https:// | 
| **Objectif** : explorer le NLP non supervisé et la visualisation de résultats | **Objectif** : explorer le NLP non supervisé et la visualisation de résultats | ||
| + | |||
| + | **Outils** : [[https:// | ||
| ==== 4. Extraction d' | ==== 4. Extraction d' | ||
| Ligne 219: | Ligne 224: | ||
| * Expériences | * Expériences | ||
| - | **Outils** : spaCy avec modèles pré-entraînés + règles personnalisées | + | **Outils** : [[https:// | 
| + | |||
| + | **Ressources** : | ||
| + |   * [[https:// | ||
| + |   * [[https:// | ||
| **Objectif** : mettre en œuvre la NER et adapter un modèle à un domaine spécifique | **Objectif** : mettre en œuvre la NER et adapter un modèle à un domaine spécifique | ||
| Ligne 228: | Ligne 237: | ||
| **Outils** : | **Outils** : | ||
| - |   * Modèle  | + |   * [[https:// | 
| - | * Interface Streamlit ou Gradio | + |   * Interface  | 
| **Progression** : | **Progression** : | ||
| - | * Commencez avec une paire de langues courante (EN→FR) | + |   * Commencez avec une paire de langues courante (EN→FR)  | 
| * Testez une paire moins courante (IT→EN) | * Testez une paire moins courante (IT→EN) | ||
| * Observez les limites | * Observez les limites | ||
| **Objectif** : déployer un modèle encodeur-décodeur | **Objectif** : déployer un modèle encodeur-décodeur | ||
| + | |||
| + | **Tutoriel** : [[https:// | ||
| ==== 6. Question-Réponse sur mesure ==== | ==== 6. Question-Réponse sur mesure ==== | ||
| Ligne 242: | Ligne 253: | ||
| Entraînez votre propre système de questions-réponses. | Entraînez votre propre système de questions-réponses. | ||
| - | **Données** : articles Wikipedia + dataset  | + | **Données** : articles Wikipedia + datasets  | 
| + |   * [[https:// | ||
| + |   * [[https:// | ||
| + |   * [[https:// | ||
| **Approches** : | **Approches** : | ||
| - | * Utilisez un modèle pré-entraîné de QA | + |   * Utilisez un [[https:// | 
| - | * Fine-tunez BERT sur vos données | + |   * Fine-tunez  | 
| * Évaluez les performances | * Évaluez les performances | ||
| + | |||
| + | **Tutoriel** : [[https:// | ||
| **Objectif** : appliquer le fine-tuning sur une tâche précise | **Objectif** : appliquer le fine-tuning sur une tâche précise | ||
| Ligne 256: | Ligne 272: | ||
| **Exemple** : | **Exemple** : | ||
| - | * Compilez les œuvres d'un auteur du 19e siècle (domaine public) | + |   * Compilez les œuvres d'un auteur du 19e siècle ([[https:// | 
| - | * Fine-tunez GPT-2 pour imiter le style | + |   * Fine-tunez  | 
| * Générez du texte et analysez les résultats | * Générez du texte et analysez les résultats | ||
| + | |||
| + | **Outils** : | ||
| + |   * [[https:// | ||
| + |   * [[https:// | ||
| **Questions à explorer** : | **Questions à explorer** : | ||
ai/parcours_de_formation_pour_debuter.1760989412.txt.gz · Dernière modification :  de admin
                
                