fbpx
Formation Deep Learning

Formation Deep Learning

Formation Deep Learning: Initiation au Deep Learning (24 heures)

Objectif général : Comprendre les concepts fondamentaux du deep learning, maîtriser les outils pratiques (bibliothèques comme TensorFlow et PyTorch), et appliquer ces connaissances à des projets concrets.

Public cible : Développeurs, data scientists débutants ou intermédiaires, étudiants en informatique/IA.

Prérequis : Bases en Python, notions d’algèbre linéaire, calcul différentiel et statistiques.

Objectif général : Comprendre les concepts fondamentaux du deep learning, maîtriser les outils pratiques (bibliothèques comme TensorFlow et PyTorch), et appliquer ces connaissances à des projets concrets.

Public cible : Développeurs, data scientists débutants ou intermédiaires, étudiants en informatique/IA.

Prérequis : Bases en Python, notions d’algèbre linéaire, calcul différentiel et statistiques.


Jour 1 : Fondations et prise en main (8 heures)

Module 1 : Introduction au Deep Learning (4h)

    • Objectifs : Comprendre les bases et le contexte du deep learning.
    • Contenu :
        • Historique : de l’IA aux réseaux neuronaux profonds.
        • Différence entre machine learning classique et deep learning.
        • Concepts clés : neurones, couches, activation (ReLU, sigmoid).
        • Introduction aux frameworks : TensorFlow, PyTorch.
    • Activités :
        • Présentation théorique (2h).
        • Installation des outils (Jupyter Notebook, bibliothèques) + premier script simple (2h).
    • Résultat attendu : Les apprenants comprennent les bases et configurent leur environnement.

Module 2 : Les réseaux neuronaux de base (4h)

    • Objectifs : Construire et entraîner un premier réseau neuronal.
    • Contenu :
        • Architecture d’un réseau fully connected.
        • Fonction de perte (ex. MSE, cross-entropy).
        • Optimisation : descente de gradient, backpropagation.
        • Régularisation (dropout, L2).
    • Activités :
        • Théorie sur la backpropagation (1h30).
        • Exercice pratique : implémentation d’un réseau pour classer des données (ex. MNIST) (2h30).
    • Résultat attendu : Les apprenants entraînent un modèle simple avec succès.

Jour 2 : Approfondissement et spécialisation (8 heures)

Module 3 : Réseaux convolutifs (CNN) (4h)

    • Objectifs : Maîtriser les CNN pour le traitement d’images.
    • Contenu :
        • Principe des convolutions et pooling.
        • Architectures classiques (LeNet, AlexNet).
        • Transfer learning avec modèles pré-entraînés (ex. ResNet).
    • Activités :
        • Théorie sur les CNN (1h30).
        • Projet : classification d’images (ex. chats vs chiens) avec un CNN (2h30).
    • Résultat attendu : Les apprenants construisent et évaluent un CNN.

Module 4 : Réseaux récurrents (RNN) et LSTM (4h)

    • Objectifs : Comprendre les modèles pour les données séquentielles.
    • Contenu :
        • Introduction aux RNN : traitement des séquences.
        • Problème du vanishing gradient et solution avec LSTM/GRU.
        • Applications : prédiction de séries temporelles, NLP.
    • Activités :
        • Théorie sur RNN et LSTM (1h30).
        • Exercice : prédiction de texte ou de séries temporelles (2h30).
    • Résultat attendu : Les apprenants entraînent un modèle RNN/LSTM.

Jour 3 : Applications avancées et projet final (8 heures)

Module 5 : Techniques avancées et optimisation (4h)

    • Objectifs : Approfondir les techniques pour améliorer les performances.
    • Contenu :
        • Data augmentation et prétraitement.
        • Hyperparamètres : learning rate, batch size.
        • Introduction aux GANs (Generative Adversarial Networks) et autoencodeurs.
    • Activités :
        • Théorie sur l’optimisation (1h30).
        • Mini-projet : implémentation d’un autoencodeur ou d’un GAN simple (2h30).
    • Résultat attendu : Les apprenants optimisent un modèle et explorent une technique avancée.

Module 6 : Projet final et synthèse (4h)

    • Objectifs : Appliquer les connaissances dans un cas pratique intégrateur.
    • Contenu :
        • Choix parmi plusieurs projets : classification d’images, génération de texte, prédiction de séries.
        • Présentation des résultats et discussion.
    • Activités :
        • Travail en groupes sur le projet (3h).
        • Présentation et feedback (1h).
    • Résultat attendu : Les apprenants livrent un projet fonctionnel et consolidé.

Méthodologie pédagogique

    • Approche : Mixte théorie (40 %) et pratique (60 %), avec des exercices progressifs.
    • Outils : Python, TensorFlow/PyTorch, Jupyter Notebook, datasets publics (MNIST, CIFAR-10).
    • Évaluation : Quiz courts après chaque module + évaluation du projet final.
    • Support : Slides, code commenté, ressources en ligne (articles, documentation).

Planification (24 heures sur 3 jours)

    • Jour 1 : 9h-13h (Module 1) + 14h-18h (Module 2).
    • Jour 2 : 9h-13h (Module 3) + 14h-18h (Module 4).
    • Jour 3 : 9h-13h (Module 5) + 14h-18h (Module 6).

Conclusion et suivi

À la fin de la formation, les participants seront capables de :

    • Construire et entraîner des réseaux neuronaux pour diverses tâches.
    • Choisir les architectures adaptées (CNN, RNN, etc.).
  • Optimiser leurs modèles et explorer des techniques avancées.

Formulaire d’inscription


Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.

0
    0
    Mon panier