Introduction Deep Learning & Réseaux de neurones pour l'ingénieur Réf : DRLN

Par Eric Debeir

L’intelligence artificielle, après avoir bouleversé de nombreux domaines scientifiques, a commencé à révolutionner un grand nombre de secteurs économiques (industrie, médecine, communication, etc.).

Durée :
3 jours

2 400 € HT (prix conseillé)

Partage :

  • Twitter
  • Facebook
  • E-mail
  • Linkedin
  • Viadeo

Soyez alertés par e-mail des nouvelles sessions : Poser une alerte,

Description

L’intelligence artificielle, après avoir bouleversé de nombreux domaines scientifiques, a commencé à révolutionner un grand nombre de secteurs économiques (industrie, médecine, communication, etc.). Néanmoins, sa présentation dans les grands media relève souvent du fantasme, très éloignée de ce que sont réellement les domaines du Machine Learning ou du Deep Learning. L’objet de cette formation est d’apporter à des ingénieurs ayant déjà une maîtrise des outils informatiques (dont une base de programmation logicielle) une introduction au Deep Learning ainsi qu’à ses différents domaines de spécialisation et donc aux principales architectures de réseau existant aujourd’hui. Si les bases mathématiques sont rappelées pendant le cours, un niveau de mathématique de type BAC+2 est recommandé pour plus de confort. Il est dans l’absolu possible de faire l’impasse sur l’axe mathématique pour ne conserver qu’une vision « système », mais cette approche limitera énormément votre compréhension du sujet.  

Objectifs pédagogiques

A l'issue de cette formation, les participants seront en mesure de :
  • Comprendre les clés fondamentales d’une approche Machine ou Deep Learning.
  • Maîtriser les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones.
  • Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  • Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils.


Public

Ingénieurs, Data-Scientists désirant s’initier aux réseaux de neurones / Deep Learning 

Pré-requis

Niveau ingénieur

Type

Séminaire

Méthode pédagogique

Présentation, échanges et études de cas - Formation théorique avec applications décidées en amont avec les élèves sur Lasagne ou Keras selon le groupe pédagogique

Plan de cours

PROGRAMME DE LA 1ERE JOURNEE DE FORMATION
Machine Learning & Deep Learning : concepts théoriques 

Introduction IA, Machine Learning & Deep Learning 
  • Historique, concepts fondamentaux et applications usuelles de l’intelligence artificielle loin des fantasmes portés par ce domaine
  • Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels
  • Algorithmes génétiques : faire évoluer une population d’agents virtuels par sélection
  • Machine Learning usuel : définition
  • Types de tâches : supervised learning, unsupervised learning, reinforcement learning
  • Types d’actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité
  • Exemples d’algorithmes Machine Learning : Régression linéaire, Naive Bayes, Random Tree
  • Machine learning VS Deep Learning : problèmes sur lesquels le Machine Learning reste aujourd’hui l’état de l’art (Random Forests & XGBoosts)
Concepts fondamentaux d’un réseau de neurones (Application : multi-layer perceptron) 
  • Rappel de bases mathématiques
  • Définition d’un réseau de neurones : architecture classique, fonctions d’activation et de pondération des activations précédentes, profondeur d’un réseau
  • Définition de l’apprentissage d’un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent, maximum likelihood
  • Modélisation d’un réseau de neurones : modélisation des données d’entrée et de sortie selon le type de problème (régression, classification…). Curse of dimensionality. Distinction entre donnée multi-features et signal. Choix d’une fonction de coût selon la donnée
  • Approximer une fonction par un réseau de neurones : présentation et exemples
  • Approximer une distribution par un réseau de neurones : présentation et exemples
  • Data Augmentation : comment équilibrer un dataset
  • Généralisation des résultats d’un réseau de neurones
  • Initialisations et régularisations d’un réseau de neurones : L1/L2 régularization, Batch Normalization...
  • Optimisations et algorithmes de convergence
Outils usuels ML / DL 
  • Outils de gestion de donnée : Apache Spark, Apache Hadoop
  • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit
  • Frameworks DL haut niveau : PyTorch, Keras, Lasagne
  • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow 
PROGRAMME DE LA 2EME JOURNEE DE FORMATION
Réseaux convolutionnels et récurrents 
 
Convolutional Neural Networks (CNN)
  • Présentation des CNNs : principes fondamentaux et applications
  • Fonctionnement fondamental d’un CNN : couche convolutionnelle, utilisation d’un kernel, padding & stride, génération de feature maps, couches de type ‘pooling’. Extensions 1D, 2D et 3D
  • Présentation des différentes architectures CNN ayant porté l’état de l’art en classification d’images : LeNet, VGG Networks, Network in Network, Inception, Resnet. Présentation des innovations apportées par chaque architecture et leurs applications plus globales (Convolution 1x1 ou connexions résiduelles)
  • Utilisation d’un modèle d’attention
  • Application à un cas de figure de classification usuel (texte ou image)
  • CNNs pour la génération : super-résolution, segmentation pixel à pixel. Présentation des principales stratégies d’augmentation des feature maps pour la génération d’une image
Recurrent Neural Networks (RNN)
  • Présentation des RNNs : principes fondamentaux et applications
  • Fonctionnement fondamental du RNN : hidden activation, back propagation through time, unfolded version
  • Evolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory). Présentation des différents états et des évolutions apportées par ces architectures
  • Problèmes de convergence et vanising gradient
  • Types d’architectures classiques : Prédiction d’une série temporelle, classification…
  • Architecture de type RNN Encoder Decoder. Utilisation d’un modèle d’attention
  • Applications NLP : word/character encoding, traduction
  • Applications Vidéo : prédiction de la prochaine image générée d’une séquence vidéo
PROGRAMME DE LA 3EME JOURNEE DE FORMATION
Modèles générationnels et Reinforcement Learning 

Modèles générationnels : Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN)
  • Présentation des modèles générationnels, lien avec les CNNs vu en jour 2
  • Auto-encoder : réduction de dimensionalité et génération limitée
  • Variational Auto-encoder : modèle générationnel et approximation de la distribution d’une donnée. Définition et utilisation de l’espace latent. Reparameterization trick. Applications et limites observées
  • Generative Adversarial Networks : principes fondamentaux. Architecture à deux réseaux (générateur et discriminateur) avec apprentissage alterné, fonctions de coût disponibles
  • Convergence d’un GAN et difficultés rencontrées
  • Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance
  • Applications de génération d’images ou de photographies, génération de texte, superrésolution.
Deep Reinforcement Learning
  • Présentation du reinforcement learning : contrôle d’un agent dans un environnement défini par un état et des actions possibles
  • Utilisation d’un réseau de neurones pour approximer la fonction d’état
  • Deep Q Learning : experience replay, et application au contrôle d’un jeu vidéo
  • Optimisations de la politique d’apprentissage. On-policy && off-policy. Actor critic architecture. A3C
  • Applications : contrôle d’un jeu vidéo simple ou d’un système numérique

 

Prochaines sessions

Aucune session de planifiée à ce jour, veuillez nous contacter pour avoir plus d'info ou suggérez vous-même une session.


Proposer une session.

Pas de témoignage pour l'instant.

Cher(e) visiteur(euse),
Nous vous remercions pour l'intérêt porté à nos formations. La pré-inscription à une session de formation se fait via le formulaire d'inscription de la page formation.

La Convention de Formation Professionnelle Continue simplifiée vous sera envoyée par mail dans les 72H max. Votre inscription est considérée comme définitive, une fois cette convention signée par votre entreprise ou OPCA. La facture sera émise à l'issue de la formation, comme mentionnée dans nos conditions générales de vente.

A noter que les demandeurs d'emploi peuvent bénéficier d'une remise de 20% sur le prix public.

Pour toute information complémentaire ou demande de devis, n'hésitez pas à nous contacter au 01 53 34 66 10 ou à nous solliciter par mail.

A très bientôt dans l'un de nos centres de formation.
L'équipe Clever-Institut.

Les autres formations « Big data »  – Voir toutes les formations