Votre partenaire formation 100% digital

Introduction à l’intelligence artificielle : outils et enjeux

Ce séminaire vous présentera les principales approches de l'intelligence dans la résolution de problèmes.

pictogramme séminaire Séminaire

  • Formateur(s)

    Eric Debeir
    Eric DEBEIR
  • Référence

    IIA

  • Durée

    2 jours (14h)

  • Prix unitaire HT

    1390 €

pictogramme calendrier Prochaines sessions

Sur demande

pictogramme information Description

L’Intelligence Artificielle, après avoir bouleversé de nombreux domaines scientifiques, a commencé à révolutionner un grand nombre de secteurs économiques (industrie, médecine, communication). Ce séminaire vous présentera les principales approches de l’intelligence dans la résolution de problèmes. Un grand nombre d’applications seront présentées, du traitement de la donnée brute à la création de contenus originaux en passant par le contrôle d’agents, la classification automatisée ou l’approximation d’une donnée pour en faciliter sa compréhension et sa manipulation.

pictogramme progamme Objectifs pédagogiques

  • Comprendre réellement ce que sont les outils Machine et Deep Learning, leurs potentiels et leurs limites
  • Avoir une vision à date de l’état de l’art de ces domaines
  • Connaître et comprendre les applications de ces domaines à différents domaines de l’industrie
  • Maîtriser les méthodologies et connaître les outils propres aux projets d’intelligence artificielle

pictogramme cible Public cible

Directeurs et chefs de projet informatique. Consultants techniques.

pictogramme check liste Pré-requis

Bonne connaissance en gestion d’un projet numérique. Expérience requise.

Modalités d’évaluation

L’évaluation des acquis se fait tout au long de la session au travers d’ateliers de mise en pratique des notions et concepts abordés pendant la formation.

Méthodes pédagogiques

Présentation, échanges et études de cas.

Dernière mise à jour : avril 2022

pictogramme information Programme de la formation

JOUR 1

1/ Intelligence artificielle : définitions

  • Escroquerie de l’intelligence artificielle : entre mythes et réalités.
  • Machine learning : définitions. Différence avec l’algorithme classique
  • Apprentissages supervisés, non supervisé, semi supervisé, faiblement supervisé, auto-supervisé par renforcement. Cas de figure, exemples, limites à date.
  • Grandes classes d’outils : classification, régression, génération
  • Algorithmes génétiques : présentation
  • Rapide historique : du Machine Learning au Deep Learning

2/ Représentation de la donnée

  • Dépendance entre algorithme et dataset. Formes et contraintes sur la donnée
  • Notion de variances et de biais sur un problème supervisé
  • Notions de distance. Définition d’un résultat de modèle, liens entre distance mathématique et affirmation métier
  • Exemples de distances utilisées. 1-hot encoding. Embeddings

3/ Concepts fondamentaux

  • Qu’est-ce qu’un réseau de neurones ? Présentation des principes fondamentaux au niveau d’un neurone
  • Vision haut niveau : représentations haut niveau d’une information : principe, exemples non supervisés
  • Principe fondateur du Machine Learning : modèle, paramètres, boucle de convergence

4/ Apprentissage et généralisation

  • Définition de l’apprentissage d’un réseau. Modèle, fonction de coût.
  • Apprentissage et généralisation : Overfit. Règles indispensables pour s’en prémunir. Comment vérifier la qualité réelle d’un modèle ?
  • Séparation des ensembles
  • Généralisation et biais statistique. Qu’est-ce qu’un biais ? Comment gérer, contrer des biais ?
  • Equilibre d’un modèle, entre underfit et overfit
  • Exemples interactifs : playground.tensorflow
  • Exemple d’overfit « caché » et de méthodologie : Spampinato et al. Cas d’école d’un travail de recherche invalidé deux ans après sa sortie

5/ Types de réseaux de neurones et applications

  • Architecture de réseau, principes : dépendance à la donnée d’entrée et à la donnée de sortie
  • Réseaux convolutifs 1d,2d,3d : gestion de signal, application à la classification d’image / maintenance prédictive
  • Réseaux récurrents (LSTM) & transformer : séquences, application à la maintenance prédictive
  • Architectures Encoder/Decoder : application à la segmentation médicale

6/ Applications et usages du Machine learning

  • Problèmes de classification : distinction selon la donnée. Exemples de classification d’images ou de texte, segmentation médicale, mask R-CNN.
  • Prédiction de série temporelle / maintenance prédictive : meilleures approches, risques
  • Détection d’anomalies non supervisée : exemples d’approches, avantages et inconvénients, méthodologie
  • Transformation ou génération de donnée : applications à l’image et au texte.
  • Dernières évolutions en traitement naturel du langage
  • Apprentissage par renforcement : état à date, enjeux et limites.

JOUR 2 : Méthodologie et applications

1/Analyse d’un problème

  • Réflexions sur la forme et l’exploitation de la donnée.
  • Volumétries du Machine & Deep Learning
  • Recherche de biais sur des cas d’application.
  • Cartographie d’un processus de création ou transformation de la donnée
  • Enrichissement de la donnée : donnée brute VS features
  • Etude des métriques de validation d’un modèle. Précision VS rappel. Points d’attention sur les risques de ces métriques

2/ Méthodologie : constitution d’un dataset

  • Définition d’un dataset exploitable
  • Maîtrise de la qualité et comportement statistique d’un dataset : déséquilibres, notion de distributions
  • Recherche de corrélations, réductions de dimensions
  • Transformation de la donnée au cas par cas. Architecture de génération d’un dataset avec évolutivité et agilité.
  • Notion de donnée privée : pistes de travail

3/ Recherche d’un modèle : itérations successives

  • Méthodologie globale. Recherche d’une baseline.
  • Questions d’interprétabilité d’un réseau de neurones : approches récentes vs black box
  • Exemples d’interprétations limitées pour le traitement d’images ou de texte
  • Analyse de la robustesse d’un modèle. Recherche et analyse de variances
  • Interprétations en traitement naturel du langage.
  • Interprétation de modèle génératif
  • Notions de stabilité et lourdeur d’un modèle

4/ Transfert learning & ensembling

  • Définition du transfert learning pour constitution rapide d’un modèle dérivé. Limites et applications
  • Ensembling et architecture de modèles : diviser un problème pour mieux l’adresser

5/ Outils et technologies : avantages et limites

  • Sci-kit learn : Machine learning usuel
  • Pytorch, tensorflow : Deep Learning
  • Approches par cloud. Risques, enjeux et limites. Revue des offres.
  • Avertissement sur les offres « automatisées »

6/ Industrialisation

  • Notion de dette technique, volatilité des technologies
  • Déploiement automatique, contrôle des itérations. Continual Learning.
  • Maintenance d’un projet IA
  • Ressources techniques nécessaires.
  • Optimisation Deep Learning. Principes fondamentaux. Présentation du pruning pour optimisation d’un modèle entraîné, et des approches de quantification.

7/ Sécurité

  • Notions de sécurité en Deep Learning. Rappels sur l’absence d’interprétabilité
  • Présentation des attaques adversariales. Exemples d’attaques visuelles. Liens avec les problèmes de robustesse. Attaques physiques.
  • Piratage d’un modèle