Cette formation propose aux participants de renforcer leurs connaissances théoriques et compétences pour le développement et l'implémentation des techniques et algorithmes d'apprentissage statistique. Les principales méthodes statistiques et algorithmes d'exploration et de prévision sont présentés d'un point de vue théorique puis illustrés sur des cas d'usage réels en exécutant des tutoriels écrits en Python et utilisant les principales librairies: Scikit-learn, Keras, TensorFlow.
Connaître les principaux algorithmes d'apprentissage statistique et savoir les mettre en oeuvre en Python notamment pour des données vectorielles et fonctionnelles (images, signaux).
Les participants seront capables de
- identifier le type de problème à traiter en fonction des données et de leurs caractéristiques, de l'objectif,
- déterminer la bonne statégie d'apprentissage à mettre en place,
- choisir les bons algorithmes à mettre en oeuvre,
- les implémenter en utilisant les librairies dédiées en Python.
Ce module de formation est dédié à des data scientists, ingénieurs, chercheurs, qui souhaitent renforcer leurs compétences pour l'analyse automatique de données par des algorithmes d'apprentissage statistique et de détection d'anomalies.
-
Compétences de base en Statistique: probabilités élémentaires, statistique descriptive, modèle linéaire.
-
Compétences de base en algorithmique et programmation.
-
Installation complète de Python 3.8 avec Anaconda.
-
Installation avec le commande:
conda install -c conda-forge keras
de la librairie Keras incluant TensorFLow.
-
Installation également de:
conda install pydotplus
-
Accès internet durant la session afin de pouvoir accéder à des données et d'éventuelles mises à jour.
-
Tester au préalable la bonne exécution des tutoriels (jupyter notebooks) sur l'installation
- Charger l'ensemble des calepins (jupyter notebooks) à partir du bouton
download
de la page d'accueil - Décompresser le fichier téléchargé dans un répertoire
- Ouvrir une fenêtre de terminal
- Changer de répertoire courant pour celui
MLTraining
créé précédemment - Exécuter la commande
jupyter notebook
dans ce terminal pour lancer le navigateur par défaut - Ouvrir le bon calepin à partir de l'onglet
Home
du navigateur - Exécuter les cellules en analysant les commandes et interprétant les résultats.
Contacts: Olivier Roustant, Béatrice Laurent-Bonneau
- Cours 9h-10h30 Pause 10h30-11H Cours 11H-12h30
- TP 14h-17H15
-
Cours 1.1 Diaporama
- Introduction
- Exploration multidimensionelle
- Classification non supervisée
-
TP 1.1: Exécuter successivement le tutoriel puis celui Mars. La segmentation d'une image de Mars par classification non supervisée est spécifique au premier TP. Les calepins associés aux autres jeux de données concernent toutes les séances; les laisser ouvert d'une séance à l'autre.
-
Cours 1.2 Diaporama
- Modèle linéaire en régression
-
TP 1.2: Exécuter l'épisode 1 et les sections 4.1 et 4.2 de l'épisode 2 de Ozone. S'arrêter avant la régression logistique. En fonction du temps, exécuter les épisodes 1 (exploration) de HAR et MNIST.
- Cours 2.1 Diaporama
- Modèles linéaires en classification: régression logistique, SVM linéaires
- TP 2.1: Exécuter les algorithmes concernés (épisode 2) des calepins Ozone et HAR.
- Cours 2.2 Diaporama
- Méthodes non linéaires en régression et classification: arbres de décision, forêts aléatoires, boosting
- TP 2.2: Exécuter les algorithmes concernés des calepins Ozone (épisodes 3 et 4), HAR (épisode 2) et MNIST (épisode 2).
- Cours 3.1 Diaporama
- Réseaux de neurones et introduction à l’apprentissage profond
- TP 3.1: Exécuter les algorithmes concernés des calepins HAR (épisode 3) et MNIST (épisode 3).
- Cours 3.2 Diaporama
- Détection d’anomalies : principaux algorithmes : Isolation forest, Local Outlier Factor, One Class SVM
- TP 3.2: Exécuter les algorithmes concernés des calepins Ozone (épisode 5) et HAR (épisode 4).
N.B. Des calepins d'analyse d'autres cas d'usage sont disponibles sur le site Wikistat.