Skip to content

Machine Learning Training for Data Science and AI ... Bootcamp in progress

License

Notifications You must be signed in to change notification settings

wikistat/MLTraining

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Science des Données, Apprentissage Statistique & IA

Résumé

Cette formation propose aux participants de renforcer leurs connaissances théoriques et compétences pour le développement et l'implémentation des techniques et algorithmes d'apprentissage statistique. Les principales méthodes statistiques et algorithmes d'exploration et de prévision sont présentés d'un point de vue théorique puis illustrés sur des cas d'usage réels en exécutant des tutoriels écrits en Python et utilisant les principales librairies: Scikit-learn, Keras, TensorFlow.

Objectif du cours

Connaître les principaux algorithmes d'apprentissage statistique et savoir les mettre en oeuvre en Python notamment pour des données vectorielles et fonctionnelles (images, signaux).

Objectifs pédagogiques

Les participants seront capables de

  • identifier le type de problème à traiter en fonction des données et de leurs caractéristiques, de l'objectif,
  • déterminer la bonne statégie d'apprentissage à mettre en place,
  • choisir les bons algorithmes à mettre en oeuvre,
  • les implémenter en utilisant les librairies dédiées en Python.

Participants ciblés

Ce module de formation est dédié à des data scientists, ingénieurs, chercheurs, qui souhaitent renforcer leurs compétences pour l'analyse automatique de données par des algorithmes d'apprentissage statistique et de détection d'anomalies.

Prérequis

  • Compétences de base en Statistique: probabilités élémentaires, statistique descriptive, modèle linéaire.

  • Compétences de base en algorithmique et programmation.

  • Installation complète de Python 3.8 avec Anaconda.

  • Installation avec la commande: conda install -c conda-forge keras

    de la librairie Keras incluant TensorFLow.

  • Installation également de: conda install pydotplus

  • Accès internet durant la session afin de pouvoir accéder à des données et d'éventuelles mises à jour.

  • Tester au préalable la bonne exécution des tutoriels (jupyter notebooks) sur l'installation

Exécution des tutoriels

  • Charger l'ensemble des calepins (jupyter notebooks) à partir du bouton download de la page d'accueil
  • Décompresser le fichier téléchargé dans un répertoire
  • Ouvrir une fenêtre de terminal
  • Changer de répertoire courant pour celui MLTraining créé précédemment
  • Exécuter la commande jupyter notebook dans ce terminal pour lancer le navigateur par défaut
  • Ouvrir le bon calepin à partir de l'onglet Home du navigateur
  • Exécuter les cellules en analysant les commandes et interprétant les résultats.

Contacts: Olivier Roustant, Béatrice Laurent-Bonneau

Programme de quatre jours

  • Cours 9h30-11h Pause 11H-11H30 Cours 11H30-13H
  • TP 14h-17H15

Premier jour

  • Tour de table des participants
  • Cours (matin) Diaporama
    • Introduction
    • Exploration multidimensionnelle
    • Classification non supervisée (clustering)
  • TP (après-midi).
    • Première partie : Exécuter le tutoriel Mars.
    • Deuxième partie : Exécuter en priorité la section "Exploration des données métier" de l'épisode 1 de HAR. Ce problème sera repris plus tard dans un but de classification supervisée.

Deuxième jour

  • Cours (matin) Diaporama
    • Modèle linéaire en régression
    • Modèles linéaires en classification: régression logistique, SVM
  • TP (après-midi)
    • Première partie : Exécuter les algorithmes concernés de l'épisode 2 de HAR
    • Deuxième partie : Exécuter les épisodes 1 et 2 de Ozone.

Troisième jour

  • Cours 3.1 (matin) Diaporama

    • Méthodes non linéaires en régression et classification: arbres de décision, forêts aléatoires
  • Cours 3.2 (matin) Diaporama

    • Réseaux de neurones et introduction à l’apprentissage profond
  • TP (après-midi).

  • TP 3.1: Exécuter les algorithmes concernés des calepins Ozone (épisodes 3 et 4), HAR (épisode 2) et MNIST (épisode 2).

  • TP 3.2: Exécuter les algorithmes concernés des calepins HAR (épisode 3) et MNIST (épisode 3).

Quatrième jour

N.B. Des calepins d'analyse d'autres cas d'usage sont disponibles sur le site Wikistat.

Releases

No releases published

Packages

No packages published

Contributors 4

  •  
  •  
  •  
  •  

Languages