Aller au contenu
  • LA MACHINE LEARNING AVEC PYTHON


    ℹ Code formation: DIG17 ⏱ Durée: A partir de 42h 💶 Tarif INTER: 2 940,00 € 📄 Télécharger: La-Machine-Learning-avec-Python.pdf 🎯 Objectifs pédagogiques:
    • Découvrir tous les concepts fondamentaux à maîtriser pour un Machine Learning Engineer.
    👥 Public:

    Chefs de projet et aux équipes de la MOE devant mener des projets en IA, aux membres d’une DSI.

    ✅ Pré-requis:

    Avoir des notions en Python est un plus

    Les débutants en programmation python feront l’objet d’une remise à niveau succincte et rapide et seront accompagnés de près :

    Avant la formation au Machine Learning à l’aide de Mooc à suivre sur la programmation en Python

    Pendant la formation grâce à un accompagnement de proximité

    📑 Contenu:

    Module 1 - Initiation à Python pour les débutants (3 jours) : Mise à niveau

    • Introduction
    • Mooc sur la programmation en Python
    • Pré-requis Python / Pandas : rattrapage accéléré
    • Aide-mémoire PYTHON pour la DATA SCIENCE fourni

     

    Module 2 Introduction pour les moins débutants et les confirmés en Python (3 jours)

    • Introduction
    • Quel est le programme de la formation Machine Learning?
    • Installation Anaconda / Python
    • Installation Anaconda (version texte)
    • Installation bibliothèques requises dans la formation

     

    Module 3 - MACHINE LEARNING : LES FONDAMENTAUX

    • Introduction aux K plus proches voisins - k Nearest Neigbors (kNN)
    • Définition du problème : qu'est-ce que le Machine Learning?
    • Introduction au dataset
    • Les k plus proches voisins - k Nearest Neighbors
    • Distance euclidienne
    • Calculer la distance pour toutes les observations
    • Randomiser et trier
    • Fonction pour faire des prédictions

     

    Module 4 - Evaluer la performance du modèle

    • Tester la qualité des prédictions
    • Les métriques d'erreur
    • Erreur quadratique moyenne (MSE)
    • Entrainer un autre modèle
    • Racine carrée de l'erreur quadratique moyenne (RMSE)
    • Comparaison des erreurs

     

    Module 5 - Modèle multivarié des K plus proches voisins

    • Récapitulatif
    • Supprimer des caractéristiques
    • Gérer les valeurs manquantes
    • Normaliser les colonnes
    • Distance Euclidienne pour le cas multivarié
    • Introduction à la bibliothèque Scikit-learn
    • Entrainer un modèle et faire des prédictions en utilisant Scikit-learn
    • Calculer l'erreur quadratique moyenne en utilisant Scikit-learn
    • Utiliser plus de caractéristiques
    • Utiliser toutes les caractéristiques

     

    Module 6 - Optimisation hyper paramétrique

    • Récapitulatif
    • Optimisation hyper paramétrique
    • Elargir la grille de recherche
    • Visualiser les valeurs des hyper paramètres
    • Varier les caractéristiques et les hyper paramètres
    • Pratiquer le déroulement des opérations (workflow)

     

    Module 7 - Validation croisée

    • Introduction
    • Validation croisée Holdout
    • Validation croisée des K-Fold
    • Première itération
    • Fonction pour entrainer des modèles
    • Exécuter une validation croisée des K-Fold en utilisant Scikit-learn
    • Explorer différentes valeurs de K
    • Compromis Biais - Variance

     

    Module 8 - Projet guidé 1 : Prédiction de prix de voitures

    • Introduction au dataset
    • Solution - Introduction au dataset
    • Nettoyage de données
    • Solution - Nettoyage de données
    • Modèle univarié
    • Solution - Modèle univarié
    • Modèle multivarié
    • Solution - Modèle multivarié
    • Variation des hyperparamètres
    • Solution - Variation des hyperparamètres

     

    Module 9 - REGRESSION LINEAIRE appliquée au MACHINE LEARNING

    • Modèle de Régression Linéaire
    • Apprentissage basé sur une instance Vs. Apprentissage basé sur un modèle
    • Introduction aux données
    • Régression linéaire simple
    • Méthode des moindres carrés
    • Entrainer un modèle de régression linéaire avec Scikit-learn
    • Faire des prédictions
    • Régression linéaire multiple

     

    Module 10 - Sélection des caractéristiques

    • Valeurs manquantes
    • Corrélation des colonnes de caractéristiques avec la colonne cible
    • Heatmap de la matrice de corrélation
    • Entrainer et tester le modèle
    • Supprimer les caractéristiques de faible variance
    • Modèle final

     

    Module 11 - Gradient Descent

    • Introduction au Gradient Descent
    • Gradient Descent à un seul paramètre
    • Dérivée de la fonction de coût d'erreur
    • Fonction Gradient Descent
    • Fonction dérivée
    • Comprendre le gradient descendant pour des paramètres multiples
    • Gradient de la fonction coût pour plusieurs paramètres

     

    Module 12 - Moindres carrés ordinaires

    • Estimation des moindres carrés ordinaires
    • La fonction de coût
    • Dérivée de la fonction de coût
    • Gradient Descendant vs. Moindres carrés ordinaires

     

    Module 13 - Traitement, nettoyage et transformation des caractéristiques

    • Introduction
    • Caractéristiques de catégorie
    • Technique pour gérer les caractéristiques de catégorie: colonnes factices
    • Transformer des caractéristiques numériques impropres ou inappropriées
    • Valeurs manquantes
    • Imputer des valeurs manquantes

     

    Module 14 - Projet guidé 2 : Prédiction des prix de vente de maisons

    • Introduction au projet
    • Solution - Introduction au projet
    • Traitement des caractéristiques
    • Solution - Traitement des caractéristiques
    • Sélection des caractéristiques
    • Solution - Sélection des caractéristiques
    • Entrainement et Test
    • Solution - Entrainement et Test

     

    Module 15 - PARTIE 3 -- MACHINE LEARNING : TECHNIQUES INTERMEDIAIRES

    • Régression Logistique
    • Classification
    • Introduction aux données
    • Régression logistique
    • Fonction logistique
    • Entrainer un modèle de régression logistique
    • Tracer les probabilités
    • Prédiction des libellés

     

    Module 16 - Introduction à l'évaluation d'un classificateur binaire

    • Introduction aux données
    • Précision
    • Résultats de la classification binaire
    • Sensibilité
    • Spécificité

     

    Module 17 - Classification Multi-Classe

    • Introduction aux données
    • Variables Nominales
    • Classification Multi-Classe
    • Entrainer un modèle de régression logistique multi-classe
    • Tester les modèles
    • Choisir l'origine de la voiture

     

    Module 18 - Overfitting (surapprentissage)

    • Introduction aux données
    • Biais et Variance
    • Compromis Biais - Variance
    • Modèles multivariés
    • Validation croisée
    • Graphique compromis erreur quadratique moyenne / variance

     

    Module 19 - Les bases du Clustering

    • Aperçu du Clustering
    • Introduction aux données
    • Explorer les données
    • Distance entre les Sénateurs
    • Clustering
    • Explorer les Clusters
    • Explorer les Sénateurs présents dans le mauvais Cluster
    • Tracer les Clusters
    • Trouver les Sénateurs radicaux

     

    Module 20 - K-Means Clustering

    • Clustering sur les joueurs de NBA
    • Les meneurs de Jeu
    • Points par Match
    • Ratio Passe décisive - Perte de balle
    • Visualiser graphiquement ces meneurs de jeu
    • Clustering des joueurs
    • L'algorithme Setup K-Means (itératif)
    • Visualiser les centroïdes
    • L'algorithme Setup K-Means (la suite)
    • Etape 1 (Distance Euclidienne)
    • Etape 1 (la suite)
    • Visualiser les Clusters
    • Etape 2
    • Répéter l'étape 1
    • Répéter les étapes 1 & 2
    • Utilisation de la classe KMeans

     

    Module 21 - Gradient Descent

    • Introduction aux données
    • Modèle linéaire
    • Introduction à la fonction Cost
    • La fonction Cost (suite)
    • Fonction Cost - Pentes
    • Algorithme du Gradient Descent
    • BONUS : Introduction au concept de Réseaux de neurones
    • Introduction aux données
    • Neurones
    • Fonction Cost
    • Calculer les Gradients
    • Réseau de neurones à 2 couches
    • Réseaux de neurones
    • Fonction de coût pour un réseau de neurones multiple
    • Backpropagation (ou rétropropagation)
    • Séparation des données
    • Prédiction sur les fleurs d'iris
    • Projet guidé 3 : Prédire le marché boursier
    • Le marché boursier et le dataset
    • Lire les données
    • Solution - Lire les données
    • Générer des indicateurs
    • Solution - Générer des indicateurs
    • Séparer les données
    • Solution - Séparer les données
    • Faire des prédictions
    • Solution - Faire des prédictions
    • Améliorer le modèle
    • Solution - Améliorer le modèle
    💻 Moyens techniques:
    • Pour les formations en présentiel : Support de cours, salle et équipement informatique mis à disposition
    • Plateforme de visioconférence pour les cours à distance
    👩‍🏫 Méthodes et outils pédagogiques:
    • Evaluation des besoins en amont de la formation et adaptation du programme aux attentes
    • Alternance d’exercices pratiques corrigés, de questionnaires
    • Evaluation à chaud et à froid du niveau de satisfaction et de la mise en application des compétences acquises en cours de formation.
    • Formateurs disposant d’une d’expérience minimum de 5 ans sur la thématique enseignée.
    📊 Suivi et évaluation:
    • Test de positionnement en début de formation 
    • Tests ou quiz de contrôle de connaissances ou autoévaluation à chaque étape de l’apprentissage
    • Remise d’une attestation finale individuelle. Cette attestation valide le niveau de progression et les acquis


×
×
  • Créer...