15 Gérer la complexité du monde : De la régression linéaire à l’apprentissage profond (à venir)
Yann Bouteiller
Ce chapitre sera disponible dès que la traduction du chapitre original sera terminée.
Table des matières
1 Objectifs du chapitre
2 Introduction
Une perspective de l’industrie : Entrevue avec Jonathan Lussier, directeur, propriété intellectuelle et innovation, Kinova inc.
3 Définitions
4 De la régression linéaire à l’apprentissage profond
4.1 Optimisation des pertes
4.2 Régression linéaire
4.3 Formation de modèles généralisables Sur-ajustement
Descente de gradient stochastique
Formation, validation et test
Régularisation
4.4 Réseaux neuronaux profonds
4.5 Rétro-propagation par gradient dans les réseaux neuronaux profonds
4.6 Réseaux neuronaux convolutifs
4.7 Réseaux neuronaux récurrents
4.8 Apprentissage profond pour les applications pratiques
CNN et GAN
Modélisation séquentielle
Clonage comportemental
5 Recherche de politiques pour le contrôle robotique
5.1 Limites de l’apprentissage supervisé pour le contrôle
5.2 Apprentissage par renforcement profond
Interaction avec l’environnement
Objectif de l’apprentissage par renforcement
Politique du réseau Q profond
Entraînement du réseau Q profond
5.3 Améliorations du Q-apprentissage profond
Cible se déplaçant lentement
Double Q-Networks
5.4 Apprentissage par renforcement profond pour les applications pratiques
6 Conclusion : comment comprendre le monde en profondeur ?
7 Résumé
8 Quiz
9 Autres lectures
Références
Objectifs d’apprentissage
– Comprendrez les principes fondamentaux du ML moderne, et en particulier de l’apprentissage profond;
– Serez familiarisé avec les régressions linéaires, les MLP, les CNN et les RNN;
– Connaîtrez les techniques supervisées qui sont les plus pertinentes pour la robotique;
– Comprendrez les principes fondamentaux de l’apprentissage par renforcement profond;
– Vous familiariserez avec les environnements Gym et DQN;
– Connaîtrez les algorithmes d’apprentissage par renforcement profond qui sont les plus pertinents pour la robotique.