Table des figures
Liste des algorithmes
Avant-propos
Concepts étudiés
Organisation du livre
Chapitre 1 Principes de base en apprentissage supervisé
1.1 Principe de la minimisation du risque Empirique
1.2 Consistance du principe MRE
1.3 Principe de la Minimisation du Risque Structurel
Chapitre 2 Bornes de généralisation dépendantes des données
2.1 Complexité de Rademacher
2.2 Lien entre la complexité de Rademacher et la dimension VC
2.3 Considérations pratiques
2.4 Cas multi-classe
Chapitre 3 Algorithmes d’optimisation à direction de descente
3.1 Algorithme du gradient
3.2 Méthode de quasi-Newton
3.4 Méthode du gradient conjugué
Chapitre 4 Deep Learning
4.1 Perceptron
4.2 Adaline
4.3 Régression logistique
4.4 Perceptron multi-couche
4.5 Réseaux convolutifs et récurrents
4.6 Considérations pratiques
Chapitre 5 Séparateurs à Vaste Marge
5.1 Notion de marge
5.2 Astuce du noyau
5.3 Étude théorique et cas multi-classe
Chapitre 6 Boosting
6.1 Adaboost
6.2 Étude théorique
6.3 AdaBoost multi-classe
Chapitre 7 Apprentissage semi-supervisé
7.1 Cadre non supervisé et hypothèses de base
7.2 Méthodes génératives
7.3 Méthodes discriminantes
7.4 Méthodes graphiques
Chapitre 8 Apprentissage de fonctions d’ordonnancement
8.1 Formalisme
8.2 Approches
8.3 Apprentissage avec des données interdépendantes
Annexes Rappels et compléments
Annexe A Rappels de probabilités
Annexe B Codes programmes
Bibliographie
Index