Table des matières

Conventions de notation

CHAPITRE 1. DOMAINES D’APPLICATION ET EXEMPLES D’UTILISATION DES RÉSEAUX DE NEURONES FORMELS (RNFs)
1.1. Introduction
1.2. Domaines d’utilisation
1.2.1. Modélisation statique et dynamique de processus
1.2.2. Commande de processus
1.2.3. Classification
1.3. RNFs non bouclés
1.3.1. Définition du neurone formel
1.3.2. Définition des RNFs non bouclés
1.3.3. Comparaison de modèles polynomiaux et neuronaux
1.3.4. Exemples de classifieurs neuronaux à deux classes
1.3.5. Propriétés des RNFs non bouclés
1.3.6. Apprentissage des RNFs non bouclés
Modèles et classifieurs.
1.4. RNFs bouclés
1.4.1. Définition des RNFs bouclés
1.4.2. Exemple de modélisation dynamique
1.4.3. Exemple de commande de processus
1.4.4. Proppriétés des RNFs bouclés
1.4.5. Apprentissage des RNFs bouclés
Système d’apprentissage pour un modèle neuronal ; Système d’apprentissage pour un correcteur neuronal.

CHAPITRE 2. MODÉLISATION
2.1. Introduction
2.2. Modélisation statique
2.2.1. Situation du problème et définitions
Régression, modèle-hypothèse, modèle prédictif.
2.2.2. Apprentissage d’un modèle statique linéaire
Moindres carrés ordinaires ; Moindres carrés pondérés.
2.2.3. Apprentissage d’un RNF statique
Algorithmes itératifs et récursifs ; Initialisation des paramètres ; Règles d’arrêt ; Régularisation.
2.2.4. Apprentissage d’un réseau de fonctions
Algorithme des K-moyennes.
2.2.5. Exemple illustratif
2.2.6. Récapitulation
2.2.7. Intervalles de confiance pour la régression avec un modèle linéaire
2.2.8. Intervalles de confiance pour la régression avec un modèle non linéaire
2.3. Modélisation dynamique
2.3.1. Introduction
2.3.2. Modèles dynamiques
2.3.3. Apprentissage d’un modèle dynamique neuronal
2.4. Conclusion

CHAPITRE 3. SÉLECTION DE MODÈLES
3.1. Introduction
3.2. Outils pour la sélection de modèles statiques
3.2.1. Erreurs quadratiques et estimation de la performance
Ensemble de validation, validation croisée, validation croisée "un-sorti".
3.2.2. Classement des régresseurs par orthogonalisation
3.2.3. Homologation de modèles candidats
Nombre de conditionnement.
3.2.4. Tests d’hypothèses
Définition d’un modèle complet ; Tests statistiques pour la comparaison de modèles gigognes ; Interprétation statistique des méthodes d’élagage.
3.2.5. Illustration
3.2.5. Récapitulation
3.3. Procédure pour la sélection d’un modèle statique
3.3.1. Sélection d’un modèle linéaire par rapport aux paramètres
3.3.2. Sélection d’un RNF
Apprentissage de RNFs candidats de complexité croissante ; Choix d’un modèle complet ; Sélection du nombre optimal de neurones cachés.
3.3.3 Exemple récapitulatif sur des données industrielles
Sélection des descripteurs ; Modélisation polynomiale ; Modélisation neuronale.
3.4. Sélection de modèles dynamiques
3.4.1. Outils pour la sélection de modèles dynamiques
3.4.2. Exemples
3.5. Conclusion

CHAPITRE 4. COMMANDE DE PROCESSUS
4.1. Introduction
4.1.1. Généralités
4.1.2. Systèmes de commande non adaptatifs/adaptatifs
4.1.3. Algorithmes d’apprentissage
4.1.4. Problèmes de commande abordés dans ce chapitre
4.2. Asservissement de poursuite
4.2.1. Le modèle du processus
4.2.2. Position du problème
4.2.3. Le correcteur par modèle de référence
4.2.4. Commande par simple bouclage
4.2.5. Commande avec modèle interne
4.3. Régulation
4.3.1. Régulation par retour d’état statique
4.3.2. Position du problème
4.3.3. Apprentissage du régulateur
4.3.4. Exemple
4.4. Application au pilotage d’un 4x4 autonome
4.4.1. Introduction au pilotage de robots mobiles
4.4.2. Pilotage latéral
4.4.3. Pilotage longitudinal
4.4.4. Performance globale du système de pilotage
4.5. Conclusion

CHAPITRE 5. CLASSIFICATION
5.1. Introduction
5.2. Le classifieur théorique de Bayes
5.2.1. La relation de Bayes
5.2.2. Le classifieur de Bayes
5.2.3. Estimation des densités de probabilité conditionnelles
5.3. Probabilités a posteriori et régression
Le problème à deux classes ; Problèmes à plus de deux classes ; En pratique.
5.4. Classifieurs neuronaux pour deux classes
5.4.1. Classifieurs probabilistes
5.4.2. Classifieurs séparateurs définis par un hyperplan
Algorithmes d’apprentissage : Perceptron, MC sur le potentiel, MC avec une sigmoïde ; Théorème de Cover ; Régularisation ; Exemples.
5.4.3. Classifieurs séparateurs définis par une hypersurface non linéaire
5.5. Classifieurs neuronaux pour plus de deux classes
5.5.1. Classifieurs probabilistes
5.5.2. Classifieurs séparateurs
5.6. Estimation de la performance
5.6.1. Classifieurs probabilistes
5.6.2. Classifieurs séparateurs
5.7. Exemple récapitulatif sur des caractères manuscrits
5.7.1. Classification avec des classifieurs de paires de classes
5.7.2. Classification à l’aide d’un seul classifieur
5.8. Conclusion

ANNEXE 1. NOTIONS DE PROBABILITÉS ET DE STATISTIQUE
A1.1. Événement, probabilité
A1.2. Variable aléatoire
A1.3. Fonction de répartition d’une variable aléatoire
A1.4. Densité de probabilité d’une variable aléatoire
A1.5. Densité de probabilité conditionnelle
A1.6. Moments d’une variable aléatoire
Espérance mathématique, variance, matrice de covariance.
A1.7. Échantillon aléatoire
A1.8. Estimation d’un paramètre inconnu d’une distribution
Estimation ponctuelle, estimation par intervalle, estimateur du maximum de vraisemblance.
A1.9. Tests d’hypothèses
A1.10. Densités de probabilités utiles en Statistique
Densité uniforme ; Densité gaussienne ; Densité de Pearson ; Théorème de Fisher-Cochrane ; Densité de Student : construction d’un intervalle de confiance ; Densité de Fisher-Snedecor : construction d’un test de Fisher, test du biais d’un modèle linéaire.

ANNEXE 2. ALGORITHMES POUR L’ESTIMATION D’UNE REGRESSION
A2.1. Ingrédients pour les algorithmes
A2.1.1. Notations
A2.1.2. Vecteur gradient du coût par rapport aux paramètres
A2.1.3. Matrice hessienne du coût par rapport aux paramètres
Expression simplifiée du hessien.
A2.1.4. Calcul des éléments des matrives jacobiennes d’un RNF
A2.1.5. Factorisation de Cholesky
A2.1.6. Factorisation LU
A2.1.7. Factorisation QR
A2.1.8. Factorisation SVD
Calcul de l’inverse d’une matrice avec la factorisation SVD.
A2.1.9. Matrice pseudo-inverse
A2.2. Algorithmes itératifs
A2.2.1. Algorithme du gradient
A2.2.2. Algorithme de Newton
A2.2.3. Algorithme de Newton-Raphson
A2.2.4. Algorithme de Levenberg-Marquardt
A2.2.5. Algorithme de Quasi-Newton (BFGS)
A2.2.6. Méthodes d’asservissement du pas dans une direction de descente
Algorithmes de Goldstein et de Nash.
A2.3. Algorithmes récursifs
A2.3.1. Algorithme récursif du gradient
A2.3.2. Algorithmes récursifs du second ordre

RÉFÉRENCES

INDEX


Haut de page



À lire aussi...

Les activités de recherche de l’Équipe de...

Les activités de recherche de l’Équipe de Statistique Appliquée (ESA) sont motivées par le besoin accru de modéliser le comportement de processus (…) 

> Lire la suite...

PRÉSENTATION

Les activités de recherche de l’Équipe de Statistique Appliquée (ESA) sont motivées par le besoin accru de modéliser le comportement de processus (…) 

> Lire la suite...

 

À noter