M1 IAD : Reconnaissance des formes et introduction à la décision
Le but du cours
Ce cours a pour but d'offrir une introduction douce aux méthodes numériques
et statistiques utilisées, en particulier, en intelligence artificielle et en
imagerie.
Il aborde les méthodes numériques et statistiques de l'Intelligence
Artificielle en s'appuyant sur des exemples de problèmes issus de la
reconnaissance des formes et d'autres problèmes décisionnels de l'IA. Il met en
avant la compréhension de notions de base et leur utilisation sur des cas
concrets qui feront l'objet de TP. L'accent sera mis sur les aspects applicatifs
du traitement et de l'analyse des données.
Contenu des cours
Cours 1.1 :
statistique descriptive :
Notions de base de la stat descriptive (population, caractères, etc)
Variables discrètes, continues...
Effectifs, distributions, discrétisation
Graphiques (diagrammes en bâtons, histogrammes)
Caractéristiques statistiques (médiane, moyenne, variance, etc)
Cours 1.2 :
introduction aux probabilités :
Probabilités objectives v.s. subjectives
La notion d'événement
Définition de Kolmogorov
Probabilités conditionnelles
Formule de Bayes
Indépendance, indépendance conditionnelle
Cours 1.3 :
probabilités (suite) :
Variables aléatoires
Caractéristiques et variables aléatoires
Indépendances de variables aléatoires
Loi binomiale et loi de Poisson
Loi normale
Cours 2 :
Échantillons, estimations ponctuelles :
Lois des grands nombres
Le théorème central-limite
Échantillonnage
Estimations ponctuelles à partir d'échantillons
Biais dans les estimateurs
Cours 3 :
Intervalles de confiance, tests d'hypothèses :
Intervalles de confiance
Tests d'hypothèses
Loi du chi2
Cours 4 :
Tests d'ajustement, apprentissage de paramètres :
Tests d'ajustement
Tests d'indépendance
Application aux réseaux bayésiens
Introduction à l'apprentissage de paramètres
Maximum de vraissemblance
Cours 5 :
MAP et apprentissage non paramétrique :
Maximum a posteriori
Estimation de densité
Les cours suivants seront assurés par Patrick Gallinari et porteront
sur les points suivants :
Cours 6 :
Régression linéaire
Cours 7 :
Méthodes de clustering (K-means, Kohonen, etc)
Cours 8 :
Classification bayésienne
Cours 9 :
Classificiation gaussienne
Cours 10 :
Classifieurs linéaires (LDA, perceptron, etc)
Les transparents du cours
Quelques polys de cours
Les TD et TME
Quelques annales
Bibliographie en relation avec le cours
Christopher M. Bishop (2008)
« Pattern Recognition And
Machine Learning » , 2ème édition, Springer
Richard O. Duda, Peter E. Hart, David G. Stork (2000)
« Pattern
Classification » , 2ème édition,
Wiley-Interscience
Sergios Theodoridis, Konstantinos Koutroumbas (2003)
« Pattern Recognition » ,
2ème édition, Academic Press
Andrew Webb (2002) « Statistical Pattern
Recognition » , 2ème édition, John Wiley & Sons
Gilbert Saporta (2006) « Probabilités,
analyse des données et statistique » , 2ème édition,
éditions Technip
Patrick Naïm, Pierre-Henri Wuillemin, Philippe Leray,
Olivier Pourret, Anna Becker (2007) « Réseaux
bayésiens » , 3ème édition, Eyrolles
Finn V. Jensen, Thomas Nielsen (2007)
« Bayesian Networks
and Decision Graphs » , 2ème édition, Springer