Cécile Capponi, Valentin Eymia, Rémi Eyraud (revu par Benjamin Monmege )
12 ou 18 avril 2019
Alors que vous venez juste d’atterrir au Groland pour la première fois, vous apercevez un mouton noir. Quelles conclusions en tirer ?
Exemple : \(A_1=\)age, \(X_1= [0;122]\), \(A_2=\)fumeur, \(X_2=\{0,1\}\) (non/oui)
Exemple : \(Y = \{\)patient à risque, patient sans risque\(\}\)
\[ f\colon X\to Y \]
Exemple : \(f(x) =\) Si fumeur=‘oui’ et age > 59 alors ‘risque’ sinon ‘pas risque’
Exemple : \(L('risque', f((35, 'oui'))) = 1\) et \(L('risque', f((65, 'oui')) = 0\)
Principe :
Exemple : 2 classes, dimension 2
Initialiser à 0 le nombre d'occurrences de chaque classe
Pour chaque exemple (x, y) dans S :
Calculer la distance D(x, xtest)
k-voisinage := k plus proches voisins de xtest
Pour chaque x' dans k-voisinage, associé à la classe y' :
Ajouter 1 au nombre d'occurrences de la classe y'
Retourner la classe la plus fréquente
Et si 2 classes ou plus sont aussi fréquentes dans le k-voisinage ?
On peut :
Plusieurs méthodes permettent de valider (ou d’infirmer) la qualité d’un processus d’apprentissage.
Une des approches consiste à n’utiliser qu’une partie des données pour apprendre et à se servir des autres données pour tester le résultat.
Différentes mesures permettent alors de comparer des processus (taux d’erreur, F-score, etc.)
Bloc 4 du DIU EIL !
Comment calculer les \(k\) plus proches voisins ?