Sujets de TER et de stages M2


Few shot generative models / Apprentissage de représentations binaires de classes

Le zero shot learning vise apprendre  des classifieurs capables, une fois l’apprentissage réalisé sur des exemples de classes d’apprentissage, de classer des exemples dans des nouvelles classes sans  disposer d’exemples d’apprentissage pour ces classes. Une stratégie classique pour réaliser cela consiste à exploiter des représentations des classes sous forme de vecteurs d’attributs binaires définis à la main pour représenter la présence ou l’absence d’un certain nombres de concepts dans les exemples d’une classe [Palatucci et al., 2010]. Par exemple si l’on considère des images d’animaux et que les classes sont les espèces, chaque espèce peut être caractérisée par un vecteur binaire (ou booléen) correspondant aux réponses à des questions du type: l’animal vole, l’animal est un mamiphère, l’animal vit en Afrique, etc… L’objectif de ce TER est de mettre au point une méthode permettant automatiquement de déterminer une représentation binaire des classes en exploitant des architectures neuronales et en particulier des neurones binaires à l’image de ce qui est fait dans [Bengio et al., 2013],[Van den Oord et al., 2017] .

[Bengio et al., 2013] Yoshua Bengio, Nicholas Léonard, Aaron Courville, Estimating or Propagating Gradients Through Stochastic Neurons for Conditional Computation, arXiv, 2013.

[Palatucci et al., 2010] Mark Palatucci, Dean Pomerleau, Geoffrey E. Hinton, Tom M. Mitchell, Zero-shot Learning with Semantic Output Codes. NIPS 2009.

[Van den Oord et al., 2017] Aäron van den Oord, Oriol Vinyals, Koray Kavukcuoglu, Neural Discrete Representation Learning. NIPS 2017: 6309-6318


Active view acquisition for complex data classification

  • Sujet de TER

Il est parfois difficile d’observer toute l’information (i.e. toutes les caractéristiques) d’un exemple que l’on veut classifier, soir parce que l’information n’est pas totalement disponible, soit parce que certaines caractéristiques d’un exemple est chère à acquérir (par exemple un examen médical dans le cas du diagnostic). Mettre au point des classifieurs capables de  prendre des décisions  tout en ne considérant qu’une partie de l’information sur un exemple est un domaine appelé budgeted learning, et idéalement les caractéristiques nécessaires à la décision sont acquises en plusieurs étapes, en fonction de ce qui a été observé on parle de active budget learning [Contardo et al., 2016]. Dans certaines situations comme lorsque l’on s’intéresse à reconnaitre des objets à l’aide de caméras que l’on peut commander, on peut chercher à faire bouger optimalement la caméra autour de l’objet pour prendre une décision la plus précise possible et au plus vite. Le but du TER est d’élaborer une première architecture neurone pour réaliser cette tâche de manipulation optimale de la caméra pour la reconnaissance d’objets 3D, en utilisant un data set d’objets 3D de type ModelNet utilisé notamment dans [Gadelha et al., 2017]  et [Jayaraman et al., 2018] ou 3D chairs (cf. https://github.com/mathieuaubry/seeing3Dchairs).

[Contardo et al., 2016] Gabriella Contardo, Ludovic Denoyer, Thierry Artières, Recurrent Neural Networks for Adaptive Feature Acquisition. ICONIP (3) 2016: 591-599

[Gadelha et al., 2017] Matheus Gadelha, Subhransu Maji, Rui Wang, 3D Shape Induction from 2D Views of Multiple Objects. 3DV 2017: 402-411

[Jayaraman et al., 2018] Dinesh Jayaraman, Kristen Grauman, Learning to Look Around: Intelligently Exploring Unseen Environments for Unknown Tasks. CVPR 2018: 1238-1247

 


Apprentissage avec variables manquantes

  • Sujet de TER

De multiples stratégies ont été explorée en apprentissage automatique pour gérer les variables manquantes dans les données, tel que remplacer les valeurs manquantes par les valeurs moyennes ou par des valeurs particulières… Souvent les techniques employées ne prennent pas en compte les corrélations entre variables et leurs interdépendances, ce pour quoi les réseaux de neurones sont réputés performants. L’idée de ce TER est de travailler sur des données  pour lesquelles un fort pourcentage de variables sont manquantes et de tester des architectures neuronales susceptibles de gérer ces situations tout en s’appuyant sur les interdépendances entre caractéristiques pour conserver des performances optimales. Le but est de s’appuyer sur la méthode proposée dans [Grangier et al., 2010] et d’en faire une version neuronale profonde afin d’exploiter les capacités de ces architectures pour l’extraction de caractéristiques.

[Grangier et al., 2010] David Grangier and Iain Melvin, Feature Set Embedding for Incomplete Data, Advances in Neural Information Processing Systems 23 (NIPS 2010).


Generative adversarial networks for higher resolution images

Avec Stéphane Ayache


Experiments on Deep Tensor Learning for Few Shot Learning and Adversarial Robustness

(Utilisation de décomposition tensorielle pour l’apprentissage de réseaux de neurones avec peu d’exemples et la robustesse aux perturbations adversariales)

  • Sujet de TER [Description]
    • avec Stéphane Ayache et Hachem Kadri

Découverte non supervisée des unités sonores élémentaires d’un langage parlé

Avec Ricard Marxer