Mustapha Ouladsine

Recherche

Activité de recherche

J’ai, pendant ces quatre dernières années, continué à développer des méthodes de diagnostic et pronostic de dégradation des systèmes complexes : thème qui a été signalé comme faisant partie des originalités de notre équipe par l’HCERES. Dans ce cadre nous nous sommes plus particulièrement intéressés aux systèmes de production High-Mix Low-Volume qui sont caractérisés par une grande variété de technologies, des faibles volumes de production, et des produits de courte durée de vie. L’introduction de la technique d’échantillonnage dynamique à ce système de production a permis un gain important sur le rendement de production. Cet échantillonnage est basé, en temps réel, sur les états des équipements et sur l’ensemble des produits en cours de fabrication. Afin d’adapter les méthodes de surveillance au nouvel environnement de production, nous avons mené dans le cadre d’un PIA (Projet d’Investissement d’Avenir) et d’un projet Européen une activité de recherche sur la développement d’indice de santé des équipements et des travaux sur le diagnostic qui consiste à localiser l’équipement à l’origine de défauts dans une ligne de fabrication.

Pour la génération d’indice de santé, notre première contribution concerne le développement d’un algorithme de pronostic de défaillance à partir d’un tenseur de données. Ce travail de recherche est construit autour de l’hypothèse q’une dégradation est monotone et progressive. La méthode est organisée en trois modules : un module de réduction de la taille des données, un module de traitement de l’indice de santé brut et un module de pronostic. Dans chaque module, nous avons apporté des solutions innovantes à des verrous scientifiques bien identifiés. Le module de réduction est consacré à l’extraction des caractéristiques utiles à partir du tenseur de données brutes. Dans cette partie, et dans un souci de généricité, nous avons proposé la méthode des points significatifs qui associe la technique classique d’analyse multi-variée ACP (Analyse en Composantes Principales) à un algorithme de recherche des point significatifs (points qui présentent une variabilité) ainsi qu’une méthode d’analyse de corrélation. L’étape de réduction, comme son nom l’indique, permet de réduire la taille des données pour extraire un indice de santé qui peut être considéré comme une synthèse de plusieurs éléments ; un profil monotone (représentant l’évolution de la dégradation), des perturbations, le bruit et certaines valeurs aberrantes. L’association de ces éléments donne lieu à un profil commun d’indice de santé brut. Le traitement de l’indice de santé brut est réalisé par une nouvelle méthode appelée méthode des percentiles, qui permet de générer plusieurs profils monotones écrivant au mieux le processus de dégradation, cette nouvelle technique de prétraitement vient pallier à la perte d’information engendrée par les méthodes fréquentielles et statistiques de prétraitement. La méthode de percentile génère un ensemble de profils monotones, pour les exploiter au mieux dans l’estimation du RUL (Remaining Useful Life). Dans le module de pronostic, nous avons développé une méthode nommée Gamma-percentile, qui consiste à modéliser chaque profil par un processus Gamma puis calculer un intervalle de confiance en utilisant une fonction de densité de probabilité agrégée. Cette méthode a été validée sur des données industrielles réelles fournies par ST-Microelectronics et elle a donnée lieu à plusieurs publications dans des conférences et revues internationales (IEEE Transactions on Semiconductor Manufacturing, SAFEPROCESS, IEEE International Conference on. Prognostics and Health Management, World Congress of the International Federation of Automatic Control, etc). Cette approche a été étendue au cas du pronostic de défaillances des systèmes à fonctionnement multi-modes. L’approche développée s’appuie sur l’hypothèse que la valeur future de l’IS est une fonction de l’état actuel du système, du temps, et des modes d’utilisation (consignes) supposés connus.

Pour la partie diagnostic dans les systèmes de production, nous avons considérés la problématique de détection de la défaillance permanente où l’équipement continue à générer des défauts et celle de la défaillance occasionnelle où l’équipement génère des défauts dans une situation donnée et revient à son état de fonctionnement normal après la disparition de l’événement. Afin de répondre au problème posé dans un contexte caractérisé par un grand nombre de produits et des faibles volumes de production, nous avons apporté une contribution méthodologique décomposée en trois parties principales : La combinaison de deux approches d’analyse, l’application de l’algorithme d’alignement des séquences et le développement d’une nouvelle technique d’échantillonnage appelée échantillonnage réactif pour le diagnostic. Cette méthode a donnée lieu à des publications de rang A (IEEE Transactions on Semiconductor Manufacturing, SAFEPROCESS). L’application de cette méthode à l’industrie du semi conduteur a obtenu le prix de « awarded the GLOBALFOUNDRIES’ sponsored IEEE ASMC 2015 Best Student Paper ».

Projets de recherche actuels

 mes projets de recherche se positionne actuellement a trois niveaux :

  • Projet européen H2020 avec la société STMicroelectronics qui a démarré en 2017 et dont je suis le responsable scientifique côté du LIS. Ce projet porte sur le diagnostic et pronostic de la dégradation des équipements de production et des robots en vue de prédire la qualité des produits et je dois suivre deux thésards dans le cadre de ce projet.
  • Européen Medin4 2019-2023 traitement des donnée pour la détermination d’indice de santé des machines de production) dont je suis le responsable scientifique côté du LIS
  • Un autre projet que je suis entrain de  mettre en place est développent du thème aide au diagnostic et pronostic appliqué à la santé. Je suis actuellement en contact avec des médecins de la Timone et nous avons une mission de la part du doyen de la faculté de médecine et du vice-président valorisation de notre université pour monter un projet qui sera soutenu par Amidex afin de faire émerger au sein de notre établissement une communauté IA et Numérique appliqués à la santé. Dans ce cadre le projet de recherche que je souhaite développer en collaboration avec des médecin de la Timone portera sur le thème « Classification des arythmies Cardiaque »

En effet, face à ce problème de santé publique, de nombreuses études s’intéressent au système cardiovasculaire (SCV) dans le but de mieux appréhender le développement des maladies cardiovasculaires pour pouvoir mieux les détecter et mieux les traiter. C’est dans ce cadre que nous avons déjà travaillé sur cette problématique dans le cadre du projet APRISE financé et soutenu par Amidex. Le projet consistait en la réalisation d’un dispositif électronique portatif qui sera doté de capteurs et de systèmes experts afin de surveiller, diagnostiquer et alerter en cas de danger et connecter et collecter l’ensemble des données pour consultation (personnelle et/ou ou par un professionnel de santé).

Ce projet a été réalisé en partenariat étroit avec plusieurs composantes de l’université (faculté de Médecine, faculté de droit, faculté des sciences) au travers de ces laboratoires de recherche, de l’AP-HM (Assistance Publique des Hôpitaux de Marseille) et des industriels de la région (STMicroelectronics et Gemalto). Le dispositif développé dans le cadre de ce projet est un bracelet électronique doté de capteurs biomédicaux pour la mesure des principales constantes observables et plus particulièrement l’arythmie cardiaque. Il est également doté d’algorithmes spécifiques (traitement de données et classification). Il permet de prévenir tous risques potentiels liés à la santé. Dans ce projet notre travail s’est plus focalisé sur la détection de la FA qui est une tachy-arythmie supraventriculaire caractérisée par une activation auriculaire non coordonnée ayant comme conséquence une détérioration de la fonction mécanique atriale. Sur l’électrocardiogramme, la FA est caractérisée par le remplacement des ondes P par des oscillations rapides (appelées ondes de fibrillation) de taille, de forme et de fréquence de survenue variables, associé à un rythme ventriculaire irrégulier souvent rapide (lorsque la conduction atrio-ventriculaire est intacte). Nous avons donc développé un algorithme basé sur l’étude de la régularité de la série temporelle générée par l’extraction continue en temps réel battement par battement des intervalles pic-à-pic PPG. Trois variables d’intérêt, caractéristiques de la dispersion des intervalles, sont utilisées comme variables d’état et constituent les variables d’entrée d’un système de réseau de neurones. Le module d’aide à la décision que nous avons développé est basé sur une structure hiérarchisée avec des algorithmes d’apprentissage compétitifs. Les résultats obtenus sont de l’ordre de 100% en apprentissage et de 99,9% en validation croisée pour la détection de la FA.

Néanmoins, l’analyse automatique des ECG n’est pas simple (de la même manière que son expertise médicale), du fait de la variabilité des enregistrements d’un patient à un autre et de leur variabilité interne, en fonction de l’état physiologique d’un patient (au repos, en mouvement, stress… Qui plus est, l’expertise médicale d’un enregistrement d’ECG est souvent complétée par l’analyse de l’histoire clinique du patient, difficile à exploiter dans la mise en œuvre d’une expertise automatique.

Notre problématique sera formulée comme étant un problème de classification supervsisée. La difficulté majeure est que les approches classiques de classification se heurteront à deux problèmes majeurs : le premier est la qualité des enregistrements électrocardiographiques recueillis, en fonction de la complexité du comportement physiologique du patient et du matériel utilisé pour acquérir ces données. Le deuxième problème est l’incertitude des interprétations des électrocardiogrammes par les spécialistes car deux anomalies peuvent être difficilement indiscernables est de ce fait difficilement séparable dans l’espace de représentation.

Si la première question sur la qualité des données recueillies peut être résolue ou au moins allégée, par des techniques de débruitage des signaux, la deuxième, portant sur le chevauchement des classes, nous oblige à se tourner vers d’autres solutions plus proches du raisonnement humain. La classification conventionnelle identifie les individus comme membre d’une et seulement une classe. Cela revient à dire que les techniques « traditionnelles » visent à constituer des groupes mutuellement exclusifs. Ces dernières décennies ont vu le développement des méthodes de classification à chevauchement pour répondre à cette limite. Cependant, ces méthodes ont été peu fréquemment utilisées, puisqu’elles ont plusieurs inconvénients pratiques( elles produisent généralement trop de chevauchements entre les classes de sorte qu’il est difficile d’obtenir une solution spatiale).

Par conséquent, ces techniques de classification à recouvrement ne disposent pas suffisamment d’informations sur les tendances d’appartenance. Autrement dit, les individus se trouvant dans la zone d’intersection appartiennent à poids égal à plusieurs segments à la fois. Ainsi, de nouvelles approches de classification ont été proposées pour essayer de surmonter ce problème, notamment la logique floue. Par ailleurs, d’autres méthodes, comme les réseaux de neurones et les algorithmes génétiques, commencent à être largement utilisées. Notre objectif est d’explorer la possibilité d’adaptation et/ou utilisation de ce type de méthode dans le domaine de la e-santé.