offres d'emploi formations actualités contact accès annuaire intranet
Sujets de thèses >

Apprentissage automatique profond par (co-)factorisation matricielle multi-objective évolutionnaire. Applications en science des données industrielles, environnementales et marines.

équipe : Specifi / Encadrants : G. Roussel, M. Puigt / Financement envisagé : 50% Région & 50% ULCO - Télécharger le sujet détaillé


Depuis l’invention de l’ordinateur, l’homme a très tôt voulu le doter d’une capacité d’analyse pour classer ou reconnaître des événements. Ainsi, dès les années 1940, des méthodes d’apprentissage étaient basées sur des réseaux de neurones. Cependant, les capacités de calcul des machines étant extrêmement limitées, le nombre de couches des réseaux l’était lui- aussi. En conséquence, des alternatives demandant moins de ressources en calcul ont été proposées par la suite. Parmi celles-ci, les techniques basées sur la factorisation matricielle non-négative (NMF) ont connu un vif intérêt de la part de la communauté dès la fin des années 1990 et les travaux de Lee et Seung. Elles ont notamment été appliquées avec succès en traitement d’images, traitement du son, télédétection , chimie environnementale, analyse de réseaux sociaux , ou encore en étalonnage de capteurs mobiles .

L’apprentissage profond (ou deep learning en anglais) a révolutionné l’intelligence artificielle depuis une demi- douzaine d’années. Historiquement, les premières approches proposées ont repris le formalisme de méthodes développées à la fin des années 1980 qui utilisaient les réseaux de neurones, mais en rajoutant un grand nombre de couches cachées. Elles permettent notamment de réaliser un apprentissage de manière supervisée avec des performances inégalées, sous réserve d’avoir une base d’apprentissage de très grande taille (big data). Aujourd’hui, certains travaux en intelligence artificielle consistent à reconsidérer des alternatives aux réseaux de neurones classiques et d’en proposer des extensions profondes. Comme les approches alternatives classiques étaient beaucoup plus performantes que les approches à base de réseaux de neurones historiques (c.-à-d. avec peu de couches cachées), on peut “espérer” que leurs extensions profondes seront plus performantes que les approches à base de réseaux profonds de neurones, c.-à-d. qu’elles pourraient fournir des performances similaires avec une base d’apprentissage beaucoup plus réduite, ce qui pourrait avoir des conséquences très positives en terme de besoins énergétiques (par exemple grâce aux calculs plus rapides, du fait de la base plus réduite).

Aujourd’hui, les relations entre factorisation matricielle et réseaux de neurones étant bien connues, certains travaux récents consistent à proposer des extensions profondes des méthodes de NMF (nommées deep NMF), qui proposent des factorisations en couche. Les résultats obtenus montrent un potentiel certain de ces approches, qui pourraient fournir une alternative crédible aux réseaux profonds de neurones, notamment lorsque la masse de données d’apprentissage n’est pas suffisamment importante pour ces derniers. Cependant, de nombreuses difficultés restent à régler, dont notamment l’optimisation de la structure de deep NMF (ce problème est aussi ouvert en deep learning classique). En effet, les méthodes classiques de NMF cherchent à optimiser conjointement une fonction objectif et des fonctions de pénalisation, qui sont propres au problème considéré. Or, le choix optimal de ces fonctions et de leur pondération dans le problème de NMFnécessite la présence active d’un expert de l’application considérée qui va contrôler, par le biais de tests extensifs, la qualité de l’apprentissage. Cette problématique devient encore plus prégnante en deep NMF où les fonctions doivent être correctement choisies et pondérées dans chaque couche de la factorisation. Le travail de thèse que nous proposons porte justement sur cette problématique, que nous proposons de résoudre par l’emploi d’optimisation multi-objectif évolutionnaire.

D’un point de vue applicatif, nous nous focaliserons sur l’analyse de données issues de mesures ubiquitaires pour l’Industrie 4.0 et le démélange d’images en télédétection marine.