offres d'emploi formations actualités contact accès annuaire intranet
Sujets de thèses >

Apport des Connaissances Sémantiques dans la mise en oeuvre l'Explicabilité des processus d'Intelligence Artificielle

équipe : Model / Encadrants : M. Bouneffa, G. Bourguin / Financement envisagé : 100% ULCO - Télécharger le sujet détaillé


Cette thèse est consacrée à la problématique de l'explicabilité des processus de raisonnement des systèmes d'Intelligence Artificielle. L'importance de cette problématique a été soulignée dans de nombreux travaux comme le rapport Villani sur l'IA où il a été clairement établi que le manque d ' "explicabilité des IA” constitue un frein sérieux au développement de l'IA dans des domaines critiques et/ou sensibles comme la médecine, la conduite automatique de véhicules ou les systèmes d'aide à la décision dans des domaines sociaux comme l'attribution des bourses d'étude et/ou de logements sociaux, etc.

De nombreux travaux ont été menés ces dernières années pour adjoindre des explications aux systèmes d'IA, en particulier ceux à base de réseaux de neurones profonds, qui sont à la fois très performants, mais aussi par principe conçus et mis en oeuvre comme des boites noires. Les travaux de recherche les plus récents explorent diverses pistes pour réaliser l'explicabilité. Par exemple, certains outils réalisent des traitements sur les modèles d'IA dans le but de réifier les liens entre des données et un modèle ayant conduit à une décision spécifique. D'autres travaux s'emploient à produire des versions simplifiées de modèles d'IA existants. Enfin, certains travaux tentent d'altérer le processus même de génération de modèles dans le but de directement fournir des modèles plus explicables. Si les approches divergent, leur but commun est de produire des systèmes d'IA permettant de fournir des explications qui soient compréhensibles par les acteurs humains concernés (médecins, ingénieur de production ou de maintenance, etc.). De notre point de vue, il s'agit de produire des explications à un niveau d'abstraction sémantique en adéquation avec leurs connaissances. L'étude de l'état de l'art permet constater que si ces notions de connaissances et de sémantique adaptée sont souvent implicites, elles ne sont encore elles-mêmes que rarement réifiées.

Les travaux de cette thèse rentrent dans ce cadre et ont pour but de montrer que les approches pour l'explicabilité gagneraient fortement à mieux considérer la connaissance et sa sémantique comme des objets de premier ordre en les liant explicitement aux systèmes d'IA grâce aux outils qui permettent de les expliciter et de les manipuler, comme les graphes de connaissances et les ontologies. Elles concerneront aussi bien le domaine métier considéré que les profils des utilisateurs, ainsi que la nature des algorithmes d'IA utilisées et leurs spécificités. Ces travaux développés sont au coeur de la thématique du groupe de travail SysReIC (Systèmes Réflexifs et Ingénierie des Connaissances).