Date
- Lundi 18 Juin
Audience
- Toutes les personnes intéressées par l’intelligence artificielle (enseignants, chercheurs, doctorants …)
Objectifs
- Avoir une idée de la recherche en intelligence artificielle faite au laboratoire
- Faire un rapprochement entre les personnes qui travaillent sur des thématiques proches
- Répondre à des problématiques en IA qu’il pourrait y avoir au sein du laboratoire
Prérequis
- Aucun
Programme
Cette formation présente un aperçu des grandes thématiques de recherche au coeur de l’intelligence artificielle. Les différentes interventions se feront sous forme de cours interactifs. Chaque thématique sera illustrée par des exemples d’application, une description des technologies utilisées, les briques technologiques correspondantes, les acteurs clés et les grands défis du domaine.
Résumé des présentations
Génie Logiciel & Intelligence Artificielle : Histoire et Avenir d’une Symbiose
M. Bouneffa. La fin des années soixante a connu les naissances du Génie Logiciel et de l’Intelligence Artificielle. Dès le début, ces deux disciplines se sont nourries l’une de l’autre. Les langages à objets et les langages de frames ont constitué un moyen de mettre en oeuvre les premièrs outils de simulation et de représentation de connaissances. Par la suite, les architectures multi-agents (blackbaoard, agents autonomes) se sont clairement inspirés de ce qui se faisait au niveau des architectures logicielles. Dans le même temps, les différents systèmes à base de règles ont servi d’outils de mise en oeuvre d’ateliers intelligents de développement, déploiement et évolution du logiciels. Les outils d’exploration de données (fouille de données, etc.) ont servi de moyen d’extraction de règles régissant certains aspects importants du logiciel tel que la manière dont on peut exprimer sa qualité ou les facteurs qui influencent son évolution, etc.
Dans cet exposé, je reviendrai sur l’histoire de cette symbiose entre ces deux disciplines. J’expliciterai les nouvelles tendances en la matière telles que l’utilisation des algorithmes évolutionnaires pour l’automatisation des tests et de l’évolution du logiciel. Je montrerai également l’état de cette symbiose dans le cadre des travaux menés au LISIC à travers notamment : l’utilisation de différents types de systèmes à base pour la gestion de l’évolution du logiciel, l’utilisation des outils de représentation des connaissances et notamment les ontologies dans le domaine du génie logiciel et l’utilisation de techniques d’apprentissage automatique pour la modélisation de la qualité du logiciel.
Tentative d’apprentissage automatique du bruit lors du rendu d’images de synthèse
R. Synave, S. Delepoulle, C. Renaud. Le rendu est un processus long et demandant une grande pusisance de calcul. Plus les algorithmes de rendu tournent longtemps, moins il y a de bruit dans les images générées. Afin d’avoir un rendu de qualité, habituellement, les algorithmes sont exécutés durant plusieurs heures voire dizaines d’heures. Ainsi, les images sont totalement convergées et ne contiennent plus de bruit. L’objectif des travaux menés dans l’équipe est de détecter, lors du rendu, si les images contiennent encore du bruit perceptible ou non afin de stopper les algorithmes de rendu dès que le temps d’exécution supplémentaire n’apporte plus d’information visible. La méthode d’apprentissage est basée sur SVM et la caractérisation du bruit est faite grâce à l’extraction de valeurs singulières basées sur la couleur des pixels des images. Nous présenterons ici les premiers résultats.
Algorithmes UCB pour la synthèse d’image et l’optimisation numérique - ou comment des bandits dessinent les plans de circulation de Calais
F. Leprêtre. En mathématiques, le problème du bandit manchot met en scène un joueur faisant face à plusieurs machines à sous, dont les récompenses moyennes sont à priori inconnues. L’objectif étant de maximiser ses gains d’argent, le joueur acquiert de l’expérience en essayant les machines les unes après les autres. À terme, le joueur tente donc de déterminer le bandit manchot qui offre les meilleurs gains en moyenne. Des algorithmes d’apprentissage par renforcement ont été proposés pour résoudre le problème du bandit manchot. Ces algorithmes ne possèdent, au départ, aucune connaissance de leur environnement ; ils apprennent de leurs actions au fil des itérations grâce à un système de récompense. Dans cet exposé, je présenterai l’algorithme d’apprentissage par renforcement Upper Confidence Bound (UCB, proposé par P. Auer en 2002), puis j’en évoquerai 2 applications réalisées dans le cadre de mes travaux de stage et de début de thèse, traitant respectivement de synthèse d’image et d’optimisation pour des problèmes de mobilité urbaine.
Algorithme QRDS avec stratégie UCB - amélioration de l’algorithme 1+1-ES grâce au bandit manchot pour les problèmes avec plateaux
A. Dubois. Dans le domaine de l’optimisation multi-modale, il arrive que des problèmes comportent des zones d’iso-fitness, c’est-à-dire que la qualité de la réponse (fitness) est identique, cela se traduit par un plateau ce qui rend l’optimisation plus difficile, puisque qu’aucune direction ne peut être priviliégée. Une autre caractéristique possible est le regroupement des optima en une ou plusieurs zones. Des algorithmes ont été proposés pour résoudre ces types de problèmes, souvent en utilisant une stratégie de restart fréquents afin d’explorer au mieux l’espace de recherche, c’est nottament le cas de l’algorithme Quasi-Random Restart Decreasing Step-size (QRDS, M.Schoenaueur, F.Teytaud, O.Teytaud, 2011). L’algorithme d’apprentissage par renforcement Upper Confidence Bound (UCB, proposé par P. Auer en 2002) permet grâce à un découpage de l’espace de recherche en zones de pouvoir sans aucune connaissance de l’environnement du problème, apprendre au fil des itérations grâce à un système de récompense quelles zones semble les plus optimales. L’utilisation du QRRS couplé avec l’algortihme UCB devrait permettre de découper notre espace de recherche en zone et ainsi maximiser d’une part les zones qui semblent les plus intéréssantes et d’autre part eviter les plateaux. Dans cet exposé je présenterais l’algorithme QRRS avec l’algorithme UCB, suivi d’un comparatif de performances sur certaines fonctions académiques.
Machine learning in black-box expensive optimization
S. Verel. There is a strong relation between the fields of machine learning and optimization (metaheuristics, bio-inspired algorithms, etc.). In this short talk, we show how we have developed machine learning methods for the optimization problems based on numerical simulations which are expensive to compute: learning parameters of parallel optimization algorithms, and learning surrogate model for optimization, etc. In a more prospective view, we open the discussion to another research direction to analyze machine learning methods from the point of view of optimization.
Factorisation en matrices (semi-)non-négatives : problématique, applications et tendances
M. Puigt. De nombreux problèmes en traitement du signal / des images et en apprentissage consistent à traiter des données stockées sous forme de matrices (ou de tenseurs, mais nous nous limiterons aux matrices dans cette présentation). La factorisation matricielle consiste à écrire cette matrice de données en le produit de deux facteurs qui permettent d’analyser ces données. En particulier, la factorisation en matrices (semi-)non-négatives — (semi-)NMF pour (Semi-)Nonnegative Matrix Factorization en anglais — a connu un vif succès depuis une vingtaine d’année car les éléments des facteurs matriciels alors obtenus sont généralement plus faciles à interpréter qu’avec les approches sans contraintes de signe. Durant cette présentation, nous introduirons brièvement la problématique de la NMF ainsi que ses nombreux domaines d’applications. Nous présenterons ensuite quelques développements en cours dans l’équipe et leurs perspectives applicatives.
Extraction automatique d’attributs par Deep Learning “DL”
A. Bigand. Dans cette courte présentation plusieurs utilisations possibles du “DL” vont être exposées. Après avoir brièvement rappeler les avantages et inconvénients du « DL », plusieurs résultats obtenus en comparant réseaux de neurones convolutionnels CNN, ResNet et autonecoders permettrons de dégager quelques idées “phares” sur l’extraction d’attributs. Ensuite une proposition de travail pouvant fédérer plusieurs membres du laboratoire sera présentée.
Time series segmentation and learning
Emilie Poisson Caillault, André Bigand, Alain Lefebvre. Time series segmentation techniques without any a priori knowledge could be divided according to the way to cut these : breaking cuts, temporal window processing (similarity, autoencoders) generative models (HMM, gaussian mixture). Segmentation could be also studied from spectral clustering view, directly without any temporal cut/windows hypothesis and by considering collected multivariate points. We focus on temporal background knowledge that can be expressed as a set of instance-level constraints from fuzzy interval/duration on the clustering process.
Multivariate times series completion by unsupervised and supervised way
Hong PHAN, Emilie Caillault, Alain Lefebvre, André Bigand. Missing data are inevitable in almost domains of applied sciences. Data analysis with missing values can lead to a loss of efficiency and unreliable results, especially for large missing sub-sequence(s). Some well-known methods for multivariate time series imputation require high correlations between series or their features. In this paper, we propose an approach based on the shape-behaviour relation in low/un-correlated multivariate time series under an assumption of recurrent data. This method involves two main steps. Firstly, we find the most similar subsequence to the subsequence before (resp. after) a gap based on the shape-features extraction and Dynamic Time Warping algorithms. Secondly, we fill in the gap by the next (resp. previous) sub-sequence of the most similar one on the signal containing missing values. Experimental results show that our approach performs better than several related methods in case of multivariate time series having low/non-correlations and effective information on each signal.
Multi-level spectral clustering for extreme event discovery
Kelly Grassi, Emilie Poisson Caillault, André Bigand, Alain Lefebvre. A new framework of hierarchical spectral clustering algorithm is proposed in order to segment time series and to discover usual, intermittent and extreme events. The approach is compared with classical hierarchical clustering and initial spectral clustering on simulated time-series. The added value is highlighted using a real dataset. The approach allows to detect extreme events in the context of coastal marine water quality assessment based on high resolution physico-chemical time series collected from an automated and instrumented buoy
Genetic programming for generating Term-weighting Scheme in text classification
Ahmad Mazyad, Fabien Teytaud, Cyril Fonlupt Term-Weighting Scheme (TWS) is an important step in text classification. It determines how documents are represented in Vector Space Model (VSM). Even though state-of-the-art TWSs exhibit good behaviors, a large number of new works propose new approaches and new TWSs that improve performances. Furthermore, it is still difficult to tell which TWS is well suited for a specific problem. In our works, we are interested in automatically generating new TWSs with the help of evolutionary algorithms and especially genetic programming (GP). GP evolves and combines different statistical information and generates a new TWS based on the performance of the learning method. We experience the generated TWSs on well-known benchmarks. Our studies show that even early generated formulas are quite competitive with the state-of-the-art TWSs and even in some cases outperform them.
Représentation par graphes pour la sélection et la classification
Denis Hamad Le travail de recherche se situe dans le cadre de a représentation par graphes de données issues de signaux et/ou images “Graph Data”. Il s’agit d’extraire des informations pertinentes et interprétables d’un ensemble de données par sélection de données (partition ou clustering) et/ou par sélection d’attributs. Dans un contexte de données évolutives, nous travaillons selon deux axes :
- La représentation parcimonieuse et l’apprentissage actif pour l’écologie marine (thèse de Samah Hijazi 2ème année) ;
- L’apprentissage dynamique, application à la gestion de la congestion routière (thèse de Pamela AlAlam 1ère année)
Partage d’Expérience et Tagging Contextuel basés sur le concept d’Activité
Grégory Bourguin, Arnaud Lewandowski Le web 2.0 a fait de l’Internet une place de partage de connaissance dans laquelle de nombreux outils permettent aux utilisateurs de transmettre leurs propres expériences à propos des ressources qu’ils mettent en œuvre dans leurs activités. Chaque expérience informe à propos de la manière dont les ressources ont été perçues et impliquées dans un contexte particulier. Cette connaissance partagée est supposée aider de nouveaux utilisateurs à réaliser leurs propres activités. La plupart des systèmes de partage de connaissance permettent aux utilisateurs de tagger les entités manipulées. Il a été démontré que les tags y facilitent la navigation. De plus, les tags portent intrinsèquement une sémantique à même d’en faciliter la compréhension, ce qui s’avère d’autant plus intéressant dans le cadre du web 3.0. Cependant, de nombreuses études ont aussi démontré qu’un tags ne peut réellement faire sens que lorsqu’il est considéré dans le contexte de l’action qui l’a créé. Malheureusement, les modèles de tagging actuels ne prennent que peu voire pas en compte la notion de contexte nécessaire à leur compréhension. C’est pour pallier ces manques que nous avons proposé l’ontologie ABCT (Activity Based Contextual Tagging), et que nous travaillons à sa mise en œuvre dans de nombreux domaines d’application au sein de la plateforme EVOXEL. Si ces travaux n’ont pour l’instant pas encore directement été reliés à l’IA, il s’avère évident que leurs futurs développements pourront à la fois s’en nourrir, et peut-être à leur tour y apporter des solutions. La création de tags peut par exemple être considérée comme une catégorisation d’entités en lien avec des points de vues utilisateurs. La sémantique des tags peut être spécifiée grâce à diverses ontologies ou taxonomies, l’idéal étant de pallier aux problèmes tels que la polysémie de manière automatisée en s’inspirant du contexte. Il est enfin aussi par exemple possible d’imaginer créer de nouveaux systèmes de recommandation en lien avec la connaissance utilisateur et mettant en œuvre les notions d’activité et de point de vue.
Photos