Qu’elles soient collectées tout au long du cycle de vie d’un produit ou obtenues grâce aux interactions avec l’utilisateur, les données temporelles représentent la principale source d’information dans la prise de décision et la planification dans l’industrie et les services.
La maintenance prévisionnelle, la modélisation des utilisateurs, la gestion des réseaux, la prévision des approvisionnements, entre autres, sont autant de motivations pour développer des outils prévisionnels, capables de gérer des capteurs multiples, des données non-étiquetées, des événements rares, des environnements bruyants et des contraintes de délai de détection. À cette fin, les pistes de recherche suivantes seront approfondies :
L’accès de plus en plus généralisé à des données en très grande nombre concernant les utilisateurs et leur environnement, notamment celles qui sont véhiculées par l’Internet et l’Internet des objets, ouvre la voie à leur exploitation pour la conception de nouveaux services à destination des utilisateurs/clients. Même si les recommandations, classifications, régressions et classements viennent naturellement étayer ces services, il n’en reste pas moins que des difficultés subsistent, liées à l’absence de supervision, l’hétérogénéité des sources de données et leur volume important.
En effet, les données des utilisateurs, qui sont pour l’essentiel non-étiquetées ou partiellement étiquetées, doivent être traitées dans des conditions différentes, par exemple en ayant recours à l’apprentissage avec peu de données de référence et l’apprentissage faiblement supervisé, qui vont bien au-delà du cadre classique de l’apprentissage non-supervisé ou supervisé.
Par ailleurs, l’hétérogénéité des types de données soulève le problème de leur représentation dans un espace commun, problème auquel on pourra remédier grâce à l’apprentissage de métriques et l’apprentissage de représentation. À terme, des modèles prévisionnels plus complexes (synthèse d’opinion, sous-titrage automatique…) pourront être développés. Pour atteindre ces objectifs, notre groupe s’intéressera aux problématiques suivantes :
Le diagnostic et la prise de décision dans des environnements sensibles font appel à des outils d’apprentissage statistique avancés, qui offrent des garanties nouvelles, telles que l’exactitude, la traçabilité et l’interprétabilité des décisions, l’identification des valeurs aberrantes, la résistance aux attaques et la possibilité de s’abstenir afin de passer la main à un expert humain en temps voulu. Dans certains contextes, d’autres fonctions telles que la protection des données et l’équité seront très recherchées.
Les travaux dans ce domaine sont à un stade embryonnaire et le développement de méthodes offrant ces nouvelles garanties se fera grâce aux évolutions importantes que va connaître l’apprentissage statistique. Nos travaux de recherche auront pour objet les problèmes suivants :
Qu’ils soient installés dans le Cloud ou embarqués dans des appareils, les nouveaux systèmes d’IA doivent être capables de communiquer avec un environnement changeant (système de reconnaissance faciale dans un aéroport, voiture autonome, réseau intelligent) et d’adapter leurs fonctions de décision en conséquence ou bien de mettre à jour leur base de données le cas échéant. Avant d’arriver à des systèmes autonomes, il faut considérer l’apprentissage comme étant un processus permanent, qui non seulement exploite les données de son environnement, mais qui continue également sans cesse à explorer cet environnement de façon pertinente, avant de pouvoir à terme s’auto-contrôler.
Au-delà du modèle de l’apprentissage par renforcement et l’apprentissage en ligne, qui s’adresse précisément à cette problématique, une meilleure communication avec l’environnement passera également par la définition pertinente de la valeur réelle de la fonction, telle qu’elle est perçue par l’utilisateur cible (la qualité du service, par exemple). Nos travaux porteront essentiellement sur les domaines suivants :