La convergence du big data et de l’intelligence artificielle (IA) est à l’origine d’une nouvelle révolution dans l’industrie et les services. L’accès à des quantités massives de données conjugué à une puissance de calcul en pleine croissance ouvre la voie à la mise au point de systèmes d’IA et plus précisément de techniques d’apprentissage statistique.
Impulsé par l’Internet des objets, l’apprentissage statistique va bientôt s’étendre à la quasi-totalité des processus industriels, de la conception initiale d’un produit à son utilisation par le client : la prévision de l’offre et de la demande, la maintenance prévisionnelle, la modélisation prévisionnelle des utilisateurs sont autant d’exemples d’applications actuellement concernées par l’apprentissage statistique. Parallèlement, les données que produisent les entreprises ont une valeur et elles créent des occasions de voir émerger de nouveaux services grâce aux algorithmes d’apprentissage statistique. Augmenté par l’IA, le produit lui-même pourra à terme devenir intelligent et autonome comme le sont par exemple le réseau intelligent ou la voiture autonome.
Après l’ère initiale du Big Data Analytics, de nouvelles attentes, plus élevées, entrent désormais en jeu. Lorsqu’ils sont destinés à l’aide à la décision dans des domaines sensibles (défense, santé, transport) ou simplement à garantir la confiance qui doit être accordée à toute technologie avant qu’elle ne soit adoptée, les systèmes d’IA doivent présenter des justifications de leurs décisions, offrir des garanties de robustesse, une traçabilité de leur apprentissage… Par ailleurs, lorsqu’ils sont embarqués dans un environnement non-stationnaire, ils doivent aussi communiquer avec cet environnement, connaître leurs propres points faibles éventuels et continuer à s’améliorer au moyen d’interactions pertinentes. Pour les équipes de recherche, il s’agit là d’un ensemble de problèmes passionnants, dont la résolution conditionnera l’utilisation pérenne de la science des données et des outils d’IA.