Ce volet du programme porte sur l’élaboration des cadres théoriques, méthodes et outils permettant de concevoir des IA de confiance, frugales embarquées et distribuées.
Le développement de l’intelligence artificielle (IA) reposait jusqu’à récemment sur des briques logicielles installées sur des grands serveurs informatiques centralisés (dans le cloud). L’avenir se dessine désormais aussi en local : dans des objets connectés, dans des capteurs industriels déployés sur site, ou encore, dans des équipements opérationnels. Cette nouvelle tendance amène l’IA à s’embarquer directement dans les équipements, au plus près de son usage.
Pour ce faire, la technologie doit répondre à de nombreux critères. En général implémentée dans des environnement critiques, elle doit en premier lieu, être conçue et validée comme un système de confiance, pour répondre aux enjeux de sûreté, de confidentialité, de robustesse et de fiabilité propres aux systèmes critiques.
Elle doit, par ailleurs, être en mesure de fonctionner dans un contexte et environnement contraint (peu de données disponibles, de ressources de calculs et d’espace mémoire) et à faible consommation énergétique. Enfin, elle doit pouvoir fonctionner en réseau de manière efficace et en confiance.
Le programme vise à répondre à ces trois objectifs.
La faible formalisation des exigences et l’approche expérimentale du développement posent des questions légitimes de confiance.
Le programme vise à construire des réponses conduisant au développement et à l’exploitation d’IA de qualité, performantes, sûres, confidentielles, robustes et explicables. Il vise aussi à définir des méthodes et des métriques pour évaluer formellement une IA, et pour quantifier et certifier la confiance des systèmes.
Les chercheurs du CEA-List, en partenariat avec ceux de l’Inria, ont démontré la possibilité de valider formellement la robustesse et la fiabilité de réseaux de neurones utilisés pour la reconnaissance d’images. Leurs recherches portaient sur deux axes : comment obtenir une spécification formelle des objets à reconnaître et des propriétés à prouver, et comment démontrer que le réseau de neurones est fiable et robuste. L’idée novatrice des chercheurs a été de s’appuyer sur les générateurs d’images, ou simulateurs, qui servent à entraîner les réseaux de neurones, et de les utiliser comme spécifications. Ces travaux ont été publiés à l’ECAI20, conférence majeure en intelligence artificielle.
Les approches actuelles « sans limite de ressources » ne sont plus tenables que ce soit en termes de coût énergétique du numérique, ou de gestion des ressources disponibles aussi bien en données (massives ou rares) qu’en calcul embarqué à proximité des usages. Il s’agit donc de proposer des approches plus sobres sur tout le cycle de développement et d’exploitation. Et cela, des données jusqu’aux architectures.
Le programme porte sur la définition de cadres théoriques pour concevoir des méthodes d’apprentissage requérant peu de données, sur l’élaboration d’environnements de conception d’applications sobres et sur la conception d’architectures matérielles optimisées.
Les aciéries d’ArcelorMittal fabriquent de la tôle par laminage à 20 m/s, à chaud. Comment détecter les défauts durant la fabrication dans cet environnement difficile ? Un partenariat avec le CEA-List a permis de développer un système de vision assistée par ordinateur capable de détecter en temps réel des défauts de l’ordre de 1 mm avec un taux de détection de 95 %. Le dispositif embarque un réseau de neurones optimisé développé avec l’environnement de développement N2D2.
En savoir plus N2D2 (environnement de conception de réseau de neurones optimisés pour l‘embarqué)
L’essor de la connectivité et de l’IoT pousse le développement d’applications d’intelligence artificielle distribuées. Ce qui entraîne de nouveaux besoins de recherche pour formaliser les notions de prise de décision et de consensus par le réseau d’IA (dans une approche frugale). Cela amène également de nouvelles réflexions autour du partage et de la protection des données et des apprentissages.
Les recherches s’orientent autour de la modélisation des notions de décision distribuée et d’apprentissage distribués. Et sur l’élaboration de méthodes et d’outils pour optimiser les déploiements sur des cibles matérielles distribuées.
Dans le cadre d’un projet partenarial, le CEA-List expérimente l’apprentissage fédéré pour la maintenance d’une flotte de véhicules. Le partenaire a équipé un ensemble de voitures d’un accéléromètre à trois axes, placé sur le dessus du volant. Le capteur exploite les vibrations de la voiture qui peuvent être traitées pour analyser différentes propriétés comme l’usure de pièces mécaniques particulières. Pour entraîner un tel modèle sans avoir à transférer les données du capteur au serveur, une approche d’apprentissage fédéré a été proposée. Un scénario a été simulé avec un jeu de données contenant les données de 42 véhicules.
En permettant de capitaliser les données produites sur différents sites géographiques sans les faire transiter via un réseau externe, l’apprentissage fédéré apporte des réponses aux préoccupations des industriels soucieux de préserver la confidentialité de leurs données sensibles. Ils peuvent désormais envisager de concevoir des outils de maintenance prévisionnels performants à partir de données (vibratoires ou autres) générées par des machines-outils dispersées sur plusieurs sites industriels. Cela, sans avoir à faire sortir leurs données métiers sensibles des usines.
En savoir plus avec Cingulata pour traiter des données chiffrées sans les dévoiler
L’intelligence artificielle remplace souvent des modèles analytiques et déterministes par des modèles de type boîte noire, plus robustes et basés sur les données.
Les modèles analytiques offrent pourtant un haut degré de confiance difficile à reproduire par des approches basées IA, mais sans la puissance et la flexibilité de ces dernières.
L’IA hybride émerge aujourd’hui comme une solution prometteuse, alliant robustesse et confiance, par la combinaison de l’IA et des modèles de simulation analytiques (par exemple, à travers le « physics-informed machine learning »).
Ainsi, le jumeau numérique ouvre de nouveaux horizons à l’IA :
Pour en savoir plus :
Plateforme SPEED, pour protéger les données d’apprentissage des réseaux de neurones