Partager

Poser les bases scientifiques pour des IA de confiance, frugales, embarquées et distribuées

Ce volet du programme porte sur l’élaboration des cadres théoriques, méthodes et outils permettant de concevoir des IA de confiance, frugales embarquées et distribuées.

Le développement de l’intelligence artificielle (IA) reposait jusqu’à récemment sur des briques logicielles installées sur des grands serveurs informatiques centralisés (dans le cloud). L’avenir se dessine désormais aussi en local : dans des objets connectés, dans des capteurs industriels déployés sur site, ou encore, dans des équipements opérationnels. Cette nouvelle tendance amène l’IA à s’embarquer directement dans les équipements, au plus près de son usage.

Pour ce faire, la technologie doit répondre à de nombreux critères. En général implémentée dans des environnement critiques, elle doit en premier lieu, être conçue et validée comme un système de confiance, pour répondre aux enjeux de sûreté, de confidentialité, de robustesse et de fiabilité propres aux systèmes critiques.

Elle doit, par ailleurs, être en mesure de fonctionner dans un contexte et environnement contraint (peu de données disponibles, de ressources de calculs et d’espace mémoire) et à faible consommation énergétique. Enfin, elle doit pouvoir fonctionner en réseau de manière efficace et en confiance.

Le programme vise à répondre à ces trois objectifs.

Objectif 1

La confiance

La faible formalisation des exigences et l’approche expérimentale du développement posent des questions légitimes de confiance.

Le programme vise à construire des réponses conduisant au développement et à l’exploitation d’IA de qualité, performantes, sûres, confidentielles, robustes et explicables. Il vise aussi à définir des méthodes et des métriques pour évaluer formellement une IA, et pour quantifier et certifier la confiance des systèmes.

Vers la validation formelle de réseaux de neurones

Les chercheurs du CEA-List, en partenariat avec ceux de l’Inria, ont démontré la possibilité de valider formellement la robustesse et la fiabilité de réseaux de neurones utilisés pour la reconnaissance d’images. Leurs recherches portaient sur deux axes : comment obtenir une spécification formelle des objets à reconnaître et des propriétés à prouver, et comment démontrer que le réseau de neurones est fiable et robuste. L’idée novatrice des chercheurs a été de s’appuyer sur les générateurs d’images, ou simulateurs, qui servent à entraîner les réseaux de neurones, et de les utiliser comme spécifications. Ces travaux ont été publiés à l’ECAI20, conférence majeure en intelligence artificielle.

Objectif 2

La frugalité

Les approches actuelles « sans limite de ressources » ne sont plus tenables que ce soit en termes de coût énergétique du numérique, ou de gestion des ressources disponibles aussi bien en données (massives ou rares) qu’en calcul embarqué à proximité des usages. Il s’agit donc de proposer des approches plus sobres sur tout le cycle de développement et d’exploitation. Et cela, des données jusqu’aux architectures.

Le programme porte sur la définition de cadres théoriques pour concevoir des méthodes d’apprentissage requérant peu de données, sur l’élaboration d’environnements de conception d’applications sobres et sur la conception d’architectures matérielles optimisées.

La vision par ordinateur appliquée au contrôle qualité d’une ligne de production

Les aciéries d’ArcelorMittal fabriquent de la tôle par laminage à 20 m/s, à chaud. Comment détecter les défauts durant la fabrication dans cet environnement difficile ? Un partenariat avec le CEA-List a permis de développer un système de vision assistée par ordinateur capable de détecter en temps réel des défauts de l’ordre de 1 mm avec un taux de détection de 95 %. Le dispositif embarque un réseau de neurones optimisé développé avec l’environnement de développement N2D2.

En savoir plus N2D2 (environnement de conception de réseau de neurones optimisés pour l‘embarqué)

 

Objectif 3

L’intelligence distribuée

L’essor de la connectivité et de l’IoT pousse le développement d’applications d’intelligence artificielle distribuées. Ce qui entraîne de nouveaux besoins de recherche pour formaliser les notions de prise de décision et de consensus par le réseau d’IA (dans une approche frugale). Cela amène également de nouvelles réflexions autour du partage et de la protection des données et des apprentissages.

Les recherches s’orientent autour de la modélisation des notions de décision distribuée et d’apprentissage distribués. Et sur l’élaboration de méthodes et d’outils pour optimiser les déploiements sur des cibles matérielles distribuées.

L’apprentissage fédéré pour la maintenance de véhicules

Dans le cadre d’un projet partenarial, le CEA-List expérimente l’apprentissage fédéré pour la maintenance d’une flotte de véhicules. Le partenaire a équipé un ensemble de voitures d’un accéléromètre à trois axes, placé sur le dessus du volant. Le capteur exploite les vibrations de la voiture qui peuvent être traitées pour analyser différentes propriétés comme l’usure de pièces mécaniques particulières. Pour entraîner un tel modèle sans avoir à transférer les données du capteur au serveur, une approche d’apprentissage fédéré a été proposée. Un scénario a été simulé avec un jeu de données contenant les données de 42 véhicules.

 

L’apprentissage fédéré, en réponse à la contrainte de la confidentialité des données

En permettant de capitaliser les données produites sur différents sites géographiques sans les faire transiter via un réseau externe, l’apprentissage fédéré apporte des réponses aux préoccupations des industriels soucieux de préserver la confidentialité de leurs données sensibles. Ils peuvent désormais envisager de concevoir des outils de maintenance prévisionnels performants à partir de données (vibratoires ou autres) générées par des machines-outils dispersées sur plusieurs sites industriels. Cela, sans avoir à faire sortir leurs données métiers sensibles des usines.

En savoir plus avec Cingulata pour traiter des données chiffrées sans les dévoiler

Le jumeau numérique : un atout pour une IA frugale et de confiance

L’intelligence artificielle remplace souvent des modèles analytiques et déterministes par des modèles de type boîte noire, plus robustes et basés sur les données.

Les modèles analytiques offrent pourtant un haut degré de confiance difficile à reproduire par des approches basées IA, mais sans la puissance et la flexibilité de ces dernières.

L’IA hybride émerge aujourd’hui comme une solution prometteuse, alliant robustesse et confiance, par la combinaison de l’IA et des modèles de simulation analytiques (par exemple, à travers le « physics-informed machine learning »).

Ainsi, le jumeau numérique ouvre de nouveaux horizons à l’IA :

  • il permet de construire des bases d’apprentissage synthétiques pour répondre aux enjeux de frugalité,
  • il aide à la création et à l’entretien de modèles flexibles, robustes et rapides, mais aussi fiables et précis, et plus facilement certifiables,
  • il concourt à la supervision de systèmes intelligents, par exemple, à travers le déploiement du jumeau numérique holistique pour l’IA embarquée et distribuée.

Les technologies mises en œuvre

  • Typologie de risques dédiés à l’IA, ingénierie basée modèles
  • Méthodes formelles pour la validation de réseaux de neurones (spécification, preuves et interprétation abstraite)
  • Apprentissage à peu de données, génération de données et transfert de modèles d’apprentissage
  • Optimisation et portage de modèles d’apprentissages profonds (N2D2)
  • Architectures à faible consommation (PNeuro, DNeuro, Spirit…)
  • Réseaux de neurones à impulsions (Spike)
  • Apprentissage fédératif – protection des données et des apprentissages – consensus équitables et résilient
  • Simulation et IA pour la conception, l’optimisation, la démonstration de performance et le diagnostic dans le domaine du Contrôle Non Destructif (CIVA et CIVA Data Science).

Pour en savoir plus :

Plateforme SPEED, pour protéger les données d’apprentissage des réseaux de neurones

À lire également

Programmes de recherche

IA Responsable

Le CEA-List a engagé un programme de recherche ambitieux pour soutenir le développement responsable de systèmes d’IA pour l’industrie et la société.
Lire la suite
Programmes de recherche

Environnements de développement

L’objectif de ce programme est de mettre en place une plateforme facilitant la conception, la validation et le déploiement d’IA de confiance et embarquée.
Lire la suite
Programmes de recherche

Usages

L’objectif de cet axe de recherche est le développement d’applications à base d’IA dans des domaines stratégiques, telles que l’industrie du futur, la mobilité, ou la santé.
Lire la suite