Partager

19 juillet 2021 | IA de confiance, IA embarquée : quels enjeux ?

© CEA
L’avènement de l’Internet des objets, de la 5G ou encore d’une nouvelle génération de clouds font de l’intelligence artificielle (IA) embarquée et de l’IA de confiance deux enjeux stratégiques et industriels de premier plan pour les prochaines années, aussi bien au niveau international que français. Explications avec François Terrier, directeur du programme Intelligence artificielle au CEA.

Comment définir l’IA de confiance et l’IA embarquée ?

Le développement de l’intelligence artificielle (IA) reposait jusqu’à récemment sur des briques logicielles installées sur des grands serveurs informatiques centralisés (cloud). L’avenir se dessine désormais aussi en local de l’objet connecté aux systèmes et installations industrielles. Cela impose d’embarquer directement l’IA au plus près de son usage.

Pour ce faire, cette IA embarquée doit répondre à de nombreux critères : performance, sobriété et confiance. La performance et la sobriété sont essentielles pour permettre d’embarquer l’IA dans les objets ou systèmes eux-mêmes, réduisant ainsi drastiquement les besoins en communication et d’énergie associée, mais imposant par là des contraintes fortes sur la performance des composants électroniques.

 

Comment définir l’IA de confiance et l’IA embarquée ?
Smart home : Les intelligences artificielles développées par l’institut CEA List sont entrainées pour reconnaitre automatiquement les objets et leur position, les postures, les tâches ménagères ou encore les émotions. Elles permettent de déléguer la vigilance à l’ordinateur, sans diffuser d’images à un tiers. Dans le cas du maintien à domicile, la confidentialité des images favorise le consentement des personnes pour le monitoring de leur activité, l’alerte en cas de chute ou d’autres situations dangereuses.

 

Ces systèmes souvent critiques, se doivent alors d’être « de confiance » notamment pour garantir la sûreté (absence de défaillances présentant des risques pour les personnes, les biens ou l’activité économique), la sécurité (cybersécurité, protection des données), la robustesse et la fiabilité des mécanismes de décision des applications d’IA. Concrètement, la confiance se décline sur tous les éléments de construction des systèmes d’IA : les données et les connaissances utilisées, les algorithmes choisis, la conception et la mise en œuvre des systèmes logiciel et électronique. C’est la capacité à bien identifier les risques et à argumenter toutes les phases du processus de développement qui permet de qualifier, et certifier les systèmes à base d’IA pour in fine justifier la confiance auprès de ses utilisateurs.

Quels sont les enjeux de R&D au niveau international en termes d’IA ?

L’orientation stratégique poussée par l’Europe est celle d’une IA au service de l’industrie et de la société avec des garanties de confiance et d’efficacité. Cette orientation fait de l’IA de confiance et de l’IA embarquée des enjeux particulièrement stratégiques. La performance fonctionnelle, (en reconnaissance d’images par exemple), étant maintenant excellente, les acteurs internationaux (entreprises, universités et organismes de recherche), cherchent désormais à lever les verrous technologiques d’explicabilité, de frugalité et de robustesse notamment, qui conditionnent leur passage à l’échelle industrielle.

Ces initiatives internationales et européennes contribuent en effet à bâtir des standards et des régulations protectrices à l’échelle mondiale, étapes essentielles au déploiement industriel de l’IA dans de nombreux secteurs : des véhicules autonomes aux réseaux de surveillance (pollution, sécurité, etc.) en passant par la robotique manufacturière, le contrôle industriel et les systèmes pour la santé. Assurer la « confiance » des intelligences embarquées, c’est assurer à la fois l’acceptabilité des nouveaux systèmes par les usagers et un haut niveau de performance, sobriété, qualité et sécurité.

En France, la Stratégie nationale pour l’IA (SNIA) définit les axes stratégiques de recherche et développement sur ce sujet.

 

Quels sont les enjeux de R&D au niveau international en termes d’IA ?
© Adobe Stock – Siarhei

Comment le CEA a-t -il intégré ces deux enjeux stratégiques dans ses recherches ?

Nous avons été parmi les premiers acteurs à souligner l’importance des enjeux liés à l’IA de confiance et à l’IA embarquée. Nous sommes ainsi à l’origine de la construction et l’animation de workshops spécialisés dans trois grandes conférences internationales (en IA, et en ingénierie de la sûreté). Nous avons été également un des premiers organismes de recherche à créer deux programmes dédiés à ces verrous. Ce positionnement s’explique d’abord par un lien très fort avec l’industrie, d’où une culture d’identification et d’anticipation des besoins des entreprises, et ensuite par nos compétences historiques en confiance logicielle (sûreté de fonctionnement, méthodes formelles, ingénierie logicielle, cybersécurité), systèmes embarqués (micro-nanoélectronique, photonique, capteurs…) et bien sûr en intelligence artificielle (vision, traitement automatique des langues, analyses du signal, deep learning, systèmes experts).

Pouvez-vous donner un exemple concret ?

Notre collaboration avec l’équipementier automobile Valeo illustre bien notre démarche de R&D globale autour de l’IA : nous avons développé une fonction d’aide à la conduite qui associe plusieurs technologies à base d’IA, les embarque dans un véhicule et en qualifie le bon fonctionnement. L’histoire a commencé en 2016, lorsque le CEA a remporté le challenge international Kitti portant sur la détection et la localisation de véhicules dans une image, dans un contexte de conduite autonome.

Le potentiel énorme de la technologie, tout comme la capacité du CEA à accompagner le transfert industriel ont séduit Valeo qui a créé un laboratoire commun avec le CEA. L’objectif : produire des résultats opérationnels pouvant être intégrés dans les démonstrateurs de véhicule autonome de l’équipementier. C’est aujourd’hui le cas, puisque le CEA a développé les performances de son IA capable dorénavant de détecter en temps réel, à 360° autour du véhicule, tous les éléments de l’environnement (piétons, autres véhicules, etc.). Nos travaux portent sur la définition d’une architecture électronique embarquée optimale, des outils d’optimisation du code dans un contexte de production de masse et la mise en place des méthodologies de qualification de la confiance.

Ces technologies sont donc encore au stade de démonstrateur, mais y a-t-il aujourd’hui certaines de ces applications intégrées dans les objets connectés du quotidien ?

Si les applications d’IA commencent à entrer dans des objets du quotidien, comme les smartphones, certains systèmes de vidéosurveillance, les box multimédia, les tondeuses automatiques, mais aussi des dispositifs médicaux comme les pompes à insuline ou des robots de désinfection, la mise en place du cadre réglementaire qui en garantit la confiance n’en est qu’à ses débuts, ce qui limite fortement leurs usages. De même, les applications un peu poussées (l’analyse d’image pour le contrôle qualité en usine, l’optimisation de trajectoire ou de freinage, la gestion du trafic, etc.) requièrent une puissance de calcul plus importante pour leur déploiement.

Quels sont les atouts et particularités du CEA dans le domaine ?

Nous disposons d’une recherche solide tant au niveau des algorithmes que des systèmes et des technologies, en plus de notre bonne connaissance des besoins industriels.

Notre atout différenciant est de couvrir toute la chaîne de la valeur, en partant des données, et en identifiant les algorithmes les plus adaptés à leur traitement. Nous utilisons ensuite les outils adéquats pour optimiser l’utilisation de ces algorithmes, et leur déploiement sur les composants électroniques, qu’ils soient disponibles sur le marché ou développés spécifiquement, prenant en compte les contraintes de l’embarqué, liées notamment à l’énergie, à la mémoire disponible et aux coûts. Ce déploiement peut s’appuyer sur la conception d’architecture dédiée intégrant des processeurs spécifiques et adaptés aux besoins des calculs de l’IA.

Enfin, pour aller encore au-delà et anticiper les exigences de sobriété et de performances toujours croissantes, nous développons de nouvelles technologies de micro-électronique (par exemple d’intégration 3D, d’électronique bioinspirée, etc).

Trois types de plateformes IA au CEA

Le CEA a mis en place trois plateformes pour couvrir l’ensemble des problématiques de l’IA :

  • La plateforme de calcul Factory IA pour la recherche et la mise au point des algorithmes et applications clés de l’IA, à base d’apprentissage requérant de grandes quantités de données et de calculs. Elle permet la fabrication, le test et l’évaluation des algorithmes innovants d’application d’IA. Située au Très grand centre de calcul (TGCC), à Bruyères-le-Châtel, elle dispose d’une très grosse puissance de calcul avec les meilleurs processeurs du marché, ainsi qu’un espace de stockage de données adapté aux besoins des apprentissages. Elle peut aussi être utilisée à des fins de recherche industrielle collaborative.
  • Des plateformes technologiques pour l’IA embarquée permettant la recherche, l’expérimentation et le développement des technologies micro-nano électroniques pour transférer vers les composants des logiciels conçus initialement pour le cloud et les intégrer sur des puces ultra-miniaturisées. Hébergée par l’institut CEA-Leti à Grenoble, elles s’appuient sur des infrastructures de salles blanches hébergeant plus de 400 équipements lourds dédiés, et sont complétées par les plateformes de conception de composants et de circuits embarqués.

 

Trois types de plateformes IA au CEA
Equipements salles blanches. Traitements thermiques + recuit laser © A. AUBERT / CEA

 

  • Une plateforme d’outils pour le développement responsable de systèmes de confiance, frugaux et pouvant être déployés en embarqué. En cours de développement à Paris-Saclay par l’institut CEA-List, elle donnera accès à des outils proposant des services qui vont de la gestion des données au codage sur des cibles embarquées dédiées : annotation, génération et qualification des données pour l’apprentissage, analyse de robustesses, validation de sûreté, optimisation de l’apprentissage, des modèles et du code, analyse de risques et aide à la certification des systèmes à base d’IA.