Partager

Une plateforme de caractérisation de la robustesse et de la sûreté des IA

Crédit : ©ktsdesign – stock.adobe.com
CAISAR (Characterizing Artificial Intelligence Safety and Robustness) est une plateforme open source qui fournit un environnement logiciel complet dédié à la spécification et à la vérification des systèmes à base d’Intelligence Artificielle (IA). CAISAR est actuellement utilisée dans deux grands programmes industriels et par deux partenaires académiques.

L’intégration de composants IA au sein de systèmes critiques nécessite une grande confiance dans leur sûreté ; cette confiance peut par exemple être assurée par l’usage de techniques de vérification formelle. Différents verrous sont identifiés pour permettre l’utilisation de ces dernières : tout d’abord, les programmes à base d’IA manipulent des données de grande taille (images, sons, textes), ce qui rend leur formalisation délicate. De plus, les programmes à base d’IA sont conçus suivant des algorithmes probabilistes qui donnent des structures de programmes qui dépassent la capacité actuelle des outils de vérification classiques.

La plateforme CAISAR a donc pour objectif de lever ces verrous suivant trois axes de travail :

  • permettre une grande expressivité pour transcrire les spécifications complexes des systèmes à base d’IA en propriétés formelles effectivement vérifiables,
  • passer à l’échelle sur la vérification en employant des prouveurs à l’état de l’art, dédiés aux composants IA,
  • fournir des résultats de vérification explicables.

 

À ce titre, la plateforme CAISAR fournit un langage de spécification développé par le CEA-List qui permet une grande flexibilité de modélisation.

Le site web CAISAR fournit un manuel utilisateur accompagné d’exemples et de tutoriels. Il présente notamment deux cas d’usages gérés par CAISAR : la preuve de propriétés fonctionnelles d’un système anticollision d’avions (ACAS-Xu), ainsi que la robustesse de classifieurs face à des perturbations visuelles de la base de données de chiffres manuscrits fournie par MNIST (Mixed National Institute of Standards and Technology).

CAISAR évolue et s’améliore constamment pour répondre à des besoins de plus en plus complexes et réels. Le prochain véritable défi consistera à spécifier et à vérifier des modèles d’intelligence artificielle hétérogènes, tels que ceux composés de réseaux neuronaux et de machine à vecteurs de support. Pour ce faire, il sera nécessaire de concevoir un mécanisme de collaboration entre les différents prouveurs intégrés dans CAISAR, ce qui est ambitieux en matière de vérification formelle d’IA.

Pour en savoir plus :

  • Cas d’usage : livrée dans le cadre du programme Confiance.ai, la plateforme CAISAR a été appliquée aux deux cas d’usages présentés ci-dessus, ainsi que sur un cas d‘usage porté par Renault, sur de l’inspection visuelle de soudures. La plateforme CAISAR est disponible en open source (licence LGPLv2).
  • Projets majeurs : ces travaux sont intégrés au programme DeepGreen, porté par le CEA, pour être appliqués à des réseaux de neurones embarqués. La plateforme CAISAR compte déjà des utilisateur·ice·s au sein de l’Université Technique de Dortmund et du Laboratory for AI Verification (LAIV) de l’Université d’Edimbourg.

CAISAR est une plateforme open source qui combine différents outils de preuve et de test afin d’améliorer la confiance des IA via un langage de spécification formel et expressif.

Michele Alberti

Ingénieur-chercheur et Expert — CEA-List

A lire également

Plateformes technologiques

Intelligence artificielle

La plateforme IA Responsable met à disposition des partenaires du CEA-List un ensemble de moyens pour concevoir et valider des intelligences artificielles performantes, de confiance et frugales et po...
Lire la suite
Programmes de recherche

IA Responsable

Le CEA-List a engagé un programme de recherche ambitieux pour soutenir le développement responsable de systèmes d’IA pour l’industrie et la société.
Lire la suite
Communiqués de presse

26 avril 2023 | Les partenaires du projet DeepGreen lancent la première plateforme open source pour l’IA embarquée

Le collectif DeepGreen, piloté par le CEA, lance le 26 avril 2023 une plateforme open source pour l’IA embarquée et vise des premières réalisations stratégiques pour l’écosystème industriel...
Lire la suite
Communiqués de presse

7 mars 2024 | Confiance.ai dévoile sa méthodologie outillée, un “bien commun numérique” au service du développement d'une IA industrielle et responsable

À l’occasion de l’événement Confiance.ai Day qui se tient ce 7 mars 2024, les membres fondateurs du collectif Confiance.ai (Air Liquide, Airbus, Atos, Naval Group, Renault Group, Safran, Sopra ...
Lire la suite