Dans un contexte où fiabiliser les systèmes contenant des intelligences artificielles est devenu un enjeu majeur de sécurité, nos équipes ont conçu PyRAT, un outil de vérification formelle de réseaux de neurones.
Lire la suite
Les outils d’apprentissage profond probabiliste développés au CEA-List permettent la mesure quantitative de la fiabilité d’une prédiction. Cette quantification ouvre la voie aux premières solutions innovantes quant au problème que pose l’incertitude prédictive pour le déploiement de l’IA en simulation numérique.
Lire la suite
L’environnement d’IA développé par le CEA-List permet de superviser la sûreté à l’exécution de systèmes à base d’Intelligence Artificielle (IA). Il a été appliqué avec succès pour la navigation autonome de drones.
Lire la suite
CAISAR (Characterizing Artificial Intelligence Safety and Robustness) est une plateforme open source qui fournit un environnement logiciel complet dédié à la spécification et à la vérification des systèmes à base d’Intelligence Artificielle (IA). CAISAR est actuellement utilisée dans deux grands programmes industriels et par deux partenaires académiques.
Lire la suite