reseaux-de-neurones

Rapport activité 2024 • mai 21, 2025

Succès de PyRAT dans une compétition de vérification formelle

Dans un contexte où fiabiliser les systèmes contenant des intelligences artificielles est devenu un enjeu majeur de sécurité, nos équipes ont conçu PyRAT, un outil de vérification formelle de réseaux de neurones.

Lire la suite
Rapport activité 2024 • mai 21, 2025

Savoir quantifier les incertitudes dans la simulation guidée par intelligence artificielle

Les outils d’apprentissage profond probabiliste développés au CEA-List permettent la mesure quantitative de la fiabilité d’une prédiction. Cette quantification ouvre la voie aux premières solutions innovantes quant au problème que pose l’incertitude prédictive pour le déploiement de l’IA en simulation numérique.

Lire la suite
Avancées technologiques • août 29, 2024

29 août 2024 | Un environnement pour superviser la sûreté des systèmes autonomes

L’environnement d’IA développé par le CEA-List permet de superviser la sûreté à l’exécution de systèmes à base d’Intelligence Artificielle (IA). Il a été appliqué avec succès pour la navigation autonome de drones.

Lire la suite
Avancées technologiques • juillet 30, 2024

30 juillet 2024 | Une plateforme de caractérisation de la robustesse et de la sûreté des IA

CAISAR (Characterizing Artificial Intelligence Safety and Robustness) est une plateforme open source qui fournit un environnement logiciel complet dédié à la spécification et à la vérification des systèmes à base d’Intelligence Artificielle (IA). CAISAR est actuellement utilisée dans deux grands programmes industriels et par deux partenaires académiques.

Lire la suite