L’environnement d’IA développé par le CEA-List permet de superviser la sûreté à l’exécution de systèmes à base d’Intelligence Artificielle (IA). Il a été appliqué avec succès pour la navigation autonome de drones.
Lire la suite
CAISAR (Characterizing Artificial Intelligence Safety and Robustness) est une plateforme open source qui fournit un environnement logiciel complet dédié à la spécification et à la vérification des systèmes à base d’Intelligence Artificielle (IA). CAISAR est actuellement utilisée dans deux grands programmes industriels et par deux partenaires académiques.
Lire la suite
Pour créer des solutions d’IA générative de confiance, cortAIx Lab (Thales), le plus puissant laboratoire intégré d’IA critique en Europe, et le CEA, organisme de recherche français parmi les plus innovants au monde figurant avec Thales dans le Top 100 mondial de Clarivate Analytics, unissent aujourd’hui leurs forces autour de nombreux cas d’usage de l’IA générative, notamment pour le renseignement ou le commandement.
Lire la suite
Le programme Confiance.ai vous donne rendez-vous le 7 mars 2024 pour la nouvelle édition de Confiance.ai Day
Lire la suite
Afin de vérifier la fiabilité des modèles d’intelligence artificielle, le CEA-List a développé un outil de test automatisé baptisé AIMOS, qui se base sur les méthodes formelles et facilite les processus de test.
Lire la suite
Le collectif Confiance.ai organise la deuxième édition des Confiance.ai Days du 5 au 6 octobre à CentraleSupélec, Bâtiment Eiffel, 8-10 rue Joliot Curie, 91190 Gif-sur-Yvette.
Lire la suite
La plateforme IA Responsable met à disposition des partenaires du CEA-List un ensemble de moyens pour concevoir et valider des intelligences artificielles performantes, de confiance et frugales et pour imaginer les usages de demain.
Lire la suite
Le CEA-List a engagé un programme de recherche ambitieux pour soutenir le développement responsable de systèmes d’IA pour l’industrie et la société.
Lire la suite