Les chercheurs du CEA-List travaillent à la mise au point de méthodes de compression de réseaux de neurones performantes, pour la création d’IA frugales et adaptées au monde de l’embarqué. Une première solution est mise à la disposition des industriels dans la plateforme open source Eclipse Aidge dédiée à l’IA embarquée, développée par le consortium du projet DeepGreen.
Lire la suite
Dans un contexte où fiabiliser les systèmes contenant des intelligences artificielles est devenu un enjeu majeur de sécurité, nos équipes ont conçu PyRAT, un outil de vérification formelle de réseaux de neurones.
Lire la suite
Les outils d’apprentissage profond probabiliste développés au CEA-List permettent la mesure quantitative de la fiabilité d’une prédiction. Cette quantification ouvre la voie aux premières solutions innovantes quant au problème que pose l’incertitude prédictive pour le déploiement de l’IA en simulation numérique.
Lire la suite
L’environnement d’IA développé par le CEA-List permet de superviser la sûreté à l’exécution de systèmes à base d’Intelligence Artificielle (IA). Il a été appliqué avec succès pour la navigation autonome de drones.
Lire la suite
CAISAR (Characterizing Artificial Intelligence Safety and Robustness) est une plateforme open source qui fournit un environnement logiciel complet dédié à la spécification et à la vérification des systèmes à base d’Intelligence Artificielle (IA). CAISAR est actuellement utilisée dans deux grands programmes industriels et par deux partenaires académiques.
Lire la suite