Partager

Un environnement pour superviser la sûreté des systèmes autonomes

Crédit : Alessio Soggetti by Unsplash
Cet environnement permet de superviser la sûreté à l’exécution de systèmes à base d’Intelligence Artificielle (IA). Il intègre l’incertitude liée au système et à son environnement pour identifier le niveau de sûreté et les situations à risque. Il a été appliqué avec succès pour la navigation autonome de drones.

Il est difficile de garantir la sûreté des systèmes autonomes à base d’IA, en raison de la complexité de leurs composants logiciels et de l’utilisation du deep learning lors de leur conception. Pour combler cette lacune, le CEA-List propose une architecture pour la supervision de ces systèmes en cours d’exécution.

Celle-ci contient d’abord des règles formelles de sûreté issues de l’analyse de risques du système, après identification des variables et des situations qui seront à risque au cours de l’exécution. Pour les variables du système, nous considérons les mesures de confiance fondées sur l’incertitude. Sur la base de ces règles, un modèle des comportements sûrs est construit pour identifier l’état de santé du système et de son environnement. La santé du système est liée aux risques fonctionnels inhérants aux composants IA (comme le traitement de données éloignées de ce qui a été appris), tandis que celle de son environnement est liée aux risques qui découlent de l’environnement à un instant donné (figure 1). En fonction de l’état de santé du système et de son environnement, différentes actions peuvent être entreprises pour maintenir le système dans son état ou le remettre dans un état sûr. Lors de l’exécution, le superviseur de sûreté reçoit des informations venant des autres composants et les compare à son modèle de comportements sûrs, ce qui permet de déclencher des actions le cas échéant.

 

Figure 1 : System Health and Environment Monitoring (crédit : F.Arnez/CEA)

 

Les équipes du CEA-List ont appliqué l’architecture de supervision à la navigation autonome d’un drone au travers d’un ensemble de portes dont l’emplacement est inconnu à l’avance (figure 2). Elles ont pour cela utilisé l’environnement de simulation AirSim. Le drone est composé de trois blocs fonctionnels distribués utilisant le standard ROS2 pour la communication :

  1. Bloc de navigation automatique. La fonction de navigation est réalisée au moyen de deux réseaux de neurones (perception et contrôle). Les méthodes de deep learning bayésien sont utilisées pour capturer l’incertitude associée aux prédictions de chaque réseau de neurones. De plus, dans le cas d’un pipeline de réseaux de neurones, l’incertitude est propagée d’un réseau de neurones à l’autre, ce qui permet une meilleure estimation de l’incertitude globale du système de navigation.
  2. Bloc de détection de personnes et estimation de distance. Pour prendre en compte la sécurité des humains, les équipes ont utilisé une caméra de profondeur et entraîné un réseau de neurones Yolov5 pour la détection des personnes et l’estimation de leur distance. Cette fonction permet de représenter les situations où une personne entre dans le champ d’un drone pendant sa mission.
  3. Bloc de supervision de sûreté (figure 3)

Figure 2 : System Automated Navigation Task (crédit : F.Arnez/CEA)
Figure 3 : UAV Safe Behavior model for automated navigation (crédit : F.Arnez/CEA)

Références

Notre cadre de surveillance permet de superviser les composants basés sur l’IA dans des architectures robotiques hautement modulaires et distribuées au cours de tâches critiques pour la sûreté.

Rebecca Cabean

Fabio Arnez

Ingénieur-chercheur — CEA-List

À lire également

Plateformes technologiques

Intelligence artificielle

La plateforme IA Responsable met à disposition des partenaires du CEA-List un ensemble de moyens pour concevoir et valider des intelligences artificielles performantes, de confiance et frugales et po...
Lire la suite
Enjeux

Intelligence artificielle

Les technologies d’intelligence artificielle se sont glissées dans tous les interstices de nos vies, privées comme professionnelles. Elles transforment nos activités, nos relations avec les autre...
Lire la suite
Programmes de recherche

IA Responsable

Le CEA-List a engagé un programme de recherche ambitieux pour soutenir le développement responsable de systèmes d’IA pour l’industrie et la société.
Lire la suite
Programmes de recherche

IA de confiance, frugale, embarquée et distribuée

Ce volet du programme porte sur l’élaboration des cadres théoriques, méthodes et outils permettant de concevoir des IA de confiance, frugales embarquées et distribuées.
Lire la suite