
En levant un verrou technologique, qui limitait depuis longtemps l’efficacité de l’apprentissage embarqué de l’IA, une équipe de chercheurs français a mis au point une architecture matérielle et des algorithmes ad hoc qui permettent d’embarquer sur puce l’entraînement local adaptatif et l’inférence des réseaux de neurones artificiels, sans exploser la consommation énergétique, ni buter sur les contraintes matérielles.
Dans un article intitulé « A Ferroelectric-Memristor Memory for Both Training and Inference » publié dans Nature Electronics, l’équipe présente un nouveau système de mémoire hybride qui réunit les meilleurs atouts de deux technologies jusqu’alors incompatibles — les condensateurs ferroélectriques et les memristors — au sein d’un empilement mémoire unique, compatible CMOS.
L’innovation de l’équipe ouvre la voie à des systèmes embarqués et des dispositifs tels que les véhicules autonomes, les capteurs médicaux et les moniteurs industriels capables d’apprendre en temps réel à partir de données du monde réel — en adaptant leurs modèles à la volée, tout en maîtrisant strictement la consommation énergétique et l’usure matérielle.
L’IA embarquée exige à la fois l’inférence (lire les données pour prendre des décisions) et l’apprentissage (mettre à jour les modèles en fonction de nouvelles données). Mais jusqu’à présent, les technologies mémoire ne pouvaient bien faire qu’une seule des deux tâches :
Le défi consistait donc à intégrer sur un même wafer et à coût réduit deux technologies complémentaires.
L’équipe a conçu un empilement mémoire unifiée à base d’oxyde d’hafnium dopé au silicium avec une couche de titane. Ce dispositif fonctionne nativement comme une FeCap mais l’application d’un stress électrique permet de former un filament conducteur ce qui le transforme en OxRAM/memristor.
Il a ainsi été possible de concevoir une synapse hybride composée de FeCap numériques qui stockent une valeur précise du poids synaptique indispensable à l’apprentissage et de memristors analogiques utilisés principalement pour l’inférence.
L’algorithme d’apprentissage implique de mettre régulièrement à jour les poids des memristors avec la valeur des poids des FeCaps. À cette fin, une méthode de transfert numérique-analogique, sans convertisseur DAC formel, a été conçue et testée avec succès.
Nous avons adopté un apprentissage inspiré des réseaux neuronaux binaires : la propagation des activations comme la rétropropagation du gradient sont calculées grâce aux memristors. Les FeCaps, elles, accumulent les mises à jour de poids à chaque échantillon d’apprentissage. Tous les 100 échantillons, le poids contenu dans les FeCaps et transféré dans les memristors ce qui permet à l’apprentissage de converger efficacement.
Ce matériel a été fabriqué et testé sur une matrice de 18 432 dispositifs en technologie CMOS standard 130 nm, intégrant sur une seule puce les deux types de mémoire ainsi que leurs circuits périphériques.
Les chercheurs remercient le soutien financier du Conseil européen de la recherche (ERC – bourse consolidator DIVERSE : 101043854) et du plan gouvernemental France 2030 (ANR-22-PEEL-0010).