Une nouvelle ère pour la mémoire et les réseaux neuronaux : du cerveau humain à l’intelligence artificielle

Nouvelle avancée dans la compréhension des réseaux neuronaux et de la mémoire associée

La mémoire associative nous permet de reconnaître rapidement des informations à partir d’indices partiels. Par exemple, entendre les premières notes d’une chanson suffit souvent à faire resurgir le souvenir de toute la mélodie. Ce processus, qui est loin d’être isolé à une seule cellule neuronale, implique l’ensemble d’un réseau complexe de neurones.

Le modèle classique de Hopfield, une fondation pour l’intelligence artificielle

En 1982, le physicien John Hopfield a formalisé ce mécanisme dans ce que l’on appelle désormais le réseau de Hopfield. Ce réseau neuronal récurrent est capable de retrouver un schéma complet à partir d’une entrée partielle ou bruitée, un exploit qui a valu à Hopfield le Prix Nobel en 2024. Cependant, ce modèle, bien que puissant et innovant, présente des limites dans la manière dont il explique la dynamique de la récupération des souvenirs guidée par de nouvelles informations.

Vers un modèle plus réaliste : la mémoire dynamique guidée par les entrées externes

Des chercheurs de l’Université de Santa Barbara et de Padoue proposent un nouveau paradigme baptisé Input-Driven Plasticity (IDP), qui intègre la manière dont les signaux sensoriels externes modifient en continu le paysage énergétique dans lequel les souvenirs sont stockés. Plutôt que de considérer le début du processus comme un point fixe, ce modèle suggère que les stimuli externes transforment simultanément ce paysage, aidant le cerveau à converger naturellement vers le souvenir correct.

Par exemple, voir la queue d’un chat ne positionne pas simplement votre cerveau à proximité du souvenir du chat dans un espace statique, mais modifie activement cet espace pour que la mémoire entière du chat émerge automatiquement, même si l’information de départ est partielle.

Un système robuste face au bruit et à l’ambiguïté

Le modèle IDP se distingue aussi par sa robustesse face aux entrées incertaines ou bruitées. Au lieu d’être un obstacle, ce « bruit » aide à filtrer les souvenirs moins stables, favorisant ainsi un rappel plus fiable des souvenirs profonds et solides. Cette approche dynamique est en phase avec notre expérience humaine, où notre attention flotte entre différents stimuli avant de se fixer sur une entrée spécifique, guidant le réseau neuronal dans le traitement des souvenirs.

Implications pour l’intelligence artificielle et au-delà

Ce modèle pourrait également inspirer les futures architectures d’intelligence artificielle, notamment en rapprochant la mécanistique des réseaux associés à la mémoire humaine avec celle des modèles d’apprentissage actuels, comme les transformateurs qui sont au cœur des grands modèles de langue tels que ChatGPT. Cette recherche ouvre la porte à une meilleure compréhension et modélisation des processus cognitifs réels, dépassant les modèles purement computationnels actuels.

En résumé, ces travaux apportent une vision plus fine et détaillée de l’interaction entre perception et mémoire, sous un angle dynamique et adaptatif, à la fois pour les neurosciences et l’intelligence artificielle.

👉 Source ici

A lire ensuite