Les neurosciences computationnelles

Les neurosciences computationnelles 

Dossier : Les sciences cognitives | Magazine N°810 Décembre 2025Par Jean-Pierre NADAL (X77)

Les neurosciences computationnelles explorent comment des réseaux de neurones biologiques réalisent les fonctions cognitives qui façonnent le comportement humain et animal. À l’interface des sciences formelles et expérimentales, cette discipline pluridisciplinaire s’appuie sur modélisation mathématique, analyse numérique et collaborations interdisciplinaires pour éclairer le rôle du calcul cérébral. De la naissance du neurone formel au développement des réseaux profonds, des mécanismes de mémoire associative à l’apprentissage par renforcement, la modélisation accompagne chaque avancée de la psychologie expérimentale, de la biologie et de l’informatique, tout en dialoguant en permanence avec l’intelligence artificielle, dont les impacts inspirent et défient la compréhension du cerveau humain.

La modélisation en neurosciences, dans le cadre général des sciences cognitives, cherche à comprendre comment les neurones biologiques, notamment organisés en réseaux, permettent de réaliser des fonctions cognitives. On parle aujourd’hui de neurosciences computationnelles, pour souligner qu’on s’intéresse à ce qui est « calculé », au sens large de ce terme. Combinant analyses mathématiques et approches numériques, la modélisation va de l’étude de modèles abstraits, formels, destinés à explorer les possibilités et comprendre les mécanismes possibles, à des modèles spécifiques cherchant à rendre compte quantitativement de données empiriques, comportementales ou neurobiologiques.

Ce domaine de recherche se développe au rythme des progrès en neurosciences et en psychologie expérimentale, donnant accès à des informations de plus en plus fines sur le système nerveux et sur le comportement humain et d’autres animaux. Il suit aussi le progrès des moyens informatiques (montée en puissance des ordinateurs et développements algorithmiques) et des avancées en mathématiques ou physique théorique.


“Ce domaine s’est toujours construit à l’interface entre le naturel et l’artificiel.”

Ce domaine s’est toujours construit à l’interface entre le naturel et l’artificiel, et est intrinsèquement pluridisciplinaire. Les précurseurs, à qui l’on doit des concepts et modèles fondateurs toujours d’actualité, sont de disciplines expérimentales, la psychologie et la biologie, ou de sciences formelles, mathématiques, physique théorique, informatique, et les travaux actuels – purement théoriques ou associant expérimentation et modélisation – sont très souvent le fruit de collaborations interdisciplinaires.

Du neurone formel au perceptron

Dans les années 40, le neurologue Warren McCulloch et le mathématicien Walter Pitts introduisent le neurone formel, schématisation extrême d’un neurone. Inspirés par les travaux de Turing, ils regardent quelles fonctions logiques peuvent être réalisées par ces neurones aux entrées et sorties binaires. Une étape majeure est franchie en 1958 avec le perceptron, modèle proposé par le psychologue Frank Rosenblatt. Le perceptron le plus simple est similaire au neurone formel, mais avec une différence fondamentale : il est doté d’une capacité d’apprentissage. La sortie du perceptron est 1 ou 0 selon qu’une somme pondérée des entrées dépasse ou non un seuil. Les coefficients des entrées, ou poids synaptiques, sont modifiables par apprentissage. Rosenblatt propose un algorithme d’apprentissage supervisé pour réaliser des associations entre un ensemble de configurations d’entrée et de sorties désirées, et prouve sa convergence si la tâche est effectivement apprenable. Il réalise même une machine implémentant ce perceptron.

Limites et mérites du perceptron

Les travaux de Rosenblatt ouvrirent la perspective de réaliser des systèmes artificiels qui apprennent. Le New York Times annonça alors la sortie d’un embryon de machine qui, à terme, serait capable de lire, écrire, reconnaître des personnes avec leurs noms, traduire instantanément leur langue, fabriquer elle-même d’autres machines, et finalement avoir conscience de son existence. Avec l’IA d’aujourd’hui, nous sommes un peu plus près du but… Mais à la fin des années 60 la démonstration mathématique des limites computation­nelles du perceptron interrompra temporairement la recherche orientée IA.

Malgré cela, le perceptron devient un outil central en neurosciences computationnelles, notamment pour étudier la capacité d’apprentissage – le nombre d’associations {entrée-sortie désirée} apprenables, en fonction de la taille du réseau et des caractéristiques des données. Le perceptron est même pertinent pour certaines structures neuronales. Ainsi, en 1971 James Albus utilise le perceptron comme modèle des cellules de Purkinje dans le cervelet, aire spécifique de l’apprentissage moteur. Cette analyse est reprise dans les années 2000 en exploitant des méthodes modernes de la physique statistique, permettant une confrontation quantitative avec des données neurophysiologiques récentes.

Réseaux en couches

Comme modèle de neurone, le perceptron avec ses variantes est devenu la brique de base de réseaux neuronaux, qu’ils soient biologiques ou artificiels. Une version courante remplace la sortie binaire par un nombre réel représentant le taux d’activité du neurone, obtenu par une fonction non linéaire des entrées. Dans les années 80, les psychologues David Rumelhart et James McClelland proposent des réseaux de perceptrons comme modèles de la cognition humaine, promouvant une approche connexionniste opposée au paradigme symbolique dominant.

Une architecture classique est celle des réseaux feedforward (couches successives sans rétroaction), appelés perceptrons multicouches, aujourd’hui dénommés en IA réseaux profonds (deep networks). L’arrivée en 1985 de la « rétropropagation du gradient », algorithme d’apprentissage phare pour ces réseaux, oriente résolument leur usage vers des applications. En neurosciences, des architectures en couches sont aussi couramment utilisées pour modéliser, par exemple, la perception sensorielle, comme la vision, où le signal progresse à travers plusieurs aires cérébrales (rétine, thalamus et aires visuelles). Une classe courante de modèles considère une couche sensorielle, une couche intermédiaire de codage distribué et une couche de sortie associée à la prise de décision.

Schéma de la dynamique d’un modèle LIF.
Schéma de la dynamique d’un modèle LIF.

Retour sur la modélisation du neurone, seul ou en réseaux

Pour modéliser un réseau neuronal, il faut un compromis entre le réalisme biologique et une simplicité suffisante pour permettre simulations et analyses. Plus complexe que le simple perceptron, le modèle « intégration et tir avec fuite » (leaky integrate-and-fire, LIF) fait aujourd’hui consensus entre expérimentateurs et modélisateurs. Il décrit l’évolution du potentiel membranaire au gré des signaux reçus par les dendrites. Si ce potentiel atteint un seuil, le neurone génère un potentiel d’action qui se propage jusqu’aux synapses. L’efficacité de transmission dépend du poids synaptique, positif pour une synapse excitatrice et négatif pour une inhibitrice, éventuellement modifiable par apprentissage. Le potentiel de membrane revient ensuite à son niveau de repos. La dynamique du réseau peut être décrite en temps discret ou continu, menant dans ce dernier cas à des équations différentielles, stochastiques par la prise en compte du bruit dans le système neuronal.

Anatomie d’un neurone biologique.
Anatomie d’un neurone biologique.

Plasticité synaptique

Qu’en est-il de l’apprentissage dans les réseaux biologiques ? Dans les années 40, le psychologue Donald Hebb avance l’hypothèse que les connexions entre neurones qui s’activent ensemble se renforcent. On parle de « synapse de Hebb », d’« apprentissage hebbien ». Les validations expérimentales viendront bien plus tard (années 70 et 90), mais la modélisation mathématique des possibilités d’apprentissage par modifications hebbiennes se développe dès les années 60 – l’algorithme du perceptron est d’ailleurs une forme d’apprentissage hebbien. Les modifications hebbiennes sont au cœur de tout modèle d’apprentissage en neurosciences. En effet, les propriétés des synapses ne peuvent être modifiées que par des signaux locaux, disponibles au niveau des synapses.

Le plus simple des perceptrons.
Le plus simple des perceptrons.
CC BY-SA 3.0

Mémoire associative

Hebb avance cette idée dans le cadre général d’une théorie selon laquelle la perception et la mémoire humaines reposent sur des assemblées de neurones fortement interconnectés. Ainsi, avec le renforcement des connexions, l’activation partielle d’un groupe peut entraîner l’activation de l’ensemble, expliquant ainsi la nature associative de la mémoire – c’est-à-dire qu’une représentation mentale peut évoquer d’autres souvenirs qui lui sont associés. En 1982, le physicien John Hopfield propose un modèle de mémoire associative directement inspiré de cette théorie. Chaque objet de mémoire est représenté par un sous-ensemble de neurones activés en même temps (ou pattern). Grâce à la règle de Hebb, les connexions entre neurones sont renforcées pour stabiliser ces patterns. Lorsqu’un stimulus est présenté, l’activité du réseau converge vers le pattern de l’objet de mémoire le plus proche : le réseau a « reconnu » le stimulus comme étant cet objet.

Ces principes de base sont préservés dans les modèles actuels qui prennent en compte davantage de biophysique, permettant des confrontations avec des données issues d’enregistrements électrophysiologiques chez l’animal ou l’humain. Hopfield a reçu le prix Nobel de physique en 2024 pour l’importance de ce travail dans les développements récents de l’IA. Bien que son modèle soit proche de ceux introduits dans les années 70 par le mathématicien Shun-ichi Amari, il se distingue par ses liens avec la physique statistique, notamment avec les modèles de « verre de spins ». Cela a permis d’enrichir l’analyse théorique du modèle grâce aux avancées récentes dans ce domaine de la physique et a attiré l’attention des physiciens sur les réseaux de neurones, favorisant le développement des neurosciences computationnelles comme champ de recherche pluridisciplinaire.

Réseaux récurrents

Le réseau neuronal du modèle de Hopfield est un cas particulier de réseau récurrent. Une famille spécifique de réseaux récurrents est exploitée en IA pour les Large Language Models (cf. l’article d’Andrei Popescu-Belis). En neurosciences, sur la base de données neurophysiologiques, les réseaux récurrents les plus étudiés comportent un grand nombre de neurones avec une forte interconnectivité, typiquement aléatoire, mais distinguant neurones excitateurs et neurones inhibiteurs. Les synapses excitatrices sont en général celles susceptibles de modifications synaptiques. Une tâche peut être réalisée par plusieurs réseaux de ce type, interagissant entre eux, comme dans l’exemple donné plus bas sur la prise de décision. Des travaux récents utilisent même ce type de réseaux pour des modélisations du cerveau à grande échelle, considérant l’interaction entre un grand nombre d’aires neuronales.

Codage neuronal

Une question centrale est celle de la nature et de l’efficacité du codage neuronal, de la manière de représenter une information. Dans les années 60, le biologiste Horace Barlow développe une réflexion novatrice sur l’efficacité du codage neuronal. Son hypothèse est que la sélection naturelle a conduit à des systèmes sensoriels spécifiquement adaptés aux environnements dans lesquels vit une espèce donnée. Depuis les années 90, ces idées sont reprises et formalisées en s’appuyant sur la théorie de l’information et sur le traitement du signal. Dans diverses expériences avec des animaux, il a été montré que la représentation neuronale d’un signal sensoriel en contexte naturel, compte tenu du niveau de bruit (dans les récepteurs sensoriels par exemple), est réalisée de manière optimale ou quasi optimale selon des critères d’information au sens de Shannon.

Prise de décision

Reconnaître un stimulus comme appartenant à une catégorie (par exemple « chat » ou « chien ») est une forme de prise de décision. L’analyse des temps de réaction dans des expériences comportementales menées depuis les années 70 suggère un processus optimal d’estimation de la catégorie. Dans les années 2000, des expériences de neurophysiologie confortent cette théorie. Chaque neurone impliqué dans la décision augmente ou diminue son activité selon que l’information reçue correspond ou pas à la catégorie pour laquelle il « vote ».

Ces activités suivent ainsi une marche aléatoire biaisée (modèle dit de drift-diffusion), jusqu’à ce qu’un seuil soit atteint, déclenchant la décision. S’il rend très bien compte des temps de réaction observés pour toutes sortes de conditions expérimentales, ce modèle ne permet pas d’expliquer l’influence de l’essai précédent sur la décision, ou l’accélération soudaine de la dynamique neuronale juste avant la décision. Ces phénomènes sont en revanche reproduits par des modèles de réseaux récurrents. Ceux-ci comportent des groupes de neurones spécifiques à chaque catégorie qui s’inhibent mutuellement. Pour un stimulus ambigu, l’activité hésite entre deux attracteurs avant de basculer rapidement vers l’un d’eux, déterminant la prise de décision.

Apprentissage comportemental

Les psychologues Robert Rescorla et Allan Wagner proposent en 1972 un modèle du conditionnement pavlovien tel que, comme il est dit sur Wikipédia, « aucun concurrent issu d’une autre théorie ne l’a supplanté ». La question plus générale de l’apprentissage comportemental est abordée dans les années 80. L’apprentissage par exemple de la marche se fait par essai et erreur. Une chute sanctionne des défauts dans des étapes de la séquence motrice, mais quelles étapes faut-il corriger ? Les informaticiens Richard Sutton et Andrew Barto introduisent en 1988 le temporal difference learning, une théorie de l’apprentissage par renforcement (reinforcement learning) dérivée de la théorie du contrôle optimal du mathématicien Richard Bellman.

Chris Watkins introduit, dans le cadre de sa thèse en informatique, une variante, le Q-learning. Ces approches très vite populaires sont exploitées pour la robotique. Aujourd’hui, des algorithmes d’apprentissage par renforcement sont au cœur de l’IA. Côté neurosciences, la première validation expérimentale au niveau neuronal est publiée en 1997 par les biologistes Wolfram Schultz et P. Read Montague et le modélisateur Peter Dayan. Depuis lors, l’analyse des structures neuronales liées à la récompense, impliquées dans ces apprentissages, s’est considérablement développée. La modélisation dans ce domaine concerne autant le système nerveux ou la robotique bio-inspirée que les algorithmes d’IA.

Quels impacts de l’IA ?

Cette présentation des neurosciences computationnelles n’est en rien exhaustive. Elle donne je l’espère une idée de la diversité des thèmes abordés, de l’intrication entre modélisation et expérimentation, et des échanges constants avec l’IA et d’autres disciplines. Avec l’essor spectaculaire de l’IA, on peut se demander quel sera son impact sur la compréhension des mécanismes neuronaux sous-jacents à la cognition humaine. L’IA permet déjà des analyses remarquables de données d’imagerie cérébrale (cf. l’article de Christophe Pallier).

Sur diverses tâches cognitives, une IA peut produire des performances supérieures à celles d’un humain, ce qui est en fait une indication que l’algorithme utilisé n’est pas celui du cerveau ! Cependant les architectures des réseaux artificiels, devenues assez complexes, peuvent suggérer des manières d’interpréter le rôle de structures neuronales, difficile à comprendre sur la seule base d’enregistrements neurophysiologiques. Récemment, il a justement été suggéré des analogies entre les réseaux transformers et l’hippocampe, une aire spécialisée dans la mémorisation et dans la représentation de l’espace. 

Donnez votre avis