top of page

Cerveau et intelligence artificielle : même fonctionnement ?

Comment le cerveau transforme-t-il l’information sonore pour construire notre perception des sons et nous permettre d’agir en conséquence ? Pour répondre à cette question, dans une étude parue le 8 janvier 2025, l’équipe de Brice Bathellier a enregistré l’activité d’une centaine de milliers de neurones au travers du système auditif. Grâce à cet ensemble de données unique, ils ont pu comparer la manière dont les sons sont représentés par l’activité des neurones de chaque étage du système auditif. Cette étude a permis de démontrer que le traitement d’information du son évoluait dans les différents étages du système auditif afin de permettre l’association du son avec les bonnes actions.


Cerveau et intelligence artificielle : même fonctionnement ?

Dans le cerveau, le système auditif est constitué de plusieurs étages. Dans les premiers étages, l’information transmise intègre la structure temporelle du son. En progressant dans les derniers étages du système auditif, de plus en plus de neurones sont capables de reconnaitre un son sans lire cette séquence temporelle. Ils peuvent ainsi reconnaître un son dans son ensemble, indépendamment de sa temporalité.

 

Les auteurs ont aussi démontré que cette transformation de la perception du son est essentielle pour associer le son perçu à une action, par exemple un geste pour obtenir une récompense. Pour cela, ils ont utilisé l’optogénétique, une technique permettant de rendre photosensible les neurones d’une zone du cerveau et ainsi d’activer cette zone de façon très précise en l’éclairant avec des motifs lumineux.

Cette technique a permis de montrer qu’il était aisé pour le cerveau d’associer l’activation de divers groupes de neurones à des décisions comportementales distinctes, mais qu’il était très difficile d’associer précisément des séquences temporelles d’activité neuronale à des décisions distinctes.

 

Dans cette étude, les transformations de l’information auditive réalisées par le cerveau ont été comparées à celles réalisées par l’intelligence artificielle.

Les auteurs ont montré que les programmes d’intelligence artificielle capables de reconnaitre des mots et des catégories de sons construisent des transformations de l’information auditive très similaires à celles observées dans le cerveau.

 

Ces résultats permettent d’établir un principe fondamental du traitement de l’information sensorielle qui, partagé entre le cerveau et les programmes d’intelligence artificielle, pourra être utilisé pour de nouvelles applications de restauration sensorielle chez des patients atteints de surdité, notamment pour les recherches sur les implants corticaux.


 

Bagur S, Bourg J, Kempf A, Tarpin T, Bergaoui K, Guo Y, Ceballo S, Schwenkgrub J, Verdier A, Puel JL, Bourien J, Bathellier B. A spatial code for temporal information is necessary for efficient sensory learning. Sci Adv. 2025 Jan 10;11(2):eadr6214. doi: 10.1126/sciadv.adr6214. Epub 2025 Jan 8. PMID: 39772691; PMCID: PMC11708902.

bottom of page