« Neurosciences/Le codage neuronal » : différence entre les versions

Contenu supprimé Contenu ajouté
corrections
Corrections
Ligne 88 :
===Les codages denses et épars===
 
Au vu des expériences mentionnées plus haut, on peut se demander combien de neurones il faut pour coder un concept, un percept ou toute autre unité d'information. Diverses sensibilités s'affrontent sur le sujet et on peut distinguer deux grands types de codes neuraux à cet égard : le codage épars et le codage dense. Avec le '''codage dense''', une information est représentée par l'activation d'un grand nombre de neurones, plusieurs milliers au minimum. Avec le '''codage épars''' (''sparse coding''), une unité d'information est représentée par l'activation d'un faible nombre de neurones, de quelques neurones à quelques dizaines de milliers de neurones tout au plus. Un codage épars s’accommode fort bien avec une forte sélectivité des neurones. Si les neurones répondent à un nombre restreint de stimulus, alors le codage épars est assez efficient. AÀ l'inverse, si les neurones sont peu sélectifs, le codage épars marche bien moins bien que le codage dense. Le codage épars a l'avantage d'être économe énergétiquement. Seul un petit nombre de neurones est activé, ce qui signifie que le cerveau n'a pas à dépenser beaucoup d'énergie en potentiels d'action. AÀ l'inverse, un codage dense a le désavantage de dépenser beaucoup d'énergie pour activer les nombreux neurones nécessaires. Reste à savoir ce que l'évolution a choisi...
 
[[File:Grandmother Cell.jpg|vignette|Théorie de la cellule grand-mère. On aurait un neurone spécifique à Jennifer Anniston, aux polyèdres, etc.]]
 
Le cas le plus extrême de codage épars est celui où un neurone code pour une information et seulement celle-ci. L'idée comme quoi un seul neurone code pour un concept ou une unité d'information est cependant assez peu probable. L'idée est d'ailleurs appelée humoristiquement la '''théorie du neurone grand-mère''', la boutade étant qu'on aurait un neurone pour le concept de "grand-mère". La théorie exacte est plus compliquée que cela, mais cette description simplifiée n'est pas si fausse. Pour faire moins simple, le cerveau aurait une organisation hiérarchique, en forme d'arbre hiérarchique. Les neurones en bas de l'échelle coderaient des propriétés sensorielles simples, alors que ceux tout en haut coderaient des concepts abstraits. Plus on monte dans la hiérarchie, plus les propriétés sont assemblées pour coder des stimulus de plus en plus complexes et abstraits. Par exemple, telletel ensemble de stimulus serait assemblé pour coder des formes, qui seraient elle-mêmes assemblées en représentationreprésentations visuelles d'objets, qui seraient combinées avec d'autres représentations sensorielles pour donner des concepts abstraits, et ainsi de suite.
 
Un autre cas moins extrême, mais tout aussi irréaliste, est celui des '''codages locaux''' (un terme utilisé avec plusieurs sens en neuroscience, faites attention). Avec ces codages, une information est représentée par un petit groupe de quelques neurones hautement sélectifs. Par hautement sélectifs, on veut dire que chaque neurone de l'ensemble ne s'active pour l'information codée et pour aucune autre. Deux informations différentes ne partagent pas le moindre neurone commun. Ce faisant, il n'y a pas d'interférences entre informations, qui sont physiquement séparées dans le cerveau. Mais le défaut de ce codage est qu'il a une capacité de stockage limitée : avec N neurones, on peut coder N informations au maximum. La mémoire a donc une capacité assez limitée. Un autre défaut est que ce tels codages ne permettent pas la généralisation des connaissances acquises. Toute connaissance est distincte des autres dans le cerveau et les associations formées entre deux connaissances ne se généralisent pas à d'autres connaissances reliées. Évidemment, ces deux propriétés ne sont pas franchement intuitives, surtout au vu de ce que l'on sait de la mémoire.
 
En réalité, l'engramme n'est pas qu'un seul neurone, mais un réseau de neurones qui code aussi pour d'autres concepts similaires. Par exemple, si on prend le réseau dedes neurones qui répondent au concept "chat", certains de ces neurones font partie d'un autre réseau qui code le concept de mammifère, d'autres font partie du réseau du concept "mignon", etc. Ce codage est assez efficient, dans le sens où des concepts semblables qui partagent des points communs, vont partager un même réseau neuronal. En clair, tout concept est représenté par un réseau de neurones, l'ensemble des neurones activés étant petit pour le codage épars, grand pour le codage dense.
 
===Les codages locaux et distribués===
Ligne 104 :
===Les codages indépendants et à corrélation===
 
En 1986, Georgopoulos proposa le premier modèle de codage de population, appeléeappelé le '''codage de population vectoriel''' (''population vector model'' en anglais). Son article portait sur les neurones du cortex moteur primaire, une région du cerveau qui se charge de la gestion des mouvements. Le but de ce chercheur était de créer un modèle qui rende compte d'observations physiologiques sur ces neurones. Dans son modèle, la direction d'un mouvement était décidée par une assemblée de neurones. Les neurones en question sont supposés utiliser un codage de fréquence pour encoder leur information individuelle. Chaque neurone est censé avoir une sélectivité pour une direction précise : il émettrait un influx nerveux de fréquence maximale pour cette direction, mais la fréquence chute rapidement quand la direction s'en éloigne. Le modèle explique comment les influx nerveux de tous ces neurones sont combinés pour donner la direction finale. Dans once modèle, la direction finale est la moyenne pondérée des directions de tous les neurones, les coefficients de pondérations étant la fréquence de décharge de chaque neurone.
 
Ce modèle, très simple, a été un pas en avant assez important dans l'étude du domaine. Mais il était assez limité sur de nombreux points. Le premier est que la fonction utilisée pour combiner les influx nerveux est particulièrement simple, trop simple pour être réaliste. Mais c'est une approximation qui peut se défendre. La seconde est que chaque neurone répond à un stimulus indépendamment des autres. Tous les neurones sont indépendants et ne sont pas connectés entre eux. Combiner leurs influx nerveux de sortie est alors assez facile. Un tel codage est appelé un '''codage indépendant'''. Mais un tel codage n'est pas la panacée : on a observé de nombreuses situations où un tel codage échoue. Quand les neurones sont interconnectés, ils s'influencent mutuellement et leurs réponses ne sont plus indépendantes. Par exemple , ils peuvent synchroniser leurs influx nerveux et générer des oscillations périodiques. Tout cela pour dire que les codagecodages indépendants ne tiennent pas compte de ce genre de phénomènesphénomène. Pour le faire, il faut utiliser des '''codages à corrélation''', qui tiennent compte de la structure des réseaux de neurones et des influences réciproques entre neurones.
 
==En savoir plus==