« Neurosciences/Le codage neuronal » : différence entre les versions
Contenu supprimé Contenu ajouté
corrections |
Corrections |
||
Ligne 88 :
===Les codages denses et épars===
Au vu des expériences mentionnées plus haut, on peut se demander combien de neurones il faut pour coder un concept, un percept ou toute autre unité d'information. Diverses sensibilités s'affrontent sur le sujet et on peut distinguer deux grands types de codes neuraux à cet égard : le codage épars et le codage dense. Avec le '''codage dense''', une information est représentée par l'activation d'un grand nombre de neurones, plusieurs milliers au minimum. Avec le '''codage épars''' (''sparse coding''), une unité d'information est représentée par l'activation d'un faible nombre de neurones, de quelques neurones à quelques dizaines de milliers de neurones tout au plus. Un codage épars s’accommode fort bien avec une forte sélectivité des neurones. Si les neurones répondent à un nombre restreint de stimulus, alors le codage épars est assez efficient.
[[File:Grandmother Cell.jpg|vignette|Théorie de la cellule grand-mère. On aurait un neurone spécifique à Jennifer Anniston, aux polyèdres, etc.]]
Le cas le plus extrême de codage épars est celui où un neurone code pour une information et seulement celle-ci. L'idée comme quoi un seul neurone code pour un concept ou une unité d'information est cependant assez peu probable. L'idée est d'ailleurs appelée humoristiquement la '''théorie du neurone grand-mère''', la boutade étant qu'on aurait un neurone pour le concept de "grand-mère". La théorie exacte est plus compliquée que cela, mais cette description simplifiée n'est pas si fausse. Pour faire moins simple, le cerveau aurait une organisation hiérarchique, en forme d'arbre hiérarchique. Les neurones en bas de l'échelle coderaient des propriétés sensorielles simples, alors que ceux tout en haut coderaient des concepts abstraits. Plus on monte dans la hiérarchie, plus les propriétés sont assemblées pour coder des stimulus de plus en plus complexes et abstraits. Par exemple,
Un autre cas moins extrême, mais tout aussi irréaliste, est celui des '''codages locaux''' (un terme utilisé avec plusieurs sens en neuroscience, faites attention). Avec ces codages, une information est représentée par un petit groupe de quelques neurones hautement sélectifs. Par hautement sélectifs, on veut dire que chaque neurone de l'ensemble ne s'active pour l'information codée et pour aucune autre. Deux informations différentes ne partagent pas le moindre neurone commun. Ce faisant, il n'y a pas d'interférences entre informations, qui sont physiquement séparées dans le cerveau. Mais le défaut de ce codage est qu'il a une capacité de stockage limitée : avec N neurones, on peut coder N informations au maximum. La mémoire a donc une capacité assez limitée. Un autre défaut est que ce tels codages ne permettent pas la généralisation des connaissances acquises. Toute connaissance est distincte des autres dans le cerveau et les associations formées entre deux connaissances ne se généralisent pas à d'autres connaissances reliées. Évidemment, ces deux propriétés ne sont pas franchement intuitives, surtout au vu de ce que l'on sait de la mémoire.
En réalité, l'engramme n'est pas qu'un seul neurone, mais un réseau de neurones qui code aussi pour d'autres concepts similaires. Par exemple, si on prend le réseau
===Les codages locaux et distribués===
Ligne 104 :
===Les codages indépendants et à corrélation===
En 1986, Georgopoulos proposa le premier modèle de codage de population,
Ce modèle, très simple, a été un pas en avant assez important dans l'étude du domaine. Mais il était assez limité sur de nombreux points. Le premier est que la fonction utilisée pour combiner les influx nerveux est particulièrement simple, trop simple pour être réaliste. Mais c'est une approximation qui peut se défendre. La seconde est que chaque neurone répond à un stimulus indépendamment des autres. Tous les neurones sont indépendants et ne sont pas connectés entre eux. Combiner leurs influx nerveux de sortie est alors assez facile. Un tel codage est appelé un '''codage indépendant'''. Mais un tel codage n'est pas la panacée : on a observé de nombreuses situations où un tel codage échoue. Quand les neurones sont interconnectés, ils s'influencent mutuellement et leurs réponses ne sont plus indépendantes. Par exemple
==En savoir plus==
|