• Aucun résultat trouvé

Le découpage anatomique n’est pas le seul possible. Depuis plus d’un siècle, grâce à des cas cliniques comme celui de Phineas Gage (Harlow 1848, puis décrit à nouveau par Damasio et coll. 1994) et aux premières découvertes de Broca (1861), nous savons que certaines régions du cortex sont majoritairement impliquées dans certaines fonctions cognitives. En étudiant les déficits cognitifs provoqués par des lésions cérébrales, et avec les apports plus récents de la neuroimagerie fonctionnelle qui permet d’observer le cerveau en activité, une carte sommaire de la localisation de certaines grandes fonctions a pu être établie (voir figure 1.10).

Ce découpage fait apparaître des aires dites primaires qui sont les premières aires en contact avec le système nerveux périphérique, autrement dit, avec l’en- vironnement. Une caractéristique majeure de ces aires est qu’elles présentent une structure topique, c’est à dire une structure fonctionnelle organisée en rapport avec les caractéristiques physiques des stimuli traités. Les cortex moteur et somatosen- soriel primaires, par exemple, sont organisés de façon somatotopique, dans le sens où chaque partie du corps va activer une population bien précise dont la position sur le cortex est en relation avec la position dans le corps de la partie considé- rée (Walshe 1948, Penfield et Rasmussen 1950). La figure 1.11 permet de visualiser cette somatotopie par le biais des homoncules, dont les parties du corps sont repré- sentées proportionnellement à la taille du cortex (somatosensoriel ou moteur) qui leur est consacrée. On va aussi retrouver une organisation topique dans le cortex auditif primaire, la tonotopie : des neurones répondant à des fréquences proches sont eux-mêmes proches sur le cortex (Ardila 1993). De même, il existe une réti- notopie du cortex visuel primaire où les neurones sont organisés spatialement en fonction de la position sur la rétine à laquelle ils réagissent le plus (Rosa 2002). Le cas de l’aire visuelle primaire est intéressant car il a été étudié de manière exten- sive chez l’animal, et en particulier chez le chat, dont le système visuel est un assez bon modèle du nôtre. Hubel et Wiesel (1962) ont ainsi montré qu’en plus de la ré- tinotopie, les neurones répondent de manière sélective en fonction de l’orientation d’un stimulus visuel, en l’occurrence il s’agissait de lignes parallèles orientées selon des angles divers qui traversaient le champ visuel. Ces mêmes neurones réagissent aussi différemment selon que le stimulus est dans la moitié droite ou gauche du champ visuel (on parle d’hémichamp droit ou gauche). Les très nombreuses mesures

1.2. Les modèles du cerveau 33

#3+3..!*/-,!./*/!*(!(*'!+&%$3.(*$.%!'.!(*!%*!"%!'.!()*/3.#*/!(*,'3,'$-%-(*/!*(!(*#34#6!(C*

D.!*&$'!*&.&%30$B4!*!(%*4.*'-(!&4*/!*#3+3..!(*#3'%$#&+!(C*E&*23.#%$3.*$0,+-0!.%-!*,&'*4.*'-(!&4*

/-,!./* F* +&* 23$(* /!* +&* %3,3+3?$!* /4* '-(!&4)* !%* /!(* ,'3,'$-%-(* 23.#%$3..!++!(* /!(* -+-0!.%(* B4$* +!*

#3.(%$%4!.%C* G&'* #3.(-B4!.%)* ($* +!(* 23.#%$3.(* /!(* #3+3..!(* #3'%$#&+!(* 5&'$!.%* (4$5&.%* +!4'(*

#&'&#%-'$(%$B4!(* &.&%30$B4!()* &+3'(* 3.* ,!4%* 2&$'!* +16H,3%6I(!* B4!* +!(* 23.#%$3.(* /1&$'!(* #-'-7'&+!(*

&H&.%* /!(* #H%3&'#6$%!#%4'!(* /$22-'!.%!(* 5&'$!.%* -?&+!0!.%C* J!* 0K0!* ,34'* +!(* (%'4#%4'!(* (34(L

#3'%$#&+!()*/3.%*+!(*.!4'3.!(*,'-(!.%!.%*-?&+!0!.%*/!(*/$22-'!.#!(*/13'/'!*&.&%30$B4!C*

!"#"!"

$%&'()*+,-.'/&01'//,2-

E!(*-%4/!(*!.*&#%$5&%$3.*M#C2C*,&'&?'&,6!*NC@O)*B4$*(3.%*5!.4!(*#30,+-%!'*+!(*-%4/!(*&.&%30$B4!()*

3.%*-%-*4%$+$(-!(*,34'*5&+$/!'*#!%%!*6H,3%6I(!)*!.*,!'0!%%&.%*4.*/-#34,&?!*23.#%$3..!+*,&'%$!+*/4*

#3'%!"* #-'-7'&+C* P!* /-#34,&?!* %!.%!* /1&((3#$!'* /!(* '-?$3.(* F* /!(* 23.#%$3.(* #3?.$%$5!(* 34*

(!.(3'$03%'$#!(*(,-#$2$B4!(C*E!(*'-?$3.(*23.#%$3..!++!(*,!45!.%*/$22-'!'*/!(*'-?$3.(*37%!.4!(*,&'*

4.*/-#34,&?!*,4'!0!.%*&.&%30$B4!*8Q!(4+&0*:;RA*%!+(*B4!*#!+4$*/!*9'3/0&..C*D.!*/!(*'&$(3.(*!(%*

B41$+*.1!(%*,&(*,3(($7+!*/!*,'!./'!*!.*#30,%!*%34%!(*+!(*/$22-'!.#!(*,6H($B4!(*8S3+&./*T*U$++!(*:;VA*

+3'(* /4* /-#34,&?!* &.&%30$B4!* M(!4+!* +&* #H%3&'#6$%!#%4'!* !(%* #3.($/-'-!* /&.(* +!* #&(* /!(* &$'!(* /!*

9'3/0&..OC*J!*#!*2&$%)*+!(*2'3.%$I'!(*23.#%$3..!++!(*(3.%*$0,'-#$(!()*/1&4%&.%*,+4(*B4!*+!*/-#34,&?!*

&.&%30$B4!* !(%* +4$L0K0!* (340$(* &4"* 5&'$&%$3.(* &.&%30$B4!(* /4* #3'%!"* !"$(%&.%* /14.* $./$5$/4* F*

+1&4%'!C**

*

NN

*

W$?4'!*XC<CY*Z*/-#34,&?!*23.#%$3..!+*/4*#3'%!"*#-'-7'&+C* !"#$%&' (#)*#"+$,- !"#$%&'."$%/#' ,00"12,$2* !"#$%&'."$%/#' (#2.,2#% !"#$%&',/32$2*' (#2.,2#% !"#$%&',/32$2*' ,00"12,$2* !"#$%&' ,00"12,$2*' !"#$%&'420/%-' ,00"12,$2*' !"#$%&'420/%-' (#2.,2#%' !"#$%&'0".,$"5 0%+02$2*',00"12,$2*' !"#$%&'0".,$"5 0%+02$2*'(#2.,2#%'

Fig. 1.10 – Découpage en aires fonctionnelles du cortex cérébral

ParOrteilsties génitales PiedJambe Hanche T

ronc Cou Tête Epaule Br as Coude Avan t-br as Poig net Main Auriculair e Annulair e Doigts MajeurIndex Pouc e Oeil

A Homoncule sensoriel B Homoncule moteur

Médiale Latérale Médiale Latérale

Nez

Visage

Lèvre supérieure Lèvre inférieure

Dents, gencives, palais Langue Pharynx Intra-abdominal Or teils Cheville Genou Hanche Tronc Epaule Coude Poig

net Main Auriculair e Annulair e Doigts MajeurIndex Pouc e Cou Sourcil

Paupière et globe oculair

e Visage Lèvres Mâchoire Langue Déglutition (Mastica tion) (Saliv ation) Vocalisa tion

Fig. 1.11 – Visualisation de la somatotopie. (A) Les parties du corps humain sont représentées, d’une part à la position qui leur correspond dans le cortex somatosensoriel, et d’autre part, avec une taille proportionnelle à la taille du cortex qui leur est consacré. (B) idem mais pour le cortex moteur.

Fig. 1.12 – (A) Carte de V1 représentant les neurones dans des couleurs correspondant à leur orientation préférée. L’organisation en disques couvrant toutes les orientations est visible. (B) Carte de dominance oculaire où les neurones sélectifs pour l’hémichamp droit sont en foncé et ceux sélectif pour l’hémichamp gauche sont en clair. La légende à droite donne l’orientation de l’image par rapport au reste du crâne (A : antérieur, P : postérieur, L : latéral, M : médian). Ces deux cartes sont superposables et les centres des disques se trouvent approximativement au milieu des bandes de dominance oculaire. Figure adaptée de Hubel et Wiesel (1962)

effectuées ont permis de dresser une carte fonctionnelle de V1 (fig.1.12) où les neu- rones sont représentés dans une couleur correspondant à leur orientation préférée. Il est frappant de voir que les neurones s’organisent spontanément en disques qui couvrent l’ensemble des orientations. Quant à la sélectivité à l’hémichamp, elle permet de dresser une autre carte fonctionnelle, où des bandes alternées de sélec- tivité à droite puis à gauche se succèdent. Ces deux cartes, une fois superposées, montrent que les centres des disques se trouvent sensiblement au milieu de ces bandes.

On voit bien l’importance de l’information traitée même au niveau de l’orga- nisation neuronale, ce qui exclut a priori une caractérisation purement anatomique des groupes de neurones. La structure et la fonction sont toujours intimement liées. Après traitement dans les aires primaires, l’information circule vers les aires as- sociatives. C’est dans ces aires que les intégrations multi-modale et multi-sensorielle vont se faire. Bien que l’organisation topique y soit moins nette, elle semble exister (Alexander et coll. 1992), mais elle est aussi probablement plus complexe et donc moins facile à observer expérimentalement (Rosa 2002). Il est à noter que les aires primaires sont aussi parfois directement interconnectées (Falchier et coll. 2002), suggérant une intégration multi-modale précoce. Les aires associatives constituent la plus grande partie du cortex chez l’humain et les traitements qu’elles effec- tuent peuvent être extrêmement variés. Le cortex pariétal postérieur, par exemple, construit la représentation spatiale d’un objet en intégrant toutes les modalités (An- dersen et coll. 1997, Bremmer et coll. 2001). Les aires associatives peuvent aussi intégrer des informations ne provenant que d’une seule modalité pour construire des représentations plus évoluées. Le traitement visuel, par exemple, s’effectue de manière hiérarchique : les populations recevant directement l’information prove- nant de la rétine ne traitent qu’une petite partie du champ visuel (organisation rétinotopique), mais au fur et à mesure des traitements, les populations élargissent leur zone de sensibilité (on parle de champ récepteur) jusqu’à construire une repré- sentation des objets présents sur l’ensemble du champ visuel.

Notons aussi que les connexions entre aires primaires et associatives ne sont pas unidirectionnelles, mais qu’il existe des liaisons dites en feedback, c’est-à-dire que le traitement effectué au niveau des aires associatives peut avoir des répercus- sions sur les aires primaires, en venant par exemple renforcer un percept devenu dominant (Hupe et coll. 1998, Roelfsema et coll. 1998).

des aires associatives mais aussi, massivement, des structures sous-corticales. Ces dernières peuvent avoir des rôles très variés dans la perception et l’expression des émotions, la liaison avec le système nerveux autonome, la production de neuro- transmetteurs, etc. , ce qui permet aux aires préfrontales de traiter plusieurs types de tâches fondamentales : la planification et la gestion de la temporalité dans l’ac- tion, le contrôle cognitif des émotions, le raisonnement abstrait, etc.

1.2.3.4 Architecture en réseaux

Cependant cette association entre aires cérébrales et tâches cognitives ne doit pas faire perdre de vue que leur fonctionnement passe nécessairement par une distribution en réseaux complexes et entrecroisés. Ainsi par exemple, les struc- tures sous-corticales sont souvent considérées comme permettant la modification dynamique de ces réseaux en fonction du contexte, par le biais d’une succession d’inhibitions ciblées (O’Reilly 2006). Ou encore, comme nous l’avons déjà men- tionné au paragraphe précédent, par le biais de liaisons rétrogrades ou feedback, un jeu de renforcements successifs peut se mettre en place entre les aires primaires et associatives. Ceci a de multiples avantages par rapport à un traitement purement hiérarchique : (i) la représentation de haut niveau d’un objet peut s’appuyer sur des éléments très succincts et imprécis, ce qui a pour effet de considérablement accélérer le traitement (Kirchner et Thorpe 2006) ; (ii) de plus, lorsque l’interpréta- tion des stimuli est ambiguë ou demande une attention plus soutenue aux détails, les liaisons rétrogrades permettent l’activation plus ciblée et donc plus efficace des aires primaires (van der Velde et de Kamps 2001, Motter 1993, Deco et Rolls 2005). Ce type de fonctionnement distribué est très flexible et permet l’implication d’une population dans de nombreux réseaux. Mais cela rend la tâche d’identification du rôle fonctionnel d’une population au mieux difficile, au pire illusoire.

1.2.3.5 Modèles

Lorsqu’on parle de modèles de populations neuronales, il est utile de faire une distinction entre ceux issus des modèles de neurones individuels qui cherchent donc à «re-générer» le comportement des populations, et ceux qui abordent la population comme un tout et donc qui reproduisent le comportement observé. Dans les deux cas, les techniques expérimentales de validation ne sont pas les mêmes.

Du neurone à la population. Dans ce premier cas, ce sont des modèles provenant de la neurophysiologie et s’appuyant sur des enregistrements de neurones chez l’animal qui sont utilisés. Le principe est de partir de modèles détaillés du neurone comme ceux évoqués dans la section 1.2.2.4 et de calculer mathématiquement la dynamique de ces modèles lorsqu’un très grand nombre de neurones sont mis en réseau. Au prix en général de quelques hypothèses simplificatrices, on peut décrire cette dynamique analytiquement avec le très grand avantage de s’appuyer sur des données expérimentales solides et donc de pouvoir contraindre précisément les paramètres des équations générées. Le plus connu de ces modèles est probable- ment celui proposé par Wilson et Cowan (1972) et développé par Amit et Tsodyks (1991a;b) et Abbott (1994). Il décrit la dynamique d’une population en termes de fréquence de décharge, mais pour obtenir cela, seules deux échelles de temps sont considérées. En effet, ce qui rend la modélisation des populations de neurones si complexe, c’est la très grande variété des dynamiques intervenant simultanément, chacune avec sa propre échelle de temps. En en négligeant la plupart pour ne conserver que celles gouvernant, d’une part, la génération des potentiels d’action et, d’autre part, l’intégration synaptique, on peut caractériser la dynamique d’une population homogène5

de neurones au moyen de deux équations différentielles du premier ordre (pour la dérivation complète de ces équations : voir annexe) :

τsdS

dt = −S+w·u (1.4)

τrdr

dt = −r+F(S(t)) (1.5)

où S est le courant synaptique total entrant dans la population et τs caractérise la

vitesse avec laquelle il atteint un état stationnaire après une fluctuation des cou- rants extérieurs u (la notation en caractère gras indiquant qu’il s’agit d’un vecteur).

w dénote le vecteur des poids accordés à chacun des courants en entrée. r est la fréquence de décharge, qui atteint un état stationnaire en τr suite à une fluctua-

tion de S. F est la fonction d’activation qui caractérise la réaction de la population à un courant en entrée. En général, il s’agit d’une fonction à seuil, saturant au- delà d’une valeur maximum, comme la sigmoïde (ou son approximation linéaire par morceaux si la dérivation de F n’est pas un problème) représentée sur la fi- gure 1.13. Cette modélisation a le grand avantage d’être simple à mettre en place

5

Plus les neurones qui composent la population sont semblables en termes de dynamique, plus l’hypothèse sous-jacente à la modélisation par fréquence de décharge est valable.

0 0 ,2 5 0 ,5 0 ,7 5 1 1 ,2 5 1 ,5 1 ,7 5 2 0 0,25 0,5 0,75 1 0 0 1

Fig. 1.13 – Fonction sigmoïde et son approximation par une fonction linéaire par morceaux. Elle a pour expression analytique y = c/(1+e−a(x−b))où a détermine la pente (a = 10 sur la figure), b est l’abscisse du centre de symétrie (ici b = 1) et où c est le gain (c = 1). L’approximation par morceaux a pour équation y=max(min(c,a.c4(x+2a−b)), 0).

dans le cadre de réseaux à grande échelle. Elle a été utilisée avec succès dans la modélisation de nombreux réseaux du système visuel (Pouget et Sejnowski 1995; 1997), mais aussi pour l’étude des réseaux récurrents (Abbott 1994), pour la modé- lisation de la mémoire de travail caractérisée par une activation prolongée dans le temps des populations neuronales (modélisation par Compte et coll. 2000 d’après les observations résumées par Goldman-Rakic 1995), et plus généralement pour l’étude de la stabilité et des attracteurs des réseaux récurrents (Rinzel et Ermen- trout 1998). Un formalisme plus récent, appelé analyse «mean-field», développé par Amit et Brunel (1997), Brunel et Sergi (1998) et généralisé par Brunel et Wang (2001), met en relation de façon bien plus précise la fréquence de décharge d’une population avec les paramètres caractérisant les neurones individuels, en particu- lier ceux gouvernant la dynamique des différents courants synaptiques. La philo- sophie derrière est cependant bien différente puisque cette méthode est appliquée dans le cadre de la simulation de très grands réseaux de neurones de type leaky integrate and fire. Comme le choix des paramètres impliqués dans ces simulations ne peut pas toujours être contraint par des données expérimentales, une modé- lisation de la dynamique du réseau dans un état stationnaire est faite au moyen du formalisme «mean-field». Une fois les équations déterminées, on fait ce qu’on appelle une analyse des bifurcations, qui consiste à séparer l’espace des paramètres en plusieurs régions où le réseau se comporte de manières différentes (oscillations régulières ou irrégulières, synchronisation des neurones ou, au contraire, asynchro-

nie, etc). On sélectionne alors le comportement du réseau désiré, ce qui contraint les paramètres qui peuvent être ré-injectés dans la simulation dynamique (par op- position à stationnaire). La démarche est résumée dans la figure 1.14. On voit bien qu’à la différence du formalisme précédent, il ne s’agit pas de simuler un réseau au moyen des fréquences de décharge mais bien de déterminer les paramètres d’une simulation de neurones émettant des PA.

Le codage par population. Les courbes de sélectivité des neurones caractérisent

en partie la manière dont un neurone seul code l’information. La courbe permet une estimation partielle de la valeur du stimulus traité en fonction de la fréquence de décharge. En raisonnant à l’échelle des populations, il est possible d’aller plus loin en complexifiant la quantité d’information qui peut être encodée. Ainsi, dans le cadre des neurones du cortex moteur primaire, Georgopoulos et coll. (1986; 1988) utilise le vecteur de population, caractérisant l’activation d’une population de N neu- rones i dont la direction de mouvement préférée est pointée par le vecteur vi, et

qui est défini par :

vpop = N

i=1  r−r0 rmax  i .vi (1.6) oùr−r0 rmax 

i désigne la fréquence de décharge du neurone i, relative à sa fréquence

de décharge maximum rmax et sa fréquence de décharge au repos r0. Il a été mon-

tré qu’en moyenne, si N est suffisamment grand et si les directions préférées sont uniformément réparties dans toutes les directions, le vecteur de population poin- tera dans la direction du mouvement effectué : la population code la direction du mouvement. Cette méthode de décodage a été utilisée dans de nombreuses études, parmi lesquelles Humphrey et coll. (1970), Van Gisbergen et coll. (1987), Lee et coll. (1988).

Il est intéressant de constater que, dans le formalisme du vecteur de popula- tion, l’information n’est pas codée par la fréquence de décharge d’un neurone en particulier au sein d’une population mais bien par la répartition des activités des neurones dans la population. Cette représentation est robuste et permet à un même neurone de contribuer à la représentation de plusieurs valeurs d’un même attribut sans que sa contribution ne soit cruciale. Le taux de perte des cellules neuronales exclut en effet toute représentation de l’information qui s’appuierait sur des neu- rones isolés. La redondance doit assurer la robustesse du code neuronal. Cepen-

non-stationnaire

choix des paramètres

stationnaire

Modèle de neurone LIF incluant les différentes dynamiques synaptiques

Décomposition en po- pulations homogènes et modélisation «mean- field» des fréquences de décharge

Simulation complète avec dynamique des PA

Diagramme de bifurcation

Dynamique 1 Dynamique 2

Dynamique 3 Espace des paramètres

Fig. 1.14 – L’approche «mean-field» : partant d’une simulation d’un grand réseau de neurones LIF dont on veut étudier la dynamique, on simplifie d’abord l’analyse par le biais d’une analyse «mean-field». Cela permet, après une analyse des bifurcations, de trouver un jeu de paramètres cor- respondant à la dynamique désirée. On utilise ensuite les paramètres ainsi trouvés dans la simulation complète.

dant, la fréquence de décharge de la population donne aussi une information qui n’est pas prise en compte par le vecteur de population. Koechlin et Burnod (1996), Koechlin et coll. (1996) proposent une représentation duale de l’information au sein d’une population, qui prend en compte à la fois la répartition des activités des neurones et l’activation globale de la population qui encode la pertinence de la représentation distribuée.

Finalement, le vecteur de population est défini pour des neurones dont les courbes de sélectivité sont approchées par des fonctions cosinus. Ce n’est pas le cas général comme il a été vu. Pouget et Sejnowski (1995; 1997) généralisent ce modèle en s’appuyant sur la décomposition d’une fonction dans une base de fonc- tions. Ce principe mathématique permet d’approcher avec une précision arbitraire une fonction quelconque par une combinaison linéaire de fonctions particulières. Les fonctions cosinus et sinus permettent de définir une telle base (il s’agit alors d’une décomposition de Fourier), mais il en est de même pour les fonctions gaussiennes et sigmoïdes. L’intérêt de cette approche est qu’on utilise cette fois l’intégralité de la courbe de sélectivité, non-linéarité incluse, sans se limiter à la valeur préférée. Cette approche englobe dans un même formalisme le codage par vecteur, le codage dual et l’élargit à des populations de neurones dont les courbes ne sont pas des cosinus.

A la lumière de ces considérations, lorsqu’il s’agit de représenter la dynamique de l’activation des populations dans un réseau, représenter cette activation comme l’intégrale des fréquences de décharge des neurones qui la composent n’est pas suffisant pour pouvoir introduire la sélectivité de cette population à l’information. Ben-Yishai et coll. (1995) et Pouget et Sejnowski (1995; 1997) proposent des modi- fications du modèle décrit par les équations 1.4 et 1.5 où les poids attribués aux activations reçues par une population (le vecteur w) dépendent de la sélectivité. Ces modèles modulent donc l’activation d’une population en fonction de la na- ture de l’information qu’elle traite à ce moment. La sélectivité de la population est caractérisée à partir de la sélectivité des neurones individuels, par le biais d’une intégrale.

La neuroimagerie synthétique. Un objectif logique de la simulation d’un grand

nombre de neurones serait de pouvoir reproduire les activations observées en IRMf. En effet, le signal BOLD (blood-oxygen-level dependent, dépendant du taux d’oxygène dans le sang) qui est mesuré par l’IRMf est une mesure indirecte de l’activité des neurones. Lorsqu’ils émettent des PA, les neurones consomment de l’énergie qui est renouvelée par la consommation locale d’oxygène dans le sang. En réaction, la teneur en oxygène est restaurée par une augmentation locale du débit sanguin. C’est cette teneur en oxygène locale qui est mesurée par l’intermédiaire du signal BOLD (Sabbah et coll. 1995). En revanche, si la précision spatiale de la détection du signal est satisfaisante, la précision temporelle, c’est-à-dire l’adéqua- tion entre le moment précis de l’activation neuronale et le moment où on peut observer le signal BOLD, n’est pas très bonne. On appelle réponse hémodynamique la courbe suivie par le signal BOLD après une activation neuronale (voir figure 1.15). On peut voir sur la figure que, là où l’échelle de temps d’une activation neu- ronale se compte en milli-secondes, la réponse hémodynamique se mesure plutôt