• Aucun résultat trouvé

Modélisation du traitement de l'information cérébrale dans les réseaux à grande échelle : une approche fondée sur la similarité et la logique floue

N/A
N/A
Protected

Academic year: 2021

Partager "Modélisation du traitement de l'information cérébrale dans les réseaux à grande échelle : une approche fondée sur la similarité et la logique floue"

Copied!
238
0
0

Texte intégral

(1)

THESE

THESE

En vue de l'obtention du

DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE

DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE

Délivré par l'Université Toulouse III - Paul Sabatier Discipline ou spécialité : Intelligence Artificielle

JURY

Sylvie Galichet, Rapporteur Frédéric Alexandre, Rapporteur

Etienne Koechlin, Rapporteur Claudette Cayrol, Examinateur Jean-Philippe Ranjeva, Examinateur

Josette Pastor, Directeur Henri Prade, Directeur

Ecole doctorale : MITT

Unité de recherche : Inserm U825/IRIT

Directeur(s) de Thèse : Josette Pastor (Directeur), Henri Prade (Co-directeur) Rapporteurs :

Présentée et soutenue par Julien ERNY Le 19 Décembre 2008

Titre : Modélisation Du Traitement De l'Information

Cérébrale Dans Les Réseaux À Grande Échelle : Une Approche Fondée Sur La Similarité Et

(2)
(3)

Avant toute chose, un immense merci à Josette Pastor et Henri Prade pour m’avoir dirigé et soutenu tout au long de ces quatre années, et ce malgré les épreuves. Merci de votre confiance et de votre amitié, j’espère m’en montrer digne.

Je tenais aussi à remercier chaleureusement :

Frédéric Alexandre, Sylvie Galichet et Etienne Koechlin pour avoir accepté d’être mes rapporteurs, pour l’intérêt dont ils ont fait preuve pour mon travail, et pour avoir fait le déplacement jusque Toulouse.

Claudette Cayrol et Jean-Philippe Ranjeva pour avoir eu la gentillesse d’exami-ner mon travail et d’assister à mon jury.

Mes plus profondes amitiés vont aussi aux membres de l’unité U825. Les nommer tous me fait prendre le risque d’en oublier certains, j’espère qu’il me le pardonne-ront :

Les directeurs successifs de l’U825, François Cholet et Pierre Celsis, pour m’avoir accueilli au sein du laboratoire.

Jean-François Démonet, pour m’avoir accueilli au sein de l’équipe 2 et pour ses anecdotes à l’heure du repas, toujours intéressantes bien que malheureusement trop rares.

Irène Delcroix pour son professionnalisme sans faille et sa personnalité sans concession. Son départ à la retraite a laissé un grand vide dans l’unité.

Nicolas Chauveau, Gérard Viallard, Hélène Gros, Isabelle Loubinoux, Florent Aubry et Kader Boulanouar pour leurs remarques avisées et conseils précieux.

L’ensemble des étudiants de l’unité : présents, partis, sur le départ, fraîchement arrivés, vous avez animés mes quatre années à l’unité bien plus que n’aurais pu l’espérer.

Merci à l’hôpital Purpan qui, par sa (non) politique de restauration, nous a 3

(4)

Un grand merci aussi à tous les amis de Toulouse et d’ailleurs. See you soon at the De Danù !

Mes pensées vont aussi bien-sûr vers ma famille qui m’a soutenue tout au long de ma thèse. Merci tout particulièrement à mes parents, mes frères (et leurs enfants) et mon grand-père.

Finalement, mille millions de mercis à ma Némou adorée sans qui je ne sais pas ce que j’aurais fait.

Toulouse, le 30 décembre 2008.

(5)

Table des matières

5

Liste des figures

7

Liste des tableaux

10

Introduction

11

1

État de l’art

15

1.1 Différents niveaux d’analyse . . . 17

1.2 Les modèles du cerveau . . . 19

1.2.1 Généralités et définitions . . . 19

1.2.2 Les neurones . . . 20

1.2.3 Les populations de neurones . . . 29

1.3 Les modèles de l’esprit . . . 43

1.3.1 Formalisations de la cognition . . . 44

1.3.2 Informations imprécises et incertaines . . . 47

1.3.3 Les réseaux de neurones formels . . . 61

1.3.4 Catégorisation . . . 65

1.4 Les modèles «hybrides» . . . 68

1.4.1 Modèles intégrés du cerveau . . . 69

1.4.2 Décomposition des modèles de l’esprit . . . 80

1.4.3 Les réseaux causaux à grande échelle . . . 82

Conclusion . . . 87

2

Modélisation

89 2.1 Représenter les réseaux . . . 91

2.1.1 Réseaux structurels . . . 91

2.1.2 Réseaux fonctionnels . . . 93

2.2 Représenter l’information . . . 95

(6)

2.2.4 Exemple . . . 109

2.3 Traiter l’information . . . 109

2.3.1 Contraintes . . . 110

2.3.2 Une première approche utilisant des règles d’inférence floues . . . 112

2.3.3 Un nouveau point de départ : propagation des fréquences de décharge118 2.3.4 La sélectivité d’une population. . . 119

2.3.5 Activation synaptique . . . 122 2.3.6 Activation neuronale . . . 123 2.3.7 Génération de la sortie . . . 126 2.4 Vue d’ensemble . . . 130 2.5 Implémentation et discussion . . . 130 2.5.1 Implémentation pratique . . . 130

2.5.2 Comparaison avec le modèle classique de fréquence de décharge . 144 2.5.3 Comparaison avec les modèles causaux . . . 145

2.5.4 Comparaison avec le premier formalisme à base de règles floues . 147 Conclusion . . . 148

3

Applications

151 3.1 L’effet McGurk . . . 153

3.1.1 Description du contexte . . . 153

3.1.2 Modélisation et résultats . . . 157

3.2 Le Wisconsin Card Sorting Test . . . 171

3.2.1 Un test clinique . . . 171

3.2.2 Modélisation et résultats . . . 176

Conclusion . . . 186

4

Discussion

189 4.1 Les formalismes de traitement de l’information cérébrale . . 191

4.2 Limites et perspectives . . . 193

4.2.1 Des réseaux peu contraints . . . 193

4.2.2 L’apprentissage . . . 194

4.2.3 Des validations expérimentales encore insuffisantes . . . 196

4.2.4 Développements théoriques . . . 196

4.3 Les questions ouvertes . . . 197

(7)

Conclusion générale

201

Bibliographie

203

A Annexes

227

A.1 Les équations de fréquence de décharge . . . 229

A.1.1 Le courant synaptique total . . . 229

A.1.2 La fréquence de décharge . . . 230

A.2 Résolution numérique des équations différentielles . . . 230

A.2.1 La méthode d’Euler. . . 230

A.2.2 La méthode de Runge-Kutta d’ordre 2 . . . 231

A.2.3 La méthode d’Euler-Maruyama . . . 232

Notations

233

Liste des figures

1.1 Anatomie externe de l’encéphale . . . 21

1.2 Localisations anatomiques des ganglions de la base et du thalamus . 21 1.3 Diagramme de trois neurones . . . 23

1.4 Diagramme simplifié d’une synapse . . . 24

1.5 Courbe de sélectivité d’un neurone de V1 . . . 26

1.6 Courbe de sélectivité d’un neurone moteur . . . 26

1.7 Le modèle integrate and fire de Lapicque . . . 28

1.8 Exemples de comportements électriques de neurone . . . 30

1.9 Découpage anatomique du cerveau en aires de Brodmann . . . 30

1.10 Découpage en aires fonctionnelles du cortex cérébral . . . 33

1.11 Visualisation de la somatotopie . . . 33

1.12 Carte corticale de sensibilité à l’orientation et de dominance oculaire 34 1.13 Sigmoïde et approximation par morceaux . . . 38

1.14 L’approche «mean-field» . . . 40

(8)

chaud

contexte de l’eau. . . 54

1.18 α-coupe, support et noyau d’un ensemble flou. . . . 55

1.19 Mesure de possibilité . . . 56

1.20 Mesure de la nécessité que x réalise l’événement A. . . 57

1.21 Représentation graphique d’un neurone formel . . . 62

1.22 Quatre des cinq boucles fronto-striatales . . . 76

1.23 Architecture simplifiée d’un modèle neuronal pouvant passer le WCST. Adapté de Dehaene et Changeux (1991) . . . 79

1.24 Architecture en cascade, traduite de Koechlin et coll. (2003) . . . 80

1.25 Le concept de magnitude et de type de l’information. Même magni-tude, types différents . . . 85

1.26 Le concept de magnitude et de type de l’information. Même type, magnitudes différentes . . . 85

2.1 Réseau d’aires cérébrales impliquées dans une tâche de détection phonémique, d’après Démonet et coll. (1994) . . . 92

2.2 Exemple de réseau fonctionnel . . . 95

2.3 Illustration du passage aux patterns de neurones binaires . . . 101

2.4 Illustration de la diffusion de l’activation d’un pattern vers un autre 103 2.5 Exemple de transformation d’un espace 2D «discrétisé» en une suite de positions symboliques . . . 103

2.6 Représentation du type sous forme d’ensemble flou . . . 105

2.7 Comparaison de deux ensembles flous . . . 108

2.8 Exemple de comparaison de deux ensembles flous . . . 108

2.9 Représentations schématiques des différents patterns activés en fonc-tion de la stimulafonc-tion . . . 109

2.10 Schéma fonctionnel illustrant la décomposition d’une population en sous-populations réceptrices et émettrice . . . 113

2.11 Représentation des types en entrée d’une population décodant des formes de couleur . . . 124

2.12 Évolution de l’activation synaptique des prototypes en réponse à la présentation d’un rectangle rouge . . . 124

2.13 Évolution de l’activation synaptique des prototypes en réponse à la présentation d’un rectangle rouge, sans inhibitions latérales. . . 127 8

(9)

2.16 Vue d’ensemble . . . 132 2.17 Activation des différents prototypes de l’intégrateur forme-couleur . 134 2.18 Comparaison de l’activation du prototype carre−rouge pour deux

valeurs différentes de τr . . . 134 2.19 Comparaison de l’activation du prototype carre−rouge en utilisant

la méthode d’Euler et de Runge-Kutta d’ordre 2 . . . 136 2.20 Détecteur de début de stimulus à deux populations . . . 136 2.21 Activation des populations du détecteur de début d’un stimulus . . 137 2.22 Activation des populations du détecteur de début d’un stimulus,

avec bruit élevé . . . 137 2.23 Détecteur de début et de fin d’un stimulus . . . 139 2.24 Comparaison entre le formalisme de Wilson et Cowan et SimBa . . . 145 2.25 Comparaison entre les règles utilisées dans les deux approches

pré-sentées . . . 149 3.1 Performances pour les patients ayant reçus un implant cochléaire

(CI) et de sujets normo-entendants (NH) dans les conditions congruentes unimodale et bimodale . . . 158 3.2 Performances globales de catégorisation du mode et du lieu

d’articu-lation de sujets normo-entendants et de patients implantés cochléaire dans la conditions incongruente visuo-auditive (McGurk) . . . 159 3.3 Modèlisation du réseau fonctionnel impliqué dans la compréhension

phonémique visuo-auditive . . . 162 3.4 Résultats de la simulation du modèle en réponse aux stimuli non

ambigus, présentés de manière unimodale ou multimodale . . . 167 3.5 Résultats de la simulation du modèle présentés sous forme de

ma-trices de confusion . . . 167 3.6 Matrices de confusion en catégorisation phonémique pour les

su-jets normo-entendants en conditions auditive seule et visuelle seule. Adapté et traduit de Rouger et coll. (2008) . . . 168 3.7 Résultats du modèle pour les stimuli incongruents du type ga plus

/ba/, /pa/ ou /ma/ . . . 168 3.8 Résultats du modèle pour les stimuli incongruents du type ba plus

/da/, /ta/ ou /na/ . . . 169 9

(10)

3.11 Exemple de simulation des populations Couleur, Forme, Nombre,

et Decision . . . 181

3.12 Exemple de simulation des populations Erreur, MemErreur, Regles, et Integration . . . 181

3.13 Résultats de la simulation comparés aux résultats de sujets sains . . 182

Liste des tableaux

2.1 Résumé des équations fondamentales du modèle . . . 131

3.1 Consonnes occlusives classées en fonction de leur mode et lieu d’ar-ticulation. . . 155

3.2 Similarités entre les prototypes du nœud Auditif . . . 164

3.3 Similarités entre les prototypes du nœud Visuel . . . 164

3.4 Paramètres de nœud utilisés par défaut. . . 164

3.5 Matrice de connectivité donnant le poids des liens entre les nœuds du réseau. . . 165

3.6 Paramètres spécifiques à certains nœuds. . . 165

3.7 Paramètres de nœud utilisés par défaut. . . 179

3.8 Paramètres spécifiques à certains nœuds. . . 179

3.9 Matrice de connectivité donnant le poids des liens entre les nœuds du réseau. . . 180

(11)

Enjeux et motivation

Malgré les progrès considérables qui ont été réalisés au cours des cinquante dernières années, le fonctionnement du cerveau reste encore en grande partie mys-térieux. Sa complexité défie les modèles simplificateurs, les chercheurs ne soule-vant un bout du voile que pour découvrir des complications encore insoupçon-nées. Pourtant, le foisonnement de découvertes des dernières années et l’accent récent mis par les pouvoirs publics sur la recherche contre les maladies neurodé-génératives laissent espérer des avancées significatives dans la prochaine décennie. Ainsi, en ce qui concerne la pratique clinique, l’utilisation de plus en plus systé-matique de techniques de neuroimagerie, comme l’imagerie par résonance magné-tique (IRM), et l’amélioration permanente de ces techniques, permettent d’espérer une compréhension à terme des pathologies neurologiques dont la prévalence ne cesse d’augmenter avec les progrès de la thérapeutique dans les autres domaines médicaux et en raison du vieillissement de la population (dans un rapport à l’As-semblée Nationale, Gallez (2005) estimait à près de 860 000 les cas de démence de type Alzheimer dans la population des plus de 65 ans). En ajoutant à ces données médicales un nombre sans cesse croissant d’enregistrements de neurones en acti-vité chez le primate, de nombreuses données s’offrent aux chercheurs. Mais sans théorie solide pour les interpréter, il est à craindre que l’abondance ne débouche sur la confusion. Même si des approches de simulation du cerveau, détaillées à l’extrême et s’appuyant sur la force brute des super-ordinateurs (Markram 2006), peuvent à terme offrir des outils précieux d’investigation expérimentale, l’absence de théorie et de modèle explicatif sous-jacent laisse à penser que les données ne seront pas plus faciles à interpréter que les enregistrements de neurones aujour-d’hui. C’est pourquoi, en marge des efforts importants consentis pour la compré-hension des mécanismes biologiques du cerveau, la mise en correspondance de ces connaissances avec la pratique quotidienne clinique peut déboucher sur des mo-dèles intéressants à plusieurs titres : (i) ils peuvent fournir un cadre théorique pour 11

(12)

interpréter de nouvelles découvertes neurobiologiques, (ii) ils peuvent être direc-tement utilisés par les praticiens au jour le jour et (iii) ils peuvent être confrontés aux patients, permettant ainsi de mieux comprendre le lien entre neurobiologie et comportement, ce qui est finalement à ce jour l’aspect le plus mystérieux du cer-veau. C’est dans cette optique qu’a été entrepris le travail présenté ici et qui vise à mettre à profit les techniques et les formalismes issus des travaux en intelligence artificielle pour essayer de mieux comprendre le comportement humain dans sa relation au substrat neurologique qui en est à l’origine.

Objectifs et approche générale

L’observation systématique, depuis le XIXème et Broca (1861), de l’effet délétère et spécifique des lésions cérébrales sur les fonctions cognitives a permis d’émettre l’hypothèse d’un lien étroit entre la structure anatomique du cerveau et ses fonc-tions. La nature de ce lien reste encore en grande partie inconnue, même si des progrès importants ont pu être effectués. Ainsi, la neuropsychologie, qui étudie les troubles comportementaux et tente de les associer à une déficience fonction-nelle de la structure cérébrale sous-jacente, a connu de nombreux succès, dont les premiers ont été l’identification de deux régions cérébrales différentes asso-ciées au langage (Broca 1861, Wernicke 1874). L’apport des techniques modernes d’imagerie cérébrale (électroencéphalographie ou EEG, tomographie par émission de positrons ou TEP, IRM) a permis des avancées, notamment en montrant que la mise en œuvre d’une fonction cognitive nécessite un réseau d’aires cérébrales (Mesulam 1990, Bressler 1995) et non pas de régions uniques, comme les travaux fondateurs le laissaient supposer. Néanmoins, on ne peut répondre qu’à une partie des questions et le puzzle reste incomplet : on peut savoir où le cerveau s’active pour une certaine tâche, on peut savoir en partie quelles sont les relations ana-tomiques et fonctionnelles existant entre les différents sites d’activation, et donc en déduire partiellement pourquoi un site s’active. En revanche, on ignore encore

comment activation et fonction cognitive sont liées. La réponse à cette question ne peut passer que par la compréhension des mécanismes biologiques mis en jeu lors de l’activation cérébrale. Et pourtant, là encore, malgré les progrès effectués, le passage de l’activation des neurones à la réalisation de tâches cognitives évoluées reste difficile. C’est avec l’intention de contribuer à combler ce manque que nous avons entrepris ce travail. Les objectifs étaient doubles : (i) bâtir un formalisme de modélisation qui soit exploitable dans la recherche clinique, et donc avec des

(13)

pré-dictions pouvant être testées avec les moyens expérimentaux disponibles (IRMf – imagerie par résonance magnétique fonctionnelle, EEG, TEP), (ii) s’appuyer sur les connaissances neurobiologiques (pour répondre à la question du comment) et es-sayer de les appliquer à une échelle d’observation où le lien structure-fonction n’a pas encore totalement disparu. Il y a donc une part nécessaire d’interpolation pour partir du comportement assez bien connu de quelques neurones et arriver à la dy-namique d’activation d’un réseau de populations suffisamment large pour qu’on puisse dire qu’il remplit une fonction significative en termes cognitifs. Tout au long de ce manuscrit, nous tâcherons donc de garder à l’esprit ces deux aspects : un an-crage dans les connaissances neurobiologiques mais un refus de perdre la faculté d’interpréter fonctionnellement les modèles. Ce qui nous obligera à un grand écart permanent entre la précision biologique et la complexité des phénomènes cognitifs qu’on aimerait pouvoir modéliser, mais avec l’espoir de poser les jalons d’un pont entre ces deux rives éloignées des neurosciences.

Le premier chapitre dressera un état de l’art du domaine, ou plutôt des do-maines, qui nous intéressent. En effet, les efforts pour comprendre le fonctionne-ment du cerveau sont venus de nombreuses branches a priori éloignées. Ainsi, au milieu du XXèmesiècle, la recherche en intelligence artificielle s’est lancée dans une série de travaux pour percer les secrets de l’intelligence humaine et en doter les ordinateurs. Près de 50 ans après la déclaration de principe de Dartmouth (McCar-thy et coll. 1956) qui a fixé les objectifs que devait viser la recherche en intelligence artificielle comme, par exemple, l’interprétation automatique du langage, l’appren-tissage automatique ou encore le raisonnement créatif, de nombreux progrès ont été accomplis, mais les objectifs sont encore loin d’être remplis. Parallèlement, avec l’amélioration de la compréhension des mécanismes biologiques à l’œuvre dans le cerveau, les chercheurs en neurosciences ont pu mettre au point des modèles de plus en plus détaillés. Dans le premier chapitre, nous essaierons donc de rendre compte de ces deux routes et des problèmes spécifiques qu’elles rencontrent. Les points de concordance et les apports mutuels possibles seront aussi mis en avant.

Le deuxième chapitre détaillera le modèle proposé pour répondre en partie aux questions posées. En s’appuyant sur les pistes évoquées dans le chapitre précédent, la démarche suivie pour mettre au point le modèle sera expliquée de façon dé-taillée. Une fois les étapes de la construction bien spécifiées, le formalisme pourra être défini clairement.

(14)

forma-lisme. La première application est une modélisation d’une illusion visuo-auditive bien connue : l’effet McGurk. Elle permettra d’illustrer sur un exemple volontai-rement simplifié quelques-uns des avantages spécifiques du formalisme présenté. La deuxième application, plus complexe, est la modélisation des mécanismes cé-rébraux qui pourraient être impliqués lors de la réalisation d’un test neuropsycho-logique, le Wisconsin Card Sorting Test (WCST). Cette section montrera comment les modèles peuvent être exprimés dans le formalisme proposé et ensuite testés expérimentalement.

Une discussion des avantages et des inconvénients de ce travail par rapport à d’autres modèles existants constituera le quatrième et dernier chapitre de ce travail.

(15)

État de l’art

1

L

’étude du cerveau est un processus difficile de par la complexité du système lui-même mais aussi en raison du foisonnement d’initiatives en provenance de milieux scientifiques parfois très éloignés (on va de la biologie cellulaire à l’intel-ligence artificielle formelle). Les langages utilisés par les différentes communautés sont discordants alors qu’elles parlent du même objet. C’est pourquoi il convient, avant de faire un tour d’horizon du domaine, de définir quelque peu le vocabulaire que nous allons utiliser tout au long de ce mémoire. Cela sera fait dans la première section. Ensuite, comme annoncé dans l’introduction, l’état de l’art va s’organiser en suivant deux directions historiques de développement des modèles du cerveau. Dans un premier temps, la voie suivie par les neurosciences sera explorée, ce qui permettra d’introduire dans un même temps des notions de physiologie cérébrale. Nous présenterons les modèles issus de ces recherches et leurs cheminements vers toujours plus de complexité pour intégrer des fonctions cognitives de plus en plus évoluées. Dans un deuxième temps, l’approche issue de l’intelligence artificielle sera exposée. Nous verrons les efforts réalisés dans la formalisation du raisonne-ment et de l’intelligence, et nous détaillerons quelques formalismes qui se sont révélés intéressants dans la modélisation de la cognition. Dans une troisième sec-tion, seront présentés les modèles qui s’inspirent des deux approches, ne pouvant être classés franchement dans l’un au l’autre «camp», et qui caractérisent au mieux notre démarche.

(16)
(17)

1

.1

Différents niveaux d’analyse

La nomenclature qui va être présentée dans cette section est largement inspirée par Arbib (2003, part. I).

Le cerveau est un système extrêmement complexe qui nécessite, comme tout système complexe dont on cherche à comprendre le fonctionnement, un décou-page en constituants qu’on espère plus simples, puis l’étude des interactions de ces constituants pour percer la dynamique globale. Le problème avec le cerveau est qu’il n’en existe pas une décomposition unique, et que les décompositions varient fortement en fonction de la taille, de la nature des constituants, des tech-niques d’analyse du système, des modèles et des communautés. Ainsi, des sciences comme la psychologie ou la linguistique abordent la cognition de l’extérieur, en ob-servant le système comme un tout interagissant avec son environnement. C’est aussi l’approche qui a été suivie largement en intelligence artificielle, avec la for-malisation du raisonnement et la mise au point des logiques de haut niveau.

À un niveau de granularité plus fin, la neuropsychologie étudie l’interaction de différentes régions cérébrales pour expliquer des anomalies du comportement. Ne pouvant se contenter de tester le comportement, les techniques changent donc aussi, avec l’utilisation de l’IRMf, de l’EEG et de la TEP, qui permettent d’obser-ver de manière non invasive (mais indirecte) l’activité du cerveau in vivo. De la même manière, du point de vue de l’intelligence artificielle, la décomposition de systèmes complexes en sous-systèmes en interaction se fait depuis longtemps, et on tente de plus en plus de rapprocher ces sous-systèmes de contreparties cérébrales pour créer des modèles «à la façon du cerveau» (ce qui débouche parfois sur des modèles qui peuvent effectivement être mis en correspondance avec des données expérimentales (Anderson et coll. 2007)).

A l’autre bout de la chaîne, la neurophysiologie s’intéresse au fonctionnement des neurones espérant ainsi mieux comprendre leurs interactions au sein des réseaux cérébraux et expliquer à terme l’émergence de fonctions cognitives de haut niveau. À nouveau, les techniques utilisées diffèrent, puisque les méthodes non invasives ne suffisent plus. Les données expérimentales sont récoltées en enregistrant direc-tement la réponse électrique des neurones au moyen d’électrodes implantées. La nature de cette démarche implique de ne travailler presqu’exclusivement sur des animaux (à l’exception des quelques mesures effectuées en neurochirurgie (Pen-field et Jasper 1954) et chez les épileptiques), ce qui limite les fonctions cognitives

(18)

que l’on peut étudier. Les meilleurs résultats ont été obtenus sur des systèmes «simples» tels que les systèmes visuel ou moteur primaires (Hubel et Wiesel 1962, Mountcastle 1957), tandis que le langage reste encore l’apanage de la neuropsy-chologie. Une fois encore, il existe une approche quelque peu analogue en intelli-gence artificielle : les systèmes connexionnistes. Ces derniers consistent à construire, à partir d’unités de calcul s’inspirant des neurones (McCulloch et Pitts 1943), des réseaux formels qui peuvent être entraînés (on parle d’apprentissage) pour réaliser des tâches bien plus complexes que l’apparente somme de leurs constituants.

Cependant, il y a une problématique commune parmi toutes ces approches, c’est l’interaction constante entre la structure et la fonction, entre les modèles et les données expérimentales. Il s’agit toujours, à un niveau d’analyse donné, de faire correspondre les fonctions cognitives observées aux structures cérébrales connues, même si, bien entendu, il n’y a pas de correspondance unique : une structure peut être impliquée dans plusieurs fonctions et une fonction fait presque toujours in-tervenir de nombreuse structures. Ainsi, comme c’est le cas dans la plupart des domaines scientifiques, un cycle d’enrichissement mutuel se crée : les modèles for-mels, déjà contraints expérimentalement, imposent des caractéristiques à la struc-ture sous-jacente, caractéristiques qui peuvent être testées et éventuellement inva-lidées expérimentalement, ce qui impose de nouvelles contraintes sur les modèles qui peuvent être dès lors améliorés. De même, il n’y a pas de barrière entre les dif-férents niveaux d’analyse. Un bon modèle, quelque soit sa granularité, devra, à un moment ou à un autre, puiser dans les niveaux d’analyse plus fins pour y trouver des contraintes expérimentales, tout en gardant un lien avec les niveaux supérieurs pour y trouver des directions de développement. Mais ce passage permanent de la structure à la fonction et d’un niveau d’analyse à l’autre peut être source de confu-sion si on n’est pas attentif au langage employé. Tout au long de ce mémoire, nous tâcherons de suivre la norme suivante : nous appellerons structure neuronale un groupement de neurones effectué uniquement sur des bases anatomiques ; tandis que nous parlerons de population neuronale pour désigner un groupe de neurones liés fonctionnellement. Structure et population pourront parfois coïncider, ce sera même le but recherché. Les termes structure et population sont volontairement peu précis pour accommoder des groupes de neurones qui peuvent être de toutes tailles comme on le verra dans la section suivante. Nous utiliserons le terme de primitive fonctionnelle pour les résultats de la décomposition d’une fonction complexe en ac-tions plus simples. Une primitive fonctionnelle est sous-tendue anatomiquement par une population neuronale (mais une même primitive peut être répétée dans

(19)

d’autres populations neuronales) et les interactions anatomiques entre les diffé-rentes populations permettent les interactions fonctionnelles entre les primitives, ce qui reconstitue la fonction complexe ainsi décomposée. On voit apparaître la problématique de superposition des réseaux anatomiques ou structurels et des ré-seaux fonctionnels.

1

.2

Les modèles du cerveau

Une compréhension fine des mécanismes biologiques qui interviennent dans le cerveau devrait pouvoir fournir des informations permettant peut-être de per-cer les secrets de la cognition humaine. Cet objectif est celui des chercheurs en neurosciences depuis plus d’un siècle. Des premières études mettant en relation traumatismes cérébraux et pathologies cognitives, aux observations détaillées et in vivo du cerveau en fonctionnement grâce aux méthodes plus récentes de neuroi-magerie, la connaissance des mécanismes cérébraux n’a pas cessé de progresser, rendant possibles des modèles de plus en plus détaillés d’une part, et réalisant des tâches de plus en plus complexes, d’autre part1

.

1.2.1

Généralités et définitions

Derrière l’ensemble du cycle permanent auquel tout être pensant obéit Sensa-tion - Traitement - AcSensa-tion, se trouve le système nerveux central (SNC). Il peut être décomposé en trois parties distinctes : le système périphérique, c’est-à-dire les nerfs véhiculant les informations dans l’ensemble du corps, la moelle épinière, et l’encéphale qui va nous intéresser tout particulièrement. Cet encéphale se divise lui-même en trois parties principales : le cerveau, le cervelet et le tronc cérébral qui fait la liaison entre le cerveau et la moelle épinière. Le cervelet est principalement impliqué dans la coordination motrice et l’apprentissage, surtout l’apprentissage moteur (Doyon et coll. 2003). Le cerveau constitue de loin la plus grosse partie de l’encéphale. Il se divise en deux hémisphères (droit et gauche) où se concentre la plus grande partie de l’activité reliée aux principales fonctions cognitives.

1

On verra que l’un exclut souvent l’autre, la complexité des fonctions simulées étant générale-ment en relation inverse avec le niveau des détails biologiques inclus dans le modèle

(20)

1.2.1.1 Le néocortex

Le volume des hémisphères est constitué essentiellement d’une structure peu épaisse mais fortement plissée et repliée sur elle-même : le cortex cérébral. Ses cir-convolutions permettent de diviser anatomiquement le cortex en plusieurs lobes (fi-gure 1.1) : frontal, temporal, pariétal, occipital. Collectivement, ces structures forment le néocortex.

1.2.1.2 Structures sous-corticales

Les hémisphères contiennent aussi des structures neuronales dites sous-corticales. La complexité de leur anatomie empêche que leur description complète entre dans le cadre de cet aperçu. Mais, dans la mesure où nombre de ces structures apparaîtront dans les modèles décrits dans ce manuscrit, une rapide présentation s’impose. La figure 1.2 illustre la localisation de quelques-unes des structures sous-corticales appelées les ganglions de la base. Ils comprennent entre autres le striatum (qui se décompose en putamen et noyau caudé), le pallidum (externe et interne), la substance noire et le noyau subthalamique. Aux ganglions de la base, il faut rajouter le thalamus, l’amygdale, et l’hypothalamus pour obtenir les noyaux gris centraux. Ils sont impliqués dans l’émotion, la mémoire, le traitement d’informations sensorielles et le contrôle de la motricité. Ces structures sont fortement connectées à l’ensemble du néocortex. La dégénérescence de telles structures dans les pathologies comme la maladie de Huntington ou de Parkinson peut provoquer des perturbations cog-nitives de haut niveau, même à des stades relativement précoces de la maladie.

Le vocabulaire général étant introduit, l’exploration des différents modèles du cerveau commence par le composant à la base de tout, le neurone.

1.2.2

Les neurones

1.2.2.1 Anatomie

Bien qu’il s’agisse d’une simplification, le neurone peut être considéré comme l’unité fondamentale du système nerveux en termes de traitement de l’informa-tion. Le nombre de neurones est de l’ordre de 1011. Il en existe de très nombreuses

(21)

Fig. 1.1 – Anatomie externe de l’encéphale faisant apparaître le découpage en lobes. (a) face externe gauche, (b) face interne droite.

(22)

sortes mais qui partagent des caractéristiques communes spécifiques les différen-ciant des autres cellules de l’organisme. Les neurones produisent et propagent des impulsions électriques qui sont le vecteur principal de l’information circulant dans le SNC. Pour cela, ils présentent des spécialisations morphologiques importantes (voir figure 1.3) : se ramifiant à partir du corps cellulaire, appelé soma, les dendrites reçoivent l’information provenant d’autres neurones et l’axone propage celle prove-nant du soma vers d’autres cellules. La structure extrêmement complexe de l’arbre dendritique permet à un neurone de recevoir les signaux provenant d’un très grand nombre de neurones à travers des connexions synaptiques. Ainsi, le neurone pyra-midal 1.3A et l’interneurone 1.3C reçoivent des milliers de signaux synaptiques et, pour la cellule de Purkinje 1.3B, le nombre de connexions dépasse les cent mille. En moyenne, on estime à 104 - 105 le nombre de synapses par neurone, ce qui donne un total de plus de 1015 synapses dans le cerveau ! Notons enfin que les axones re-présentés sur la figure 1.3 ne sont pas rere-présentés dans leur totalité. Leur longueur réelle est en moyenne dix fois plus longue que la longueur totale moyenne des den-drites. La principale notion à retenir de cette section, c’est l’idée d’interconnexion très forte des neurones entre eux : deux neurones proches dans le cerveau ont de grandes chances d’être connectés. Ces connexions entre neurones ne sont pas ano-dines, une grande partie de la spécificité du traitement de l’information dans les réseaux de neurones vient justement de la transmission synaptique. C’est ce que nous allons voir dans le paragraphe suivant.

1.2.2.2 Synapses

La figure 1.4 montre le diagramme d’une synapse2

. Lorsqu’une impulsion élec-trique arrive sur la synapse (propagée le long de l’axone du neurone pré-synaptique), une réaction a lieu et provoque la libération de molécules, appelées neurotransmet-teurs dans la fente synaptique (espace entre deux neurones mesurant environ 20 nm). Ces molécules sont captées par des récepteurs situés sur la paroi du neurone post-synaptique, de l’autre côté de la fente. Ces récepteurs déclenchent ensuite une ré-action biologique complexe impliquant des courants ioniques divers qui modifient

2

Il existe en réalité un deuxième type de synapse : la synapse électrique (par opposition à sy-napse chimique) qui se caractérise par un temps de réaction et donc de transmission presque 10 fois plus rapide mais qui ne présente pas la polyvalence de la transmission par neurotransmetteurs. Ces synapses étant bien moins répandues chez l’humain que les synapses chimiques, elles seront négligées dans la plupart des modèles.

(23)

dendrites dendrites apicales dendrites soma soma soma axone axone axone basales dendrites axones collatéraux

A

B

C

Fig. 1.3 – Diagramme de trois neurones. (A) Cellule pyramidale du cortex cérébral. (B) Cellule de Purkinje du cervelet (C) Interneurone du cortex cérébral. Dessin de Cajal (1911). Figure adaptée de Dayan et Abbot (2005).

(24)

Fig. 1.4 – Diagramme simplifié d’une synapse. L’impulsion électrique provenant du neurone pré-synaptique est transmise au neurone post-pré-synaptique par l’intermédiaire des neurotransmetteurs

le potentiel électrique de la membrane post-synaptique (potentiel post-synaptique ou PPS), modification qui va être propagée jusqu’au corps cellulaire du neurone, où les PPS de toutes les synapses sont intégrés. Si le potentiel électrique résultant dépasse un certain seuil, appelé seuil de décharge, une réaction en chaîne se produit et le neurone génère une impulsion électrique nommée potentiel d’action (PA) qui sera activement3

propagée le long de l’axone. Il faut aussi noter qu’il y a un grand nombre de neurotransmetteurs différents qui ont des effets divers sur le neurone post-synaptique, et les synapses se différencient en fonction des neurotransmet-teurs qu’elles expriment. Ainsi, certaines sont excitatrices : leur PPS est positif, fa-vorisant la génération d’un PA (le neurotransmetteur «excitateur» le plus répandu est le glutamate), alors que d’autres sont inhibitrices, caractérisées par un PPS négatif qui rend plus difficile l’émission d’un PA par le neurone post-synaptique (le neuro-transmetteur «inhibiteur» le plus répandu est l’acide gamma-aminobutyrique, ou GABA). Il s’agit là d’une simplification grossière d’un mécanisme qui, aujourd’hui encore, fait l’objet de recherches. Mais elle est suffisante au regard du niveau de détail qui nous intéresse.

3

Seuls les PA sont propagés activement, c’est-à-dire qu’ils sont régénérés au fur et à mesure lors de leur propagation le long de l’axone, ce qui leur permet de couvrir de grandes distances. Les fluctuations de potentiel inférieur au seuil de décharge sont atténuées très rapidement (1 mm ou moins)

(25)

1.2.2.3 Sélectivité

Seules les propriétés permettant l’émission de PA ont été décrites jusqu’ici. Nous n’avons pas expliqué pourquoi les neurones les émettaient. En effet, les neu-rones agissent comme des détecteurs, ils exhibent une activité spécifique lors-qu’une information particulière se trouve en entrée. La nature de cette information est en grande partie codée dans la configuration des poids synaptiques et dans le seuil de décharge du neurone, mais aussi dans la nature des neurorécepteurs exprimés par ce neurone, la géométrie de ses dendrites, etc. Connaître ce à quoi les neurones sont sélectifs est d’une importance fondamentale pour comprendre le rôle fonctionnel de la région cérébrale qui les contient. Des enregistrements élec-trophysiologiques (électrodes implantées dans le cortex) d’un neurone isolé chez l’animal permettent d’étudier le lien entre un stimulus présenté et le comportement du neurone enregistré, qui est couramment caractérisé par la fréquence de décharge, définie comme le nombre de PA émis par seconde. En faisant varier le stimulus se-lon une dimension, il est alors possible de tracer une courbe de sélectivité (en anglais tuning curve) qui lie la fréquence de décharge du neurone à la dimension étudiée. De nombreuses études ont étudié ces courbes, principalement pour des neurones situés dans les aires primaires du néocortex car le lien «stimulus-fréquence de dé-charge» y est bien plus direct et donc plus facile à isoler. La figure 1.5 montre une telle courbe mesurée à partir d’enregistrements d’un neurone du cortex visuel pri-maire (V1) du chat. Une barre lumineuse se déplace selon différentes orientations dans le champ récepteur du neurone (partie du champ visuel pour laquelle le neu-rone reçoit effectivement des informations). Le neuneu-rone décharge à des fréquences différentes en fonction de l’orientation de la barre. La courbe de sélectivité peut dans ce cas être approchée par une courbe gaussienne (Rieke et coll. 1997, Dayan et Abbot 2005) : f(s) =rmaxexp  − 1 2 s−smax σf !2  (1.1)

où s est l’orientation de la barre, smax l’orientation entraînant la plus grande ré-ponse rmax(avec s−smax dans l’intervalle[−90◦,+90◦]) et σf la largeur de la courbe de sélectivité. smax étant l’orientation qui provoque la réponse la plus importante, elle est appelée orientation préférée. Dans le cas de la génération de mouvement, les courbes de sélectivité caractérisent plutôt un lien «fréquence de décharge-action»,

(26)

A

60 50 40 30 20 10 0 -40 -20 0 20 40

s (angle de l'orientation en degrés)

f

(H

z)

B

Fig. 1.5 – (A) Enregistrement de la réponse d’un neurone de V1 d’un singe lors de la présentation dans son champ récepteur d’une barre lumineuse mouvante orientée selon différents angles. Le champ récepteur et l’angle de la barre sont représentés dans la colonne de gauche et les réponses associées du neurone dans la colonne de droite. (B) Courbe de sélectivité obtenue avec une expérience similaire chez le chat. Figure traduite de Dayan et Abbot (2005).

A 60 50 40 30 20 10 0 350 300 250 200 150 100 50 0

s (direction du mouvement en degrés)

f

(Hz

)

B

Fig. 1.6 – (A) Enregistrement de la réponse d’un neurone de M1 d’un singe alors qu’il déplace son bras suivant différents angles, le mouvement partant du centre et allant dans le sens des flèches. La réponse du neurone est présentée sous une forme appelée raster, qui montre les PA émis durant l’ensemble des répétitions. (B) Courbe de sélectivité obtenue à partir des même données. Figure traduite de Dayan et Abbot (2005).

(27)

comme montré sur la figure 1.6, qui illustre la fréquence de décharge d’un neurone du cortex moteur primaire (M1) du singe lorsque celui-ci bouge son bras dans dif-férentes directions. Cette fois, la relation peut être approchée au mieux par une fonction cosinus (Rieke et coll. 1997, Dayan et Abbot 2005) :

f(s) = [r0+ (rmax−r0)cos(s−smax)]+ (1.2)

où s désigne l’angle du déplacement, smax l’angle associé avec la plus grande ré-ponse du neurone rmax, et r0 est la fréquence de décharge du neurone au repos ([]+ dénote la rectification positive de la fonction de manière à ne pas avoir de

fré-quence négative, ce qui est impossible). De nombreux autres types de courbes de sélectivité ont été obtenues (fonction de Gabor, fonction sigmoïde) démontrant la grande souplesse, et la grande complexité, de la sélectivité neuronale.

1.2.2.4 Modèles

Étant donné que c’est l’impulsion électrique qui semble transporter l’informa-tion, il apparaît raisonnable de se concentrer sur cet aspect lorsqu’on cherche à modéliser le fonctionnement du neurone. C’est pourquoi la plupart des modèles formels de neurones s’appuient sur une analogie avec un circuit électrique équi-valent. Le plus simple a été proposé par Lapicque en 1909 (Abbott 1999) et est représenté sur la figure 1.7. Appelé modèle leaky integrate and fire (LIF), il est régi par une équation différentielle liant le potentiel de membrane au courant injecté dans le neurone. Lorsque ce potentiel dépasse un seuil de décharge, un potentiel d’action est généré et le potentiel est remis à une valeur inférieure au seuil. Un cou-rant de fuite assure que le potentiel redescendra à sa valeur de repos en l’absence de stimulation. Formellement, on a :

τmdV

dt =Vrest−V+R.I (1.3)

où Vrest est le potentiel de repos, R la résistance de la membrane, V le potentiel de membrane, I le courant injecté (c’est-à-dire la somme des courants synaptiques en entrée) et τm est la constante de temps de la membrane (τm = C.R, avec C la capacitance de la membrane). Ce modèle très simple est encore utilisé aujourd’hui pour les simulations d’un grand nombre de neurones afin d’étudier la dynamique des réseaux (voir par exemple Brunel et Wang (2001), Amit et Brunel (1997)). Il

(28)

Fig. 1.7 – Le modèle integrate and fire de Lapicque. (A) Le circuit électrique équivalent avec la capacitance de la membrane C et sa résistance R. V est le potentiel de membrane, Vrestle potentiel de

repos, et I le courant injecté en entrée. (B) La trajectoire suivie par le voltage. Lorsque V atteint le potentiel de décharge, un potentiel d’action est généré et V est remis à une valeur sous le seuil. (C) Un neurone integrate and fire dirigé par un courant variant au cours du temps. La trace du dessus est le potentiel de membrane, celle du dessous est le courant. Figure traduite de Abbott (1999)

comporte l’avantage de ne pas nécessiter de ressources computationnelles impor-tantes tout en capturant le mécanisme des potentiels d’action. De plus, il a été montré par Partridge (1966) qu’il s’agit d’un cas simplifié du modèle bien connu de Hodgkin et Huxley (1952). Ce dernier incorpore les différents courants ioniques intervenant au sein de la synapse et est probablement le modèle par analogie élec-trique le plus détaillé à ce jour. Il est d’une grande utilité pour modéliser un petit nombre de neurones de manière précise et pour étudier, par exemple, les dyna-miques des différents neurotransmetteurs et leur implication dans la génération de PA. Néanmoins, la précision a un prix en termes de ressources computationnelles nécessaires à la simulation, ce qui pose un problème pour passer à l’échelle : il est aujourd’hui inconcevable de vouloir simuler des réseaux à grande échelle comme on peut les observer en IRMf, en utilisant un modèle de neurone détaillé comme celui de Hodgkin et Huxley. Il y a deux raisons à cela : (i) les ressources computa-tionnelles ne sont pas (encore) disponibles et (ii) on perdrait rapidement la capacité d’interpréter fonctionnellement les phénomènes macroscopiques pouvant émerger d’un tel réseau, ce qui, rappelons-le, est inacceptable dans le cadre de ce travail. Il apparaîtra par la suite que, dans le cadre d’une modélisation des populations de neurones (par opposition à la modélisation des neurones individuels), tenir compte de la fréquence globale d’émission de PA permet de caractériser partiellement la dynamique de ces populations, sans devoir générer individuellement ces PA. Pour conclure sur la modélisation du neurone individuel, il faut noter que le PA isolé

(29)

n’est qu’un exemple, bien que ce soit le plus représentatif, parmi de multiples com-portements de décharge observés expérimentalement. Certains neurones peuvent par exemple émettre des PA de manière très rapide et en paquet, appelés bursts. Il faut aussi noter que les neurones peuvent grandement différer dans leur compor-tement face à un courant injecté en entrée : certains neurones vont émettre des PA de manière régulière tant que le courant est maintenu, alors que d’autres ne vont émettre qu’un seul PA au début du stimulus et rester silencieux ensuite. La figure 1.8 représente ces différents comportements et Izhikevich (2004) les recense de ma-nière exhaustive (il y en a vingt !) pour classer les différents modèles de neurones en fonction de leur capacité à les capturer. Une des grandes questions à laquelle les neurosciences computationnelles vont devoir répondre dans les années à venir est de savoir si, pour comprendre la cognition, un modèle se doit de reproduire l’en-semble de ces phénomènes ou si certains peuvent être négligés. La complexité des mécanismes peut prêter au découragement si on ne peut en négliger (et il ne s’agit que des phénomènes électriques, les mécanismes chimiques au sein des synapses introduisant une complexité encore bien plus grande). Quel est le niveau de détails suffisant ? Nécessaire ? Les questions restent ouvertes.

1.2.3

Les populations de neurones

1.2.3.1 Anatomie

La question que l’on se pose maintenant est de savoir s’il est possible de regrou-per des neurones ayant des propriétés neuroanatomiques communes. La première observation est que le cortex présente une structure en couches. Au nombre de six dans le néocortex, elles se différencient par la densité et la nature des neurones qui les composent (on parle de cytoarchitecture). Révélant ces différences grâce à des marqueurs colorés, Brodmann (1909) a pu établir un découpage du cortex en régions anatomiquement cohérentes (voir figure 1.9). Ces aires de Brodmann sont encore utilisées aujourd’hui comme références de localisation dans le cortex. De manière plus intéressante pour nous, de nombreuses études ont pu mettre en correspondance certaines de ces aires avec des fonctions cognitives (par exemple l’aire visuelle primaire V1 est l’aire de Brodmann 17). Une autre structure neuro-nale d’intérêt est la colonne corticale. Elle est en général définie fonctionnellement

(30)

(A) décharge tonique (B) décharge phasique

(C) burst tonique (D) burst phasique

20 ms Courant continu injecté

Fig. 1.8 – Exemples de comportements électriques de neurone. (A) Décharge dite tonique : le neurone décharge régulièrement tant qu’un courant est injecté. (B) Décharge phasique uniquement au début de la stimulation. (C) Burst tonique et (D) burst phasique. Figure adaptée de Izhikevich (2004)

Fig. 1.9 – Découpage anatomique du cerveau en aires de Brodmann. Gauche : vue externe. Droite : coupe sagittale médiane

(31)

(c’est-à-dire en fonction de l’information qui est traitée par les neurones qui la composent) mais il en existe un pendant plus structurel4

qui désigne une organisa-tion des neurones qui se fait perpendiculairement à la surface du cortex, traversant toute son épaisseur (et donc les six couches) et dont la surface à la base est très réduite (quelque dizaines de µm de diamètre). Rakic (1995) observe dans la cytoar-chitecture de telles structures qui dérivent du développement du cortex (on parle de colonnes ontogéniques). Mountcastle (1978), à qui l’on doit les colonnes corticales «fonctionnelles», proposera le terme mini-colonnes dans une tentative d’unification de la structure et de la fonction.

Pour terminer cette section sur les structures neuronales, on peut aussi men-tionner les structures de grande taille comme les lobes, déjà mentionnés dans la section 1.2.1, qui se situent à un niveau de granularité encore bien supérieur.

1.2.3.2 Architecture en réseaux

Toutes ces structures sont interconnectées les unes aux autres et forment des réseaux complexes et entremêlés, à l’échelle du neurone, on l’a déjà dit, mais aussi à l’échelle des différentes structures. Les interconnexions au niveau des colonnes corticales par exemple dépendent de la couche corticale à laquelle on se place (Fel-leman et Van Essen 1991, Watts et Thomson 2005). Elles sont majoritairement ver-ticales : les neurones d’une couche projetant principalement (mais pas unique-ment) vers les couches adjacentes de la même colonne (connexions intra-colonnes), mais peuvent aussi être horizontales : les neurones projetant vers les neurones de la même couche mais situés dans des colonnes adjacentes (connexions inter-colonnes locales) ou même dans des inter-colonnes éloignées (connexions inter-inter-colonnes distales) (Burnod 1991, Guigon et coll. 1994). Les liaisons longue distance ou dis-tales vont permettre les interactions entre régions cérébrales éloignées. En effet, les projections axonales se regroupent en faisceaux qui vont connecter des aires céré-brales, comme le révèlent les études en imagerie et en anatomie (Mesulam 1990, Bressler 1995). On parle alors de réseaux à grande échelle. Les constituants de ces ré-seaux sont des réré-seaux de plus fine granularité, constitués par exemple de colonnes corticales, elles-mêmes constituées de réseaux de neurones.

4

A tel point que beaucoup d’efforts ont été consentis pour montrer que les secondes étaient le support biologique des premières, sans résultat définitif à ce jour (Horton et Adams 2005)

(32)

1.2.3.3 Caractérisation fonctionnelle

Le découpage anatomique n’est pas le seul possible. Depuis plus d’un siècle, grâce à des cas cliniques comme celui de Phineas Gage (Harlow 1848, puis décrit à nouveau par Damasio et coll. 1994) et aux premières découvertes de Broca (1861), nous savons que certaines régions du cortex sont majoritairement impliquées dans certaines fonctions cognitives. En étudiant les déficits cognitifs provoqués par des lésions cérébrales, et avec les apports plus récents de la neuroimagerie fonctionnelle qui permet d’observer le cerveau en activité, une carte sommaire de la localisation de certaines grandes fonctions a pu être établie (voir figure 1.10).

Ce découpage fait apparaître des aires dites primaires qui sont les premières aires en contact avec le système nerveux périphérique, autrement dit, avec l’en-vironnement. Une caractéristique majeure de ces aires est qu’elles présentent une structure topique, c’est à dire une structure fonctionnelle organisée en rapport avec les caractéristiques physiques des stimuli traités. Les cortex moteur et somatosen-soriel primaires, par exemple, sont organisés de façon somatotopique, dans le sens où chaque partie du corps va activer une population bien précise dont la position sur le cortex est en relation avec la position dans le corps de la partie considé-rée (Walshe 1948, Penfield et Rasmussen 1950). La figure 1.11 permet de visualiser cette somatotopie par le biais des homoncules, dont les parties du corps sont repré-sentées proportionnellement à la taille du cortex (somatosensoriel ou moteur) qui leur est consacrée. On va aussi retrouver une organisation topique dans le cortex auditif primaire, la tonotopie : des neurones répondant à des fréquences proches sont eux-mêmes proches sur le cortex (Ardila 1993). De même, il existe une réti-notopie du cortex visuel primaire où les neurones sont organisés spatialement en fonction de la position sur la rétine à laquelle ils réagissent le plus (Rosa 2002). Le cas de l’aire visuelle primaire est intéressant car il a été étudié de manière exten-sive chez l’animal, et en particulier chez le chat, dont le système visuel est un assez bon modèle du nôtre. Hubel et Wiesel (1962) ont ainsi montré qu’en plus de la ré-tinotopie, les neurones répondent de manière sélective en fonction de l’orientation d’un stimulus visuel, en l’occurrence il s’agissait de lignes parallèles orientées selon des angles divers qui traversaient le champ visuel. Ces mêmes neurones réagissent aussi différemment selon que le stimulus est dans la moitié droite ou gauche du champ visuel (on parle d’hémichamp droit ou gauche). Les très nombreuses mesures

(33)

1.2. Les modèles du cerveau 33

#3+3..!*/-,!./*/!*(!(*'!+&%$3.(*$.%!'.!(*!%*!"%!'.!()*/3.#*/!(*,'3,'$-%-(*/!*(!(*#34#6!(C*

D.!*&$'!*&.&%30$B4!*!(%*4.*'-(!&4*/!*#3+3..!(*#3'%$#&+!(C*E&*23.#%$3.*$0,+-0!.%-!*,&'*4.*'-(!&4*

/-,!./* F* +&* 23$(* /!* +&* %3,3+3?$!* /4* '-(!&4)* !%* /!(* ,'3,'$-%-(* 23.#%$3..!++!(* /!(* -+-0!.%(* B4$* +!*

#3.(%$%4!.%C* G&'* #3.(-B4!.%)* ($* +!(* 23.#%$3.(* /!(* #3+3..!(* #3'%$#&+!(* 5&'$!.%* (4$5&.%* +!4'(*

#&'&#%-'$(%$B4!(* &.&%30$B4!()* &+3'(* 3.* ,!4%* 2&$'!* +16H,3%6I(!* B4!* +!(* 23.#%$3.(* /1&$'!(* #-'-7'&+!(*

&H&.%* /!(* #H%3&'#6$%!#%4'!(* /$22-'!.%!(* 5&'$!.%* -?&+!0!.%C* J!* 0K0!* ,34'* +!(* (%'4#%4'!(* (34(L

#3'%$#&+!()*/3.%*+!(*.!4'3.!(*,'-(!.%!.%*-?&+!0!.%*/!(*/$22-'!.#!(*/13'/'!*&.&%30$B4!C*

!"#"!"

$%&'()*+,-.'/&01'//,2-E!(*-%4/!(*!.*&#%$5&%$3.*M#C2C*,&'&?'&,6!*NC@O)*B4$*(3.%*5!.4!(*#30,+-%!'*+!(*-%4/!(*&.&%30$B4!()*

3.%*-%-*4%$+$(-!(*,34'*5&+$/!'*#!%%!*6H,3%6I(!)*!.*,!'0!%%&.%*4.*/-#34,&?!*23.#%$3..!+*,&'%$!+*/4*

#3'%!"* #-'-7'&+C* P!* /-#34,&?!* %!.%!* /1&((3#$!'* /!(* '-?$3.(* F* /!(* 23.#%$3.(* #3?.$%$5!(* 34*

(!.(3'$03%'$#!(*(,-#$2$B4!(C*E!(*'-?$3.(*23.#%$3..!++!(*,!45!.%*/$22-'!'*/!(*'-?$3.(*37%!.4!(*,&'*

4.*/-#34,&?!*,4'!0!.%*&.&%30$B4!*8Q!(4+&0*:;RA*%!+(*B4!*#!+4$*/!*9'3/0&..C*D.!*/!(*'&$(3.(*!(%*

B41$+*.1!(%*,&(*,3(($7+!*/!*,'!./'!*!.*#30,%!*%34%!(*+!(*/$22-'!.#!(*,6H($B4!(*8S3+&./*T*U$++!(*:;VA*

+3'(* /4* /-#34,&?!* &.&%30$B4!* M(!4+!* +&* #H%3&'#6$%!#%4'!* !(%* #3.($/-'-!* /&.(* +!* #&(* /!(* &$'!(* /!*

9'3/0&..OC*J!*#!*2&$%)*+!(*2'3.%$I'!(*23.#%$3..!++!(*(3.%*$0,'-#$(!()*/1&4%&.%*,+4(*B4!*+!*/-#34,&?!*

&.&%30$B4!* !(%* +4$L0K0!* (340$(* &4"* 5&'$&%$3.(* &.&%30$B4!(* /4* #3'%!"* !"$(%&.%* /14.* $./$5$/4* F*

+1&4%'!C**

*

NN

*

W$?4'!*XC<CY*Z*/-#34,&?!*23.#%$3..!+*/4*#3'%!"*#-'-7'&+C* !"#$%&' (#)*#"+$,-!"#$%&'."$%/#' ,00"12,$2* !"#$%&'."$%/#' (#2.,2#% !"#$%&',/32$2*' (#2.,2#% !"#$%&',/32$2*' ,00"12,$2* !"#$%&' ,00"12,$2*' !"#$%&'420/%-' ,00"12,$2*' !"#$%&'420/%-' (#2.,2#%' !"#$%&'0".,$"5 0%+02$2*',00"12,$2*' !"#$%&'0".,$"5 0%+02$2*'(#2.,2#%'

Fig. 1.10 – Découpage en aires fonctionnelles du cortex cérébral

ParOrteilsties génitales PiedJambe Hanche T

ronc Cou Tête Epaule Br as Coude Avan t-br as Poig net Main Auriculair e Annulair e Doigts MajeurIndex Pouc e Oeil

A Homoncule sensoriel B Homoncule moteur

Médiale Latérale Médiale Latérale

Nez Visage

Lèvre supérieure

Lèvre inférieure

Dents, gencives, palais

Langue Pharynx Intra-abdominal Or teils Cheville Genou Hanche Tronc Epaule Coude Poig

net Main Auriculair e Annulair e Doigts MajeurIndex Pouc e Cou Sourcil

Paupière et globe oculair

e Visage Lèvres Mâchoire Langue Déglutition (Mastica tion) (Saliv ation) Vocalisa tion

Fig. 1.11 – Visualisation de la somatotopie. (A) Les parties du corps humain sont représentées, d’une part à la position qui leur correspond dans le cortex somatosensoriel, et d’autre part, avec une taille proportionnelle à la taille du cortex qui leur est consacré. (B) idem mais pour le cortex moteur.

(34)

Fig. 1.12 – (A) Carte de V1 représentant les neurones dans des couleurs correspondant à leur orientation préférée. L’organisation en disques couvrant toutes les orientations est visible. (B) Carte de dominance oculaire où les neurones sélectifs pour l’hémichamp droit sont en foncé et ceux sélectif pour l’hémichamp gauche sont en clair. La légende à droite donne l’orientation de l’image par rapport au reste du crâne (A : antérieur, P : postérieur, L : latéral, M : médian). Ces deux cartes sont superposables et les centres des disques se trouvent approximativement au milieu des bandes de dominance oculaire. Figure adaptée de Hubel et Wiesel (1962)

(35)

effectuées ont permis de dresser une carte fonctionnelle de V1 (fig.1.12) où les neu-rones sont représentés dans une couleur correspondant à leur orientation préférée. Il est frappant de voir que les neurones s’organisent spontanément en disques qui couvrent l’ensemble des orientations. Quant à la sélectivité à l’hémichamp, elle permet de dresser une autre carte fonctionnelle, où des bandes alternées de sélec-tivité à droite puis à gauche se succèdent. Ces deux cartes, une fois superposées, montrent que les centres des disques se trouvent sensiblement au milieu de ces bandes.

On voit bien l’importance de l’information traitée même au niveau de l’orga-nisation neuronale, ce qui exclut a priori une caractérisation purement anatomique des groupes de neurones. La structure et la fonction sont toujours intimement liées. Après traitement dans les aires primaires, l’information circule vers les aires as-sociatives. C’est dans ces aires que les intégrations multi-modale et multi-sensorielle vont se faire. Bien que l’organisation topique y soit moins nette, elle semble exister (Alexander et coll. 1992), mais elle est aussi probablement plus complexe et donc moins facile à observer expérimentalement (Rosa 2002). Il est à noter que les aires primaires sont aussi parfois directement interconnectées (Falchier et coll. 2002), suggérant une intégration multi-modale précoce. Les aires associatives constituent la plus grande partie du cortex chez l’humain et les traitements qu’elles effec-tuent peuvent être extrêmement variés. Le cortex pariétal postérieur, par exemple, construit la représentation spatiale d’un objet en intégrant toutes les modalités (An-dersen et coll. 1997, Bremmer et coll. 2001). Les aires associatives peuvent aussi intégrer des informations ne provenant que d’une seule modalité pour construire des représentations plus évoluées. Le traitement visuel, par exemple, s’effectue de manière hiérarchique : les populations recevant directement l’information prove-nant de la rétine ne traitent qu’une petite partie du champ visuel (organisation rétinotopique), mais au fur et à mesure des traitements, les populations élargissent leur zone de sensibilité (on parle de champ récepteur) jusqu’à construire une repré-sentation des objets présents sur l’ensemble du champ visuel.

Notons aussi que les connexions entre aires primaires et associatives ne sont pas unidirectionnelles, mais qu’il existe des liaisons dites en feedback, c’est-à-dire que le traitement effectué au niveau des aires associatives peut avoir des répercus-sions sur les aires primaires, en venant par exemple renforcer un percept devenu dominant (Hupe et coll. 1998, Roelfsema et coll. 1998).

(36)

des aires associatives mais aussi, massivement, des structures sous-corticales. Ces dernières peuvent avoir des rôles très variés dans la perception et l’expression des émotions, la liaison avec le système nerveux autonome, la production de neuro-transmetteurs, etc. , ce qui permet aux aires préfrontales de traiter plusieurs types de tâches fondamentales : la planification et la gestion de la temporalité dans l’ac-tion, le contrôle cognitif des émotions, le raisonnement abstrait, etc.

1.2.3.4 Architecture en réseaux

Cependant cette association entre aires cérébrales et tâches cognitives ne doit pas faire perdre de vue que leur fonctionnement passe nécessairement par une distribution en réseaux complexes et entrecroisés. Ainsi par exemple, les struc-tures sous-corticales sont souvent considérées comme permettant la modification dynamique de ces réseaux en fonction du contexte, par le biais d’une succession d’inhibitions ciblées (O’Reilly 2006). Ou encore, comme nous l’avons déjà men-tionné au paragraphe précédent, par le biais de liaisons rétrogrades ou feedback, un jeu de renforcements successifs peut se mettre en place entre les aires primaires et associatives. Ceci a de multiples avantages par rapport à un traitement purement hiérarchique : (i) la représentation de haut niveau d’un objet peut s’appuyer sur des éléments très succincts et imprécis, ce qui a pour effet de considérablement accélérer le traitement (Kirchner et Thorpe 2006) ; (ii) de plus, lorsque l’interpréta-tion des stimuli est ambiguë ou demande une attenl’interpréta-tion plus soutenue aux détails, les liaisons rétrogrades permettent l’activation plus ciblée et donc plus efficace des aires primaires (van der Velde et de Kamps 2001, Motter 1993, Deco et Rolls 2005). Ce type de fonctionnement distribué est très flexible et permet l’implication d’une population dans de nombreux réseaux. Mais cela rend la tâche d’identification du rôle fonctionnel d’une population au mieux difficile, au pire illusoire.

1.2.3.5 Modèles

Lorsqu’on parle de modèles de populations neuronales, il est utile de faire une distinction entre ceux issus des modèles de neurones individuels qui cherchent donc à «re-générer» le comportement des populations, et ceux qui abordent la population comme un tout et donc qui reproduisent le comportement observé. Dans les deux cas, les techniques expérimentales de validation ne sont pas les mêmes.

(37)

Du neurone à la population. Dans ce premier cas, ce sont des modèles provenant de la neurophysiologie et s’appuyant sur des enregistrements de neurones chez l’animal qui sont utilisés. Le principe est de partir de modèles détaillés du neurone comme ceux évoqués dans la section 1.2.2.4 et de calculer mathématiquement la dynamique de ces modèles lorsqu’un très grand nombre de neurones sont mis en réseau. Au prix en général de quelques hypothèses simplificatrices, on peut décrire cette dynamique analytiquement avec le très grand avantage de s’appuyer sur des données expérimentales solides et donc de pouvoir contraindre précisément les paramètres des équations générées. Le plus connu de ces modèles est probable-ment celui proposé par Wilson et Cowan (1972) et développé par Amit et Tsodyks (1991a;b) et Abbott (1994). Il décrit la dynamique d’une population en termes de fréquence de décharge, mais pour obtenir cela, seules deux échelles de temps sont considérées. En effet, ce qui rend la modélisation des populations de neurones si complexe, c’est la très grande variété des dynamiques intervenant simultanément, chacune avec sa propre échelle de temps. En en négligeant la plupart pour ne conserver que celles gouvernant, d’une part, la génération des potentiels d’action et, d’autre part, l’intégration synaptique, on peut caractériser la dynamique d’une population homogène5

de neurones au moyen de deux équations différentielles du premier ordre (pour la dérivation complète de ces équations : voir annexe) :

τsdS

dt = −S+w·u (1.4)

τrdr

dt = −r+F(S(t)) (1.5)

où S est le courant synaptique total entrant dans la population et τs caractérise la vitesse avec laquelle il atteint un état stationnaire après une fluctuation des cou-rants extérieurs u (la notation en caractère gras indiquant qu’il s’agit d’un vecteur).

w dénote le vecteur des poids accordés à chacun des courants en entrée. r est la fréquence de décharge, qui atteint un état stationnaire en τr suite à une fluctua-tion de S. F est la foncfluctua-tion d’activafluctua-tion qui caractérise la réacfluctua-tion de la populafluctua-tion à un courant en entrée. En général, il s’agit d’une fonction à seuil, saturant au-delà d’une valeur maximum, comme la sigmoïde (ou son approximation linéaire par morceaux si la dérivation de F n’est pas un problème) représentée sur la fi-gure 1.13. Cette modélisation a le grand avantage d’être simple à mettre en place

5

Plus les neurones qui composent la population sont semblables en termes de dynamique, plus l’hypothèse sous-jacente à la modélisation par fréquence de décharge est valable.

(38)

0 0 ,2 5 0 ,5 0 ,7 5 1 1 ,2 5 1 ,5 1 ,7 5 2 0 0,25 0,5 0,75 1 0 0 1

Fig. 1.13 – Fonction sigmoïde et son approximation par une fonction linéaire par morceaux. Elle a pour expression analytique y = c/(1+e−a(x−b))où a détermine la pente (a = 10 sur la figure), b est l’abscisse du centre de symétrie (ici b = 1) et où c est le gain (c = 1). L’approximation par morceaux a pour équation y=max(min(c,a.c4(x+2a−b)), 0).

dans le cadre de réseaux à grande échelle. Elle a été utilisée avec succès dans la modélisation de nombreux réseaux du système visuel (Pouget et Sejnowski 1995; 1997), mais aussi pour l’étude des réseaux récurrents (Abbott 1994), pour la modé-lisation de la mémoire de travail caractérisée par une activation prolongée dans le temps des populations neuronales (modélisation par Compte et coll. 2000 d’après les observations résumées par Goldman-Rakic 1995), et plus généralement pour l’étude de la stabilité et des attracteurs des réseaux récurrents (Rinzel et Ermen-trout 1998). Un formalisme plus récent, appelé analyse «mean-field», développé par Amit et Brunel (1997), Brunel et Sergi (1998) et généralisé par Brunel et Wang (2001), met en relation de façon bien plus précise la fréquence de décharge d’une population avec les paramètres caractérisant les neurones individuels, en particu-lier ceux gouvernant la dynamique des différents courants synaptiques. La philo-sophie derrière est cependant bien différente puisque cette méthode est appliquée dans le cadre de la simulation de très grands réseaux de neurones de type leaky integrate and fire. Comme le choix des paramètres impliqués dans ces simulations ne peut pas toujours être contraint par des données expérimentales, une modé-lisation de la dynamique du réseau dans un état stationnaire est faite au moyen du formalisme «mean-field». Une fois les équations déterminées, on fait ce qu’on appelle une analyse des bifurcations, qui consiste à séparer l’espace des paramètres en plusieurs régions où le réseau se comporte de manières différentes (oscillations régulières ou irrégulières, synchronisation des neurones ou, au contraire,

(39)

asynchro-nie, etc). On sélectionne alors le comportement du réseau désiré, ce qui contraint les paramètres qui peuvent être ré-injectés dans la simulation dynamique (par op-position à stationnaire). La démarche est résumée dans la figure 1.14. On voit bien qu’à la différence du formalisme précédent, il ne s’agit pas de simuler un réseau au moyen des fréquences de décharge mais bien de déterminer les paramètres d’une simulation de neurones émettant des PA.

Le codage par population. Les courbes de sélectivité des neurones caractérisent en partie la manière dont un neurone seul code l’information. La courbe permet une estimation partielle de la valeur du stimulus traité en fonction de la fréquence de décharge. En raisonnant à l’échelle des populations, il est possible d’aller plus loin en complexifiant la quantité d’information qui peut être encodée. Ainsi, dans le cadre des neurones du cortex moteur primaire, Georgopoulos et coll. (1986; 1988) utilise le vecteur de population, caractérisant l’activation d’une population de N neu-rones i dont la direction de mouvement préférée est pointée par le vecteur vi, et qui est défini par :

vpop = N

i=1  r−r0 rmax  i .vi (1.6) oùr−r0 rmax 

i désigne la fréquence de décharge du neurone i, relative à sa fréquence de décharge maximum rmax et sa fréquence de décharge au repos r0. Il a été mon-tré qu’en moyenne, si N est suffisamment grand et si les directions préférées sont uniformément réparties dans toutes les directions, le vecteur de population poin-tera dans la direction du mouvement effectué : la population code la direction du mouvement. Cette méthode de décodage a été utilisée dans de nombreuses études, parmi lesquelles Humphrey et coll. (1970), Van Gisbergen et coll. (1987), Lee et coll. (1988).

Il est intéressant de constater que, dans le formalisme du vecteur de popula-tion, l’information n’est pas codée par la fréquence de décharge d’un neurone en particulier au sein d’une population mais bien par la répartition des activités des neurones dans la population. Cette représentation est robuste et permet à un même neurone de contribuer à la représentation de plusieurs valeurs d’un même attribut sans que sa contribution ne soit cruciale. Le taux de perte des cellules neuronales exclut en effet toute représentation de l’information qui s’appuierait sur des neu-rones isolés. La redondance doit assurer la robustesse du code neuronal.

Figure

Fig. 1.1 – Anatomie externe de l’encéphale faisant apparaître le découpage en lobes. (a) face externe gauche, (b) face interne droite.
Fig. 1.7 – Le modèle integrate and fire de Lapicque. (A) Le circuit électrique équivalent avec la capacitance de la membrane C et sa résistance R
Fig. 1.9 – Découpage anatomique du cerveau en aires de Brodmann. Gauche : vue externe
Fig. 1.11 – Visualisation de la somatotopie. (A) Les parties du corps humain sont représentées, d’une part à la position qui leur correspond dans le cortex somatosensoriel, et d’autre part, avec une taille proportionnelle à la taille du cortex qui leur est
+7

Références

Documents relatifs

Dans le chapitre 1, nous exposons les problématiques liées aux grilles de calcul ainsi qu’aux réseaux AFDX et expliquons pourquoi nous avons utilisé la méthode fluide pour y

Compte tenu de nos paires, composées d’un segment anglais (source) et d’un segment français (cible), et avec 4 personnages comptant 95 segments (tirés aléatoirement pour ceux en

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

Therecentdevelopmentofblueandgreenlaserdiodes[13] finally enabled simpler and cheaper pumping options for Ti:sapphire lasers. Recently, we have reported on

Mesures exp´ erimentales Comme nous l’avons ´ evoqu´ e au chapitre pr´ ec´ edent, les donn´ ees disponibles en biologie mol´ eculaire sont le plus souvent de nature comparative :

S’agissant spe´cialement de la lutte contre la radicalisa- tion au sein des prisons, les ministres des cultes et les de´le´gue´s des organisations philosophiques non confes-

Verlaine, B, Jureta, IJ &amp; Faulkner, S 2014, 'Optima: a domain-specific model for prioritization and conflicts management in requirements engineering for services

Puisque nous utilisons le même nombre de neurones dans la couche cachée de tous les réseaux pour que les résultats soient comparables, dans notre variante de RNN chaque neurone de