• Aucun résultat trouvé

1 – L’inconscient cognitif

Dans le document The DART-Europe E-theses Portal (Page 55-97)

a/ Tour d’horizon des techniques utilisées en neurosciences

Les techniques d’observation du vivant ont fait de tels progrès qu’elles occupent une importante place dans l’actualité de la recherche. Les chercheurs perfectionnent sans cesse leurs outils, le

1 WESTEN D., Psychologie pensée cerveau et culture, DeBoeck Université, Paris, 2000.

grand public découvre, peu à peu, les possibilités désormais offerte à la science pour étudier ce qui constitue le monde qui nous entoure.

L’exemple récent qui illustre cette avancée, est la mise en route du L.H.C. (Large Hadron Collider) à cent mètres sous terre près de Genève. Il a été construit dans l’espoir de découvrir et étudier les plus petits éléments de la matière connus à ce jour : les particules élémentaires.

En effet, les siècles ont vu nombre de théories sur la matière. Aujourd’hui, la science en formule encore afin de résoudre les impasses qui se présentent à elle (la théorie des cordes est certainement la plus connue de ces tentatives d’explications). Mais la physique quantique et désormais l’étude des particules élémentaires nous permettent aujourd’hui de s’en faire une idée plus précise. Ainsi, si une des anciennes conceptions de l’atome s’est avérée étonnamment cohérente (malgré de nombreux ajustements), elle reste insuffisante. En effet, cette théorie de l’antiquité grecque a donné son nom à cette « brique » de matière mais avec l’idée qu’il est un

« corpuscule indivisible », « que l’on ne peut couper » (traduction littérale)1 ; autrement dit, il était aux yeux de certains philosophes tel Démocrite et Epicure2, le plus petit élément de la matière. Or, il n’en est rien : depuis la science a découvert les particules subatomiques. Et parmi elles, nous trouvons les élémentaires (quark, photon, neutrinos) et les composées (protons, neutrons) qui sont, comme l’indique leur nom, elles-mêmes constituées de leurs consœurs élémentaires. En bref, les particules élémentaires sont, dans l’état actuel des recherches, « ce qui ne peut être divisé ». Certaines ne sont observées que dans des conditions spécifiques alors que d’autres font, si l’on peut dire, notre quotidien. A cette échelle de la matière, il faut entendre que les lois physiques qui y règnent sont excessivement différentes de celles que l’on voit, vit, génère chaque jour. En effet, c’est un monde étrange, régit par ce qui pourrait passer pour des bizarreries et qui n’est pas dénué de poésie.

Par la même occasion, le L.H.C. porte l’autre espoir de découvrir ce à quoi ressemblait l’Univers quelques instants après sa « création », à l’époque où le tout était contenu dans un si petit volume que les lois de la physique qui gouvernaient ce monde, étaient déjà celles de l’infiniment petit. Mais dans une acception concrète, il y avait aussi le défi, aujourd’hui relevé, d’observer le célèbre boson de Higgs et compléter ainsi le modèle dit « standard » sur lequel repose une grande partie de la physique. Le L.H.C. a demandé des années de préparations et la collaboration de corps de métier différents allant des physiciens (théoriciens et expérimentateurs) aux informaticiens en passant par des manutentionnaires spécialisés dans le forage de tunnel3. Cette diversité est d’autant plus évocatrice des métamorphoses de la science aujourd’hui, qu’elle est représentative de ce qui se passe également dans les champs qui nous intéressent.

Par ailleurs, ce détour par la physique des particules nous permet d’aborder un second aspect qui nous paraît fondamental dans l’avancée de la recherche : les théoriciens découvrent l’existence d’entités mais il faut des décennies pour que l’expérience vienne les valider. Et parfois, c’est au sein d’autres domaines de recherche que la supposition théorique est observée et vérifiée. En effet, grâce aux calculs mathématiques et aux modèles qu’ils construisent, les physiciens théoriciens émettent des hypothèses quant à l’apparition, la fonction et même les caractéristiques de ce qui initialement ne sont que des concepts. Mais la vérification

1 BAILLY A., Abrégé du dictionnaire GREC FRANÇAIS, Paris, Hachette.

2 ORTOLI S., PHARABOD J.P., Le cantique des quantiques, Le monde existe-t-il, Paris, Ed. La Découverte, 2004.

55 expérimentale ne vient que plus tardivement, voire très tardivement. Cela fut le cas pour le boson de Higgs découvert théoriquement en 1964 par Peter Higgs mais aussi par Robert Brout et François Englert et vérifié expérimentalement en 2013 ; soit presque 50 ans pour voir un postulat devenir une réalité scientifique. Notons que lorsque l’hypothèse est émise théoriquement, elle ne reçoit pas toujours un accueil chaleureux1.

Cet écart ne se comble effectivement qu’au regard des avancées technologiques et de la maîtrise qu’en ont les spécialistes de chaque domaine. Ainsi, pour le L.H.C., il fallait que puisse se construire, entre autres, des réseaux informatiques complexes afin de traiter la masse d’informations fournies par les détecteurs de particules, que l’on ait les connaissances et le savoir-faire pour créer ces mêmes détecteurs, que les technologies permettent de maintenir des tonnes d’hydrogènes en état quantique, autrement dit à -269° en état dit « superfluide » et ce, afin de refroidir les aimants qui allaient permettre aux faisceaux de particules de se courber et d’accélérer. Tant de domaines ont été sollicités que l’on ne peut les citer tous. Il faut souligner enfin que c’est le projet lui-même qui parfois, a permis l’invention du matériel et l’enrichissement des connaissances nécessaires à l’aboutissement du projet. Ces projets sont donc des aboutissements de décennies de recherches pointues dans des domaines très différents, comme des vecteurs de créativité et d’invention.

La psychologie n’échappe plus à ce fonctionnement et bien que les expériences n’aient pas manqué dans ce domaine, elles se sont enrichies d’un outil qui donne aux découvertes une assise inégalée au regard des exigences de la science : l’imagerie cérébrale. Bien entendu, cela n’invalide en rien les expériences dites « comportementales » passées comme actuelles, basées sur la statistique et l’étude de l’être humain face à des situations calibrées préalablement. Mais, si l’imagerie cérébrale, occupe parfois cette place de « vérification scientifique », la tâche n’est pas aisée en ce qui concerne l’humain. De plus, la jeunesse de ce domaine comme sa fulgurante progression ne permettent pas d’en faire le « couperet objectiviste idéal ». En effet, ce domaine ne jouit pas d’un passé tel que celui de la physique ; et s’il peut parfois invalider certaines hypothèses, il participe beaucoup à rajouter des questions aux chercheurs plus que d’en clore.

Les découvertes successives des particules élémentaires et antiparticules lors du siècle dernier eurent le même effet sur les chercheurs qui voyaient leur modèle se complexifier et les obligeaient à le modifier sans cesse. Ainsi, la neuro-imagerie est également un acteur de la recherche de par ses découvertes, l’inventivité qu’elle impose aux chercheurs et la créativité qui en découle. Et pour en arriver aux procédés qui vont être décrits il a donc également fallu : - l’accumulation des connaissances et savoir-faire dans des domaines très différents comme la physique, la chimie, la médecine mais aussi l’informatique sans laquelle aucune des données ne pourrait être compilées ;

- du temps entre l’énoncé des hypothèses théoriques pour chacun de ces domaines, leurs vérifications expérimentales et leurs mises en application pratique.

Sans ces ensembles, la science du cerveau ne pourrait pas même exister. Et c’est parce que ces dernières années ont vu ces échanges entre différentes branches de la science se mettre en place, que l’on peut aujourd’hui s’appuyer sur de tel travaux et résultats. De même, on ne peut

1 Le principe d’indétermination d’Heisenberg et plus généralement le formalisme quantique ont longtemps divisés les scientifiques (controverse de Bohr-Einstein) jusqu’à ce que l’expérience (notamment celles d’Alain Aspect dans les années 80 en ce qui concerne l’indétermination) vienne ancrer la théorie dans l’expérimentation et la valider objectivement. Cf. KLEIN E., La Physique Quantique, Paris, Flammarion, Coll. « Dominos »,1996.

décemment penser que ces avancées, bien que révolutionnaires, sont venues spontanément : elles sont le fruit de ces nouveaux liens et de l’affinement progressif des théories et des expérimentations successives.

Il faut noter enfin que, loin du modèle standard de la physique, les modèles pour le comportement de l’humain mais aussi sa subjectivité, sont nombreux et qu’aucun ne fait l’unanimité même après des décennies d’existence. A cela s’ajoute qu’au sein de chaque modèle, des courants de pensée différents et les orientations de recherches se diversifient éloignant les chercheurs sans qu’il y ait réellement de retour commun sur ce qui a initié la recherche.

Ainsi, en imagerie cérébrale, chaque méthode d’observation tente de rendre compte d’une caractéristique physique, chimique, biologique, propre du fonctionnement de notre cerveau.

L’ensemble essaie donc de localiser, mais aussi de décrire les mécanismes et les interactions du substrat organique qui compose le cerveau humain. Mais il est important de souligner que cette analyse fine du substrat cérébral renvoie inexorablement à une opération mentale, un traitement cognitif d’une information (consciente ou non-consciente) et que l’imagerie, en s’appuyant sur des phénomènes chimiques ou autres, vise une compréhension précise des fonctionnements cérébraux et in fine, de la pensée et du comportement humain.

1. La T.E.P. : Tomographie par Emission de Positon

Ces précisions préalables permettent d’emblée de plonger au cœur d’un élément de notre cerveau : les atomes. Mais l’intérêt qu’ils présentent, en l’occurrence, se trouve dans la recherche « d’équilibre » de ces atomes. C’est de l’atome d’oxygène dont il s’agira ici, mais celui (le -O-) que l’on trouve dans la molécule d’eau : H2O. Ce dernier a la particularité d’être prompt à redevenir stable lorsqu’on l’a « forcé » à être radioactif en modifiant sa structure profonde, autrement dit son noyau.

En effet, la neuro-imagerie ne peut travailler comme le L.H.C., c’est à dire uniquement avec l’atome et les particules élémentaires : il ne s’agit plus de créer des faisceaux de particules dont on observerait la collision. Il s’agit bien d’atomes mais eux-mêmes compris dans des ensembles plus complexes : les molécules, puis les cellules (le neurone), puis les réseaux neuronaux locaux etc. Il sera question de chacun de ces ensembles au fur et à mesure de la description des outils de la neuro-imagerie.

Précisons que la tomographie est une technique d’imagerie qui peut se faire en émettant des positons comme ce sera le cas dans ce qui suit, mais l’on peut utiliser des rayons X1. Le principe de la tomographie est de donner, en l’occurrence, non pas une image globale de l’organe mais des images de « coupes ». Autrement dit, ce sont des tranches que l’on regarde, ce qui permet de voir à l’intérieur de l’organe grâce à ces coupes horizontales, verticales ou obliques. La nouveauté de cette technique en neuro-imagerie fut qu’elle permettait de ne pas ouvrir la boite crânienne comme ce fut le cas aux premiers temps de l’étude du cerveau et qu’elle pouvait s’effectuer sur des sujets conscients et bien portant contrairement aux rayons X qui ne repèrent que les lésions.

57 En bref, la tomographie à émission de positon observe l’aboutissement d’une réaction en chaîne1 : la molécule d’eau est constituée de deux atomes d’hydrogène (H2) et d’un atome d’oxygène (O). Cet atome d’oxygène, dont le noyau est lui-même composé de huit protons et huit neutrons, a ceci de commun avec les autres atomes non radioactifs : il est stable. La solution pour le rendre instable est de lui faire perdre un neutron. Pour se faire, on utilise le même appareil que le L.H.C. : un accélérateur de particule. Grâce à ce dernier, dont les mensurations sont bien moindres que celles du L.H.C., les atomes contenus dans l’eau sont bombardés par des protons jusqu’à la perte attendue du neutron au cœur du noyau de l’atome d’oxygène. Cette opération a pour effet de rendre l’atome radioactif, autrement dit instable. L’eau contenant ces atomes d’oxygène radioactifs est ensuite injectée dans le sang du patient qui peut alors s’allonger et placer sa tête (pour l’organe qui nous intéresse) dans la caméra à émission de positon.

L'eau radioactive va circuler dans le corps. Dans le cerveau, elle va se concentrer davantage dans les zones sollicitées par la tâche. L’oxygène va alors effectuer une transformation atomique, libérer un positon (d’où « par émission de positon ») et ce dernier s'annihiler dans un jet de "lumière". Ce sont les deux photons émis en direction opposée que les scientifiques vont observer à l’aide d’une caméra puis l’informatique. L’ordinateur va modéliser une carte en trois dimensions et ainsi, « voir » où le cerveau « s’éclaire » et pour quelle tâche.

Mais cette simplicité apparente renferme en réalité toute une complexité de liens, de ponts entre des domaines initialement éloignés.

Car pourquoi s’intéresser à l’eau contenue dans le cerveau ? Pourquoi a-t-on pensé à cet atome d’oxygène qui la constitue ? Comment en est-on venu à cette idée de rendre cet atome radioactif, puis d’attendre qu’il se débatte pour retrouver sa stabilité perdue pour ensuite penser pouvoir observer la réaction en chaîne que déclenche le retour à l’équilibre ? Et d’où vient cette étrange particule qui ne ressemble à aucune autre qu’est le positon ? Et enfin comment se fait-il qu’fait-il puisse, à son tour, provoquer l’émission de deux photons qui partent chacun de leur côté, décrivant toujours un angle de quasiment 180° et à une énergie systématiquement identique ? Chacune de ces questions renvoie à une découverte parfois essentielle, dans un domaine spécifique et à des époques différentes. L’ensemble offre cette technique d’imagerie cérébrale moderne et par la même, la possibilité d’observer le cerveau en action et l’ouverture vers de nouvelles perspectives de recherches.

Le premier aspect fondamental de ce cheminement n’est pas venu des psychologues dont D. Le Bihan s’étonne de l’orientation des recherches pendant des décennies : « Pour bizarre que cela puisse paraître, les psychologues s’intéressaient jusque-là au comportement, mais pas au cerveau en tant qu’organe, considéré comme une boite noire. »2. En effet, il est venu de la médecine mais l’avancée principale expérimentale nous vient d’un domaine éloigné de la psychologie : la chirurgie. Ainsi, à la fin du XIXe siècle deux médecins anglais3 supposèrent que lorsqu’une personne était soumise à une tâche, l’activation cérébrale entraîne une augmentation du débit sanguin dans la zone cérébrale sollicitée. Ce lien entre activité cérébrale et débit sanguin sera appelé par la suite « couplage neurovasculaire ».

1 www.cea.fr/jeunes/themes/la-radioactivite/l-imagerie-medicale/les-principes-et-les-outils-premiere-partie

2 LE BIHAN D., Le Cerveau De Cristal, Ce que nous révèle la neuro-imagerie, Odile Jacob, Coll.

« Sciences », 2012, Paris, p.58.

3 Sir Charles Scott Sherrington et Charles Smart Roy ; Cf. Ibid.

Il faudra attendre plusieurs décennies avant que ce dernier, bien qu’admis par la communauté scientifique, ne soit définitivement vérifié : le couplage neurovasculaire sera observé scientifiquement grâce à Wilder Penfield surtout, qui pratiquait la chirurgie et réveillait ses patients alors que leur boite crânienne était ouverte. Il s'adressait alors à eux et put observer que certaines zones du cerveau changeaient de couleurs lorsque le patient effectuait une tâche comme celle, toute « simple », de lui répondre. Ce changement, d'abord observé en surface, était donc bien dû à l'augmentation du débit sanguin dans la zone sollicitée.

De nos jours, c'est encore cela que l'on observe avec la T.E.P. mais de façon précise et en utilisant ce processus comme vecteur. Cependant, il faut noter que cette augmentation du débit garde ses secrets car les personnes qui se sont penchées sur ce problème n'ont pas encore résolu la question dans son intégralité. Il apparaît que cette augmentation s'avère être excessive au regard des besoins qu’a le cerveau pour le traitement d’une information. Le volume sanguin est

"trop" élevé en comparaison des besoins que l'on connaît au cerveau pour effectuer une tâche.

Si le mécanisme du couplage neurovasculaire est désormais mieux connu qu'à l'époque de Penfield, les raisons de cet excès restent incertaines.

Le second domaine fondamental à connaître de la T.E.P. est la physique quantique et notamment l’une des révolutions essentielles qu’elle a déclenchée. Les effets de cette découverte dépassent largement le cadre de la tomographie en question puisqu’elle change notre vision classique du monde. En effet, lorsque l'atome d'oxygène est rendu radioactif, ce dernier va désespérément tenter de revenir à l’équilibre au sein de son noyau et ainsi retrouver le même nombre de proton et de neutron. Pour ce faire, il va "transformer" un de ses protons en neutron, et se retrouver donc avec 7 neutrons et 7 protons. A retrouver l’équilibre, il y perd son âme et il devient donc un noyau d’azote, désormais stable et non radioactif. Cette opération prend à peine deux minutes et il faut donc rapidement après avoir injecté l’eau radioactive, effectuer les observations.

Néanmoins, lorsque l’atome d’oxygène effectue ce changement, il émet un positon, autrement dit un électron chargé positivement. Ce qu'il y a de particulier dans ce phénomène c'est que c'est de l'antimatière qui vient d'être émise ; car si l’électron est connu de tous et fait partie de notre monde de matière, son antiparticule, le positon fait partie de ce monde nouveau à nos yeux mais présent depuis le début de notre Univers : l’antimatière. Les physiciens supposent d’ailleurs qu’aux premiers temps de l’Univers, ce qui a rendu possible notre présence 14 milliards d’années plus tard, c’est un léger surplus de particules de matière (électron, proton etc.) par rapport aux antiparticules (positon, neutrino etc.). Car matière et antimatière s’annihilent et cette dernière, supposée par Dirac, fait partie de ces découvertes qui ont révolutionné la vision du monde en physique.

En 1928, cherchant à résoudre le problème du spin d’une particule, Dirac écrit une équation qu'il va retravailler à maintes reprises. Dans sa mouture finale, Dirac qui aimait les belles équations, se voit contraint d'ajouter dans son formalisme mathématique une variable qui fait intrusion dans la logique des physiciens de l'époque. Il ajoute en effet, un élément qui suppose ce qui sera nommé bien plus tard « l'antimatière ». Mais pour l'heure, Dirac soutient que son équation est juste et pendant quatre années il va chercher à trouver une interprétation acceptable à son rajout et qui trouve, dans la réalité du monde, une existence plausible. Une fois n'est pas coutume, ce n'est qu'en 1932 qu'un autre physicien Carl David Anderson, sans pour autant connaître les travaux de Dirac, va pouvoir révéler l'existence de l'antimatière par plusieurs expériences et ainsi donner raison à ce curieux personnage que fut Dirac.

59 Avec la T.E.P., l’antimatière apparaît grâce au positon issu de l’oxygène radioactif et les scientifiques vont observer les effets de cette émission. Le positon va en effet, rentrer rapidement en collision avec la particule de matière qui est sont "entité inverse", l’électron (chargé négativement). Or, le positon se déplace au cœur du cerveau et il est donc entouré d’autres particules et atomes. Sur sa trajectoire, il va percuter l’électron d’un atome situé dans le voisinage et les deux vont s'annihiler au cœur du cerveau. Mais s’ils disparaissent tous deux, ils le font dans un « panache » de lumière en produisant deux photons (les rayons gamma) qui partent dans des directions quasiment opposées. Le fait que ces deux photons partent à environ 180° a son importance car c’est grâce à cette caractéristique que les ordinateurs vont pouvoir calculer ensuite le lieu d’émission des photons et donc la zone d’activation neuronale. C’est également ce qui explique que la caméra soit un cylindre car il faut, pour les scientifiques être sûr qu’il s’agit bien d’une émission simultanée de deux photons gamma et non le passage d’un

59 Avec la T.E.P., l’antimatière apparaît grâce au positon issu de l’oxygène radioactif et les scientifiques vont observer les effets de cette émission. Le positon va en effet, rentrer rapidement en collision avec la particule de matière qui est sont "entité inverse", l’électron (chargé négativement). Or, le positon se déplace au cœur du cerveau et il est donc entouré d’autres particules et atomes. Sur sa trajectoire, il va percuter l’électron d’un atome situé dans le voisinage et les deux vont s'annihiler au cœur du cerveau. Mais s’ils disparaissent tous deux, ils le font dans un « panache » de lumière en produisant deux photons (les rayons gamma) qui partent dans des directions quasiment opposées. Le fait que ces deux photons partent à environ 180° a son importance car c’est grâce à cette caractéristique que les ordinateurs vont pouvoir calculer ensuite le lieu d’émission des photons et donc la zone d’activation neuronale. C’est également ce qui explique que la caméra soit un cylindre car il faut, pour les scientifiques être sûr qu’il s’agit bien d’une émission simultanée de deux photons gamma et non le passage d’un

Dans le document The DART-Europe E-theses Portal (Page 55-97)

Documents relatifs