• Aucun résultat trouvé

PROPRIETES MENTALES ET VARIABLES LATENTES

1.1. La nature ontologique des propriétés mentales

1.1.2 La nature physique des propriétés mentales

La littérature se contente le plus souvent de considérer que les propriétés mentales sont issues de processus complexes. La littérature use souvent du terme « propriété émergente ». Mais le

48 terme « émergence » semble devenir un artifice pour éviter le débat sur la nature réelle des propriétés mentales car l’émergence n’est pas souvent explicitée, je reviendrai sur ce point dans mon développement. Il y a donc nécessité de clarifier d’un point de vue réaliste l’ontologie des propriétés mentales, et donc « l’émergence » potentielle associée. Cette tentative de clarification amènera comme conclusion que l’existence de propriétés mentales peut être hypothésée9 effectivement comme propriétés émergentes, donc sans pouvoir les définir de façon spatio/temporelle précisément, mais en clarifiant la notion d’émergence et quelles sont ses implications.

1.1.2.1 La vision modulaire du cerveau

Pour la théorie de l’identité en philosophie de l’esprit, la mesure psychologique est redondante avec la mesure neuronale car la propriété mentale est ontologiquement réductible à l’état physiologique. Si une propriété mentale est inobservable, c’est par ignorance ou faiblesse méthodologique, mais on pourra la réduire à des réseaux neuronaux et ce n’est alors plus nécessaire de la mesurer par un modèle de mesure (variables latentes) utilisé en psychologie. Même sans être d’accord avec la théorie de l’identité, il paraît évident aujourd’hui, à moins d’être dualiste (au sens cartésien du terme), de considérer qu’une propriété mentale est liée au cerveau. Mais le fait qu’un état mental10 soit caractérisé par un état cérébral ne veut pas dire que l’on peut ontologiquement réduire l’un à l’autre comme le souligne bien des auteurs (L. F. Barrett, 2009a par exemple).

Différents auteurs ont essayé de connecter l’activité neuronales et les propriétés mentales inférées par des variables latentes. Kievit et al. (2011a, 2012) proposent une démarche méthodologique originale pour associer des mesures d’attributs physiologiques et des mesures d’attributs11

psychologiques. Leur démarche propose de relier des mesures neurobiologiques et des propriétés mentales au travers de modèles d’équations structurelles. Leur article se veut une réponse à la critique du réductionnisme des neurosciences que pointent certains chercheurs. D’autres travaux proposent des modélisations similaires (Charlton et al. (2008), Dietvorst et al. (2009) pour exemples). Kievit et al. (2011a, 2012) regardent les relations entre deux niveaux d’analyse : niveau neuronale et niveau psychologique pour, au-delà des

9 J’utilise ce verbe inexistant et pourtant plein de sens, Cavalla & Grossmann ( 2004) « faire est un outil

grammatical que nous pourrions remplacer par le verbe Hypothéser si celui-ci existait en français (il existe en anglais to hypothetize) » p. 6.

10

Comme explicité antérieurement, j’use ici de « état mental » pour caractériser une forme particulière d’une « propriété mentale ».

49 corrélations, pouvoir relier ces deux champs. Au-delà de problèmes méthodologiques (l’usage de modèles formatifs sur lesquels je reviendrai dans la seconde partie de ce travail), tous ces articles se basent sur une vision modulaire du cerveau. De façon plus ou moins claire, à l’image du travail de Kievit et al. (2011a, 2012), la plupart des travaux, usant de neuro- imagerie pour inférer les propriétés mentales, posent implicitement ces dernières comme des modules cérébraux.

Barberousse et al. (2000) rappellent les bases de la vision modulaire du cerveau : « un système

psychologique est modulaire selon Fodor s’il possède un certain nombre de caractéristiques

[...] Les modules sont informationnellement cloisonnés et associés à une architecture

neuronale fixe. » (pp. 248-250). Ce qui justifie cette conceptualisation est la nécessité de

l’adaptation du système psychologique par le processus d’évolution : « s’il existe des

fonctions psychologiques analysables comme autant d’adaptation à l’environnement, on doit s’attendre à ce que ces adaptations soient relativement indépendantes les unes des autres »

(p. 249), et donc localisées dans des zones différentes. Une cartographie générale des fonctions cognitives du cerveau fait d’ailleurs l’objet d’une agrégation des données des différentes expériences en neurosciences (http://www.brainmap.org/ ; Laird, Lancastrer, & Fox (2005); Poldrack (2006)), mais cette démarche peut être largement discutée voire contestée (au-delà de l’aspect éthique).

1.1.2.2 Critique de la vision modulaire12

La neurologie a montré que les fonctions sensorielles et motrices étaient relativement bien localisées dans le cerveau. Il est évidemment séduisant de prédire que les propriétés mentales le seraient également. Or, pour bien des auteurs, une propriété mentale ne peut être localisée de façon absolue dans le cerveau. Les propriétés mentales peuvent être vues comme résultant de processus cognitifs, eux-mêmes vus comme des « fonctions » mentales. D’après cette approche connexionniste, tout processus cognitif peut faire intervenir, à différents moments, des ensembles neuronaux variés et largement distribués. La littérature abonde ainsi d'articles contradictoires sur la localisation de processus cognitifs « élémentaires » et sur les erreurs et de logique scientifiques en neuro-imagerie et d’interprétation des résultats. Je ne donne qu’un petit échantillon de cette littérature.

12 Je remercie chaleureusement L. Conty pour la relecture de cette partie (L. Conty est MCU HDR en

neurosciences à l’Université Paris 8, membre du laboratoire « Psychopathologie et neuropsychologie » et chercheuse associée à l’UMR INSERM-ENS « Neurosciences cognitives »).

50 L. F. Barrett (2009a, 2009b) discute à partir de différents exemples de l’approche « localisationniste » des fonctions mentales rentre en contradiction avec bien des résultats empiriques. L. F. Barrett rappelle par exemple que l’on ne peut pas isoler une partie du cerveau pour la mémoire, les émotions ou autre. Pour la peur par exemple, on peut trouver des zones neuronales pour le « freezed13 », « le sursaut », « la fuite potentielle ». Ces circuits sont distincts, mais aucun d’eux n’est le circuit réservé à « la peur ». McIntosh (2000), à partir de trois exemples, illustre la plasticité du cerveau, les interactions entre zones cérébrales et la non-spécialisation de certaines zones, qui font que pour lui une zone du cerveau ne peut être considérée comme une localisation fiable de processus cognitif précis. Gureckis, James, & Nosofsky (2011) ont montré aussi que des zones différentes du cerveau, analysées au départ comme des fonctions différentes, ne le sont pas forcément. L. F. Barrett (2009a) discute aussi de zones cérébrales initialement dévolues à des tâches spécifiques qui s’avèrent avoir des fonctions plus complexes et moins spécialisées. Anderson (2010) apporte toute une littérature amenant le même relativisme sur les fonctions particulières de certaines zones du cerveau. Pour McIntosh (2000), même pour des tâches simples, il y a certainement différentes régions actives car au moins les fonctions de l’« attention », de la « perception », et de la « motricité » sont actives. Il faudrait mieux parler de réseaux de régions ou d’agrégation plutôt que de localisation de fonction cognitive. Pour Anderson (2010), lors de protocoles expérimentaux, des zones actives peuvent n’être ni nécessaires ni suffisantes. Elles peuvent s'activer sans être liées à la tâche, des zones actives peuvent ne pas être nécessaires. De plus certaines activités cérébrales ne se caractérisent pas tant par les zones activées que les relations entre certaines zones. Pour Harley (2004), en isolant des zones particulières dédiées à priori à certaines tâches, on fait l'impasse sur l'hypothèse que les processus cognitifs puissent en permanence faire appel à l'ensemble du cerveau, et donc, si tel était le cas, la neuro-imagerie n'apportera jamais aucune information sur la cognition. Poldrack (2008, 2010) considère lui aussi qu’il est impossible d’associer une fonction précise à une zone cérébrale, renvoyant la discussion sur la mémoire de travail qui pourrait être inexistante, ou plutôt ne pas être une fonction mais faisant appel à différentes fonctions cognitives. Cependant, comme le souligne L. F. Barrett (2011), cela n’est pas contradictoire avec le fait que certaines régions cérébrales sont dévolues à certaines fonctions.

La neuro-imagerie mesure classiquement des changements métaboliques engendrés au niveau du cerveau par l’activité de neurones (des millions localisés au même endroit) . Ces mesures

51 se font à l’aide de la TEP (Tomographie par émission de positron) ou de l’imagerie par résonance magnétique fonctionnelle (IRMf). Concrètement ce sont les flux sanguins, et le niveau d'oxygénation lié qui sont indirectement mesurés par sondage toutes les quelques minutes (TEP) ou quelques secondes (IRMf) aux niveaux de voxels (environ 100 000 en IRMf) qui permettent d’obtenir une image du cerveau en trois dimensions (un voxel est un pixel en 3D). La circulation sanguine étant un phénomène physiologique relativement lent (comparé à l’activité d’un neurone), le signal intègre l'activité cérébrale de plusieurs secondes : la résolution spatiale de ces techniques est donc excellente, mais leur résolution temporelle est faible. Il existe des techniques dites électrophysiologiques (telles que l’électroencéphalographie -EEG) qui possèdent au contraire une excellente résolution temporelle mais une résolution spatiale faible. Dans certains cas cliniques, il est possible d’enregistrer l’activité de neurones isolés ou de petits groupes de neurones. Ces enregistrements intracraniens ont des résolutions spatiales et temporelles toutes deux excellentes. L’ensemble de ces dernières techniques (dites directes), moins connues du grand public et qui font l’objet de moins de publications, présentent les mêmes limites dans leur interprétation des données et les modèles statistiques employés et je me focaliserai par la suite sur l’IRMf pour illustrer mes propos.

Beaucoup d’articles discutent ainsi des erreurs potentielles associées aux résultats en neuro- imagerie qui expliqueraient la fragilité des résultats ayant permis d’associer une zone cérébrale précise à un processus cognitif précis. Sur le plan du recueil les données, la neuro- imagerie souffrirait de positions largement discutables. Pour Brown (2012), la critique la plus importante concerne l'usage du signal BOLD (blood-oxygenation level dependent) mesuré en IRMf. Cette critique concerne la relation établie entre les zones cérébrales révélées actives par l’IRMf et les hypothèses cognitivistes, notamment sur l'unicité d'une zone pour une tâche. Borwn parle de la Blobology14, c’est-à-dire de la cartographie du cerveau à partir de blobs d’activation révélés par l’IRMf.

Heeger & Ress (2002) considèrent que l’on recueille au mieux une approximation entre l’activité neuronale, la demande métabolique, le flux sanguin et l’oxygénation. D’après Shallice & Cooper (2011) le signal BOLD acquis en IRMf montre des potentiels sans pouvoir assurer pour autant que les zones visualisées (les blobs) soient primordiales à la fonction étudiée. De plus, Sirotin & Das (2009) montrent que l’interprétation du signal BOLD (relation

14 Un blob désigne l’activité significative d’un ensemble de voxels (un cluster), représentée graphiquement sous

52 linéaire entre les neurones et le signal hémodynamique) est valide pour les signaux visuels, mais ne permet pas de prédire les autres signaux. Enfin, l'hypothèse de l'homogénéité des zones est largement contestable. L'imagerie neuronale se base généralement sur une hypothèse faible : le lien entre les réponses et les zones activées sont monotoniquement liées au signal BOLD de façon identique pour toutes les personnes. De plus, la corrélation entre les états cognitifs et les états du signal neuronal est une corrélation partielle, et leur synchronisation temporelle est loin d’être parfaite. Le signal enregistré, en TEP ou en IRMf, est un simple signal d’activation qui ne peut en aucun cas être interprété en termes d’excitation ou d’inhibition. Cela a pour conséquence qu’un même pattern d’activation observé dans deux situations différentes peut avoir une signification fonctionnelle différente. Sans oublier aussi les effets résiduels des modifications hémodynamiques qui peuvent durer près d’une minute, les artefacts divers liés aux mouvements du sujet, à sa respiration et à son rythme cardiaque et, enfin, l’hétérogénéité du rapport signal–bruit selon les différentes régions du cerveau.

Au-delà du recueil des données largement discutable en neuro-imagerie, l’analyse des données est aussi sujette à caution. Vul & Kanwisher (2010) expliquent les difficultés d’analyser les données en IRMf (masse de données, recueil des données, …). Un IRMf à faible résolution donne 81 000 données toutes les 3 secondes, à haute résolution 500 000 mesures toutes les deux secondes. Les données en 4 dimensions (3D+temps) sont corrigées, co-enregistrées, transformées, lissées pour donner une image du cerveau (« resampled,

detrended, normalized, smoothed, trimmed (temporally or spatially) »). Chaque étape se fait

avec des paramètres choisis par l’auteur. La difficulté réside dans le fait qu’avec un tel volume de choix, il est difficile de vérifier si ceux-ci ne biaisent pas les résultats. Bagozzi (2011a, p. 93) note : « With a host of multiple apparatuses used to collect and process data,

one can see that the likelihood of method bias is very real. ». Une technique usuelle est de

poser l’hypothèse que les bruits sont indépendants. Cependant, Vul et Kanwisher pointent que cette hypothèse est peu vraisemblable (cf. appendice 2 de Vul & Kanwisher, 2010), rendant l’erreur de première espèce quasi certaine (validé pour des données simulées sur des purs bruits). « It is quite possible that a considerable number of relationships reported in this

literature are entirely illusory » (Vul, Harris, Winkielman, & Pashler, 2009, p. 20).

Après la phase de recueil et de préparation des données, l’analyse régresse généralement l’activité de chaque voxel. La littérature académique révèle des erreurs usuelles d'analyse des données en neurosciences à ce niveau. Ces erreurs sont conséquentes de la gestion d'une masse de données estimées importante. Un IRMf comporte généralement des dizaines de

53 milliers de voxels, c'est à dire des dizaines de milliers de tests qui comportent un risque important de résultats positifs faux (erreur de type 2). Le problème soulevé est le contrôle des comparaisons multiples qui n’est pas toujours effectuée dans les articles académiques. Nichols & Hayasaka (2003); Vindras, Desmurget, & Baraduc (2012); Vul et al. (2009); Vul & Kanwisher (2010) posent ainsi le problème de la comparaison multiple effectuée en neurosciences et de la fiabilité statistiques de nombreux résultats en neuroscience. En suivant le protocole usuel utilisé en neuro-imagerie, Bennett, Baird, Miller, & Wolford (2011) montrent qu'un saumon mort peut présenter des activations significatives lors d’ une tâche cognitive effectuée sous IRMf.

Vul et al. (2009) et Vul & Kanwisher (2010) pointent une autre erreur méthodologique très fréquente : le biais de sélection ou « l’erreur non-indépendante ». La zone cérébrale analysée (voxels significativement différents entre deux tâches ou deux populations) est très souvent sélectionnée sur la base de résultats statistiques, puis analysée par rapport à d’autres variables. Ce procédé, dit récursif, aboutit à ce que les résultats ne fassent que confirmer des biais de sélection de voxels. Vul et Kanwisher discutent de beaucoup d’articles contenant cette erreur : « It is rare to find an issue of a neuroimaging journal in which none of the articles have

plotted non-independent data » (Vul & Kanwisher, 2010) et illustrent par simulations à partir

de bruits gaussiens les résultats faussement positifs que l’on peut trouver sur la base de ces procédés récursifs.

1.1.2.3 Les base d’une vision non-modulaire du cerveau

Pour Tiberghien (2007) l'effet mesuré en neuro-imagerie est attribué à une entité cognitive hypothétique que l’on postule unitaire, c’est-à-dire non-décomposable en d’autres sous- processus cognitifs, de plus bas niveau, ou non-attribuables à des processus cognitifs de plus haut niveau. C’est un pari évidemment à très haut risque et qui peut même être théoriquement et logiquement contesté, car il repose à la fois sur une conception strictement modulaire de la cognition et sur un modèle linéaire du cerveau. Anderson (2010) pose une autre manière d’appréhender les réseaux neuronaux en posant l’hypothèse d’une requalification des neurones en fonction des tâches à accomplir. Cette perspective ne contredit pas elle non plus que certaines zones soient dévolues plus spécifiquement à certaines tâches, mais cela relativise énormément la vision purement modulaire du cerveau. Les réseaux neuronaux non seulement seraient en interactions permanentes, mais de plus auraient des fonctions différentes et évolutives. Cette approche permettrait de comprendre les différences de

54 localisations trouvées entre populations de cultures différentes (cf. les résultats de Chiao & Cheon, 2010). Shimamura (2010) confirme cette critique de la vision réductionniste, une complète explication de la cognition demande de prendre en considération beaucoup de circuits neuronaux et les interactions entre eux. D’ailleurs pour Fodor (1983) le système modulaire pourrait ne pas s'appliquer aux processus cognitifs de « hauts niveaux tels que le

raisonnement ou la prise de décision » de la pensée.

La vision modulaire des processus mentaux semble donc largement discutable, autant sur ses fondements théoriques que sur les résultats empiriques.