• Aucun résultat trouvé

PROPRIETES MENTALES ET VARIABLES LATENTES

2.1 Le problème de la mesure en psychologie

2.4.3 Le problème de la falsifiabilité

Vautier (2015f) considère que le modèle probabiliste maquille les « anomalies » des donnés relativement au modèle théorique (concrètement, des items considérés comme hiérarchisés verront des personnes réussir des items « plus difficiles » et échouer à des items « plus faciles », donc contradictoire avec la théorie) : « L’intuition quantitative est sauvegardée mais

c’est au prix d’un renoncement à la connaissance théorique. ». En conséquence, les modèles

avec variables latentes ne seraient pas testables pour Vautier (2011) : « We shall see that an

empirical law consists precisely of stating an empirical impossibility, i.e. a partially deterministic falsifiable statement. », et Vautier et al. (2014) : « Consequently, individual observations cannot play the role of falsifying cases in this paradigm ».

Cependant, comme Guttman le considérait « perfect scales are not to be expected in practice » (cité par Engelhard, 2008, p. 165). En effet, la psychologie n’est pas une science dure dans

192 le sens où les théories ne renvoient que très rarement à des modèles déterministes, mais à des “propensions” comme je l’ai discuté, modélisés par des modèles statistiques. La falsifiabilité des modèles doit donc s’inscrire dans un tel cadre non-déterministe mais en relation avec le cadre nécessaire de la psychologie (modèles statistiques).

2.4.3.1 Le problème de la falsifiabilité

Une des critiques centrales (Vautier par exemple) est sur la non- falsifiabilité possible des modèles de mesure car l’introduction des erreurs de mesure permet de justifier toute modélisation. De plus, sur le plan des résultats empiriques, rien ne permet de valider un modèle vs un modèle concurrent, c’est le fameux problème des modèles « équivalents » par exemple avec les SEM (MacCallum, Browne, & Sugawara, 1996). Bartholomew, Deary, & Lawn (2009) montrent d’une façon plus générale qu’une matrice de corrélations peut être comprise comme déterminée par une dimension unique ou différents facteurs, sans pouvoir determiner un “meilleur” modèle au sens statistique du terme (GOF ou autres) : « This means

that there is no statistical way in which we can distinguish between the two types of model on the basis of their covariances alone [...] the main point of the exercise has been to show that there is a broad family of models, including both the familiar factor model and the various versions of the bonds model, which cannot be distinguished by any statistical means. » (p.

573-574). Or la seule validité des tests est souvent leurs corrélations avec d’autres phénomènes étudiés, qui a donc une puissance faible (Meehl, 1990). McGrath (2005a) montre que pour des dimensions proches, différents tests donnent ainsi des résultats peu corrélés et il donne différents exemples de tests douteux, usuellement utilisés, car la validité croisée des tests est faible empiriquement. Cela renvoie-t-il à une impasse scientifique, les modèles de mesure s’appuyant sur des modèles statistiques ?

2.4.3.2 Critique de la falsifiabilité « dogmatique »

De prime abord et d’une façon générale il est contestable que la falsifiabilité, dans le sens strict poppérien, soit au cœur de tous les développements scientifiques. Putnam (1984) notait

« la théorie de l’évolution par sélection naturelle n’est pas fortement falsifiable ; elle ne fait pas de prédictions bien définies qui permettraient de la réfuter. Nous n’acceptons pas la théorie de l’évolution parce qu’elle a survécu à un test poppérien, mais parce qu’elle fournit une explication plausible d’une masse de données, parce qu’elle a suggéré un ensemble de nouvelles théories, parce qu’on a pu la rattacher aux développements de la génétique et de la

193

biologie [...] » (p. 218). De plus, comme le note Feyerabend (1975/1988), une théorie n’est

jamais en « vraie » au sens poppérien car il y a toujours des contre-exemples (même pour les théories les plus acceptées), ou des « anomalies » (Lakatos, 1970). De plus, Feyerabend (1975/1988) discute que, le plus souvent, le remplacement d’une théorie par une autre ne se fait pas de la façon poppérienne, par falsifiabilité indubitable, car le cadre théorique de Galilée par exemple ne répondait pas à des résultats empiriques (un certain nombre de contre exemples ont été proposés à Galilée qu’il ne pouvait réfuter sur la base de son cadre théorique, voir tout le développement de Feyerabend, 1979), mais par son opportunité potentielle pour la science ; de même Lakatos (1970) illustre le même problème à partir de la théorie de Newton qui avait à son époque beaucoup de contre-exemples.

La « falsifiabilité » stricte comme cœur de toute démarche scientifique est une vision trop rigide. Tambolo (2015) par exemple développe les évolutions des positions respectives de Popper ou Feyerabend sur ce sujet ; et la perception de Popper comme positionnée sur une théorie testable sans recul est fausse. Cela renvoie à Kuhn (1970) car, si l’histoire scientifique était ce chemin simple, fait de théories puis de falsifiabilité indubitables, nous ne comprendrions pas pourquoi à chaque étape il y a débat, exemples et contre-exemples, différentes théories en concurrence (voir tout le développement sur ce point dans Callon & Latour, 1982/2013). L’histoire des confrontations scientifiques de fait est basée sur un cadre de comparaison/ falsifiabilité bien moins rigide que celui que « la science » exhibe parfois en prenant appui sur une position de Popper idéalisée.

Lakatos (1970), dans le chapitre « Falsification and the methodology of scientific research

programmes », critique la position “dogmatique” de la falsifiabilité et propose une vision plus

souple de l’acceptabilité scientifique d’une théorie : « Dogmatic falsification admit the

faillibility of all scientific theories without qualification, but it retains a sort of infaillible empirical basis [...] to unfalsifiable propositions the dogmatic falsifitionist gives short shrift: he brands them “metaphysical” and denies them scientific standing The methodological falsificationist separates rejection and disproof [...] a theory is “scientific” (or “acceptable”) if it has an “empirical basis » (p. 172-173). L’idée n’est pas pour Lakatos de reprendre

Feyerabend « “anything goes” attitude », il considère que nous pouvons réfuter des théories, mais prudemment, car il y a toujours des anomalies dans une théorie, parlant de « la métaphysique » de la conception d’une « nature does not allow exceptions ». L’objectif est d’analyser ces anomalies pour permettre au cadre théorique d’évoluer, mais pas d’avoir une position dogmatique du genre « un exemple réfute toute la théorie » (donc en opposition avec une position comme Vautier (2015g) : « principes [...] valables pour tout système

194

psychologique [...] un cas particulier peut en droit falsifier la théorie ». L’analyse des

anomalies doit être vue comme une phase de « vérification » et non de « réfutation ». Pour reprendre Bourdieu (2001, p. 163) « la connaissance scientifique est l’ensemble des

propositions qui ont survécu aux objections » (nous parlons bien « d’objection » et non d’un

cadre de falsifiabilité dogmatique : c’est « vrai » ou « faux »).

Je suis donc en accord avec Vautier (2012) « Les lois scientifiques sont des généralisations

corroborées par l'expérience et il est impossible de démontrer qu'elles sont vraies. La vérité des observations, que Karl Popper (1973) appelle des propositions de base, est finalement une affaire non pas de logique mais de consensus. Les sciences empiriques reposent sur une politique de consensus. » si on entend « consensus » au sens donné précédemment (« qui ne peut être réfuté par personne [...] ce consensus n’a donc pas le sens d’un consensus de droit, mais de fait », Pereira, 2012).

2.4.3.3 Pragmatisme et falsifiabilité d’un modèle

Allen & Clough (2015) discutent de la démarche pragmatique en psychologie et repositionne cette démarche comme ne pouvant pas se prétendre neutre, mais toujours construite par une pratique empirique. Ils reprennent Osbeck qui voit les scientifiques psychologiques coincés entre deux choix : accepter une théorie comme universelle ou rejeter la méthode globalement : « Osbeck argues that psychologists too often accept a forced choice between embracing a

problematic idea of method as a universal, formalist “set of rules assigned in advance”, or rejecting method altogether; the latter often in a misguided appeal to Feyerabend’s Against Method (1975), understood as promoting the idea that “anything goes” (Osbeck, 2005, p. 10). » Et de dire qu’il faut positioner la recherche en psychologie non pas dans un cadre

puriste et mécaniste (« Psychologists should not reject rationality and method per se, but

instead embrace a “revisioning” of rationality understood as more humane, less mechanical, and drawing from a more diverse set of philosophical perspectives » p. 5), mais clairement

pragmatique, c’est dire positionné théoriquement et pratiquement dans un cadre global de pratiques sociales (engagement) (“It is this practical engagement with each other and the

world that gives any and all of our beliefs their meaning, their semantic content. There is no principled, substantive difference in the acquisition process by which we form beliefs concerning the empirical results of experimental manipulation, and beliefs concerning the results of philosophical or theoretical deliberation [...] For any and all of our beliefs to have

195

meaning, they must have empirical content and/or they must be semantically linked to beliefs that do. », p. 9).

Il n’y a pas pour ces auteurs deux sphères séparées : les résultats vs la théorie. « The

pragmatism we reference here is more holistic than that, acknowledging a continuum of interconnected webs of beliefs, rather than splitting the two into ontologically separate spheres (the empirical/observational and the theoretical/nonobservational) that need epistemic linking » (p. 10). Chaque théorie est chargée de croyances, mais basée sur des

pratiques « Additionally, there is no need to make the empiricist claim that beliefs about

empirical observations are epistemically foundational because they are somehow theory neutral. Our pragmatist view is consistent with claims that more straightforwardly empirical beliefs are theory laden, that is, laden with/by their web-like connection to philosophical or theoretical beliefs. But the holistic view we support has theoretical beliefs laden by more straightforwardly observational beliefs as much as the reverse. And again, the model of belief webs explains the acquisition of any of our beliefs, from the observational to the theoretical, through our empirical, practical engagement with and in the world of which we are a part. »

(p. 10).

Est-ce à dire que tout est acceptable (« anything goes » de Feyerabend) ?

2.4.3.4 Opérationnalisation pragmatique de la falsifiabilité

Pour Pereira (2009), d’un point de vue pragmatique « L’objectivité scientifique, comme le

montre H. Putnam, est garantie par la cohérence de l’argumentation et la confrontation avec les faits. La capacité des thèses à résister à la critique argumentée, et non la neutralité axiologique, constitue alors le gage d’objectivité du savant. » (p. 28). Nous sommes bien dans

une démarche d’objectivité basée sur une « argumentation » (c’est-à-dire rationalisation) et une confrontation avec les résultats empiriques, pour questionner et « renégocier » le cadre théorique. Sans être sur une base falsificationniste dogmatique, cette démarche est falsificationniste au sens donné par Lakatos précédemment.

Nous avons donc dans la démarche pragmatique une affirmation de l’engagement de la recherche dans une pratique (contexte/enjeux), mais aussi clairement une démarche argumentée (donc contraire au dadaïsme de Feyerabend s’affirmant « contre la raison »), vérifiée empiriquement ; sachant que le regard des résultats empiriques n’est pas neutre, mais chargé du cadre du chercheur (ne serait-ce que le choix de son modèle logico-mathématique), donc à renégocier. Il y a donc une affirmation de différencier « vérité » et

196 « justification » comme le dit Pereira (2009) : « H. Putnam, mais aussi Habermas,

considèrent que la philosophie pragmatiste permet de maintenir la distinction entre vérité et justification sans réintroduire de fondement, ni d’absolu. Ils situent leur pragmatisme dans la lignée de celui de C.S. Pierce en faisant de la vérité la limite idéale de la justification. » (p.

177). Ainsi pour Pereira (2009), « Le pragmatisme est une théorie de la connaissance qui

découle de la pratique : il n’y a pas de sens pour un pragmatiste à séparer théorie et pratique, pratique et justification » (p. 141) et cite Tiercelin « une croyance est utile si et seulement si elle est vraie et de même elle est vraie si et seulement si elle est utile » (p. 142).

Popper a d’ailleurs discuté de « falsifiabilité pratique » par le recours aux méthodes statistiques (Drouet, 2012). Je ne me sers pas de cet argument pour affirmer que la démarche que je propose est poppérienne, mais pour pointer le fait que même Popper avait une vision plus souple que ce qui est parfois considéré sur la falsifiabilité. La justification empirico- pratique d’une mesure se base sur les résultats empiriques liés au cadre théorique. A l’inverse de Feyerabend tout n’est pas acceptable. En phase avec Lakatos, il me semble que nous pouvons dans un tel cadre poser des règles pratiques pour « justifier » une mesure en psychologie, testable au sens d’une réfutation potentielle argumentée de sa justification. Cette justification et réfutation sont à considérer dans la démarche pragmatique, donc pas inscrite pour une science nomothétique, mais pour une science sociale discutant de faits sociaux renégociables. On ne peut donc pas baser la critique de la mesurabilité d’une propriété mentale en disant « prouvez-le », car cela est impossible à prouver ; mais par contre une justification est opérationnelle dans une démarche pratique et discutable : hypothèse d’unicité pratique et de densité d’une propriété mentale, et vérifier empiriquement la cohérence de cette approche. Cela revient à « l’assertibilité garantie » de Peirce comme mode opératoire de falsifiabilité, dans une démarche discursive de justification nécessaire tel que Falissard et al., (2013) le posent à l’image des études qualitatives.

Ma position est donc critique d’une démarche de « lois » et donc de falsifiabilité de lois, comme par exemple chez Lacot et al. (2015) qui posent clairement que des lois doivent pouvoir être testable par des contre-exemples. Cependant, ces auteurs posent un vrai problème de la « justification » d’anomalies en psychologie souvent sans discussion, par le simple recours au « erreurs de mesure ». Les anomalies ne refutent pas forcément une théorie, mais elles doivent la questionner…. Mais cela renvoie par ailleurs à la tension entre « individus » et « résultats moyen ».

197

2.4.4 Le problème de « l’individu moyen » vs « le sujet »

J’ai essayé de montrer jusqu’à présent que poser une propriété mentale comme mesurable me paraissait potentiel pour peu que l’on questionne rationnellement une telle mesure, même sur la base de modèle probabilistes. Représenter ainsi une mesure d’une propriété mentale par un modèle faisant appel aux variables aléatoires ne me parait pas susceptible d’être invalide à priori. Cependant, si un modèle théorique nous autorise à considérer comme pouvoir représenter une propension d’une propriété mentale sous forme d’une probabilité (ou variable aléatoire), il y a une tension entre le modèle théorique et sa formalisation statistique.

Comme je l’ai exposé, fondamentalement une modélisation statistique n’est pas équivalente au modèle théorique. La modélisation statistique intègre ses propres contraintes, notamment les contraintes associées aux estimations. Dans le cadre des propriétés mentales, nous ne pouvons considérer avoir mesuré une propension chez une personne, nous ne pouvons que prétendre représenter cette propension relativement à la population de référence (l’échantillon). De plus, le modèle exhibe des mesures en ajustant « au mieux » (au sens de critères statistiques retenus, souvent la variance minimum) un modèle statistique sur un échantillon. Concrètement notre modèle donnera une validation « en moyenne » de ce modèle. Nous aurons donc toute la différence entre « un sujet moyen » et « les vrais sujets ». C’est l’objet de la discussion de cette section.

2.4.4.1 Intra-individuel vs inter-individuel

Notre discussion n’a pas différencié pour le moment l’approche inter-individus (analyse d’une propriété mentale sur un groupe de personnes) et l’approche intra-individu (l’analyse d’une propriété mentales longitudinalement pour une personne). Le cadre est identique sur le plan statistique (nous travaillons sur des variables aléatoires), mais pratiquement l’analyse sera différente car en « intra » on analyse l’évolution d’un individu. Or, la prise en compte des variabilités individuelles (Juhel & Rouxel, 2015) et la prise en compte des effets intra- individus dans le temps (Molenaar, 2004) semblent récentes en psychométrie. Comme le remarque Lamiell (2006), il y a avec les variables latentes l’illusion du paradigme « néogaltonien » qui consiste à croire que « les résultats statistiques obtenus à partir

d’agrégats lors d’études corrélationnelles des différences individuelles ouvrent une "fenêtre" épistémique sur ce qui se passe chez les individus constituant cet agrégat. » (p. 338). La

plupart des processus psychologiques ne semblent pas ergodiques (homogénéité et stationnarité des distributions de tous les individus, voir Molenaar, 2004).

198 Ainsi, avec un modèle reliant différentes variables latentes, on peut valider des relations inter- individus, mais pas les processus intra-individus (Borsboom, Kievit, et al., 2009). La relation structurelle trouvée entre propriétés mentales par un modèle statistique ne peut donc pas être associée au processus individuel (Borsboom, Kievit, et al., 2009; Markus & Borsboom, 2013a). Les analyses inter-individus ne peuvent donc pas prétendre expliquer les mécanismes psychologiques internes à l’échelle individuelle car toutes les propriétés mentales sont multi- réalisables et multi-déterminés (Borsboom, Kievit, et al., 2009). Comme le dit Lamiell (2006) : « les régularités empiriques décelables par les méthodes statistiques propres

à la psychologie contemporaine des traits ne constituent jamais une connaissance des personnes. » (p. 353).

Borsboom, Kievit, et al. (2009) illustrent ce problème par le concept de « personnalité » que la dynamique individuelle de la propriété mentale telle que la psychanalyse peut le comprendre (pour ex : analyse freudienne) diffère complètement de la modélisation relationnelle de cette même propriété au niveau d’une étude inter-individu (personnalité analysée par le big-five par exemple). Il y a deux niveaux d’analyse, et l’analyse individuelle doit se faire dans une perspective d’interaction sociale alors que l’analyse globale détecte des différences de dispositions indépendamment de leur fonction dynamique réelle à l’échelle individuelle. Borsboom, Kievit, et al. (2009) concluent que la psychologie au niveau inter- individus et la psychologie au niveau individuel peuvent s’enrichir, mais ne peuvent converger dans leur résultats car les résultats observés au niveau inter-individus ne sont absolument pas extensibles au niveau individuel. De ce fait, la psychologie au niveau agrégé et la psychologie au niveau individuel ne peuvent que rester deux champs différents (Borsboom, Kievit, et al., 2009; Lamiell, 2006).

2.4.4.2 Conclusion

Toute cette discussion renvoie à la tension entre “l’individu moyen” et l’individu en tant que « singularité ». Falissard (2012) : « Le sujet statistique est un sujet moyen. Sur un grand

nombre de sujet, en moyenne ça fonctionne. Les irrégularités se moyennent avec le sujet moyen [...] Nous avons tendance à nous représenter [le patient] comme le sujet moyen, nous adhérons au sujet moyen ("se coller au sujet moyen") [...] Nous avons été obnubilés par le sujet moyen et non par le patient. ». Falissard revient dans une autre conférence sur ce

problème, Falissard (2014) : « On ne montre pas qu’un médicament agit sur un patient. On

199

efficace statistiquement. Ça marche macroscopiquement. La statistique produit des portraits robots. On recherche dans le patient le portrait-robot qui lui ressemble car on a la thérapie la plus efficace statistiquement [...] La statistique montre une relation causale sur un sujet moyen qui n’existe pas [...] On utilise les mots "causalité" et "preuve" pour soutenir la pensée statistique, qui est efficace mais qui pose problème en termes de singularité. »

En accord avec cette conclusion, je ne peux que critiquer les travaux qui fréquemment postulent avoir analysé des mécanismes psychologiques individualisables à partir de modèles avec variables latentes ; alors que les résultats ne sont absolument pas transposables à l’échelle individuelle, ce ne sont que des résultats moyens, des mesures de disposition relatives à une moyenne. En quelque sorte nous ne pouvons passer de « propensions » moyennes à l’individu, celui-ci doit toujours s’appréhender comme une singularité. Cela n’interdit pas de questionner au niveau individuel de tels modèles, mais il ne peut y avoir, sur la base de résultats d’un modèle avec variables latentes, que des questionnements sur les mécanismes individuels, soit une démarche abductive qui n’est ni déductive ni inductive ; en rupture avec une démarche normative sous-jacente à toute modélisation.