• Aucun résultat trouvé

Procédure d’évaluation en sociologie et en économie

En psychologie, en sociologie comme en économie (ou, du moins, dans certains secteurs de ces disciplines), on tend, en effet, à imiter les standards développés pour l’analyse de l’efficacité des médicaments. Ces modes d’ad- ministration de la preuve sont plus laborieux à mettre en œuvre que ceux précédemment employés. Mais ils sont aussi plus fiables dans leurs résul- tats. Pour tester une hypothèse, on met ainsi en place un essai empirique impliquant l’évaluation d’une procédure entre un groupe testé et un groupe témoin. Si une différence notable et « statistiquement significative » portant sur l’un des paramètres que la procédure est susceptible d’avoir influencé est observée, on en déduira que cette différence est due à la procédure elle-même. En effet, en vertu de la composition globalement identique des deux groupes testés, une différence dans l’évolution de l’un d’entre eux ne pourra être interprétée que comme un effet de la procédure qui lui a été appliquée. L’analyse statistique des données permet, de plus, de détermi- ner le degré de significativité du résultat. On reconnaît là le principe de l’analyse dite « randomisée contrôlée », qui peut donc s’exporter dans des domaines d’études qui n’ont aucun rapport avec les médicaments, et même dans des domaines où on vise à obtenir des effets médicaux mais en évi- tant explicitement le recours à des médicaments. D’où l’expression de « non- médicamenteux » dont nous mentionnions, en commençant, qu’elle est

 P N

curieusement privative. On comprend maintenant pourquoi. Elle témoigne d’une inversion de valeur caractéristique du phénomène de démédicalisa- tion dont nous parlons. On cherche à poursuivre les mêmes effets que ceux qui sont généralement atteints par les médicaments mais sans faire usage de médicaments tout en faisant usage d’une procédure d’administration de la preuve issue de l’étude des médicaments. Imbroglio conceptuel qui aboutit à définir négativement ces pratiques.

 Limites des « essais randomisés contrôlés »

Il convient d’ailleurs de noter que ce type d’analyse peut avoir ses excès. Au point qu’on pourrait parler d’un paradoxal « passage à la superstition » du critère. En effet, l’essai randomisé contrôlé, censé conférer aux affirmations produites par les sciences humaines un degré de rigueur analogue à celui qui prévaut dans les sciences de la nature peut aussi déboucher sur des assertions dont la banalité le dispute à l’indigence. Des exemples seraient faciles à trou- ver. Ainsi, pour n’en mentionner qu’un seul, une équipe de l’université de X a réalisé une étude pour démontrer que la Tour Eiffel paraissait plus petite lors- qu’on la regardait en penchant la tête vers la gauche que vers la droite. Cette étude, a été menée en suivant une procédure conforme aux standard métho- dologiques rigoureux que nous venons d’évoquer. Elle a ensuite été publiée dans une revue renommée de psychologie présentant toutes les garanties de la science la plus sérieuse et la plus exigeante. L’obtention du résultat a mobi- lisé un travail et une attention semblable à celles qu’on peut trouver dans les meilleures études de psychologie. Mais l’intérêt de la question posée n’en demeure pas moins douteux.

C’est là un symptôme caractéristique de l’emploi indiscriminé de cette méthode : l’intérêt de la question posée passe parfois au second plan. Et seul finit par importer le fait qu’on mette en œuvre un protocole d’essai rando- misé contrôlé dans la formulation de la réponse. Il s’agit là, à l’évidence, du dévoiement d’un critère de vérité qui finit par ne plus fonctionner que pour lui-même. La valeur de l’idée qu’on cherche à éprouver disparaît au profit de la valeur de l’instrument par lequel on la met à l’épreuve. Comme si le fait de produire des analyses randomisées contrôlées possédait une valeur en soi. Mais cette première objection n’est encore que superficielle. Car on peut soulever une objection plus sérieuse.

L  -    

L’essai randomisé contrôlé n’implique-t-il pas, par lui-même, de limiter les questions qui méritent d’être posées en fonction de la possibilité d’y apporter une réponse par ce type d’essais ? Les questions ne se prêtant pas à ces approches ne risquent-elles pas d’être reléguées au rang de questions intempestives ou périmées, simplement parce qu’elles ont le défaut de ne pas être formulables dans les termes du procédé probatoire qui fait réfé- rence ? En d’autres termes, la méthodologie adoptée ne risque-t-elle pas de finir par fonctionner comme un filtre écartant des questions importantes au seul motif que ces dernières ne peuvent donner lieu à des essais randomi- sés contrôlés ? Dans le même ordre d’idées, on pourrait se demander si ce type d’approche quantitative en sciences humaines n’a pas plutôt le carac- tère d’une mode qui tire sa force moins de l’esprit critique qui s’y manifeste que d’un certain mimétisme méthodologique.

Essayons, un instant, de nous placer dans le futur pour juger de l’état présent de la méthodologie scientifique avec impartialité. L’extension des procédures dites « randomisées contrôlées » à une grande variété de pro- blématiques y sera-t-il regardé comme un engouement passager caractéris- tique d’une époque qui survalorise les évaluations quantitatives ou bien, au contraire, sera-t-il considéré comme un « tournant méthodologique » essen- tiel dans la maturation des sciences humaines ? Cette méthodologie n’est-elle qu’une illusion destinée à s’évanouir et à laisser derrière elle le souvenir d’un simple emballement théorique sans lendemains ou constitue-t-elle un pas supplémentaire dans une inexorable progression acheminant les sciences humaines vers leur « âge positif » ? À ces questions, pourtant essentielles, nul n’est aujourd’hui en mesure de fournir une réponse précise et il faut, par conséquent, se contenter d’indices.

On peut remarquer, à ce propos, que l’essai randomisé contrôlé, s’il est bien issu, historiquement, de la transposition d’une méthodologie établie dans l’évaluation de l’efficacité de traitements médicamenteux, ne tire cepen- dant pas sa valeur démonstrative de cette seule origine. Il représente, en effet, la formalisation d’une intuition qui peut trouver sa justification même en dehors de toute référence à l’histoire du médicament. Si, par exemple, dans une situation donnée, je préconise telle intervention, j’affirme implicitement que si l’intervention n’est pas réalisée il s’ensuivra des conséquences néfastes et, au contraire, que si elle est réalisée, il s’ensuivra des conséquences béné- fiques. Ai-je raison de l’affirmer ? À vrai dire, il n’est aucun autre moyen d’en apporter la démonstration que de constituer deux groupes équivalents en prévoyant d’appliquer à l’un d’entre eux un traitement qu’on n’appliquera pas

 P N

à l’autre et en suivant l’évolution de chacun. Autrement dit, on met en place une procédure d’évaluation très proche de celle qui découle de l’imitation des procédures utilisées pour l’évaluation de l’efficacité des médicaments. Ce qui signifie que l’extension de ces procédures ne peut être résumée à un simple mimétisme. Les dérives que nous venons de mentionner doivent néanmoins inciter à user de ces méthodes avec discernement et à poser habilement les questions auxquelles elles permettent de répondre sans omettre la question préjudicielle concernant la valeur et l’intérêt de la question posée elle-même. Elles doivent aussi inciter à conclure que de nombreuses questions qui ne peuvent donner lieu à aucune formulation qui prenne la forme d’un essai randomisé contrôlé, importantes néanmoins pour les sciences humaines, continuent de se poser.

Conclusion

Il apparaît utile, au terme de cette analyse et en guise de conclusion, de distinguer nettement deux types de problèmes qui sont parfois confon- dus : d’une part, le problème de l’efficacité intrinsèque d’un traitement non- médicamenteux et, d’autre part, le problème des rapports entre le coût et les bénéfices d’un traitement de ce genre. Le premier problème relève de la détermination d’une efficacité par des moyens statistiques au sens que nous venons de préciser. Le second problème est bien différent. Il débouche directement sur des problématiques de politique publique. Il pose la ques- tion de savoir quelle est la meilleure façon de dépenser une somme don- née qu’on a décidé d’allouer au traitement d’une pathologie X. Supposons, par exemple, qu’on se pose la question de savoir si cette somme doit être employée à une campagne d’incitation à telle activité physique ou bien à fournir une incitation financière personnalisée aux individus qui acceptent de s’adonner scrupuleusement à cette même activité. De ces deux approches possibles d’une même intervention « non-médicamenteuse », quelle est celle qui donne les meilleurs résultats ? Autrement dit, quelle est celle qui, pour une même somme investie fournit le plus grand bénéfice collectif ? On voit immédiatement l’importance qu’il y a à disposer de ce genre d’information quand il s’agit de décider de politiques publiques. Il ne s’agit pourtant pas du même type de question, même si l’une et l’autre peuvent, à l’occasion, recourir au même type de méthodologie pour produire leurs réponses. La première question relève de l’évaluation d’efficacité stricto sensu, la seconde