• Aucun résultat trouvé

critère pour critiquer la méthode : bien qu’inexacts, l’important est que ces résultats reflètent effectivement l’état de connaissance à l’instant où ils ont été formulés. De ce fait, rien à l’in- térieur du modèle bayésien n’explique pourquoi il demeure nécessaire de continuer l’entreprise scientifique au-delà de ce qu’elle apporte à l’instant présent. Les bayésiens ne disposent pas en métrologie de critère d’action qui provienne de l’intérieur de leur modèle ; il leur faut l’imposer de l’extérieur.

5.5 Conclusion

Notre examen des ramifications conceptuelles et philosophiques du débat qui a lieu en métrologie à propos des méthodes statistiques montre que ce débat ne se limite pas à la seule question de l’interprétation des probabilités. Les interprétations fréquentiste et épistémique des probabilités sont chacune mobilisées dans des conceptions générales de la mesure physique qui engagent des modes de représentation différents et sont guidées par des objectifs distincts. Une même interprétation des probabilités peut d’ailleurs être mise à contribution dans plusieurs conceptions différentes de la mesure. Le spectre de positionnements épistémologiques couverts va de l’empirisme à un réalisme assez marqué mais tout à fait ordinaire chez des scientifiques, et les conceptions se démarquent par le degré de subjectivité qu’elles accordent à l’activité de mesure. Deux approches ressortent plus particulièrement : la première est une approche « traditionnelle » plutôt caractéristique du milieu du XXesiècle, et la seconde une approche

épistémique dont la popularité va grandissante depuis quelques décennies.

Les traits essentiels de l’approche traditionnelle de la mesure, qui fait appel aux probabilités fréquentistes, peuvent être résumés de la façon suivante. Le processus d’évaluation de la fiabi- lité d’un résultat de mesure aboutit à l’estimation d’une exactitude de mesure. Le mécanisme de ce processus gravite autour du concept d’erreur de mesure, et est de ce fait une approche tournée vers la possibilité d’un test futur qui révélera si l’intervalle d’exactitude obtenu est cor- rect ou non – c’est-à-dire vrai ou faux. La fréquence avec laquelle les intervalles d’exactitude fournis se révèlent corrects est le taux de succès du processus et mesure la performance de ce dernier.

L’approche épistémique de la mesure, qui mobilise des statistiques bayésiennes, produit quant à elle une évaluation de la fiabilité du résultat de mesure qui est formulée par une in- certitude de mesure comprise comme un terme épistémique qui prend pour objet un état de connaissance. Ce n’est plus l’erreur de mesure mais la connaissance et la croyance des agents qui sont au centre du modèle. Par suite, l’approche bayésienne est tournée vers l’établissement d’un état présent de connaissance fondé sur une recension exhaustive et rationnelle des infor- mations disponibles. La question du test ultérieur du résultat de mesure n’a pas d’importance, car ce qui compte est qu’un acteur prenne à un instant donné des décisions rationnelles en regard des informations dont il dispose.

Conclusions de la première partie

Nous avons choisi de nous focaliser sur le modèles fréquentiste et bayésien de la mesure car le premier correspond au mode dominant du courant du XXesiècle et que le second est

promu par un grand nombre de métrologues aujourd’hui. De plus, ils sont remarquables de par leur antagonisme quand à la thématique de l’objectivité et de la subjectivité dans la mesure. Cependant, il nous faut préciser deux choses. D’une part, il n’existe cependant pas une méthode fréquentiste unique ni une méthode bayésienne unique, mais un spectre d’approches différentes qui croisent entre elles des concepts et des termes provenant des deux modèles généraux que nous avons présentés, de sorte que l’on a en fait « un mélange de concepts et de terminologies d’une approche à l’autre »60. Certains statisticiens font d’ailleurs remarquer que l’approche

développée dans le supplément 1 du GUM ne peut pas être qualifiée de pleinement bayésienne, et proposent des aménagements visant à aller encore plus loin dans cette direction61. D’autre part, les approches qui ont été proposées pour répondre aux besoins liés à l’activité d’analyse d’incertitude ne se réduisent pas toutes à des variations autour des thèmes fréquentistes et bayésiens. Certains proposent par exemple d’intégrer les questionnements probabilistes à des raisonnements plus généraux orientés autour de la logique floue62. Il est à noter, de plus, que

les méthodes de calcul numérique dites de « Monte-Carlo »63ont pris une ampleur particulière

ces dernières décennies, et font d’ailleurs l’objet d’un traitement particulier dans le supplément 1 du GUM. Le développement de ces méthodes, qui présentent des avantages remarquables sur les techniques traditionnelles du GUM depuis que l’accroissement de la puissance de calcul des ordinateurs a permis leur démocratisation, pourrait amener les métrologues à de nouveau redéfinir le cadre d’étude standard de l’analyse d’incertitude.

Notre exposition des modèles statistiques de l’analyse d’incertitude en métrologie illustre comment des débats stimulés par des questionnements en rapport avec la pratique amènent les acteurs à soulever des problématiques conceptuelles qui prennent un tour philosophique. Le fait que les métrologues engagent ces problématiques dans la durée et avec sérieux montrent que celles-ci ne sont pas seulement anecdotiques mais concernent le cœur de leur activité. Tou-

60. Ehrlich, Dybkaer et Wöger(2007), p. 201. 61. Elster(2014)

62. VoirZadeh(2005) pour une théorie générale, ou encoreUrbanski et Wasowski(2003) pour un exemple de mise en application.

63. « Les simulations MC (Monte Carlo) sont des algorithmes implémentés sur ordinateur qui utilisent le ha- sard pour calculer les propriétés de modèles mathématiques, les modèles étudiés ne présentant pas eux-mêmes de caractère aléatoire »,Winsberg(2015), section 2.4.

154 Conclusions de la première partie tefois, il serait inexact de prétendre que le positionnement philosophique adopté par les acteurs conditionne entièrement la résolution de ces débats techniques, tant il apparaît qu’en métrolo- gie comme ailleurs, la préférence accordée à une méthode plutôt qu’une autre est suspendue à des considérations très concrètes liées à la faisabilité et à la performance des méthodes utilisées, comme l’a notamment fait remarquer Humphreys64. De fait, les positions philosophiques des

acteurs scientifiques sont au moins autant la conséquence que la cause de la méthodologie que ces acteurs valorisent, car c’est dans l’attitude réflexive visant à s’interroger sur la portée des méthodes qu’ils utilisent que ces acteurs en viennent à s’interroger sur les fondements épisté- mologiques qui les sous-tendent. Notre analyse montre que parmi les approches apparemment viables, les avantages et des limites sont relatifs à des objectifs précis, et que les désaccords entre métrologues sur l’approche à adopter prennent directement leurs racines dans la diversité de façons dont ils conçoivent les objectifs de la mesure. De ce fait, s’il a certainement un rôle à jouer à l’intérieur même de ces débats, le philosophe ne se situe en aucun cas dans une situa- tion privilégiée pour faire valoir la légitimité des différentes approches. En effet, sa propension à trancher en faveur de l’une ou l’autre des approches marquerait plus son adhésion à un idéal et un objectif donnés que sa capacité à faire le tri objectif entre les différentes possibilités que les métrologues discutent.

Il faut donc évacuer la tentation qu’il y aurait à chercher à arbitrer entre les différentes approches que proposent les métrologues. Cela revient à renoncer, au moins en partie, à placer la philosophie des sciences dans une démarche normative déjà maintes fois critiquée. Le riche débat qui serait à même de faire éventuellement émerger un vainqueur légitime a déjà lieu chez les métrologues eux-mêmes, et il serait malvenu de prétendre pouvoir se substituer à eux en cherchant à légiférer au moyen d’une démarche philosophique qui se prétendrait en surplomb ; le philosophe ne peut que chercher à enrichir le débat en se plaçant au même niveau que les acteurs du monde scientifique. Il ne s’agit nullement d’adopter une perspective relativiste et de prétendre que toutes les approches se valent automatiquement, mais de rappeler que l’on ne peut pas verrouiller des débats scientifiques sur la base de principes philosophiques a priori. Il ne s’agit pas non plus de valoriser un statu quo. Les métrologues ont bel et bien besoin de tran- cher quant à la conceptualisation de la mesure qui leur apparaît comme la meilleure en regard de leurs besoins, dès lors qu’ils considèrent plus que jamais nécessaire de s’accorder sur leurs méthodes. C’est pourquoi un document comme le GUM vient réguler l’analyse d’incertitude, et permet aux métrologues d’étalonner leurs pratiques sur une base commune, sans pour autant que la méthode qui y est préconisée ne puisse être considérée comme universelle.

Les débats présentés ici à propos des méthodes statistiques nous orientent vers deux ques- tionnements essentiels, que nous développerons dans les parties à venir, et qui s’appuient sur un même problème de base : dès lors qu’il est impossible de garantir l’exactitude d’une mesure, que peut-on conclure d’un résultat expérimental ? Un premier questionnement réside dans le fait que si l’on admet le caractère subjectif de l’activité de mesure, doit-on en venir à remettre en question le concept même de « valeur vraie » d’une grandeur sur lequel se fonde l’approche tra- ditionnelle ? Le modèle bayésien semble l’avoir conservé, mais certains métrologues ont émis

Conclusions de la première partie 155 l’idée qu’il pourrait être possible de faire l’économie du concept. La partieIIest consacrée à l’examen de deux de leurs arguments, l’un lié à l’« inconnaissabilité » de la valeur vraie d’une grandeur, l’autre à l’impossibilité de déterminer une telle valeur de façon unique pour une grandeur donnée. Cela engage dans la continuité un second questionnement quant au rapport entre incertitude et exactitude de mesure. Cela est développé dans la partie III, qui s’articule autour de l’étude des ajustements des constantes de la physique. Ceux-ci mettent en lumière la façon dont les physiciens concilient l’impossibilité de garantir l’exactitude d’une mesure avec le maintien de l’idée d’un progrès expérimental.

Deuxième partie

La « valeur vraie » d’une grandeur

Vue d’ensemble de la partie II

L’examen des modèles statistiques de l’incertitude de mesure révèle que les métrologues adhèrent de plus en plus explicitement à une conception subjectiviste de la mesure, qui évacue l’objectif de représentation d’un monde physique tel qu’il est pour porter son attention sur la description de la connaissance des acteurs. Cette évolution s’observe sur fond de « tournant épistémique » en métrologie. L’un des éléments de discorde des métrologues concerne le statut de l’exactitude de mesure. S’il est acquis pour tous qu’il est impossible de garantir l’exactitude d’un résultat de mesure donné à un instant donné, les scientifiques ne s’accordent pas tous sur l’importance qu’il faut accorder à un tel concept. C’est là un point d’opposition majeur entre fréquentistes et bayésiens. À travers ces questionnements, c’est la pérennité de la notion de « valeur vraie » d’une grandeur qui est également en jeu.

Cette partie est consacrée à l’examen du statut de la valeur vraie d’une grandeur physique. La valeur vraie d’une grandeur est ordinairement considérée comme étant la valeur que l’on obtient par une mesure parfaite, c’est-à-dire par une mesure qui n’est affectée d’aucune erreur de mesure. Cependant, cette définition, en un sens, ne dit rien sur le concept puisqu’elle appa- raît comme circulaire, l’erreur de mesure étant définie par rapport à la valeur vraie. Le caractère inaccessible et idéal de la valeur vraie a été compris depuis longtemps par les scientifiques, mais ce n’est qu’assez récemment que les textes de métrologie ont amorcé un virage visant à rendre le concept le plus silencieux possible, voire à le supprimer entièrement du formalisme de l’ana- lyse d’incertitude. Les arguments opposés à la valeur vraie dans les textes de métrologie sont parfois un peu décousus. Nous défendons l’idée qu’il est nécessaire de séparer deux arguments que nous jugeons distincts, bien qu’ils soient parfois mélangés dans la littérature spécialisée. Nous étudions alors ces arguments tour à tour, et nous défendons l’idée que ni l’un ni l’autre n’amènent nécessairement à abandonner le concept de valeur vraie d’une grandeur. Nous fai- sons apparaître l’attachement à ce concept comme un attachement au caractère évaluatif de la mesure, tournée vers une cible.

Le premier argument porte sur l’« inconnaissabilité » de la valeur vraie, et est examiné dans le chapitre6. La valeur vraie étant ce que l’on cherche à connaître, elle est par nature inconnue ; de plus, puisque tout résultat de mesure est susceptible d’être entaché d’une erreur de mesure, et que l’exactitude d’un résultat est impossible à garantir, alors la valeur vraie d’une grandeur est non seulement inconnue mais aussi à jamais inconnue, c’est-à-dire inconnaissable. Partant de cet argument, les métrologues soutiennent qu’il est nécessaire d’adopter une position, qu’ils appellent « opérationnelle », et qui ne fait appel qu’aux concepts qui se rapportent à ce que

160 Vue d’ensemble de la partie II l’on peut connaître. Il est alors souhaitable de ne plus faire mention de l’erreur de mesure et de la valeur vraie, pour n’employer que les termes ayant trait au résultat de mesure lui-même : valeur « attribuée », valeurs « raisonnable » et incertitude de mesure. Nous commentons cet argument selon deux axes. Pour commencer, nous soutenons que l’aménagement proposé par les métrologues ne change rien au niveau du formalisme, et qu’un terme théorique similaire au concept traditionnel de valeur vraie continue à être mobilisé dans les calculs d’incertitude. D’autre part, quittant l’aspect technique, nous cherchons à comprendre ce que signifie le terme de « valeur vraie » sur le plan philosophique, en interrogeant en particulier la signification du qualificatif « vrai ». Nous mettons alors en balance une interprétation du terme dans lequel le qualificatif « vrai » n’est qu’une dénomination sans rapport avec la vérité, avec une interpréta- tion littérale du terme. Nous constatons que l’interprétation littérale du terme peut faire appel à deux catégories distinctes de vérité, l’une métaphysique, l’autre épistémique. Nous défendons que le concept de valeur vraie que critiquent les métrologues se rapporte à une interprétation littérale et métaphysique du terme, et nous affirmons que la critique du concept participe d’un mouvement de méfiance envers le contenu métaphysique des concepts employés. Nous pré- tendons alors que, contrairement à ce que l’on pourrait être amené à soupçonner, la critique de la valeur vraie n’est pas pour autant une critique du réalisme scientifique de la part des métrologues. Nous nuançons pour terminer l’argument d’inconnaissabilité et affirmons qu’à l’intérieur d’une position réaliste, le concept de valeur vraie présente l’intérêt d’induire un processus permanent de correction qui guide le progrès expérimental.

Le second argument, qui fait l’objet du chapitre7, s’appuie sur le fait que la valeur vraie d’une grandeur physique, si elle existe, ne peut que très rarement être considérée comme unique. En effet, dans de nombreux cas, la définition du mesurande est insuffisamment pré- cise, de telle sorte qu’il est possible de réaliser ce mesurande de différentes façons, en raison de quoi c’est un spectre continu de « valeurs vraies » que l’on peut légitimement associer au mesurande. Pour rendre compte de cet aspect, les métrologues ont introduit un concept sup- plémentaire, celui d’« incertitude définitionnelle ». Nous discutons de la portée de ce terme en arguant qu’il est effectivement dépendant d’un état de connaissance et peut légitimement être considérée comme une incertitude ; cependant, nous affirmons que ce n’est pas un terme classique d’incertitude, et qu’en particulier, il n’est pas possible de l’intégrer au bilan global d’incertitude comme une composante quantitative ordinaire. Nous cherchons alors à montrer comme le concept de valeur vraie est compatible avec le constat de non-unicité, en dévelop- pant une approche qui fait appel à une forme de réductionnisme. La multiplicité des valeurs vraies d’une grandeur est alors reliée au caractère phénoménologique, donc non fondamen- tal, de la grandeur considérée – c’est-à-dire que cela traduit la présence d’une sous-structure. Nous montrons alors qu’il est nécessaire de prendre en compte le caractère approché de la connaissance et de relier l’usage des grandeurs physiques aux modèles dans lesquelles celles-ci sont employées, en rapport avec un objectif bien déterminé qui conditionne la précision avec laquelle les mesurandes doivent être définis. Nous concluons que l’incertitude définitionnelle n’est pas tant une composante supplémentaire d’incertitude mais une estimation de la préci- sion attendue de nos modèles qui indique le seuil de détail à partir duquel il devient nécessaire de les affiner.

Chapitre 6

L’argument d’« inconnaissabilité »

de la valeur vraie

Notre étude des approches probabilistes de la mesure est venue renforcer un constat déjà pressenti par certains métrologues et philosophes, à savoir que la métrologie a connu une évo- lution notable lors du XXesiècle qui se traduit par une transformation des objectifs et des modes

de représentation associés à la mesure physique. Nous avons proposé d’appeler « tournant épis- témique » ce mouvement général, et nous avons vu que l’inflexion des méthodes statistiques vers une approche bayésienne, fondée sur l’interprétation épistémique des probabilités, vient consolider ce tournant épistémique en l’intégrant au formalisme lui-même. L’évolution des mé- thodes statistiques employées en métrologie implique d’abord une transformation des modes de représentation, puisque le résultat de mesure ne porte plus sur l’objet physique lui-même mais sur un degré de croyance personnel ou collectif. Mais elle ne se limite pas à ce que repré- sentent les résultats de mesure : elle vient également toucher ce que la mesure elle-même vise à atteindre. Ainsi, l’exigence traditionnelle d’exactitude s’efface derrière une visée descriptive : faire l’état des connaissances à un instant donné. En résumé, l’évolution de la conception de la mesure que font valoir le VIM et le GUM est caractérisée par deux aspects principaux :

• Un changement dans l’objet représenté. Avec le développement des statistiques bayé- siennes en métrologie, un résultat de mesure ne représente plus l’état physique de la grandeur mesurée. Désormais, le résultat est la quantification de l’état de connaissance d’un personne ou d’un groupe, au moyen de probabilités épistémiques.

• Un changement de cible. La recherche d’une « exactitude » métaphysique, attachée aux idéaux inaccessibles que sont l’« erreur » et la « valeur vraie », est remplacée par une formulation centrée sur une « incertitude » comprise comme une notion épistémique. Dans la continuité de ce cheminement conceptuel et méthodologique, et emportés par leur vo- lonté de n’inclure dans les concepts de la mesure que ce qui est effectivement accessible par l’expérience, les métrologues en sont venus à questionner tout particulièrement un concept spécifique de la mesure : celui de « valeur vraie » d’une grandeur physique. Cette critique ap- paraît parfois en creux, parfois plus explicitement, dans nombre de textes récents de la littéra- ture métrologique. On la retrouve en particulier dans le GUM, puis dans la troisième édition

162 Chapitre 6 :L’argument d’« inconnaissabilité » de la valeur vraie du VIM. Dans les deux cas, la teneur exacte de la critique nous semble par moments assez confuse. Toutefois, nous pouvons isoler le rôle central d’un argument bien spécifique, l’argu- ment d’« inconnaissabilité », qui prend la forme suivante : la valeur vraie d’une grandeur est un