• Aucun résultat trouvé

L’approche du GUM et l’introduction des probabilités épistémiques

Le succès des probabilités fréquentistes dans les méthodes d’analyse des collections de don- nées expérimentales tient au fait qu’elles semblent parfaitement adaptées au traitement de la variabilité : les échantillons de résultats de mesure qui sont analysés par le spectre des pro- babilités fréquentistes fournissent une façon naturelle de réfléchir en termes de populations statistiques. Mais en contrepartie, ces probabilités n’offrent pas la possibilité de saisir les com- posantes dites « systématiques » d’incertitude. C’est là le principal point d’achoppement de l’approche traditionnelle, qui devient critique si l’on se reporte aux exigences formulées dans la recommandation INC-1. Les critiques de l’approche n’ont pas manqué de le faire remarquer ; ainsi Bich note-t-il que :

Les erreurs aléatoires sont considérées comme une population (typiquement gaus- sienne), à laquelle les outils statistiques classiques peuvent être appliqués. Par exemple, la variance V d’une population est généralement évaluée par la variance s2d’un échantillon. Cette procédure ne peut pas être utilisée pour les incertitudes liées à des biais, car il n’y a pas de population derrière une erreur systématique et, par conséquent, il n’y a pas d’échantillon derrière un biais.8

C’est en grande partie pour répondre à ce problème que le BIPM, au début des années 1980, a décidé la rédaction d’un document de référence, devenu plus tard le Guide pour l’expression de l’incertitude de mesure (GUM). La conception du GUM est orientée autour d’un objectif central, celui de traiter toutes les composantes d’incertitude de façon probabiliste, de façon à permettre la propagation naturelle de toutes les composantes en une résultante unique. Cela a été un peu

5. Gillies(2000), pp.25–49. 6. Jaynes(1957)

7. Hájek(2012), section 3.1 (entrée consultée le 5 janvier 2016). 8. Bich(2012a), p.2156.

4.2 L’approche du GUM et l’introduction des probabilités épistémiques 111 rapidement assimilé au fait de traiter de façon identique les différentes composantes d’incerti- tude. Ainsi peut-on lire dans le GUM la remarque suivante :

(C)e Guide traite exactement de la même façon les composantes de l’incertitude provenant d’effets aléatoires et celles provenant des corrections estimées d’ef- fets systématiques, lorsqu’on évalue l’incertitude du résultat d’un mesurage. [...] (T)outes les composantes de l’incertitude sont de même nature et doivent être traitées de manière identique.9

Malgré l’affirmation similaire d’Ehrlich, Dybkaer et Wöger : « les erreurs systématiques et aléatoires sont traitées sur la même base probabiliste »10, il convient en fait de nuancer ces

prétentions. Comme nous le verrons, il n’est pas possible de dire, à la suite du GUM, que les composantes d’incertitude sont de « même nature » et qu’elles sont alors traitées sur la « même base ». Tout au plus sont-elles toutes deux formulées en termes probabilistes, ce qui constitue effectivement une évolution majeure par rapport à l’approche fréquentiste traditionnelle. Ce- pendant, les probabilités employées sont, comme nous allons le voir, de natures différentes.

Les principes généraux du GUM sont directement nourris des choix émis en 1980 dans la recommandation INC-1. En particulier, le GUM reprend la catégorisation des méthodes d’éva- luation d’incertitude selon deux types, les méthodes de « type A » et de « type B » (voir l’extrait de la recommandation INC-1 cité dans le chapitre précédent, à la section2.4p.65). La recom- mandation INC-1 n’impose aucune technique spécifique pour les méthodes de type B11. Le choix effectué dans le GUM consiste essentiellement à reprendre l’approche traditionnelle pour le traitement des résultats répétés de mesure (méthodes de « type A »), et à implémenter une méthode fondée sur l’emploi des probabilités épistémiques pour ce qui est du traitement des autres composantes d’incertitude (méthodes de « type B »). Les soubassements interprétatifs de ce choix ne sont pas délimités très explicitement dans le corps du document. En effet, la question de l’interprétation des probabilités n’est véritablement introduite qu’en annexe :

(P)our certains traitements traditionnels de l’incertitude de mesure, [...] le concept de probabilité est considéré comme s’appliquant seulement aux événements qui peuvent être répétés un grand nombre de fois, essentiellement dans les mêmes conditions, la probabilité p d’un événement (0 ≤ p ≤ 1) indiquant la fréquence avec laquelle se produit l’événement. Par contraste avec ce point de vue de la probabilité fondée sur la fréquence, un autre point de vue aussi valable est que la probabilité est une mesure du degré de croyance en ce qu’un événement se pro- duise. [...] La recommandation INC-1 (1980) sur laquelle est fondé ce Guide adopte implicitement une telle approche de la probabilité [...]12

9. Joint Committee for Guides in Metrology (JCGM)(2008d), p.57. 10. Ehrlich, Dybkaer et Wöger(2007), p.205.

11. La recommandation mentionne que « (l)es composantes de la catégorie B devraient être caractérisées par les variances estimées uj2, qui peuvent être considérées comme des approximations des variances correspondantes

dont on admet l’existence. », ce qui, sans donner pour autant une indication très claire de la façon dont ces variances sont calculées, laisse à penser qu’une méthode était déjà pressentie – en l’occurrence, il semble que nous pouvons assez raisonnablement supposer qu’il s’agit de celle qui a ensuite été développée dans le GUM.

112 Chapitre 4 :Des probabilités épistémiques à une modélisation bayésienne Le GUM revendique ainsi une certaine neutralité interprétationnelle : aucune interprétation n’est considérée comme meilleure. Mais il entretient pourtant l’ambiguïté, d’autant qu’il ex- prime explicitement sa préférence envers l’usage des probabilités épistémiques. Cette ambi- guïté nous semble être pour partie à la racine des discussions qui abondent à ce sujet depuis la publication du document. Par la suite, le mouvement opéré dans le GUM sera interprété par cer- tains comme une ouverture vers l’adoption de statistiques bayésiennes, bien que le document lui-même n’y fasse jamais référence. Ainsi en atteste cette remarque de Lira et Wöger :

[Un effet systématique] constitue un élément pour lequel le traitement statistique classique échoue complètement. C’est principalement pour cette raison que le GUM a été écrit. Le GUM recommande d’évaluer les effets systématiques confor- mément à la procédure d’évaluation qu’on appelle « type B ». Bien que ce ne soit pas mentionné explicitement dans le corps principal du GUM, cette procédure est de nature essentiellement bayésienne.13

Dans la section suivante, nous explicitons les principes des méthodes dites de « type B » et la façon dont la résolution d’un problème pratique, l’expression de l’incertitude de mesure en une composante unique, a engendré l’adoption d’une interprétation épistémique des probabilités. Nous montrerons dans le même temps comment ce mouvement a été prolongé par une défense de l’usage des statistiques bayésiennes en métrologie.