• Aucun résultat trouvé

CHAPITRE I : PROBLEMATIQUE DES INCERTITUDES DE MESURES LIEES AUX

I.4. Démarche de l’étude pour la détermination des incertitudes de mesures des bras polyarticulés

I.4.3. Méthode de Monte Carlo

La méthode de Monte Carlo (MC) a été développée à Los Alamos par Von Neumann, Ulam et

Metropolis, à la fin de la seconde guerre mondiale pour l’étude de la diffusion des neutrons dans un

matériau fissile ‎[28]‎[31].

Durant cette période, un groupe de scientifiques travaillait sur le premier ordinateur numérique –

ENIAC (Electronic Numerical Integrator and Computer)- à l’université de Pennsylvania à Philadelphie

pour le laboratoire de recherches balistiques à Aberdeen afin d’accélérer le temps de calcul.

John von Neumann, Professeur de mathématiques à l’Institut des Etudes Avancées et consultant à

Aberdeen et à Los Alamos, s’apercevant du grand potentiel de l’ENIAC pour les travaux menés à ce

moment par le scientifique Hongrais Edward Teller et son groupe relatifs à la préparation de la

première bombe atomique, il leur a proposé de préparer un modèle de calcul préliminaire d’une

réaction thermonucléaire pour tester l’ordinateur.

Ainsi, les premières simulations ont été réalisées par Nicolas Mitropolis, Von Neumann et Ulam pour

simuler directement les problèmes de dispersion et d’absorption de neutrons pour les matériaux

fissibles.

En estimation des incertitudes de mesures, cette méthode a été introduite dès les années 1990,

notamment présentée par Thierry COOREVITS lors du Congrès International de Métrologie de 1994

[34]‎[24]. Elle fut ensuite reprise dans un bon nombre d’articles ‎[11],‎[32],‎[7],‎[29],[T. 2] pour enfin être

publiée en 2008 sous le supplément 1 du GUM et est disponible sur le site du BIPM.

Cette méthode, complémentaire au GUM, consiste à déterminer les incertitudes de mesures en se

basant sur la méthode de Monte Carlo afin de réaliser l’estimation des incertitudes par logiciel. La

méthode de propagation des distributions selon la méthode de Monte Carlo (propagation des

distributions) nécessite de simuler des échantillons de valeurs pour chacune des grandeurs d’entrée

du modèle de mesure. On définit le modèle de la mesure faisant intervenir n variables aléatoires X

1

,…

X

n

, auxquelles on a attribué une loi de distribution, une valeur moyenne, un écart-type ou une plage

de variabilité. Ainsi on génère une distribution qui va nous permettre de calculer la valeur moyenne

et une incertitude-type.

Chapitre I : Problématique des incertitudes de mesure liées aux bras polyarticulés portables

25

- ETAPE 1 : Analyse du processus de mesure

Cette étape, détaillée dans l’étape 1 du §I.4.2, est commune avec la méthode du GUM et toutes les

méthodes d’évaluation de l’incertitude. Elle consiste à définir le mesurande, le processus de mesure,

les paramètres d’influence et modéliser le processus de mesure. Dans cette approche le processus

n’est pas modélisé par une fonction mathématique mais par un programme informatique.

- ETAPE 2 : Quantification des sources d’incertitude

Il s’agit de quantifier chaque grandeur d’influence, identifiée par le diagramme 5M. Cette étape est

commune avec l’étape 3 du GUM détaillée dans l’étape 2 du § I.4.2

- ETAPE 3 : Evaluation de l’incertitude composée par simulation

Pour ce faire, on commence par associer à chaque grandeur d’entrée une distribution statistique. Le

choix de la distribution se base sur les informations disponibles (résultats expérimentaux, certificats

d’étalonnage, jugement d’expert, fiches techniques,…).

En cas de corrélation entre deux ou plusieurs variables, on attribue une distribution conjointe.

Puis, on simule numériquement N fois chaque grandeur d’entrée et on en déduit les valeurs

correspondantes de la grandeur de sortie. A cet effet, il faut disposer d’un générateur de nombre

pseudo-aléatoire performant.

Le nombre de tirages N recommandé par le supplément 1 du GUM est de 10

6

afin de s’assurer de la

stabilité de la distribution empirique de la grandeur de sortie. Cependant, si 10

6

simulations s’avèrent

trop coûteuses en temps de calcul, Désenfant et al. ‎[26] Proposent de simuler des échantillons plus

petits et effectuer deux séries de simulations de même taille et comparer les deux valeurs de

grandeur de sortie obtenues. On réitère l’opération jusqu’à ce qu’on converge vers la précision

numérique souhaitée.

La distribution empirique du mesurande est donc définie à partir de la moyenne empirique des N

grandeurs de sorties obtenues par les simulations de Monte Carlo.

- ETAPE 3’: Analyse des sensibilités

Cette étape n’est pas indiquée dans le supplément 1 du GUM. Il s’agit d’étudier la pondération des

différents paramètres d’influence, ce qui permet d’optimiser le résultat de simulation et par

conséquent, le processus de mesure.

A ce jour, plusieurs méthodes d’analyse des sensibilités ont été développées, dont notamment la

décomposition de Sobol ‎[14], la méthode de FAST ‎[33] et la méthode de Mac Kay ‎[24].

Dans notre étude, l’objectif n’étant pas de quantifier les incertitudes, mais, de déterminer un modèle

permettant d’estimer les incertitudes d’un processus de mesure utilisant un bras polyarticulé

portable, nous utilisons la méthode dite de Screening pour l’analyse des sensibilités. Cette méthode a

été introduite par Moris ‎[25] et consiste à étudier les paramètres influents un par un en annulant les

Chapitre I : Problématique des incertitudes de mesure liées aux bras polyarticulés portables

26

d’incertitudes à la fois. Ce qui nous permet de définir la pondération des différents facteurs et d’en

déduire les plus influents dans l’incertitude de mesure.

- ETAPE 4 : Expression de l’incertitude élargie et du résultat final

Il s’agit d’exprimer l’incertitude élargie et de déterminer l’intervalle de confiance. Cette étape est

similaire à l’étape 4 de la méthode de GUM.

Figure 18 : Schéma global du principe de la méthode de Monte Carlo1

Cette méthode présente également des inconvénients notamment :

- Un point fondamental dans la simulation est le choix du générateur de nombres aléatoires

qui doit être performant et validé.

- Contrairement, à la méthode analytique du GUM où les coefficients de sensibilité sont

définis et la pondération des paramètres d’influence est tirée directement de l’incertitude

composée, pour la méthode de Monte Carlo on a besoin de faire une analyse de sensibilité à

postériori pour déterminer la pondération de chacun de ces paramètres en annulant les

autres dans la simulation.

1

Pour un paramètre i (i=1…n) : d

i

est la distribution associée, est la moyenne des valeurs et u(x

i

)

est l’incertitude-type.

d1, ,u(x1)) dn, ,u(xn))

Simulation

du processus

de mesures

Stockage

des évaluations

du mesurande

pour chaque

simulation en général k=2 U= k.u avec

Chapitre I : Problématique des incertitudes de mesure liées aux bras polyarticulés portables

27

- Cette méthode peut engendrer un temps de calcul plus ou moins long selon le type du

processus et la complexité du modèle.

Documents relatifs