• Aucun résultat trouvé

2. Nouveau protocole analytique pour l’étude des isotopes stables du W

2.3. Développement MC-ICPMS pour l’analyse du fractionnement dépendant de la

2.3.4. Evaluation de la qualité de la mesure

!

!

!"#

!"!

représente le rapport isotopique de l’échantillon corrigé du biais en

masse instrumental et

!"#!

!!

!"#

est la moyenne des rapports isotopiques des standards

précédant et suivant l’échantillon lors de l’analyse, eux aussi corrigés du biais en masse

instrumental.

2.3.4. Evaluation de la qualité de la mesure

Justesse, précision, incertitude, reproductibilité et sensibilité sont autant

d’indicateur de la qualité d’une mesure.

Ecart type et erreur standard

La première préoccupation des géochimistes et des cosmochimistes est la notion

de précision, couplée à celle d’incertitude. Les deux notions sont indissociables.

L’incertitude est une représentation de l’intervalle des valeurs possibles pour le résultat

obtenu. Cette incertitude peut s’exprimer de façon relative (en % de la valeur mesurée)

ou absolue, sans que son sens en soit altéré. Par contre, la façon dont elle est calculée

peut faire varier la valeur affichée de façon importante. Nous distinguerons dans ce qui

suit ‘l’écart type’ (SD ou σ) et ‘l’erreur standard (SE).

L’écart type d’une mesure représente la dispersion des données mesurées. Elle se

calcule simplement comme suit :

!= !!−!!

Avec ! la moyenne des valeurs prises par la variable !.

Lorsqu’une donnée numérique est représentée avec une incertitude de 1σ et en

considérant que la distribution est une gaussienne centrée autour de la valeur vraie,

cela signifie que 68,3% des points analysés tombent dans l’intervalle couvert par la

barre d’erreur. En représentant l’incertitude à 2σ, le nombre de données dans cet

intervalle est de 95,4%.

assimilée à un intervalle de confiance. Elle tient compte de l’écart type et de la taille de

la population de données étudiée. Elle se calcule comme suit :

!" = !

!

Avec ! le nombre de données utilisées dans le calcul statistique. Plus le nombre de

mesure est grand, et plus !" sera petit (et donc plus la valeur vraie sera connue avec

précision).

Exemple : pour construire la Figure 2.3, nous avons tiré aléatoirement une série de

200 réels entre 0 et 1, dans le cas 1 de façon équiprobable, et dans le cas 2 de façon

aléatoire selon une loi normale de moyenne 0,5 et d’écart type 0,3. Nous avons ensuite

calculé la moyenne, l’écart type, et l’erreur standard associées pour des sous-tirages

avec une population n variant de 2 à 200.

Nous voyons ici que l’écart type converge vers une valeur de ± 0,5 alors que l’erreur

standard converge vers une valeur proche de 0. De plus, l’erreur standard converge

beaucoup plus vite que l’écart-type. Cette figure montre bien que l’erreur standard est

une représentation de la fiabilité de la moyenne obtenue, et non pas une

représentation de la dispersion des points autour d’une valeur moyenne. En

conséquence, pour représenter la qualité des données analysées, il faudra préférer

l’écart type (et l’on précisera le nombre de tirages ou de mesures effectuées), alors que

pour représenter la fiabilité de la valeur proposée, c’est l’erreur standard qui sera à

préférer.

Figure 2.3 : Tirages aléatoires de 200 valeurs entre 0 et 1. Cas 1 : la loi de probabilité est uniforme sur l’intervalle

[0:1] ; Cas 2 : la loi de probabilité est une loi normale centrée sur 0,5 et d’écart-type 0,3. La courbe verte représente

l’évolution de la valeur moyenne pour les n premiers tirages. Les enveloppes rouges et bleues représentent l’erreur

(respectivement en 2SD et 2SE) autour de cette valeur moyenne.

Une méthode couramment utilisée en Sciences de la Terre et de l’Univers pour

réduire artificiellement les incertitudes représentées consiste à calculer la moyenne sur

des sous-ensembles (exemples : 20 séries de 10 tirages), puis à calculer l’incertitude. La

moyenne est donc calculée comme suit :

!=

!!,!

!"

!!!

10

!

!!!

!

avec !!,! le i

ème

tirage (ou mesure) du lot j.

Et l’erreur associée (ici 1SD) est calculée comme suit :

Cette méthode est mathématiquement erronée car elle ne tient pas compte des

erreurs calculées pour chaque sous-ensemble (voir Figure 2.4). Elle amène à la même

moyenne, mais à un écart-type souvent plus faible que dans le cas où les statistiques

sont réalisées sur la population entière. Il convient de noter N=20 et non pas n=200 et

de préciser que le mode de comptage statistique par lots a été utilisé. La Figure 2.4

reprend les mêmes données que le cas 2 présenté ci-dessus, mais celles-ci ont été

traitées par lots de 10. Il est ainsi possible de voir que l’écart-type et l’erreur standard

(tous deux sans signification mathématique) sont réduits significativement.

Figure 2.4 : Calcul de l’erreur en utilisant la méthode de comptage par lot. Chaque petit point noir représente un

tirage. Les gros points noirs sont les valeurs moyennes pour 1 tirages consécutifs. La courbe verte représente

l’évolution de la moyennes des moyennes des n premiers lots, et les enveloppes rouge et bleue représentent l’erreur

(respectivement en 2SD et 2SE) autour de cette valeur moyenne (sans propagation de l’erreur associée à chaque lot).

C’est le système de comptage employé par les fabricants de certains instruments

que nous avons utilisés au cours de cette thèse, comme les MC-ICPMS Nu500 (Nu

Instrument®) et Neptune Plus (Thermo Fisher Scientific®) ou encore le TIMS Triton

(Thermo Fisher Scientific®).

Pourtant, si la propagation d’erreur est effectuée convenablement, on se retrouve

dans le cas présenté à la Figure 2.5. La formule de propagation d’erreur qui doit être

appliquée est la suivante :

!!= !!!

!

!

!!!

!

avec !!! correspondant à l’écart type ou à l’erreur standard calculé(e) sur le j

ème

lot

de 10 tirages ou mesures.

La Figure 2.5 montre que l’écart-type calculé en tenant compte de la propagation

d’erreur est similaire à celui calculé sur la totalité des échantillons, mais que l’erreur

standard propagée est bien plus importante, ce qui est logique puisqu’on n’a plus

(virtuellement) que 20 mesures.

Figure 2.5 : Comme la Figure 2.4, mais les erreurs (2SD) ont été calculées pour chaque lot de 10 tirages et elles ont été

propagées aux 2SD et 2SE totaux (enveloppes rouge et bleue, respectivement)

Justesse, reproductibilité et autres critères de qualité

La justesse de la mesure s’étudie en comparant valeur vraie et valeur mesurée.

Dans le cas qui nous intéresse ici, la justesse du résultat n’est que secondaire par

rapport à sa précision car nous étudions des variations relatives. Le standard NIST 3163

associé à un échantillon vaudra donc toujours 0 δ car il n’est pas sensé varier par

rapport à lui-même.

Nous exprimerons la reproductibilité en ppm (parties par millions) et elle sera

calculée pour les rapports isotopiques d’intérêt (!!) de la façon suivante :

!!"#$= 2!!!

! ×10!

avec !! l’écart type calculé pour le rapport !! mesuré sur chaque standard de la

série.

météorites, comme je l’ai fait dans cette thèse, la quantité de matière disponible est

très faible, et il est donc nécessaire que la sensibilité de l’appareil de mesure soit la

meilleure possible. Le rapport signal/bruit doit être le plus élevé possible à une

concentration donnée. Cette sensibilité s’exprime en volts/ppm (sous entendu volts de

signal en sortie de l’instrument par ppm de l’élément dans la solution analysée). Pour

comparaison, nous avons obtenu en routine une sensibilité de 20 volts/ppm pour

l’analyse du tungstène sur le Nu500HR (Nu Instrument®), et de 300 à 400 volts/ppm

sur le Neptune Plus (Thermo Fisher Scientific®). Ce dernier nous a donc permis

d’analyser des échantillons beaucoup plus pauvres en W avec une grande précision.

2.4. Développement analytique pour la séparation quantitative du W