2. Nouveau protocole analytique pour l’étude des isotopes stables du W
2.3. Développement MC-ICPMS pour l’analyse du fractionnement dépendant de la
2.3.4. Evaluation de la qualité de la mesure
!
!
!"#!"!
représente le rapport isotopique de l’échantillon corrigé du biais en
masse instrumental et
!"#!!!
!"#
est la moyenne des rapports isotopiques des standards
précédant et suivant l’échantillon lors de l’analyse, eux aussi corrigés du biais en masse
instrumental.
2.3.4. Evaluation de la qualité de la mesure
Justesse, précision, incertitude, reproductibilité et sensibilité sont autant
d’indicateur de la qualité d’une mesure.
Ecart type et erreur standard
La première préoccupation des géochimistes et des cosmochimistes est la notion
de précision, couplée à celle d’incertitude. Les deux notions sont indissociables.
L’incertitude est une représentation de l’intervalle des valeurs possibles pour le résultat
obtenu. Cette incertitude peut s’exprimer de façon relative (en % de la valeur mesurée)
ou absolue, sans que son sens en soit altéré. Par contre, la façon dont elle est calculée
peut faire varier la valeur affichée de façon importante. Nous distinguerons dans ce qui
suit ‘l’écart type’ (SD ou σ) et ‘l’erreur standard (SE).
L’écart type d’une mesure représente la dispersion des données mesurées. Elle se
calcule simplement comme suit :
!= !!−!!
Avec ! la moyenne des valeurs prises par la variable !.
Lorsqu’une donnée numérique est représentée avec une incertitude de 1σ et en
considérant que la distribution est une gaussienne centrée autour de la valeur vraie,
cela signifie que 68,3% des points analysés tombent dans l’intervalle couvert par la
barre d’erreur. En représentant l’incertitude à 2σ, le nombre de données dans cet
intervalle est de 95,4%.
assimilée à un intervalle de confiance. Elle tient compte de l’écart type et de la taille de
la population de données étudiée. Elle se calcule comme suit :
!" = !
!
Avec ! le nombre de données utilisées dans le calcul statistique. Plus le nombre de
mesure est grand, et plus !" sera petit (et donc plus la valeur vraie sera connue avec
précision).
Exemple : pour construire la Figure 2.3, nous avons tiré aléatoirement une série de
200 réels entre 0 et 1, dans le cas 1 de façon équiprobable, et dans le cas 2 de façon
aléatoire selon une loi normale de moyenne 0,5 et d’écart type 0,3. Nous avons ensuite
calculé la moyenne, l’écart type, et l’erreur standard associées pour des sous-tirages
avec une population n variant de 2 à 200.
Nous voyons ici que l’écart type converge vers une valeur de ± 0,5 alors que l’erreur
standard converge vers une valeur proche de 0. De plus, l’erreur standard converge
beaucoup plus vite que l’écart-type. Cette figure montre bien que l’erreur standard est
une représentation de la fiabilité de la moyenne obtenue, et non pas une
représentation de la dispersion des points autour d’une valeur moyenne. En
conséquence, pour représenter la qualité des données analysées, il faudra préférer
l’écart type (et l’on précisera le nombre de tirages ou de mesures effectuées), alors que
pour représenter la fiabilité de la valeur proposée, c’est l’erreur standard qui sera à
préférer.
Figure 2.3 : Tirages aléatoires de 200 valeurs entre 0 et 1. Cas 1 : la loi de probabilité est uniforme sur l’intervalle
[0:1] ; Cas 2 : la loi de probabilité est une loi normale centrée sur 0,5 et d’écart-type 0,3. La courbe verte représente
l’évolution de la valeur moyenne pour les n premiers tirages. Les enveloppes rouges et bleues représentent l’erreur
(respectivement en 2SD et 2SE) autour de cette valeur moyenne.
Une méthode couramment utilisée en Sciences de la Terre et de l’Univers pour
réduire artificiellement les incertitudes représentées consiste à calculer la moyenne sur
des sous-ensembles (exemples : 20 séries de 10 tirages), puis à calculer l’incertitude. La
moyenne est donc calculée comme suit :
!=
!!,!
!"
!!!
10
!
!!!
!
avec !!,! le i
èmetirage (ou mesure) du lot j.
Et l’erreur associée (ici 1SD) est calculée comme suit :
Cette méthode est mathématiquement erronée car elle ne tient pas compte des
erreurs calculées pour chaque sous-ensemble (voir Figure 2.4). Elle amène à la même
moyenne, mais à un écart-type souvent plus faible que dans le cas où les statistiques
sont réalisées sur la population entière. Il convient de noter N=20 et non pas n=200 et
de préciser que le mode de comptage statistique par lots a été utilisé. La Figure 2.4
reprend les mêmes données que le cas 2 présenté ci-dessus, mais celles-ci ont été
traitées par lots de 10. Il est ainsi possible de voir que l’écart-type et l’erreur standard
(tous deux sans signification mathématique) sont réduits significativement.
Figure 2.4 : Calcul de l’erreur en utilisant la méthode de comptage par lot. Chaque petit point noir représente un
tirage. Les gros points noirs sont les valeurs moyennes pour 1 tirages consécutifs. La courbe verte représente
l’évolution de la moyennes des moyennes des n premiers lots, et les enveloppes rouge et bleue représentent l’erreur
(respectivement en 2SD et 2SE) autour de cette valeur moyenne (sans propagation de l’erreur associée à chaque lot).
C’est le système de comptage employé par les fabricants de certains instruments
que nous avons utilisés au cours de cette thèse, comme les MC-ICPMS Nu500 (Nu
Instrument®) et Neptune Plus (Thermo Fisher Scientific®) ou encore le TIMS Triton
(Thermo Fisher Scientific®).
Pourtant, si la propagation d’erreur est effectuée convenablement, on se retrouve
dans le cas présenté à la Figure 2.5. La formule de propagation d’erreur qui doit être
appliquée est la suivante :
!!= !!!
!
!
!!!
!
avec !!! correspondant à l’écart type ou à l’erreur standard calculé(e) sur le j
èmelot
de 10 tirages ou mesures.
La Figure 2.5 montre que l’écart-type calculé en tenant compte de la propagation
d’erreur est similaire à celui calculé sur la totalité des échantillons, mais que l’erreur
standard propagée est bien plus importante, ce qui est logique puisqu’on n’a plus
(virtuellement) que 20 mesures.
Figure 2.5 : Comme la Figure 2.4, mais les erreurs (2SD) ont été calculées pour chaque lot de 10 tirages et elles ont été
propagées aux 2SD et 2SE totaux (enveloppes rouge et bleue, respectivement)
Justesse, reproductibilité et autres critères de qualité
La justesse de la mesure s’étudie en comparant valeur vraie et valeur mesurée.
Dans le cas qui nous intéresse ici, la justesse du résultat n’est que secondaire par
rapport à sa précision car nous étudions des variations relatives. Le standard NIST 3163
associé à un échantillon vaudra donc toujours 0 δ car il n’est pas sensé varier par
rapport à lui-même.
Nous exprimerons la reproductibilité en ppm (parties par millions) et elle sera
calculée pour les rapports isotopiques d’intérêt (!!) de la façon suivante :
!!"#$= 2!!!
! ×10!
avec !! l’écart type calculé pour le rapport !! mesuré sur chaque standard de la
série.
météorites, comme je l’ai fait dans cette thèse, la quantité de matière disponible est
très faible, et il est donc nécessaire que la sensibilité de l’appareil de mesure soit la
meilleure possible. Le rapport signal/bruit doit être le plus élevé possible à une
concentration donnée. Cette sensibilité s’exprime en volts/ppm (sous entendu volts de
signal en sortie de l’instrument par ppm de l’élément dans la solution analysée). Pour
comparaison, nous avons obtenu en routine une sensibilité de 20 volts/ppm pour
l’analyse du tungstène sur le Nu500HR (Nu Instrument®), et de 300 à 400 volts/ppm
sur le Neptune Plus (Thermo Fisher Scientific®). Ce dernier nous a donc permis
d’analyser des échantillons beaucoup plus pauvres en W avec une grande précision.
2.4. Développement analytique pour la séparation quantitative du W
Dans le document
Isotopes du tungstène - Nouvelles applications à l’étude des processus terrestres et astéroïdaux
(Page 78-83)