• Aucun résultat trouvé

OUTILS STATISTIQUES ET NUMÉRIQUES

N/A
N/A
Protected

Academic year: 2022

Partager "OUTILS STATISTIQUES ET NUMÉRIQUES"

Copied!
59
0
0

Texte intégral

(1)

UNIVERSITÉ D’ORLEANS Année universitaire 2011-2012

UFR Sciences Master FAC et SAE, 2ème année

O UTILS STATISTIQUES ET NUMÉRIQUES POUR LA MESURE ET LA SIMULATION

T. Dudok de Wit Université d’Orléans

16 septembre 2014

Ce cours a pour objectif de présenter divers outils qui sont couramment utilisés dans l’analyse de données.

Il s’agit plus d’une collection de chapitres choisis que d’un cours exhaustif sur l’analyse de données, pour laquelle vous trouverez des références ci-dessous.

(2)

Table des matières

1 Livres utiles 3

2 Rappels sur les probabilités 4

2.1 Variable aléatoire . . . . 4

2.2 Loi de probabilité . . . . 4

3 Statistique descriptive : estimateurs 5 3.1 Population ou échantillon ? . . . . 5

3.2 Densité de probabilité . . . . 6

3.3 Espérance et moyenne . . . . 8

3.4 Mode et médiane . . . . 9

3.5 Variance et écart-type . . . . 11

3.6 Moments d’ordre supérieur . . . . 12

4 Propriétés d’un estimateur 13 4.1 Cohérence d’un estimateur . . . . 13

4.2 Biais d’un estimateur. . . . 13

4.3 Efficacité . . . . 14

5 Quelques lois de probabilité 15 5.1 Aléa de Bernouilli . . . . 15

5.2 Aléa binomial . . . . 15

5.3 Loi uniforme. . . . 16

5.4 Aléa de Poisson . . . . 17

5.5 Loi normale ou loi de Gauss. . . . 18

5.6 Loi duχ2 . . . . 19

5.7 Théorème de la limite centrale . . . . 21

5.8 Simuler des lois avecScilab . . . . 23

6 Erreurs 24 6.1 Quantifier les erreurs. . . . 24

6.2 Représenter les erreurs. . . . 25

6.3 Chiffres significatifs. . . . 27

6.4 Comment déterminer l’incertitude ? . . . 28

6.5 Propagation des erreurs . . . . 28

6.6 Bootstrap et jackknife . . . . 30

6.7 Pourquoi moyenner ?. . . . 31

7 Tests d’hypothèse 32 7.1 Etapes du test d’hypothèse . . . . 34

7.2 Test duχ2 . . . . 34

7.3 Calculer les seuils avecScilab . . . . 39

8 Tests de stationnarité 41 8.1 Test de run . . . . 42

9 Régression affine et ajustement de courbes 44 9.1 Max de vraisemblance et moindres carrés 44 9.2 Résolution avecScilab . . . . 47

9.3 Validation de la droite de régression . . . 49

9.4 Régression de fonctions affines. . . . 52

9.5 Régression non-linéaire . . . . 55

9.6 Régression non-linéaire avecScilab . . . 56 10 Ajustement de modèles : Bayes 58

(3)

1 Livres utiles

• L. Lyons, A practical guide to data analysis for physical science students, Cambridge University Press, 1991 (introduction très claire à l’analyse de données). NIVEAU LI-

CENCE

• W. Press et al.,Numerical Recipes in C, Cambridge University Press, 1998 (LA référence sur les outils numériques). Voir aussi la version en ligne àhttp://www.nr.com NIVEAU

MASTER ET+,ENBU.

• P. Bevington,Data reduction and error analysis for the physical sciences, McGraw-Hill, 1992 (ce livre un peu ancien reste une référence ; il est davantage orienté vers l’analyse des erreurs). NIVEAU LICENCE, ENBU

• E. Feigelson & G. J. Babu, Modern statistical analysis for astronomy, Cambridge Uni- versity Press, 2013 (excellent panorama de méthodes, et bien que dédié à l’astronomie, s’applique aussi à d’autres domaines). NIVEAU LICENCE/MASTER, EN COMMANDE À LA

BU

• K. Protassov,Probabilités et incertitudes, Presses Universitaires de Grenoble, 2000 (ex- cellent traité sur les incertitudes). NIVEAU LICENCE, DISPONIBLE ENBU

• J. Max,Méthodes et techniques de traitement du signal : tome 1Applications aux me- sures physiques et tome 2Exemples d’applications, Dunod, 1987 (ces deux volumes, même s’ils ont pris de l’âge, restent un des rares exemples de synergie entre les outils de traitement de données et leurs applications en physique). NIVEAU MASTER ET+

• le cours de Philippe Depondt sur la physique numérique (ENS Cachan), orienté vers la simulation :

http://www.phytem.ens-cachan.fr/ Allez dans "Licence L3 -> Cours téléchar- geables -> Physique numérique"

• référence complète sur les techniques d’analyse de données pour ingénieurs, leData Analysis Handbook:http://www.itl.nist.gov/div898/handbook/index.htm

GUM : Guide to the Expression of Uncertainty of Measurementest un document officiel et une mine d’informations sur tous les aspects métrologiques liées au traitement des erreurs.http://www.bipm.org/en/publications/guides/gum.html

(4)

2 Rappels sur les probabilités

2.1 Variable aléatoire

On appellevariable aléatoireou aléa numérique une variableX susceptible de prendre dif- férentes valeurs, auxquelles il est possible d’affecter une probabilité. SoitV l’ensemble des valeurs possibles de X : si V est fini ou dénombrable, on dit que l’aléa est discret. Le cas échéant, l’aléa est ditcontinu.

Exemple :Dans le lancer d’un dé, la variable aléatoireX ={1,2,3,4,5,6} est dis- crète et ne peut prendre que 6 valeurs. Le débit de fluide dans une conduite est une variable continue.

Remarque : La plupart des observables physiques (température, pression, ten- sion, longueur, durées, . . . ) sont des variables continues, bien que des effets quan- tiques puissent jouer à très petite échelle, par exemple pour de très faibles champs magnétiques.

Les variables discrètes apparaissent généralement dans les expériences où il y a dénombrement.

2.2 Loi de probabilité

Soitp(x), la probabilité qu’une variable aléatoirediscrète X prenne la valeur x. L’ensemble des couples (x,p(x)) est appeléloi de probabilité de la variable aléatoire. Elle peut être représentée par un diagramme en bâtons ou par un histogramme.

Lorsque l’aléa estcontinu, la probabilité queX prenne la valeurxest en général infiniment petite. Ainsi, si on tire au hasard des nombres réels répartis uniformément entre 0 et 5, la probabilité qu’un tel nombre soit exactement égal 2.453885109 est très faible, quoique non nulle.

Il devient dès lors plus intéressant de calculer la probabilité queX prenne une valeur dans un petit intervalle

Prob(a<Xb)=Prob(X ≤b)−Prob(X <a) La quantité

Prob(X ≤b)−Prob(X <a) ba

définit ladensité de probabilitédans l’intervalle [a,b]. Par passage à la limite, on définit p(a)=lim

ba

Prob(X ≤b)−Prob(X <a) ba

La quantitéRd

c p(x)d xéquivaut à la probabilité que l’aléaX prenne une valeur située entrec etd.

Exemple :Dans le lancer d’un dé non truqué, la loi de probabilité discrète se résume à

xi 1 2 3 4 5 6

p(xi) 1/6 1/6 1/6 1/6 1/6 1/6

(5)

Exemple : La probabilité de tirer un nombre aléatoire issu d’une distribution uniforme sur l’intervalle [0,1[ vaut

p(x)=

½ 1 si 0≤x<1 0 sinon

Pour un aléa discret, la probabilité de tirer une valeur parmi toutes les valeurs possibles vaut obligatoirement 1 car on est sûr du résultat. Cela signifie qu’on a toujours

X

xX

p(x) = X

i

p(xi) = 1

De la même façon, pour un aléa continu, la probabilité de tirer une valeur parmi l’ensemble des valeurs possibles est toujours égale à 1. On a donc

Z+∞

−∞

p(x)d x = 1 Ces résultats sont valables quelle que soit la loi de probabilité.

Remarque :Pour un aléa discret, chaque probabilité satisfait forcément 0≤p(x)≤ 1, puisque la somme des probabilités est égale à 1. La probabilitép(x) est alors un nombre sans unités.

En revanche, pour un aléa continu, il est tout à fait possible d’avoir p(x)> 1, puisque c’est l’intégrale qui est bornée. En outre,p(x) peut s’exprimer en unités physiques. Par exemple, sixest une longueur mesurée en [m], alorsp(x) s’expri- mera en [m1].

3 Statistique descriptive : estimateurs

Dans une expérience, on a rarement accès à l’expression exacte de la loi de probabilité ; il n’est pas forcément possible de mesurerp(x) pour chaque valeur dex. On se contente donc souvent de calculer des indicateurs, qui résument à eux seuls certaines caractéristiques de la loi. Le mieux connu de ces indicateurs est la moyenne, qui est un indicateur de tendance.

On recourt aussi fréquemment à des indicateurs de dispersion ou d’étalement, tels que écart- type. Notre objectif est d’en trouver la meilleure estimation à partir d’un échantillon dont la taille sera toujours finie.

3.1 Population ou échantillon ?

D’un point de vue formel, il existe une différence fondamentale entre les modèles et les obser- vations. Dans le premier cas, et pour autant que la loi de probabilité soit connue, on parlera de population. Les quantités qui en seront déduites, telles que l’espérance, sont théoriques et en ce sens dépourvues d’erreur. Il est rare de pouvoir travailler directement sur une population, sauf si on dispose d’un modèle mathématique exact du phénomène à étudier.

Lorsque la loi de probabilité n’est pas connue, alors il faut réaliser une expérience poures- timerles propriétés telles que la moyenne. On parlera alors d’échantillon. Les valeurs obte- nues seront d’autant plus proches des valeurs théoriques que l’expérience a été bien menée.

(6)

En vertu de la loi des grands nombres, les valeurs obtenues avec l’échantillon convergent vers celles de la population lorsque la taille de l’échantillon augmente. Tout le problème consiste à estimer au mieux ces valeurs.

Sauf exception rare, l’expérimentateur travaille toujours sur des échantillons. Un modèle de son expérience lui permettra cependant de définir une population, par rapport à laquelle il se référera.

3.2 Densité de probabilité

La densité de probabilité figure parmi les quantités les plus importantes pour caractériser une série temporelle ou une suite de valeurs en général. Comme nous l’avons vu en2.2,p(a)d xest la probabilité qu’un processus stationnairex(t) prenne une valeur comprise dans l’intervalle [a,a+d x].

On utilise fréquemment l’expression pdf (= probability density function) pour désigner la densité de probabilitép(x). Un théorème important (le théorème de la limite centrale, cf.5.7) nous dit que pour beaucoup de processus physiques, la pdf tend vers une loi normale (ou loi de Gauss)p(x)e(xa)2/b.

FIGURE1– A gauche : quatre exemples de séries temporelles : a) une sinusoïde, b) une sinusoïde avec du bruit de haute fréquence, c) une sinusoïde dont l’amplitude fluctue au cours du temps, d) un signal aléatoire. A droite est représentée la densité de probabilité de chaque série.

(7)

Quelques exemples de pdf estimées à partir d’échantillons sont illustrés dans la figure1. L’es- timation d’une pdf à partir d’un échantillon est une tâche délicate pour laquelle la méthode la plus simple (mais non la meilleure) consiste à calculer un histogramme.

La détermination de la pdf joue un rôle crucial dans l’étude de la turbulence, où de très faibles écarts par rapport à une loi normale peuvent parfois être interprétés en termes de structures cohérentes (tourbillons, etc.).

Estimer des distributions avecScilab

Le logicielScilab dispose de quelques routines permettant d’estimer des fonctions de distri- bution et plus particulièrement des histogrammes.

histplot(n,x)affiche l’histogramme de la variablex(un vecteur) en choisissant automatiquementn classes de même largeur ; l’effectif de chaque classe est normalisé par l’effectif total.

histplot(b,x)même fonction que ci-dessus, sauf qu’elle utilise les classes dont les bornes sont définies par le vecteur b. Ces bornes sont [b1,b2], (b2,b3], (b3,b4], etc.

[pos,eff] = dsearch(x,b,"c") recherche parmi les éléments du vecteurxceux qui se trouvent dans l’une des classes définies parb (même syntaxe que ci-dessus). pos est un vecteur de même taille que x, qui indique le numéro de la classe à laquelle appartient chaque élément.e f f donne l’effectif de chaque classe. Cette fonc- tion convient aux lois discrètes et continues.

[pos,eff] = dsearch(x,v,"d")même fonction que ci-dessus, sauf que la recherche se fait par rapport aux valeurs entières définies dans le vecteurv. Cette fonction convient uniquement aux lois dis- crètes.

Un estimateur simple : l’estimateur à noyau

La méthode de l’histogramme possède un sérieux défaut : les effectifs obtenus dans chaque classe fluctuent et lui donnent une allure irrégulière. Il devient lors difficile de distinguer les fluctuations statistiques des véritables variations d’effectifs entre classes. Pour atténuer les premières, il convient de moyenner les effectifs entre classes.

L’estimateur de la densité de probabilité par histogramme peut être défini comme ˆ

p(xi)= 1

ni

N avec ni =nbre d’observations dans

· xi−∆

2,xi+∆ 2

¸

que l’on peut écrire comme ˆ

p(x)= 1

∆ 1 N

XN k=1

Γ³xxk

´ avec Γ(u)=

½ 1/2 si|u| ≤1

0 sinon

L’estimateur classique peut dès lors être interprété comme un empilement de boîtes de lar- geur 2∆et de hauteur (2∆N)1. Comme l’aire de chaque boîte vaut N1, l’aire totale de la densité de probabilité est bien égale à 1.

(8)

On peut avantageusement remplacer la fonction porteΓ(u) par une fonction plus lisse, qui atténuera les irrégularités dans la distribution. Ceci donne lieu auxestimateurs à noyau(ker- nel estimators), qui sont fréquemment utilisés dans la pratique. A chaque valeurzide l’échan- tillon on associe alors une courbe centrée surzi; la superposition de toutes ces courbes donne la densitép(z).

p(z)

z

A priori, n’importe quelle fonctionΓ(u) peut servir de noyau, à condition de remplir les condi- tions suivantes

• Γ(u) doit être≥0 et à support compact

• R

Γ(u)d u=1

Il est toutefois préférable de choisir une fonction qui soit aussi lisse que possible, tout en étant concentrée sur un intervalle compact. Le noyau Gaussien

Γ(u)= 1

∆p 2πeu

2 2∆2

est particulièrement adapté et très fréquemment utilisé. Toutefois, la forme précise du noyau n’a que peu d’influence sur le résultat final. Le seul paramètre ajustable est leparamètre de lissage(ou encore largeur caractéristique∆) pour lequel il n’existe pas de recette fiable. Si les données en question suivent un loi normale de varianceσ2alors on peut utiliser en première approximation

∆=σN1/5

Cette expression nous apprend que le résolution à laquelle on peut espérer dans un histo- gramme (à savoir la valeur de∆) ne s’améliore que très lentement lorsque l’effectifNcroît.

3.3 Espérance et moyenne

Quand la densité de probabilité n’est pas connue, on commence par estimer certains de ses moments. Une des caractéristiques les plus importantes d’une loi est samoyenneouespé- rance.

En présence d’une population, on parle d’espérance de la variableX, qui se note habituelle- mentµX,E(X) ou〈X〉. Si la loi de probabilité n’est pas connue a priori, alors il faut estimer l’espérance à partir d’un échantillon. On parlera alors de moyenne, que l’on notera habituel-

(9)

lement ¯x, parfoisxN oum. On a

x〉 = Z

x p(x)d x espérance pour un aléa continu

x〉 =X

i

xipi espérance pour un aléa discret

¯ x= 1

N XN i=1

xi moyenne pour un échantillon

Notons qu’il existe d’autres estimateurs de la moyenne, telles que la moyenne pondérée ¯x= Piwixi/P

iwiainsi que la moyenne géométrique ¯x=¡QN

i=1xi¢1/N

. Exemple :Dans le lancer d’un dé non truqué, l’espérance vaut

X〉 =1·1 6+2·1

6+3·1 6+4·1

6+5·1 6+6·1

6=7 2 Ce résultat est exact, et ne dépend pas du nombre de lancers.

En réalisant l’expérience pour des nombres de lancers différents, obtient de même la moyenne

N 10 100 1000 10000 100000

¯

x 3.2 3.56 3.486 3.5366 3.5010 Ces valeurs convergent vers le résultat théorique pourN→ ∞.

Dans le logicielScilab , la moyenne d’un échantillon s’obtient avec l’une des commandes m = mean(x)estime la moyenne sur tous les éléments de la matricex m = mean(x,’r’)même fonction que ci-dessus, sauf que la moyenne

s’effectue selon chaque rangée dex

m = mean(x,’c’)même fonction que ci-dessus, sauf que la moyenne s’effectue selon chaque colonne dex

3.4 Mode et médiane

La moyenne à elle seule ne suffit pas pour rendre compte de la notion intuitive de "valeur moyenne". On recourt parfois aussi aumode, qui est la valeur la plus probable de la distribu- tion, cf. figure2. Le mode n’est pas toujours défini.

Une autre quantité utile est lamédiane: c’est la valeurxm telle qu’on a la même probabilité de tirer une valeur inférieure àxm qu’une valeur supérieure àxm. Pour une population avec un aléa continu, nous avons

Zxm

−∞

p(x)d x= Z

xm

p(x)d x=1 2

Pour un échantillon, la médiane s’estime de la manière suivante : soient {xi},i =1,...,N les Nrésultats de l’expérience. D’abord on les trie par ordre croissant, pour obtenir une nouvelle suite {xk},k=1,...,N. La valeur médianexmest alors la valeur d’indiceN/2 (siN est pair) ou d’indice (N+1)/2 (siNest impair).

(10)

p(x)

x modemédiane

moyenne

2 écarts-type

FIGURE2– Représentation de quelques indicateurs statistiques pour une distribution continue.

Exemple :Une mesure du courant dans un conducteur a donné les valeurs sui- vantes : {xi}=70, 79.4, 94, 86, 82, 81.4 et 70 [A].

La moyenne est 80.4 [A], le mode est 70 [A] et la médiane est 81.4 [A].

Exemple :Une distribution continue est donnée par la loi p(x)=

½ 1

2x si 0≤x<2 0 sinon On vérifie que l’on a bienR+∞

−∞ p(x)d x=1. L’espérance vaut

x〉 = Z+∞

−∞

x p(x)d x=1 2

Z2

0 x2d x=4 3 La médianexm est donnée par

Zxm

−∞

p(x)d x=1

2 ⇒ xm=p 2

Estimer la médiane avecScilab

Il n’existe pas de fonction dédiée dansScilab pour calculer le mode car ce dernier n’est pas toujours défini. En revanche, la médiane s’obtient avec la même syntaxe que la moyenne

m = median(x)estime la médiane sur tous les éléments de la matrice x

m = median(x,’r’) même fonction que ci-dessus, sauf que la mé- diane se calcule selon chaque rangée dex

m = median(x,’c’) même fonction que ci-dessus, sauf que la mé- diane se calcule selon chaque colonne dex

(11)

3.5 Variance et écart-type

Pour quantifier la dispersion des valeurs deX autour de sa valeur moyenne, on recourt ha- bituellement à la variance σ2x et plus fréquemment à l’écart-type (ou écart quadratique moyen)σx =

q

σ2x. La définition de la variance est σ2x=

Z

¡xµ¢2

p(x)d x pour un aléa continu σ2x=X

i

¡xiµ¢2

pi pour un aléa discret

µest l’espérance et non la moyenne. Les expressions ci-dessus peuvent se mettre sous une forme plus commode

σ2x= 〈x2〉 −µ2

L’écart-type est donc une mesure de la largeur d’une distribution, cf. figure2. Elle s’exprime dans les mêmes unités que la variableX : si cette dernière est par exemple en [Ω], alors l’écart- type le sera aussi.

Pour un échantillon de taille finie, on notera généralement la variances2x et nonσ2x; son ex- pression dépendra alors de la connaissance de l’espérance. Si l’espérance est connue (ce qui est rarement le cas), l’expression de la variance sera la même que pour celle d’une popula- tion. En revanche, si l’espérance n’est pas connue, le fait de devoir estimer la moyenne de l’échantillon pour ensuite calculer la variance à partir de ce même échantillon aura pour effet de sous-estimer cette dernière. L’estimation de la variance est alors biaisée (cf.4). Pour cor- riger cet effet, on peut montrer que le dénominateur doit êtreN−1 et nonN. La plupart des calculatrices font la distinction entre les deux estimateurs.

s2x= 1 N

XN i=1

¡xiµ¢2 l’espérance est connue s2x= 1

N−1

N

X

i=1

(xix)¯ 2 l’espérance n’est pas connue

Dans ce qui suit, j’utiliserai souvent la notationσindifféremment pour les populations et les échantillons.

Exemple :Dans l’exemple précédent de la distribution continue, la variance vaut σ2x=

Z+∞

−∞

x2p(x)d x−(〈x〉)2=1 2

Z2

0 x3d x−16

9 =0.222 L’écart-type vaut doncσx=

q

σ2x=0.471

Estimer l’écart-type avecScilab

DansScilab , l’estimateur non-biaisé de l’écart-type est

(12)

s = stdev(x)estime l’écart-type sur tous les éléments de la matrice x

s = stdev(x,’r’) même fonction que ci-dessus, sauf que l’écart- type est estimé selon chaque rangée dex

s = stdev(x,’c’) même fonction que ci-dessus, sauf que l’écart- type est estimé selon chaque colonne dex

u = x(:)-mean(x); s = sqrt(u’*u/length(u));notation com- pacte pour l’estimateur biaisé de l’écart-type

3.6 Moments d’ordre supérieur

L’espérance et la variance sont les deux principaux moments d’une densité de probabilité. Il arrive qu’on soit amené à s’intéresser à des moments d’ordre supérieur, définis selon

mq mq=

Z

¡xµ¢q

p(x)d x pour un aléa continu mq=X

i

¡xiµ¢q

pi pour un aléa discret mq= 1

N XN i=1

(xix)¯ q pour un échantillon

où l’ordreq est habituellement un entier positif. Pourq=0, on trouve par définition 1, pour q =1, l’espérance et pourq =2, la variance. Il est souvent plus commode de normaliser les moments d’ordre supérieur par rapport à la variance de la population ou de l’échantillon, ce qui donnemq=mσqq.

On rencontre fréquemment leskewness(ou asymétrie), défini comme γ1= 〈(x−µ)3

〈(x−µ)23/2= m3 σ3 et lekurtosis(ou aplatissement), défini comme

γ1= 〈(x−µ)4

〈(x−µ)22−3= m4 σ4 −3

Le skewness mesure l’asymétrie d’une distribution. Comme le montre la Figure3, il est nul pour toute distribution symétrique par rapport à sa moyenne alors que γ1>0 implique un surcroît de grandes valeurs positives. Le kurtosis est une mesure de l’étalement d’une distri- bution, encore appelé aplatissement. Pour une loi normale,m4 =3 etγ2=0.

Plus l’ordre d’un moment est élevé, plus celui-ci sera fortement pondéré par les valeurs ex- trêmes. Il faudra donc être très prudent avec un échantillonX de taille finie, car la valeur du moment sera presque entièrement déterminée par les quelques valeurs dexqui s’écartent le plus de la moyenne. C’est la raison pour laquelle on ne rencontre que très rarement les mo- ments d’ordre supérieur à 4. La seule exception est l’étude expérimentale de la turbulence, où ces moments apportent une information cruciale sur les processus physiques de transfert d’énergie entre les tourbillons de tailles différentes (loi de Kolmogorov).

(13)

−50 0 5 0.1

0.2 0.3 0.4

x

p(x)

m1=µ=0, m22=1, γ1=0 γ2=0

−50 0 5

0.2 0.4 0.6

x

p(x)

m1=µ=0, m22=1, γ1=0 γ2=−0.812

−50 0 5

0.05 0.1 0.15 0.2 0.25

x

p(x)

m1=µ=0, m

22=1, γ

1=0 γ

2=1.35

−50 0 5

0.2 0.4 0.6

x

p(x)

m1=µ=0, m

22=1, γ

1=0.631 γ

2=0.245

FIGURE3– Quelques distributions et leurs premiers moments normalisés.

4 Propriétés d’un estimateur

On dispose d’un échantillon fini {xi} deNvaleurs. Supposons que l’on veuille en extraire une valeur x0 aussi raisonnablement proche que possible de la vraie valeurx0. On appellerax0 estimationdex0. Dans le cas plus général où on est confronté àN variables aléatoires {Xi}, on appelleraX0estimateurde la variable aléatoireX0recherchée (par exemple, la moyenne).

Un bon estimateur doit satisfaire à la fois trois conditions souvent contradictoires : il doit être cohérent, non biaisé et efficace.

4.1 Cohérence d’un estimateur

La loi des grands nombres (cf. section6) nous dit qu’en moyennant le résultat d’une expé- rience un grand nombreN de fois, la moyenneX0ainsi obtenue tend vers une variable non aléatoire x0, qui est la valeur numérique recherchée. C’est la propriété de cohérence (ou consistency).

4.2 Biais d’un estimateur

Lorsque la taille N d’un échantillon tend vers l’infini, un estimateur cohérent tend vers la valeur exactex0. Mais dans le cas réel où l’échantillon est de taille finie, on aimerait que l’es-

(14)

pérance〈X0N s’écarte le moins possible de la valeurx0. Cet écart est appelébiais. Pour un estimateur biaisé, on a

X0N =x0+bN

bN est le biais de l’échantillon. Pour un estimateur cohérent, limN→∞bN=0. L’estimateur de la figure4est biaisé. Celui de la figure5ne l’est pas.

intervalle dans lequel se répartissent les valeurs de X0*

biais

FIGURE4– Exemple d’un estimateur cohérent et biaisé.

Exemple : L’estimateur de l’entropie est biaisé. Soit {ki} un échantillon de N nombres entiers répartis uniformément entre 0 et 9 compris (chaque nombre possède la même probabilité d’apparition). Si fkest la fréquence d’apparition du nombrek, alors l’entropie vaut

H= − X9 k=0

fklogfk

On montre aisément que cet estimateur est fortement biaisé.

NHN valeur numérique

1 −log1 0

2 ≈ −log12 0.69 3 ≈ −log13 1.10

∞ ≈ −log101 2.30

4.3 Efficacité

Parmi différents estimateurs de la même quantité, on choisira celui dont l’écart-type est mi- nimal : la convergence vers la valeur exacte n’en sera que plus rapide.

Exemple :Pour estimer la moyenne d’un échantillon {xi} on effectue habituel- lement la moyenne arithmétique sur toutes les valeurs. On peut aussi effectuer la moyenne de la valeur minimum et de la valeur maximum. Lequel est plus effi- cace ?

(15)

estimateur le moins efficace estimateur le plus efficace

FIGURE5– Deux estimateurs d’efficacité différente.

5 Quelques lois de probabilité

Il existe un grand nombre de lois de probabilité. A chaque modèle correspond une loi parti- culière. Néanmoins, la grande majorité des lois rencontrées dans la nature s’avèrent être des lois de normales (ou lois de Gauss) ou encore des lois binomiales. Ces différentes lois étant apparentées, on passe de l’une à l’autre par un passage à la limite.

5.1 Aléa de Bernouilli

L’aléa de Bernouilli (ou loi de Bernouilli) est l’expression la plus simple d’une loi de probabi- lité. Elle s’exprime par une variable aléatoireX qui n’a que deux états : elle prend soit la valeur 1 (ou pile), avec une probabilitép, soit la valeur 0 (ou face), avec une probabilitéq.

Prob(X =1)=p, Prob(X =0)=q, et p+q=1 L’espérance vaut dans ce cas

x〉 =1·p+0·q=p et la variance

σ2x=(1−p)2·p+(0−p)2·q = p(1p) = pq

Exemple :Dans le jeu de pile ou face, avec une pièce non truquée, on ap=q= 1/2.

5.2 Aléa binomial

On considère N épreuves de Bernouilli identiques et indépendantes. La variable K est le nombre de réalisations de l’événementX : par exemple le nombre de fois qu’on obtient pile aprèsNlancers successifs d’une pièce. La probabilité pour queK prenne la valeurkvaut

Prob(K=k)=CNkpk(1−p)NkCNk = N! (N−k)!k!

On dit alors queKsuit une loi binomiale de paramètresNetp, que l’on noteBN,p. On montre dans ce cas que l’espérance, la variance et l’écart-type valent respectivement

(16)

espérance 〈K〉 =N p variance σ2K =N pq écart-type σK =p

N pq

0 1 2 3 4 5 6 7 8 9 10 0

0.1 0.2 0.3 0.4

k

Prob(K=k)

p = 0.1

0 1 2 3 4 5 6 7 8 9 10 0

0.1 0.2 0.3 0.4

k p = 0.5

0 1 2 3 4 5 6 7 8 9 10 0

0.1 0.2 0.3 0.4

k p = 0.7

FIGURE6– Distribution binomiale correspondant àN=10 etp=0.1,0.5,0.7 Exemple :On lance une pièce de monnaie truquéeN=3 fois. Quelle est la pro- babilité d’obtenir en toutk=2 fois pile sachant que la probabilité d’avoir pile vaut p=0.6 ?

Prob(k=2)= 3!

2! 1!0.620.41 = 0.432 La valeur moyenne et l’écart-type sont respectivement

K〉 =3·0.6=1.8 et σK =p

3·0.6·0.4=0.848

L’aléa binomial intervient fréquemment dans les phénomènes physiques où il n’existe que deux états possibles, chacun étant assorti d’une probabilité. Par exemple, dans une expé- rience d’analyse optique d’une couche translucide,ppourrait être la probabilité qu’un pho- ton traverse la couche etq celle de voir le photon être absorbé.

5.3 Loi uniforme

La loi uniforme décrit une variable aléatoireX dont les valeurs sont équiprobables sur un ou plusieurs intervalles [a,b[.

Prob(a<xb)=ct e Or comme on a obligatoirementR

p(x)d x=1, cela donne p(x)=

½ 1

ba siax<b

0 sinon

On montre dans ce cas que

espérance 〈x〉 =(a+b) 2 écart-type σx=(b−a)

p12

Dans les ordinateurs, les générateurs de nombres aléatoires fournissent généralement par dé- faut des nombres distribués selon une loi uniforme sur l’intervalle [0,1[. On peut générer à partir d’elle des nombres distribués selon n’importe quelle loi. La construction d’un bon gé- nérateur est un problème ardu qui fait encore l’objet de recherches intenses.

(17)

5.4 Aléa de Poisson

Considérons des épreuves binomiales telles queN devient très grand (un lance la pièce un grand nombre de fois) etptrès petit (la probabilité d’obtenir pile est très petite) tout en gar- dant〈K〉 =N pfini (ni nul, ni infini).

La loi binomiale tend alors vers une loi dite de Poisson. La probabilité queK prenne la valeur kvaut

Prob(K=k)=µk k!eµ

µest un paramètre qui est égal à l’espérance. Contrairement à la loi binomiale, qui néces- site deux paramètres (Netp), ici un seul paramètre (µ) suffit pour décrire la loi.

On montre dans ce cas que l’espérance, la variance et l’écart-type valent respectivement espérance 〈K〉 =µ

variance σ2K =µ écart-type σK =pµ

0 5 10 15

0 0.1 0.2 0.3 0.4

k

Prob(K=k)

µ = 1

0 5 10 15

0 0.1 0.2 0.3 0.4

k µ = 3

0 5 10 15

0 0.1 0.2 0.3 0.4

k µ = 8

FIGURE7– Distribution de Poisson correspondant àµ=1,3,8

La loi de Poisson décrit les phénomènes dont la probabilité de tirage individuel (c’est-à-dire p) est très petite, mais dont le nombre de réalisations (c’est-à-direN) est si élevé, que l’espé- ranceµatteint une valeur finie. On dira qu’une loi binomialeBN,p peut être approchée par une loi de PoissonPµdès queN p<5 etN>20.

La loi de Poisson décrit bien des phénomènes de comptage : détection de photons par un photomultiplicateur, comptage de particules émises lors de désintégrations radioactives, comptage d’ions dans un spectromètre de masse, comptage d’individus en microbiologie, . . .

Exemple :Une décharge luminescente émet en moyenneN =3·1010 photons par seconde. Sur ceux-ci, seule une très faible fractionp=5·109pénètre dans un photomultiplicateur. Le nombre moyen de photons détectés en une seconde vaut doncµ=N·p=150. Ce nombre fluctue au cours du temps avec un écart- type qui vautσ=pµ=12.2.

Si dans l’exemple qui précède on n’effectue qu’une seule mesure, avec par exemplen=822 photons pendant un intervalle de temps donné, alors le seul fait d’avoir une loi de Poisson nous permet d’affirmer que l’incertitude sur cette valeur sera deσ=pµ≈p

n=28.7. La force de la loi réside ici dans sa capacité à nous renseigner directement sur une quantité qui néces- siterait sinon plusieurs mesures.

(18)

5.5 Loi normale ou loi de Gauss

Si on prend la loi binomiale ou la loi de Poisson dans la limite où l’espérance devient très grande (N>20 etµ>20) alors le nombre d’états possibles croît rapidement : la représentation du diagramme en bâtons dep(x) se transforme petit à petit en une courbe continue.

Dans la limite où le nombreN est infini, on obtient une loi normale (ou loi de Gauss), dont l’expression générale est

p(x)= 1 σp

2πexp µ

−(x−µ)22

Cette expression fait apparaître deux paramètres,µetσ, qui sont respectivement l’espérance et l’écart-type. On dit dès lors queX suit une loi normaleN(µ,σ2). Lorsqu’un générateur de nombres aléatoires fournit des valeurs distribuées selon une loi normale, c’est toujours d’une distributionN(0,1) qu’il s’agit.

−100 −5 0 5 10

0.1 0.2 0.3 0.4

x

p(x)

µ=0, σ=1 µ=0, σ=2 µ=2, σ=3

FIGURE8– Distribution normale correspondant à différents couples de valeurs (µ,σ).

La loi normale se rencontre très fréquemment et s’applique à tous les phénomènes qui ré- sultent de la superposition d’un grand nombre d’événements indépendants et d’origines di- verses. L’explication se trouve dans le théorème de la limite centrale, cf. section5.7.

Pourquoi standardiser ?

Il arrive fréquemment que l’on doive comparer deux ou plusieurs quantités, dont les unités de mesure diffèrent ou dont les ordres de grandeur ne sont pas les mêmes. Si en plus ces quantités obéissent à une loi normale, il peut être commode de lesstandardiser. Cette opé- ration consiste à leur soustraire la moyenne (= centrer) et à les normaliser par rapport à leur écart-type (= réduire)

x−→xx¯ σx

La figure ci-dessous illustre cela pour la mesure simultanée de la température et de la ré- sistance d’un thermistor dans un écoulement fluide. Les deux quantités s’expriment en des unités différentes et sont difficilement comparables. Leur comparaison relative est facilitée une fois qu’elles sont standardisées.

(19)

0 10 20 30 0

100 200 300 400 500

temps [h]

amplitude

donnees brutes

T [K]

R [kΩ]

0 10 20 30

−4

−2 0 2 4

temps [h]

amplitude

donnees standardisees

T R

FIGURE9– Mesure simultanée de la température et de la résistance d’un thermistor dans un écoule- ment. A gauche les données brutes (en unités physiques), à droite les données standardisées.

Pour les graphes, la standardisation est à manipuler avec précaution, car elle enlève toute référence absolue. Les quantités standardisées sont en effet sans dimension.

La standardisation s’avère utile pour tout calcul de probabilité faisant intervenir des quantités distribuées selon une loi normale. Prenons une quantitéxqui suit une loi normaleN(µ,σ2).

Si on s’intéresse à une probabilité, par exemple celle de rencontrer des valeurs dexinférieures àx0, alors il faut calculer

Prob(x<x0)= Zx0

−∞

p(x)d x= 1 p2πσ

Zx0

−∞

e

(yµ)2 2 d y

Cette intégrale ne possède pas de solution analytique ; il faut la calculer numériquement, ou bien recourir à des tables. Le calcul répété pour différentes valeurs deµou deσdevient alors fastidieux. Or le changement de variablexu=(x−µ)/σpermet de poser

Prob(x<x0)=Prob³u<u0=x0µ σ

´

= 1 p2π

Zu0

−∞

ev

2 2 d v

Le grand intérêt de cette expression réside dans l’absence de paramètres de la distribution (µ, σ) dans l’intégrand. Seules comptent les bornes de l’intégrale, dont la valeur peut être obtenue à partir de tables où grâce à une fonction prédéfinie sur votre calculatrice. La standardisation confère ainsi aux variables normales un caractère universel. Pour des raisons historiques, on recourt fréquemment à lafonction erreur, définie comme

erf(x)= 2 pπ

Zx

0 ey2d y, ce qui nous donne

Prob(u<u0)=1 2+1

2erf µu0

p2

5.6 Loi du χ

2

Si X1,X2,...Xn sont n variables aléatoires indépendantes distribuées chacune selon une même loi normaleN (0,1), alors la nouvelle variableX =X12+X22+ ··· +Xn2possède une dis-

(20)

−4 −2 0 2 4

−1

−0.5 0 0.5 1

x

erf(x)

FIGURE10– Allure de la fonction erreur.

tribution enχ2àndegrés de liberté1.

Plus généralement, siX1,X2,...Xnsontnvariables aléatoires indépendantes distribuées cha- cune selon une même loi normaleN (µ,σ2), alors la variable standardisée

X =

n

X

i=1

(Xiµ)2 σ2 est distribuée selon une loi enχ2àndegrés de liberté.

0 5 10 15 20

0 0.1 0.2 0.3 0.4 0.5

x

p(x)

ν=2 ν=4 ν=8

FIGURE11– Quelques exemples de distributions duχ2.

Cette loi joue un rôle important dans les tests d’hypothèse et dans les ajustements de fonc- tions. L’espérance, la variance et l’écart-type valent respectivement

espérance 〈χ2〉 =n variance σ2

χ2=2n écart-type σχ2=p

2n

1. ce qui se prononce ki-deux ou ki-carré.

(21)

L’expression analytique de la densité de probabilité vaut

p(x)=

0 six<0

1

2n/2Γ(n/2)xn/21ex2/2 six≥0 oùΓ(x) est lafonction gammadéfinie par

Γ(x)= Z+∞

0 tx1etd t .

5.7 Théorème de la limite centrale

Un très grand nombre de phénomènes aléatoires présentent des distributions qui sont ou suivent de très près une loi normale. L’explication provient d’un théorème fondamental, le théorème de la limite centrale.

SoitX, une variable aléatoire d’espéranceµ, de varianceσ2et dont la loi de pro- babilité est quelconque. SoityN, une nouvelle variable aléatoire définie comme la moyenneeffectuée surNmesures.

yN = 1 N

N

X

i=1

xi

Siσ2est fini, alors la distribution deyN tend pourN grand vers une loi normale d’espéranceµet de varianceσ2/N.

et de même pour la somme

SoitX, une variable aléatoire d’espéranceµ, de varianceσ2et dont la loi de pro- babilité est quelconque. SoityN, une nouvelle variable aléatoire définie comme la sommeeffectuée surNmesures.

yN = XN i=1

xi

Siσ2est fini, alors la distribution deyN tend pourN grand vers une loi normale d’espéranceet de variance2.

Le caractère remarquable de ce théorème tient au fait qu’aucune hypothèse n’est émise sur la loi deX, hormis le fait que sa variance doive être finie. Ce théorème peut s’interpréter comme suit :si une grandeur physique subit l’influence d’un grand nombre important de facteurs in- dépendants, et si l’influence de chaque facteur pris séparément est petite, alors la distribution de cette grandeur tend vers une loi normale.

Exemple :Prenons pour exemple une variable aléatoireX discrète qui suit une loi uniforme sur l’intervalle [0,9]. Créons une nouvelle variable yN = N1 P

xi, en moyennantN=1,N=2 etN=8 fois. Dans le premier cas, cela revient à ne rien faire, et la distribution reste uniforme. Dans le second cas, on obtient une distri- bution triangulaire. Dans le dernier cas, on tend déjà vers une loi normale, même si elle reste discrète.

(22)

0 1 2 3 4 5 6 7 8 9 0

500 1000

x

effectif

n=1

0 5 10 15

0 500 1000

x n=2

0 20 40 60

0 200 400 600

x n=8

FIGURE12– Illustration de l’obtention de la loi normale en moyennant une variable aléatoire discrète de loi uniformeN=1,2 et 8 fois. Cette figure a été obtenue en simulant un échantillon de 10000 valeurs aléatoires ; il est donc naturel que les histogrammes ne soient pas réguliers.

Exemple :Un télescope qui pointe sur une étoile lointaine détecte en moyenne un taux deφ0=100 photons par seconde en provenance de cette étoile. Pendant combien de temps faut-il observer cette étoile pour que l’écart-type du taux me- suré soit inférieur à 0.5 photons par seconde ?

Dans ce problème, il s’agit d’abord de déterminer l’écart-type associé au taux de comptage (dont on ne sait rien a priori) pour ensuite déterminer à partir du théo- rème de la limite centrale sur combien de secondes il faut intégrer le signal me- suré.

Le comptage de photons en provenance d’une étoile est un exemple-type de pro- cessus de physique qui suit une loi de Poisson. Puisque le taux moyen de comp- tage par seconde vautφ0=100 photons par seconde, nous savons que l’écart-type sur le nombre de photons compté en 1 seconde vautσ=p

φ0=10 photons.

Si nous répétons cette expérience N fois (ce qui revient à compter pendant N secondes) alors, d’après le théorème de la limite centrale, le taux moyen vaudra

φN =

PNφ0 N =φ0

et son écart-type sera

σN = σ pN =

pφ0 pN

Ainsi, pour avoirσN <0.5 il fautN>400 secondes. Le théorème de la limite cen- trale nous dit par ailleurs que la nouvelle variableφN tend à suivre une loi nor- male.

Remarque : Ce théorème n’est plus totalement vérifié pour des variables aléa- toires qui ne sont pas indépendantes. La somme (ou la moyenne) des variables aléatoires tend bien vers une loi normale, et la moyenne deyN tend bien vers (respectivementµ). En revanche, le calcul de la variance deyN devra tenir compte des corrélations entre les valeurs. Il est donc très important de toujours vérifier au préalable l’indépendance ou non des variables.

(23)

5.8 Simuler des lois avec Scilab

Le logicielScilab est équipé de nombreux et excellents générateurs de nombres aléatoires, qui permettent de reproduire une grande variété de lois. La syntaxe de base est la même pour toutes les lois :y = grand(m,n,...) génère une matrice de taille [m,n] constituée de nombres aléatoires distribués selon la loi spécifiée.

y = grand(m,n,’bin’,N,p);génère des entiers distribués selon une loi binomialeB(N,p)

y = grand(m,n,’poi’,lambda);génère des entiers distribués selon une loi de PoissonP(λ)

y = grand(m,n,’nor’,mu,sigma);génère des réels distribués selon une loi normaleN (µ,σ2)

y = grand(m,n,’chi’,nu);génère des réels distribués selon une loi duχ2àνdegrés de liberté

y = grand(m,n,’unf’,a,b); génère des réels distribués selon une loi uniforme sur l’intervalle [a,b)

(24)

6 Erreurs

Bien gérer les erreurs est un des aspects les plus importants d’une expérience : il faut savoir quantifier les erreurs et les réduire autant que possible. Il existe essentiellement quatre types d’erreurs :

• les erreurs aléatoires de mesure : elles sont liées à notre incapacité de faire des mesures avec une précision infinie. Réduire cette erreur nécessite une amélioration du dispositif expérimental.

Exemple : impossible d’accéder à une précision de l’ordre de la milliseconde avec un chronomètre à main.

• leserreurs aléatoires dues aux fluctuations: l’erreur provient du fait que le phé- nomène étudié varie lui-même de façon aléatoire, suivant une loi statistique. On peut atténuer son effet en prolongeant la durée de la mesure.

Exemple : la mesure du taux de désintégration d’un échantillon radioactif.

• les erreurs systématiques : ce sont des erreurs reproductibles qui résultent d’un mauvais dispositif de mesure ou d’une erreur dans la modélisation. Elles sont suscep- tibles d’être éliminées par une correction adéquate. Si la dispersion due aux fluctua- tions est aisément détectable, le biais dû aux erreurs systématiques l’est moins. Pour le mettre en évidence, il faudrait une mesure indépendante et correcte de la quantité en question.

Exemple : mesure d’une distance par ultrasons, en prenant une valeur erronée pour la vitesse du son.

• leserreurs accidentelles: elles résultent d’une fausse manoeuvre, d’un dysfonction- nement de l’appareil ou d’un manque d’information sur la nature réelle du processus.

Elles sont difficiles à éliminer si leur cause exacte n’est pas connue.

Exemple : détermination de la masse de notre galaxie. Pendant longtemps, il n’a pas été tenu compte de la matière ”sombre”, qui contribue pourtant de manière importante à la masse totale.

Les deux premières erreurs peuvent être détectées et réduites en adoptant une méthodologie d’expérience adéquate. Par contre, il est difficile de quantifier les erreurs systématiques ainsi que les erreurs accidentelles sans disposer d’un moyen indépendant pour vérifier la chaîne de mesure.

Erreur ou incertitude ?

Les termeserreur et incertitude ont des significations différentes, mais sont souvent utilisés comme synonymes. L’erreur de mesure est l’écart entre la valeur mesure et sa valeur réelle (ou espérance), qui est inaccessible. L’incertitude de mesure est une estimation de l’intervalle dans lequel risquent de se rencontrer les valeurs de la mesure. C’est donc une approximation de l’erreur, qui s’obtient par analyse statistique.

6.1 Quantifier les erreurs

Les erreurs aléatoires suivent généralement une loi de distribution connue, qui est très sou- vent normaleN (0,s2). Par convention, on dira que la mesure est affectée d’une erreur ou

(25)

d’uneincertitudede valeurs(toujours positive) et on notera m±s

Cela signifie concrètement que des observations successives donneront des valeurs diffé- rentes, distribuées selon une loi normaleN (m,s2). Nous connaissons ainsi la valeur la plus probable de l’observation (m) ainsi que sa dispersion (s). Les deux données sont indispen- sables pour bien caractériser un résultat de mesure.

L’intérêt majeur de cette convention réside dans la quantification de l’erreur. Nous pouvons en effet estimer la probabilité de trouver une valeur contenue dans l’intervalle [m−s,m+s], appeléintervalle de confiance. Nous avons

Prob(m−s<Xm+s) =

Zm+s ms

p(X)d X

= 1

sp 2π

Zm+s ms

e(Xm)2/2s2d X

= 1

p2π Z+1

1 eY2/2d Y

= 0.6826

68% des valeurs se trouveront donc dans un intervalle [x−s,x+s].

De la même façon, la probabilité de se trouver dans l’intervalle [m−2s,m+2s] vaut 0.954. Dif- férents intervalles sont illustrés dans la figure13et leurs probabilités sont tabulées ci-dessous.

largeur probabilité de l’intervalle d’y appartenir [µ−0.67σ,µ+0.67σ] 0.5

[µ−σ,µ+σ] 0.6826 [µ−1.65σ,µ+1.65σ] 0.9 [µ−1.96σ,µ+1.96σ] 0.95

[µ−2σ,µ+2σ] 0.9544 [µ−2.33σ,µ+2.33σ] 0.98 [µ−2.58σ,µ+2.58σ] 0.99

[µ−3σ,µ+3σ] 0.9974 [µ−4σ,µ+4σ] 0.9999937

6.2 Représenter les erreurs

La représentation des incertitudes dans un graphe se fait fréquemment à l’aide de barres d’erreur (si l’erreur n’affecte qu’une variable) ou d’ellipses d’erreur (si l’erreur affecte deux variables à la fois).

Par convention, lesbarres d’erreuren une dimension sont obtenues en traçant un trait de longueurσde part et d’autre du point de mesure, cf. figure14.

Il existe une autre représentation plus compacte et plus riche en information. Elle consiste à représenter pour chaque point sa valeur médiane, ses valeurs extrêmes et ses quartiles. Les

(26)

−40 −3 −2 −1 0 1 2 3 4 0.05

0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45

± σ

± 2 σ

± 3 σ 0.6826

(x − µ)/σ

p(x)

FIGURE13– Intervalles de confiance pour une loi normale. La largeur à mi-hauteur vaut±1.17σ.

quartilessont les valeurs seuilqde la variable aléatoire telles que la probabilité d’obtenir des valeurs plus petites queqest respectivement de 0.25, 0.5 et 0.75. On définit

q0.25 tel que

Zq0.25

−∞

p(x)d x=0.25 premier quartile

q0.5 tel que

Zq0.5

−∞

p(x)d x=0.5 second quartile = médiane

q0.75 tel que

Zq0.75

−∞

p(x)d x=0.75 troisième quartile

On superpose sur chaque point de mesure (cf. figure14) : 1) un trait reliant les deux extrêmes,

2) un rectangle qui s’étend du premier au troisième quartile, 3) une marque au niveau de la médiane.

Le trait permet de se rendre compte de l’étendue totale des mesures alors que le rectangle renseigne sur l’intervalle dans lequel se trouve la moitié des points. Pour une distribution normale, ce dernier équivaut à l’intervalle [µ−0.67σ,µ+0.67σ]. Enfin, la médiane renseigne sur le centre de la distribution, qui ne coïncide pas forcément avec la moyenne.

Si l’erreur affecte à la fois l’abscisse et l’ordonnée, deux solutions se présentent. Si les er- reurs sont indépendantes, alors on trace habituellement des barres d’erreur orthogonales, qui s’étendent d’une valeurσi de part et d’autre du point de mesure. Il est souvent plus commode de représenter des ellipses de confiance dont la longueur des demi-axes équivaut à la valeur des écarts-type. Si les erreurs ne sont pas indépendantes, alors le demi-grand-axe de l’ellipse aura une inclinaison autre que 0 deg ou 90 deg. Ce cas ne sera pas abordé ici, car il nécessite l’étude des distributions multivariées.

(27)

0 0.05 0.1 0.15 0.2

−5 0 5 10 15 20 25 30 35

p(y)

y

x_1 x_2

FIGURE14– Exemple d’une distributionp(y) de la valeur des ordonnées (à gauche) et de ses barres d’erreur (à droite). La barre d’erreur classique enx1donne une idée de la dispersion mais ne rend pas du tout compte de l’asymétrie de la distribution. La barre d’erreur enx2est nettement plus révélatrice de l’allure de la distribution.

6.3 Chiffres significatifs

Comme toute valeur expérimentale est affectée d’une erreur, donner des résultats avec un grand nombre de décimales n’a pas de sens. Par exemple, le résultat

g =9.8188±0.032554 [m s2]

n’a pas de sens puisque l’incertitude est donnée avec davantage de précision que la valeur elle-même.La valeur de l’incertitude est toujours approximative. On se contente souvent de la représenter avec un (voire deux) chiffres significatifs.

Il faut donc commencer par transformer le résultat ci-dessus en g=9.8188±0.03 [m s2]

Dans une valeur numérique, le premier chiffre non-nul de gauche (ici le 9) désigne le chiffre le plus significatif et le dernier chiffre non-nul de droite (ici 1) le chiffre le moins significatif.

Les nombres 1234, 1.234 et 0.001234 ont ainsi tous quatre chiffres significatifs. En vertu de ce qui a été dit plus haut, le nombre de chiffres significatifs rend compte de la précision du résultat et permet donc de se faire une idée de l’incertitude, même quand cette dernière n’est pas indiquée.Le chiffre le moins significatif d’un résultat devrait toujours être du même ordre de grandeur que l’incertitude.

Le résultat ci-dessus s’écrit donc finalement

g=9.81±0.03 [m s2]

Références

Documents relatifs

La fonction f 0 est d´ efinie sur [0; 7] car le d´ enominateur de f ne s’annule pas sur

ABCD est un rectangle, dont le périmètre est de

[r]

En effet, il ajoute ou soustrait (selon le signe de x), autant de fois 2π que nécessaire pour que la valeur de x soit dans l’intervalle ]−π; π]..

Pour chacune des affirmations suivantes, dire si elle est vraie ou fausse et justifier la réponse1. Quelle que soit la valeur du réel k, la fonction f k est

[r]

[r]

[r]