• Aucun résultat trouvé

Polycopié

N/A
N/A
Protected

Academic year: 2022

Partager "Polycopié"

Copied!
52
0
0

Texte intégral

(1)

L2 É CONOMIE

M ODULE 2 - O UTILS Q UANTITATIFS

S TATISTIQUES ET A NALYSE DE D ONNÉES 1

Compléments de probabilités et Statistique Inférentielle

Julie Scholler

(2)
(3)

Chapitre 1 - Échantillonnage 5

1.1 Échantillon et statistique de l’échantillon . . . 5

1.1.1 Échantillon . . . 5

1.1.2 Moyenne empirique . . . 6

1.1.3 Variance empirique . . . 7

1.1.4 Statistiques d’ordre . . . 7

1.2 Cas particulier : loi mère gaussienne . . . 9

1.2.1 Moyenne empirique . . . 9

1.2.2 Variance empirique corrigée et loi du Chi-deux . . . 11

1.2.3 Lien entre la moyenne empirique et la variance empirique . . . 12

1.3 Loi mère quelconque et moyenne empirique . . . 13

1.3.1 Quelques cas particuliers . . . 13

1.3.2 Théorème central limite . . . 13

1.3.3 Application fondamentale à la moyenne empirique . . . 15

1.3.4 Application à une loi mère de Bernoulli . . . 15

Chapitre 2 - Introduction à l’estimation 17 2.1 Cadre . . . 17

2.2 Qualités d’un estimateur . . . 18

2.2.1 Biais d’un estimateur . . . 18

2.2.2 Estimateur convergent . . . 19

2.2.3 Erreur quadratique moyenne d’un estimateur . . . 20

2.3 Estimation par intervalle de confiance . . . 20

2.3.1 Définitions . . . 21

2.3.2 Méthode exacte par fonction pivotale . . . 23

2.3.3 Méthode asymptotique . . . 24

Chapitre 3 - Construction et choix d’estimateurs 27 3.1 Obtention d’estimateurs par la méthode des moments . . . 27

3.2 Choix d’un estimateur . . . 28

3.2.1 Estimateur admissible au sens de l’erreur quadratique moyenne . . . 28

3.2.2 Choix parmi les estimateurs sans biais . . . 30

3.3 Méthode du maximum de vraisemblance . . . 31

3.3.1 Définitions . . . 31

3.3.2 Exemples d’estimations ponctuelles . . . 32

3.3.3 Propriétés de l’estimateur . . . 34

3.3.4 Intervalles de confiance à partir de l’estimateur du maximum de vraisemblance . . . . 35

3.4 Discussion autour de l’extension à un paramètre de dimension k >1 . . . 35

Annexe A -Rappels de probabilités 37 A.1 Indépendance . . . 37

A.2 Espérances et variances . . . 38

A.2.1 Caractéristiques d’une transformation affine . . . 38

A.2.2 Caractéristiques d’une somme ou différence de deux variables aléatoires . . . 38

A.2.3 Caractéristiques d’une somme denvariables aléatoires . . . 39

A.3 Loi normale . . . 40

A.3.1 Introduction . . . 40

A.3.2 Loi normale centrée réduite . . . 40

A.3.3 Loi normale N(µ;σ) . . . 41

(4)

A.4 Intégrale sur un intervalle non borné . . . 42

Annexe B -Zoologie des intervalles de confiance classiques 43 B.1 Intervalle de confiance de l’espérance . . . 43

B.1.1 Cas oùσ est connu . . . 43

B.1.2 Cas oùσ est inconnu . . . 45

B.2 Intervalle de confiance d’une proportion . . . 46

B.3 Intervalle de confiance d’une différence de proportions . . . 47

B.4 Intervalle de confiance d’une différence d’espérance . . . 48

B.4.1 Cas d’échantillons indépendants . . . 48

B.4.2 Cas d’échantillons appariés . . . 49

B.5 Intervalle de confiance d’une variance - Loi mère normale . . . 49

B.5.1 Cas où l’espérance est connue . . . 49

B.5.2 Cas où l’espérance est inconnue . . . 50

(5)

Les statistiques peuvent être divisées en deux branches : les statistiques descriptives (1er semestre de L1) et la statistique inférentielle (L2).

Les statistiques descriptives ont pour objectif de mettre en forme des données, souvent des résultats d’enquête, afin d’en simplifier l’interprétation. Concrètement il s’agit d’un ensemble d’outils permettant de décrire les caractéristiques d’un échantillon dans une population donnée. Ces caractéristiques peuvent être résumées à l’aide de paramètres de position (mode, médiane, moyenne, quartiles), de dispersion (intervalle inter-quartile, variance, écart type) et autres (indice de Gini).

La statistique inférentielle a pour objectif d’utiliser les résultats collectés pour évaluer des caractéristiques d’une population. Il s’agit d’un ensemble de méthodes permettant d’induire des caractéristiques inconnues d’une population à partir de l’observation d’un ou plusieurs échantillons de cette population. Elle s’appuie donc sur les statistiques descriptives, mais elle fait également appel à des concepts mathématiques relativement élaborés liés au calcul des probabilités.

Le choix de l’échantillon est une étape délicate. En effet, pour étendre à une population entière les résultats obtenus sur un échantillon, il faut que cet échantillon reproduise le mieux possible les caractéristiques de la population. La sélection de l’échantillon et son étude sont appeléséchantillonnage. Plusieurs méthodes de sélection d’échantillons existent (aléatoire simple, en grappes, stratification). Elles ne seront pas abordées ici mais dans le cours d’Enquêtes et Études en L3 dans le parcours Économie de l’entreprise. L’utilisation de données partielles (échantillon) au lieu de l’information exhaustive (population) a fait l’objet d’un grand débat au début duXXesiècle. C’est le congrès de l’Institut International de Statistique en 1925 qui marque la reconnaissance officielle de la théorie des sondages.

Dans le premier chapitre de ce cours, on s’intéressera à prédire, à partir d’une population connue, les caractéristiques des échantillons qui en seront prélevés. On parle aussi dedéduction des caractéristiques de l’échantillon.

Dans les chapitres suivants, on abordera lathéorie de l’estimation dont l’objectif est la détermination des paramètres de la population complète à partir de ceux d’un échantillon. L’inférence statistique consiste à induire les caractéristiques inconnues d’une population à partir de celles d’un échantillon. On parle aussi d’induction, ou encore d’extrapolation des caractéristiques de l’ensemble de la population.

Une autre partie importante de la statistique inférentielle concerne les tests d’hypothèse et est le sujet du cours de Statistiques et analyse de données 2 au second semestre de L2.

Exemple de problématique liée à l’estimation

Le responsable de diffusion d’un nouveau produit aimerait connaître la proportionp de personnes en France intéressées pour acheter ce produit. Comment faire ? Une première possibilité serait d’interroger toutes les personnes habitants en France, ce qui nous donnerait la valeur exacte de p. Mais cette démarche coûte très cher, d’autant plus qu’une telle précision n’est pas forcément nécessaire. Une deuxième possibilité est d’effectuer un sondage : on tire un échantillon de taille raisonnablen dans la population. On pose ensuite la question à chaque individu de l’échantillon et deux réponses sont alors possibles : OUI ou NON. On notera xi la réponse de l’individui. On codera OUI par 1 et NON par 0. Alors une estimation naturelle de pest la moyenne dexi :x. Il reste à montrer quex estime bienp et avec quelle précision (intervalle de confiance).

Tout ceci rentre dans le cadre de la théorie de l’estimation.

(6)
(7)

Échantillonnage

On s’intéresse à l’étude d’observations répétées issues d’un certain phénomène de nature aléatoire.

Schématiquement, on peut distinguer deux classes de phénomènes aléatoires. D’une part l’aléatoire peut être provoqué expérimentalement comme, par exemple, dans les jeux de hasard ou dans les mécanismes de tirage au sort « d’individus » dans des « populations » finies pour les sondages ou pour le contrôle qualité, par exemple. Dans ce contexte expérimental la notion d’expérience aléatoire, point de départ de la modélisation probabiliste à un sens tout à fait réel.

D’autre part, on peut aussi recourir à une modélisation aléatoire lorsqu’on est incapable de prévoir avec exactitude les réalisations d’un phénomène. Le caractère aléatoire est simplement attribué au phénomène pour refléter l’incertitude de l’observateur par rapport à un ensemble de résultats possibles, par exemple le nombre d’appels parvenant à un standard téléphonique dans une unité de temps, la durée de vie d’un appareil, etc. Il n’y a pas ici d’expérience aléatoire à proprement parler. Toutefois il est nécessaire, pour l’approche statistique, de pouvoir observer le phénomène de façon répétée afin de constituer des échantillons (ensemble d’éléments extrait de la population étudiée).

L’échantillonnage statistique consiste en la sélection et l’étude d’échantillons. Dans ce chapitre, on se focalise sur l’étude des liens existant entre les paramètres (moyenne, proportion, variance) des échantillons issus d’une population et les paramètres de la population complète.

1. Échantillon et statistique de l’échantillon

L’échantillonnage statistique consiste à prédire, à partir d’une population connue les caractéristiques des échantillons qui en seront prélevés. On parle aussi de déduction des caractéristiques de l’échantillon.

1.1. Échantillon

Dans toute la suite,ndésignera un entier strictement positif.

Définition. Indépendance mutuelle

On dit que des variables aléatoires X1, . . . , Xn sont mutuellement indépendantes si et seulement si pour toutn-uplet (A1, . . . , An) tel que, pour tout i∈J1, nK,AiXi(Ω), on a

P

n

\

i=1

[XiAi]

!

=

n

Y

i=1

P(XiAi).

Définition. Échantillon

On appelle échantillon aléatoire de taille n (ou échantillon) une liste de n variables aléatoires mu- tuellement indépendantes et de même loi (ou i.i.d.). Cette loi commune est appelée loi mère de l’échantillon.

Pour plus de précision sur les notions d’indépendance, vous pouvez consulter les annexes.

(8)

Remarque.

• Mathématiquement la notion d’échantillon aléatoire est identique à celle de variables aléatoires i.i.d. et l’usage de ce terme ne se justifie qu’en raison du contexte de l’échantillonnage.

• Il est commode d’associer à la loi mère un symbole de variable aléatoire, par exempleX, len-échantillon étant alors désigné parX1, X2, . . . , Xn. Ainsi on peut écrire que pour touti= 1, . . . , n,E(Xi) =E(X) qui représente l’espérance de la loi mère.

• Le statut de variables aléatoires i.i.d. exige que le phénomène soit invariant au cours des observations successives et que ces observations n’exercent aucune influence entre elles. Cependant ces conditions ne sont en général pas rigoureusement vérifiables, ni rigoureusement vérifiées.

Notations :On distinguera la notion d’échantillon aléatoireX1, X2, . . . , Xn qui correspond à des variables aléatoires, de celle d’échantillon réaliséx1, x2, . . . , xncorrespondant aux valeurs observées après expérience.

On souhaite étudier certaines caractéristiques de l’échantillon aléatoire, essentiellement sa moyenne et sa variance, en relation avec celles de la loi mère. Une telle caractéristique est, dans ce contexte, une variable aléatoire qui prend le nom destatistique dans le contexte de l’échantillonnage.

Définition.

Soit unn-échantillonX1, X2, . . . , Xn.

On appelle statistique toute variable aléatoireTn = h (X1, X2, . . . , Xn), fonction deX1, X2, . . . , Xn. Notons qu’une statistique peut être une fonction à valeurs dans R,R2 ouRp. En particulier, les moments empiriques ci-après sont à valeurs dansR.

1.2. Moyenne empirique

Dans la suite, nous travaillerons toujours, sauf mention explicite, avec une loi mère admettant une espérance et une variance, notées respectivement µetσ2.

Définition.

Soit unn-échantillon,X1, X2, . . . , Xn. On appellemoyenne de l’échantillon ou moyenne empiriquela statistique, notée, Xn (ouX), définie par :

Xn= 1 n

n

X

i=1

Xi.

Intéressons nous maintenant aux relations entre les caractéristiques de la loi de cette statistique et celles de la loi mère.

Proposition.

Soient µetσ2, respectivement l’espérance et la variance de la loi mère. On a E

Xn

=µ et V Xn

= σ2 n .

Démonstration. Simples manipulations d’espérances et de variances.

Théorème. Loi des grands nombres.

Soit (Xn)nune suite de variables aléatoires indépendantes entre elles et de même loi. Alors on a

∀ε >0, n→+∞lim P

X1+X2+· · ·+Xn

n −E(X) >ε

= 0

(9)

Démonstration. Ce résultat repose sur l’inégalité de Bienaymé–Tchebychev qui énonce que, pour toute variable aléatoire Y admettant une espérance et une variance, on a :

∀ε >0, P(|Y −E(Y)|>ε)6 V(Y) ε2

En appliquant ce résultat à la moyenne empirique dont on a énoncé l’espérance et la variance précédemment, on obtient

∀n∈N,∀ε >0, P

X1+X2+· · ·+Xn

n −E(X) >ε

6 V(X) n ε2

On conclut en constatant que lim

n→+∞

V(X) n ε2 = 0.

1.3. Variance empirique

Définition.

Soit un n-échantillon,X1, X2, . . . , Xn. On appelle variance de l’échantillon ou variance empirique la statistique, notée, Sn2 (ouS2), définie par :

S2n= 1 n

n

X

i=1

XiX2.

À nouveau, observons les relations entre les caractéristiques de la loi de cette statistique et celles de la loi mère.

Proposition.

L’espérance de la variance empirique vaut : E

Sn2= n−1 n σ2.

Quand on abordera l’estimation ponctuelle, on dira que S2 est un estimateur biaisé deσ2car son espérance n’est pas égale à σ2. Par anticipation, définissons la statistique suivante.

Définition.

Soit unn-échantillonX1, X2, . . . , Xn. On appellevariance corrigée de l’échantillonla statistique, notée Scor,n2 (ouScor2 ) :

Scor2 = 1 n−1

n

X

i=1

XiX2.

1.4. Statistiques d’ordre

Il s’agit d’une notion utile dans divers problèmes : estimations des bornes d’un support, estimation de quantiles, test du rangs, etc.

(10)

Définition.

Soit unn-échantillon, X1, X2, . . . , Xn.

On appellemaximum empirique la statistique, notéeX(n), définie par : X(n):= max{X1, X2, . . . , Xn}, etminimum empirique la statistique, notéeX(1), définie par :

X(1) := min{X1, X2, . . . , Xn}.

Remarque.

La statistiqueX(n)X(1) est parfois rencontrée sous le nom d’étendue empirique.

Proposition.

Soit unn-échantillon, X1, X2, . . . , Xn. On noteF la fonction de répartition de la loi mère commune.

Alors, pour tout réelx, on a :

FX(n)(x) = (F(x))n

FX(1)(x) = 1−(1−F(x))n

Ce résultat n’est pas à connaître par cœur. Par contre, il faut savoir travailler avec des probabilités faisant intervenir un minimum empirique ou un maximum empirique.

Démonstration.

Soitx un réel. On a

FX(n)(x) =P(max{X1, X2, . . . , Xn}6x) =P(X1 6x, X2 6x, . . . , Xn6x)

=P(X1 6x)×P(X2 6x)× · · · ×P(Xn6x), par indepéndance de variables aléatoires,

= (F(x))n

Pour travailler surX(1) les idées sont les mêmes mais il faut passer par l’événement complémentaire plusieurs fois.

FX(1)(x) =P(min{X1, X2, . . . , Xn}6x) = 1−P(min{X1, X2, . . . , Xn}> x)

= 1−P(X1 > x, X2> x, . . . , Xn> x)

= 1−P(X1> x)×P(X2 > x)× · · · ×P(Xn> x), par indepéndance de variables aléatoires,

= 1−(1−P(X1 6x))× · · · ×(1−P(Xn6x))

= 1−(1−F(x))n

La suite de cette section n’est pas à connaître.

Ces statistiques se généralisent de la façon suivante.

Définition.

Soit unn-échantillon, X1, X2, . . . , Xn.

Pour tout entier k entre 1 etn, on notehk la fonction de Rn dans Rqui à (x1, . . . , xn) renvoie lake valeur parmix1, . . . , xn quand elles sont classées par ordre croissant.

On appelle alors statistique d’ordre k, la variable aléatoire, notéeX(k), définie par : X(k) :=hk(X1, . . . , Xn).

(11)

Remarque.

Si la taille de l’échantillon est un nombre impair avecn= 2m+ 1, alors la statistique X(m+1) est la médiane empirique.

Si la taille de l’échantillon est un nombre pair avecn= 2m, alors ce sera la statistique 1 2

X(m)+X(m+1) qui jouera ce rôle.

Proposition.

Soit unn-échantillon, X1, X2, . . . , Xn. On noteF la fonction de répartition de la loi mère commune.

Alors, pour tout entierkentre 1 etnet pour tout réel x, on a : FX(k)(x) =Xn

j=k

n k

!

(F(x))j(1−F(x))n−j.

Démonstration.

Il suffit de noter que l’événementnX(k)6xoest équivalent au fait qu’au moins kvariables aléatoires de l’échantillon soient inférieures àx.

On noteX la variable aléatoire symbolisant la loi mère et on considère l’expérience de Bernoulli de succès l’événement{X6x}. La probabilité de succès estF(x). Le nombre de variables aléatoires de l’échantillon inférieures àx suit donc une loi binomiale de paramètren etF(x).

Pour obtenir la probabilité que le nombre de variables aléatoires inférieures àx soit supérieur àk, il faut sommer sur les différentes valeurs possibles de ce nombre, c’est-à-dire sur les entiers supérieurs ou égaux àk.

Proposition.

Soit unn-échantillon, X1, X2, . . . , Xn de loi mère continue de densité f. Len-uplet (X(1), X(2), . . . , X(n)) a pour densité :

f(X(1),X(2),...,X(n))(x1, x2, . . . , xn) =n!1{x1<x2<···<xn}(x1, . . . , xn)

n

Y

i=1

f(xi). Et, pour tout entier ientre 1 etn, la densité de la variableX(i) est

fX(i)(x) =i n i

!

f(x) (F(x))i−1(1−F(x))n−i.

L’obtention des densités marginales découle de la dérivée des fonctions de répartition marginales et de manipulations des coefficients binomiaux apparaissant.

L’expression de la densité jointe est admise.

2. Cas particulier : loi mère gaussienne

2.1. Moyenne empirique

Si la loi mère suit la loi normale N(µ;σ), alors la moyenne empirique de l’échantillon (X1, X2, . . . , Xn) suit également une loi normale, en tant que combinaison linéaire de variables aléatoires de loi normale indépendantes. Par conséquent, on a

X∼ N

µ; σ

n

.

(12)

Exemple.

Dans une usine produisant des bouteilles de lait, sur la chaîne d’embouteillage, une machine est chargée de verser le lait. On note X la variable aléatoire correspondant à la quantité, en cL, de lait versée dans une bouteille. Elle est réglée pour verser un litre de lait dans chaque bouteille. La précision de cette machine peut être traduite par le fait queσX = 8.

Ces bouteilles sont vendues par lot de 9 et on suppose que les quantités de lait présentes dans chaque bouteille du lot sont indépendantes entre elles. On note X1, X2, . . . , X9 les variables aléatoires correspondant à la quantité de lait présent dans les 9 bouteilles sélectionnées.

La variableX correspond à la quantité moyenne de lait par bouteille sur un échantillon/lot de 9 bouteilles.

On aX ∼ N

100;8 3

. On peut ainsi calculer que la probabilité que la quantité moyenne sur un lot de 9 bouteilles soit inférieure à 95 cL est d’environ 0.03.

P(X 695) =P

Z 6 95−100 8/3

= 1−F 15

8

'0.03

Parfois plutôt qu’une probabilité, on aimerait avoir un intervalle de valeurs hautement probable. Cette notion est appelée intervalles de fluctuation.

Intervalle de fluctuation

Proposition.

Quand un phénomène suit une loi normale d’espérance µ et d’écart type σ, une observation de ce phénomène a 95 % de chance de se trouver dans l’intervalle [µ−1.96σ ; µ+ 1.96σ].

SiX ∼ N(µ;σ), on a

P(µ−1.96σ6X6µ+ 1.96σ)'0.95. De façon plus générale, on a

P

µz1−α

2σ 6X6µ+z1−α

2σ'1−α,

avec zβ le quantile de la loi normale centrée réduite en β, c’est-à-dire F(zβ) =βF est la fonction de répartition de la loi normale centrée réduite.

Cela signifie qu’environ 95% de l’aire est comprise entre les droites d’équationx=µ−1.96σ etx=µ+ 1.96σ.

µ+z1−α

2σ µz1−α

2σ µ

1−α

Exemple.

On considère une variable aléatoire X qui suit la loi normale d’espéranceµ= 62 et d’écart type σ= 7. Alors l’intervalle de fluctuation 2σ est l’intervalle [62−2×7 ; 62 + 2×7] = [48 ; 76].

Cela signifie que 95% des valeurs prises parX sont dans l’intervalle [48 ; 76].

Remarque.

En pratique, quand les observations se trouvent trop souvent hors de l’intervalle de fluctuation, on est amené à penser que la loi du phénomène qu’on a supposé au départ n’est peut-être pas appropriée. Vous reviendrez sur ces questions le semestre prochain lorsque vous aborderez les tests d’hypothèses dans le cours de Statistiques et Analyse de données 2.

La notion d’intervalle de fluctuation ne doit pas être confondue avec celle d’intervalle de confiance que nous verront prochainement.

(13)

Exemple.

Revenons à l’exemple des lots de 9 bouteilles de lait.

Dans 95% des cas, la quantité moyenne de lait par bouteille dans un lot de 9 bouteilles est compris dans l’intervalle :100±1.96×8

3

'[94.77; 105.23]

2.2. Variance empirique corrigée et loi du Chi-deux On rappelle queScor2 = 1

n−1

n

X

i=1

XiX2.Cette variable aléatoire est constituée d’une somme de variable aléatoire de loi normale.

Définition.

Soit ν un entier strictement positif.

SoientZ1, Z2, . . . , Zν une suite de variables aléatoires i.i.d. de loiN (0 ; 1). Alors la variable

ν

X

i=1

Zi2 suit une loi appeléeloi du Chi-deux à ν degrés de liberté, notée χ2(ν).

Remarque.

La densité de la loi du Chi-deux à ν degré de liberté est

fν(x) =

1

2ν2Γ ν2xν2−1ex2 six >0

0 sinon.

La densité de la loi duχ2 est donnée uniquement à titre indicatif. Elle n’est pas à connaître. Notons que la fonction de répartition de la loi (ou plutôt de la famille de lois) duχ2 ne s’explicite pas. On utilisera des tables de lois, quand ce sera nécessaire.

Proposition.

Soit X une variable aléatoire suivant la loiχ2(ν) avec ν∈N. Alors on a E(X) =ν et V (X) = 2ν.

Démonstration. Simple manipulation de la définition et des propriétés de l’espérance et de la variance.

Proposition.

Soient ν1 etν2 dansN.

SoientT1 et T2 deux variables aléatoires indépendantes telles queT1χ2(ν1) etT2χ2(ν2), alors on a

T1+T2χ2(ν1+ν2). Démonstration. Évident d’après la définition.

Proposition.

Soit unn-échantillonX1, X2, . . . , Xn de loiN (µ;σ). Alors (n−1)Scor2

σ2χ2(n−1).

(14)

Remarque.

La démonstration n’est pas évidente carScor2 est une somme de carrés de variables aléatoires normales mais elles ne sont pas indépendantes entre elles. Il s’agit d’un résultat très fort.

Corollaire.

Soit unn-échantillonX1, X2, . . . , Xn de loiN (µ;σ). Alors E

Scor2 =σ2 et VScor2 = 2σ4 n−1.

En fait, la loi duχ2 a un usage très vaste en statistique notamment dans la théorie des tests comme vous le verrez au second semestre. Toutes ses applications reposent sur la somme de carrés de termes gaussiens ou approximativement gaussiens.

2.3. Lien entre la moyenne empirique et la variance empirique

Indépendance de la moyenne empirique et de la variance corrigée empirique

Proposition.

Si la loi mère est gaussienne,X etScor2 sont des variables aléatoires indépendantes.

Démonstration. Admis pour l’instant. On y reviendra en Statistiques et Analyse de Données 2.

Loi de Student

Définition.

SoientZ etQ deux variables aléatoires indépendantes telles queZ ∼ N(0 ; 1) etQχ2(ν). Alors la variable aléatoire T définie par

T = Z qQ

ν

suit une loi de Student àν degré de liberté, notéet(ν).

La fonction de densité s’explicite, elle a été donnée par W.S. Gosset en 1908. La loi ne porte pas son nom mais le pseudonyme, Student, qu’il a utilisé sur ses publications scientifiques. Par contre, la fonction de répartition ne s’explicite pas. Il existe donc des tables.

Proposition.

SoitTt(ν) alors E(T) = 0 siν >2 et V(T) = ν

ν−2 siν >3.

Proposition. Application

Soit unn-échantillonX1, X2, . . . , Xn de loi mèreN (µ;σ). Alors Xµ

pScor2 /nt(n−1).

(15)

Démonstration. Immédiate avecZ = Xµ σ/

n etQ= (n−1)Scor2

σ2 . Le point délicat est l’indépendance entreZ etQ.

Ce résultat, qui a motivé les travaux de Gosset, met en évidence la modification apportée à la loiN (0 ; 1) de la variable aléatoire Z ci-dessus, lorsque l’on substitue à l’écart type théoriqueσ de la loi mère, l’écart type empirique de l’échantillonScor. On comprend au passage qu’en introduisant un terme aléatoire supplémentaire, on provoque un étalement plus grand. En fait, les applications de la loi de Student se rencontrent en statistique dès lors qu’on est appelé à remplacerσ, en général inconnu, par son estimateur naturelScor.

La loi de Student admet une densité symétrique autour de 0 et diffère de la loi normale par un plus grand aplatissement (« des observations suivant une loi de Student seraient plus étalées que celles suivant une loi normale »).

3. Loi mère quelconque et moyenne empirique

D’une façon générale, la loi deX (et a fortiori celle de Scor2 ) pour une loi mère quelconque n’est pas facile à identifier.

3.1. Quelques cas particuliers

Nous avons déjà vu en première année qu’une somme de variables aléatoires indépendantes suivant une loi de Bernoulli et de même probabilité de succès correspond à une loi binomiale. Nous avons également vu qu’une somme de lois de Poisson indépendantes et de même paramètre est une loi de Poisson.

Dans ces cas, nous avons donc la loi de la moyenne empirique à un coefficient multiplicateur près.

• Si la loi mère estBer(p), alors on a nX ∼ Bin(n, p).

• Si la loi mère estP(λ), alors on anX ∼ P().

Dans le cas où la loi mère est une loi exponentielle, nous connaissons également la loi exacte de la moyenne empirique. Elle fait partie de la famille des loi Gamma, qui étend les lois exponentielles et que vous manipulerez en troisième année. Les résultats ci-dessous ne sont présentés qu’à titre culturel.

• Si la loi mère estE(λ), alors on a X∼Γ(n, λ).

• Si la loi mère est Γ(r, λ), alors on a X suit également une loi Gamma.

Si la loi mère est une loi de Cauchy, alors la moyenne empirique suit exactement la même loi. Cela peut paraître surprenant car la variance est supposée être différente mais la loi de Cauchy n’admet par de variance.

De façon générale, on ne peut pas forcément identifier exactement la loi de la moyenne empirique. Mais on peut, dans certains cas, approcher sa loi.

3.2. Théorème central limite

Le théorème suivant est fondamental (et central) en probabilité et statistique.

(16)

Proposition. Théorème central limite

Soit (Xn)n∈N une suite de variables aléatoires indépendantes et identiquement distribuées d’espérance µ et de varianceσ2 finie. Alors la variable aléatoire

Pn i=1

Xi

converge en loi vers la loi normale centrée réduite, ce qu’on écrit :

Pn i=1

Xi

−−−−−Loi

n→+∞ N(0 ; 1), c’est-à-dire que, pour tous réels aetbtels que a < b, on a :

n→+∞lim P

a6

Pn i=1

Xi

6b

=P(a6Z 6b), avec Z ∼ N(0 ; 1).

En pratique, on dit que, pournsuffisamment grand,

n

X

i=1

Xisuit approximativement la loi normaleN ;√ . Dans la plupart des cas, on considère quen est « suffisamment grand » lorsquen atteint quelques dizaines, par exemple lorsquen>30, mais cela dépend de la nature de la population et du contexte de l’étude.

Remarque.

Si les variablesXn suivent toutes la loiN(µ;σ), alors la loi limite est en fait la loi exacte.

Exemple.

Une usine produisant 10 000 objets est réglée pour un poids moyen de 250 g, avec un écart type de 10 g.

On prélève 200 objets. L’échantillon étant suffisamment grand, la loi de la somme des poids

200

X

i=1

Xi peut être approchée par la loi normale d’espérance 50000 et d’écart type 10√

200 = 100√

2'141. On peut alors calculer la probabilité que le poids d’un carton de 200 objets soit compris entre 49.8 kg et 50.2 kg.

P 498006

200

X

i=1

Xi 650200

!

=P −2006

200

X

i=1

Xi−500006200

!

=P − 200 100√

2 6 P200

i=1Xi−50000 100√

2 6 200

100√ 2

!

= 2F

200 100√

2

−1 = 2F √2

2

−1 = 2F√ 2−1 '2×0.92−1'0.84

Dans 84% des cas, un paquet de 200 objets fera entre 49.8 kg et 50.2 kg.

On peut également calculer un intervalle de fluctuation approximatif à 95%. Ainsi dans 95% des cas, le poids d’un paquet de 200 objets sera compris entre environ 49.7 kg et 50.3 kg.

Remarque.

Il existe différentes versions du théorème central limite partant de conditions plus ou moins restrictives. En particulier, il n’est pas nécessaire que les variables aléatoires soient de même loi ni même qu’elles soient indépendantes dans la mesure où leur degré de dépendance reste faible. Ceci explique que certains phénomènes naturels répondent bien à un modèle gaussien du fait que la variable étudiée résulte de l’addition d’effets aléatoires multiples.

(17)

3.3. Application fondamentale à la moyenne empirique

Le théorème central limite donné précédent peut être réécrit en faisant apparaître la moyenne empirique. On a ainsi le résultat suivant.

Proposition. Théorème central limite

Soit (Xn)n∈N une suite de variables aléatoires indépendantes et identiquement distribuées d’espérance µet de variance σ2 finie. Alors la variable aléatoire Xnµ

σ/

n converge en loi vers la loi normale centrée réduite, ce qu’on écrit :

Xnµ σ/

n

−−−−−Loi

n→+∞ N (0 ; 1), c’est-à-dire que, pour tous réels aetbtels que a < b, on a :

n→+∞lim P a6 Xnµ

σ n

6b

!

=P(a6Z 6b), avec Z ∼ N(0 ; 1).

S’il est clair que, pour toutn, la variable aléatoire Xnµ σ/

n est centrée et réduite, le théorème central limite indique en plus que sa loi tend à être gaussienne quandns’accroît et ceci, quelle que soit le loi mère des Xi.

En pratique

SoitX1, X2, . . . , Xnunn-échantillon aléatoire de loi mère quelconque, d’espérance µet de varianceσ2. Alors, quandn est assez grand,Xn suit approximativement la loiN

µ; σ

n

ce que l’on note :

Xn

approxN

µ; σ

n

.

Dans presque tous les cas, la conditionn>30 suffit pour obtenir une approximation des probabilités à 10−2 près. Si la loi mère suit une loi normale, alors la moyenne empirique Xn suit exactement la loi normale N

µ; σ

n

.

3.4. Application à une loi mère de Bernoulli

La loi mère de Bernoulli apparaît quand on souhaite étudier une proportion dans une population. Par exemple, c’est le cas des sondages.

Si les variablesXn suivent toutes la loiBer(p), le théorème central limite donne un résultat d’approximation de la loi binomiale par une loi normale. Historiquement il s’agit du théorème de Moivre–Laplace (antérieur au théorème central limite plus général). C’est ainsi que de Moivre pourp= 12, puis Laplace pourpquelconque, on mit initialement en évidence la loi normale.

Théorème. Théorème de Moivre–Laplace

Soit (Yn)n∈N une suite de variables aléatoires telle que, pour tout entiern, Yn∼ Bin(n;p). Pour tout entier n, on pose Zn= Ynnp

pnp(1−p). Pour tous réels aetbtels que a < b, on a :

n→+∞lim P(a6Zn6b) =Z b

a

√1 2πet

2 2 dt.

(18)

En pratique, on pose Sn le nombre total de succès au cours de n répétitions. Comme E(Sn) = np et V (Sn) =np(1−p), on a pour la fréquence relative Sn

n une espérancep et une variance p(1−p)

n . D’où, pour nsuffisamment grand,

Sn

approxN

np;qnp(1−p) ou encore

Xn= Sn

n

approxN

p;

sp(1p) n

.

Remarque.

On admet généralement que l’approximation est satisfaisante dès lors quen>30, np>5 etn(1−p)>5.

Ces deux conditions supplémentaires garantissent que la moyenne de la loi binomiale ne soit ni trop proche de 0, ni trop proche den, car dans le cas contraire la loi serait nettement dissymétrique.

Exemple.

On lance 300 fois une pièce de monnaie truquée. La probabilité d’obtenir « face » est 2 3.

On désigne par S la variable aléatoire qui à chaque partie associe le nombre de « face » obtenus.

Ainsi S suit la loi binomialeB

300 ;2 3

.

Si on souhaite calculer directement la probabilitéP(S >210), c’est un peu laborieux car P(S >210) =

300

X

i=211

300 i

!

×2 3

i

× 1 3

300−i

.

Or on a n>50, np= 300×2

3 = 200>5 et n(1−p) = 300× 1

3 = 100>5. On est donc dans les conditions d’approximation par une loi normale.

On peut donc approcher la loi de S par la loi normale N 300×2 3 ;

r

300×2 3 ×1

3

!

=N(200 ; 8.16). On pose Z = S−200

8.16 .Z suit la loi normaleN(0 ; 1).

P(S >210)'P(Z >1.22)'1−P(Z 61.22)'1−0.89'0.11.

Ainsi, dans ce cadre, sur 300 lancers, la probabilité d’obtenir strictement plus de 210 fois « face » est d’environ 11 %.

Exemple.

Au cours d’une consultation électorale, le candidat A a recueilli 55% des voix. Calculons la probabilité d’avoir, dans un échantillon de taille 100 prélevé parmi les suffrages exprimés, moins de 50 % des voix pour le candidatA.

La taille de l’échantillon étant suffisamment grande,Xnsuit approximativement la loi normale de paramètres µ= 0.55 et σ =

s0.55(1−0.55)

100 =√

0.002475'0.05.

On veut calculer P

X <0.5=P Xµ

σ < 0.5−µ σ

! 'F

0.5−µ σ

'F

−0.05 0.05

=F(−1) = 1−F(1) = 1−0.8413'0.16

On a donc moins de 16% de chance d’obtenir un échantillon dont la proportion de personnes ayant voté pour le candidatA soit inférieure à 50%.

(19)

Introduction à l’estimation

L’estimation est un des principaux thèmes d’étude de la statistique inférentielle avec les test d’hypothèses, que vous aborderez au semestre suivant.

Pour rappel, l’échantillonnage statistique consiste à prédire, à partir d’une population connue, les carac- téristiques des échantillons qui en seront prélevés. On parle aussi de déduction des caractéristiques de l’échantillon.

Inversement, la statistique inférentielle s’intéresse à la détermination des paramètres de la population complète à partir de ceux d’un échantillon. L’inférence statistique consiste à induire les caractéristiques inconnues d’une population à partir de celles d’un échantillon. On parle aussi d’induction.

1. Cadre

La distribution exacte de la variableX qui nous intéresse (temps passé au guichet de la poste le samedi matin, durée de vie d’une ampoule, dépense des ménages pour le logement, etc.) est généralement partiellement connue. En effet le type de distribution est très souvent connu, mais il nous manque le(s) paramètre(s) de cette loi. Par exemple, on sait queX suit une loi normale, mais on ne connait pas les paramètres : espérance et variance.

L’estimation consiste à rechercher une valeur pour chacun des paramètres inconnus, à partir des observations.

Lorsqu’on attribue à un paramètre une valeur unique, on dit que l’on fait une estimation ponctuelle.

L’estimateur choisi est une fonction des observations, c’est une variable aléatoire, c’est-à-dire la valeur de l’estimateur dépend des observations. On le choisit suivant des critères qui assurent sa proximité avec le paramètre à estimer.

SoitX une variable aléatoire associée à un certain phénomène aléatoire observable de façon répétée. Notre objectif est d’estimer certaines caractéristiques d’intérêt de sa loi (espérance, variance) sur la base d’une série d’observations x1, x2, . . . , xn. Un cas particulier important est celui du sondage dans une population dont l’objectif est d’estimer diverses caractéristiques descriptives de celle-ci, souvent une proportion.

Dans ce chapitre nous considérons toujours quex1, x2, . . . , xnsont des réalisations d’unn-échantillon aléatoire X1, X2, . . . , Xn. Cette hypothèse sur nos observations qui peut être plus ou moins réaliste est nécessaire pour étudier de façon simple, en termes probabilistes, la qualité des estimations que l’on cherche à produire.

Ce chapitre introduit la théorie de l’estimation ponctuelle, c’est-à-dire l’estimation qui consiste à attribuer, au mieux de notre savoir, une valeur unique à la caractéristique d’intérêt inconnue. Puis nous nous intéresserons à l’estimation par intervalleconsistant à donner un encadrement plausible pour la caractéristique, dit intervalle de confiance.

La notion d’estimateur est la notion centrale de ce chapitre alors même qu’elle ne se définit pas formellement en termes mathématiques.

Définition. Définition informelle d’un estimateur et d’une estimation

Soient un n-échantillon aléatoireX1, X2, . . . , Xn etc une caractéristique de la loi mère. On appelle estimateur de ctoute statistique dont la réalisation après expérience est envisagée comme estimation de c. Un estimateur se définit donc dans l’intention de fournir uneestimation.

(20)

Insistons sur le fait qu’un estimateur est une variable aléatoire, alors qu’une estimation est une valeur numérique prise par l’estimateur suite à la réalisation du n-échantillon. Si un estimateur est déterminé par une fonction h(X1, X2, . . . , Xn), l’estimation correspondante est évidemment h(x1, x2, . . . , xn). Soit par exemple, l’espérance de la loi X, un estimateur qui semble a priori naturel est la moyenne empirique X qui produit une estimationx, moyenne descriptive de la série des valeurs observées.

Exemple.

• La moyenne empirique d’unn échantillon est souvent utilisé comme estimateur de l’espérance de la loi mère.

• La variance empirique et la variance empirique corrigée sont régulièrement utilisées comme estimateur de la variance de la loi mère.

On notera souvent le paramètre qu’on cherche à estimerθ et l’espace de ses valeurs possibles Θ. Il ne s’agit pas forcément d’une caractéristique de la loi mère (espérance, variance, écart type).

Notation pour les estimateurs et les estimations

Pour un paramètre désigné par une certaine lettre, on note souvent un estimateur par la même lettre surmontée d’un accent circonflexe. Pour distinguer la méthode d’estimation utilisée, on pourra rajouter en indice supérieur des lettres y faisant référence. Ainsi, pour le paramètre génériqueθun estimateur non précisé seraθb, l’estimateur obtenu par la méthode des momentsθbM. Comme nous ne notons pas l’estimateur par un thêta majuscule, l’estimation sera indiqué par la mention obsen indice inférieur :θbobs.

2. Qualités d’un estimateur

Un des objectifs essentiels de la théorie de l’estimation est d’opérer un choix parmi les estimateurs auxquels on peut penser. Pour cela il est nécessaire de se donner des critères de qualités pertinents. L’existence d’un meilleur estimateur et ses potentielles propriétés seront discutées dans le chapitre suivant.

2.1. Biais d’un estimateur

Définition.

Soient un n-échantillon X1, X2, . . . , Xn, une variable aléatoire X de même loi que la loi mère de l’échantillon et Tn un estimateur d’un paramètreθ.

1. On appellebiaisde Tnpour θ la valeur :

biaisθ(Tn) =Eθ(Tn)−θ.

2. Si biaisθ(Tn) = 0 quel que soitθ dans Θ, on dit queTn est un estimateursans biais deθ. 3. On dit qu’un estimateur est asymptotiquement sans biais si limn→+∞biaisθ(Tn) = 0.

Le paramètreθ est noté en indice sur biais etE car tout cela dépend de la valeur de θ.

Le biais caractérise l’écart entre l’espérance deTn et la valeur cibleθ. Elle correspond à la notion d’erreur systématique pour un instrument de mesure.

Exemple.

Quelque soit la loi mère,S2 est un estimateur biaisé de la variance. En revanche,Scor2 est un estimateur sans biais de la variance.

Ils sont tous les deux asymptotiquement sans biais.

(21)

2.2. Estimateur convergent

Une des propriétés importantes d’un estimateur est qu’il soit convergent. En d’autres termes, il faut que lorsque la taillende l’échantillon tend vers l’infini, l’estimateurθbn tende versθ.

Nous considérons ici la suite (Tn)n∈N de variables aléatoires lorsque la taille de l’échantillonn s’accroît à l’infini. Pour un estimateur digne de ce nom, on s’attend à ce qu’il se rapproche de plus en plus deθquand ntend vers +∞. C’est ce qu’exprime la notion de convergence.

Définition.

On dit que (Tn)n∈N est une suite d’estimateurs convergents ou que Tn est convergent si (Tn)n∈N converge en probabilité versθ, c’est-à-dire si

pour toutε >0, lim

n→+∞P(|Tnθ|6ε) = 1.

Par abus de langage, on dit tout simplement queTn est convergent.

Exemple.

Rappel : Loi faible des grands nombres :

Soient X1, X2, . . . , Xn n variables aléatoires i.i.d. d’espérance µ et de variance σ2. On a n→+∞lim Xn=µ.

Conséquence : la moyenne empirique est un estimateur convergent de l’espérance.

En dehors de l’utilisation de la moyenne empirique pour estimer l’espérance, comment savoir si une suite d’estimateurs est convergente ?

Proposition.

Si limn→+∞E

h(Tnθ)2i= 0, alors Tn est convergent.

SiTn est asymptotiquement sans biais et limn→+∞V (Tn) = 0, alors Tn est convergent.

Démonstration. Le premier point repose sur l’inégalité de Markov, que vous avez peut-être déjà rencontrée.

Inégalité de Markov.

SoitX une variable aléatoire positive admettant une espérance. On a∀ε >0,P(X > ε)6 E(X) ε . En prenantX= (Tnθ)2, l’inégalité de Markov nous donne :

∀ε >0, P(|Tnθ|> ε) =P

(Tnθ)2 > ε26 E

(Tnθ)2

ε2 .

Ainsi pour tout réel strictement positif ε, si limn→+∞E

h(Tnθ)2i= 0, alors on a limn→+∞P(|Tnθ|> ε) = 0.

Ainsi Tn est convergent.

Pour le deuxième point, on va utiliser l’inégalité de Bienaymé–Tchebychev qui découle de l’inégalité de Markov appliquée à la variableY = (X−E(X))2X une variable aléatoire admettant une variance.

Inégalité de Bienaymé–Tchebychev.

SoitX une variable aléatoire admettant une variance. On a∀ε >0,P(|X−E(X)|> ε)6 V(X) ε2 .

Soit (Tn)n une suite d’estimateurs de θadmettant des variances. Alors, d’après l’inégalité de Bienaymée–

Tchebychev, on a :

∀ε >0,P(|Tn−E(Tn)|> ε)6 V(Tn) ε2 .

SiTn est sans biais, c’est-à-dire E(Tn) =θ, et que limn→+∞V(Tn) = 0, alors (Tn)n est convergent.

En effet on a ∀ε >0, lim

n→+∞P(|Tnθ|6ε) = 1.

(22)

Remarque.

Attention le résultat de convergence d’un estimateur ne renseigne en rien sur la vitesse de convergence et ne peut assurer que, pour unn grand, l’estimation est suffisamment précise. La convergence seule n’est pas un bon critère.

2.3. Erreur quadratique moyenne d’un estimateur

La variance de l’estimateur est un critère important dans la mesure où elle caractérise la dispersion des valeurs de Tn dans l’univers des échantillons possibles. Toutefois il s’agit de la dispersion autourEθ(Tn) et non pas autour deθ. Pour prendre en compte l’écart autour deθ, on introduit la notion d’erreur quadratique, qui était déjà apparu précédemment lors de l’étude de la convergence d’une suite d’estimateurs.

Définition.

On appelle erreur quadratique moyenne de Tnpar rapport à θ, la valeur notée EQMθ(Tn), définie par EQMθ(Tn) =Eθ

h(Tnθ)2i, et l’on a

EQMθ(Tn) = [biaisθ(Tn)]2+ Vθ(Tn).

On rencontre aussi la notationM SE,mean square error, utilisée en économétrie.

Comme l’indique son nom, ce critère mesure la distance au carré à laquelle Tn se situe en moyenne par rapport de θ. On peut faire l’analogie avec les impacts effectués par un tireur sur une cible (même si cela correspond plutôt à un paramètre de dimension 2). Le tireur cherche à atteindre le centre de la cible mais ses impacts, au cours des répétitions, peuvent être systématiquement décalés, c’est-à-dire que le centre de ceux-ci n’est pas le centre de la cible. En revanche ses tirs peuvent être très groupés (variance faible). Un autre tireur peut être bien centré (biais nul ou faible) mais avoir peu de régularité et donc une forte dispersion de ses tirs (variance élevée). Le choix du meilleur tireur dépend de l’importance relative du décalage systématique et de

la régularité.

Le critère d’erreur quadratique moyenne n’est pas la panacée mais il est préféré parce qu’il s’exprime en fonction de notions simples de biais et de variance. D’autres critères peuvent paraître tout aussi naturels, en particulier l’erreur absolue moyenne Eθ(|Tnθ|), mais celle-ci est beaucoup plus difficile à manipuler analytiquement.

3. Estimation par intervalle de confiance

Jusqu’à présent, l’objectif était de donner une valeur unique pour estimer la paramètre inconnu θ, en ne prenant en compte l’erreur d’estimation que pour le choix de l’estimateur. Le principe de l’estimation par intervalle de confiance est au contraire de donner un intervalle de valeurs possibles pour le paramètre étudié en évaluant l’erreur commise. Dans le vocabulaire des sondages, cela correspond à l’idée de fourchette. Il y a évidemment un lien entre l’approche ponctuelle et l’approche par intervalle de confiance, la seconde s’appuyant beaucoup sur les résultats de la première. Si l’on s’en tient aux estimateurs sans biais, un estimateur de petite variance restera très proche de θet on imagine qu’il sera un bon point de départ pour fournir un encadrement.

(23)

3.1. Définitions

Définition.

Soit un n-échantillon X1, X2, . . . , Xn. Une procédure d’intervalle de confiance ou un intervalle de confianceau niveau 1−α pourθ est un intervalle aléatoire de la forme [T1;T2] où T1 et T2 sont deux statistiques tel que

∀θ∈Θ, Pθ(T1 6θ6T2)>1−α.

α est appelé lerisque d’erreur.

Remarque.

• Les extrémités de l’intervalle (T1etT2) sont des variables aléatoires dépendant uniquement de l’échantillon X1, X2, . . . , Xn.

• En pratique, on choisitα assez petit, souvent α= 0.05. Ainsi on est confiant que l’intervalle aléatoire contienne la vraie valeur deθ.

• De façon imagée, on peut dire que dans l’univers des échantillons possibles, pour une proportion d’au moins 1−α d’entre eux, on obtient un intervalle qui contient θ. Pour un échantillon donné, la taille de l’intervalle de confiance dépend du niveau de confiance choisi. Si on augmente le niveau de confiance, alors la taille de l’intervalle augmente.

• Pour un niveau de confiance donné, plus grand va être l’échantillon, plus petit sera l’intervalle de confiance.

Il existe deux principaux types d’intervalles de confiance.

• Intervalles à risques symétriques : on les construit de telle manière que Pθ(θ < T1) = α

2 et Pθ(T2 < θ) = α 2.

• Intervalles unilatéraux :

Pθ(θ < T1) = 0 et Pθ(T2< θ) =α, Pθ(θ < T1) =α et Pθ(T2 < θ) = 0.

Dans le premiers cas,T1 est un minorant certain deθ. Dans le second cas,T2 est un majorant certain de θ.

Dans le premier cas (bilatéral), on n’était pas obligé de le choisir symétrique. Mais dans le cas d’une loi symétrique unimodale, cela nous donne l’intervalle de largeur minimale.

En pratique.S’il existe un variable aléatoire T telle que la loi de Tθ ne dépende pas de θ, alors on peut trouver un réelc tel que

Pθ(Tc6θ6T+c)>1−α.

Premier exemple de construction : intervalle de confiance d’une espérance dans le cas d’une loi mère normale et d’une variance connue

Ce cas est rare, mais il permet de montrer comment on construit l’intervalle de confiance.

Exemple.

On s’intéresse à l’âge moyen dans une population de 500 personnes. Au lieu de sonder l’ensemble de la population, nous avons calculé à partir d’un échantillon de 30 personnes la moyenne d’âge qui est de 25 ans (avec une erreur standard ou écart type de 2 ans). La moyenne d’âge de l’ensemble de la population diffère certainement de cette moyenne observée. On aimerait estimer cette marge d’erreur avec un risque d’erreur de 5% ou encore un niveau de confiance de 95%.

Références

Documents relatifs

Le début du mouvement est imposé par le joueur : connaissant l'effet du poids sur le mouvement, c'est lui qui doit choisir l'angle de tir et la vitesse initiale du

paramètre θ à l’aide d’un estimateur sans biais de θ Soit X une v.a.r... Ainsi, une marge d’erreur faible produit un niveau de risque élevé et un niveau de

Le

On cherche ` a d´ eterminer un intervalle de confiance pour p au niveau de confiance 99% (1% de risque) 1.. Je pense donc que oui.. a) D i est la diff´ erence du nombre de p` eche

Afin de répondre à la question posée dans l'énoncé ci-dessus, mettons en œuvre un test relativement à cette variance.. • La variable aléatoire d’échantillonnage de

Bien que l’espérance donne d’une certaine manière le centre de la loi de probabilité, il est parfois souhaitable d’avoir une façon de mesurer.

Exemple On lance deux pièces de monnaie et on perd 1$ si les deux sont pile, on gagne 1$ si les deux sont face et il ne ce passe rien si les deux sont différents.. Mesure

Les intervalles de confiance déterminés, et les tests effectués sur la variable transformée Y = log X s’appliquent aux paramètres de cette variable. Leur