• Aucun résultat trouvé

III. Théorème limite central

N/A
N/A
Protected

Academic year: 2022

Partager "III. Théorème limite central"

Copied!
5
0
0

Texte intégral

(1)

Dans tout le chapitre, nous travaillons sur un espace probabilisé(Ω,A, P).

I. Inégalités

Définition 1.

SoitA∈ Aun évènement. On définit l’indicatrice1AdeApar :

1A(ω) =

( 1, si ω∈A 0, si ω /∈A

Remarque.

Il s’agit d’une variable aléatoire discrète bornée, dont l’espérance vaut E(1A) = 1×P(X ∈A) + 0×P(X /∈A) =P(X∈A).

Théorème 1. Inégalité de Markov

SoitXune variable aléatoire positive, admettant une espérance. Alors :

∀a >0, P(X ≥a)≤E(X) a

Démonstration.

cas général.

On a 1A+1A= 1, donc E(X) =E(X1A) +E(X1A).

En particulier, en considérant l’évènement A= [X > a], on obtient E(X) =E(X1[X≥a]) +E(X1[X<a]).

Or,Xest positive, donc X1[X<a] aussi, ainsi que E(X1[X<a]).

Par ailleurs, sur[X≥a], on a (comme son nom l’indique !)X≥a, donc X1[X≥a]≥a1[X≥a]. Utilisant les arguments précédents, ainsi que la croissance de l’espérance, on obtient :

E(X) =E(X1[X≥a]) +E(X1[X<a])≥E(X1[X≥a])≥E(a1[X≥a]) =aE(1[X≥a]) =aP(X≥a).

En divisant enfin para >0, on obtient le résultat voulu : P(X≥a)≤ E(X) a . Théorème 2. Inégalité de Bienaymé-Tchebychev

SoitXune variable aléatoire, admettant un moment d’ordre 2 / une variance. Alors :

∀ε >0, P(|X−E(X)| ≥ε)≤V(X) ε2

Démonstration.

On applique l’inégalité de Markov à la variable aléatoireY = (X−E(X))2.

Y est clairement positive, et admet bien une espérance, puisque E(Y) =E[(X−E(X))2] =V(X).

On a, pour >0, l’égalité d’évènements : [|X−E(X)| ≥ε] = [(X−E(X))2≥ε2], donc :

P(|X−E(X)| ≥ε) =P((X−E(X))2≥ε2)≤E[(X−E(X))2]

ε2 =V(X) ε2 . Exemple 1.

Un joueur gagne60%des parties qu’il dispute. Il joue100parties. SoitXle nombre de parties gagnées.

Majorer P(|X−60| ≥10).

Exemple 2.

Un joueur dispute100parties et en gagne60. Soitpsa probabilité de succès.

(2)

Définition 2.

moyenne empiriqueXn= 1 n

n

X

k=1

Xk= X1+...+Xn

n + espérance et variance

Théorème 3. Loi faible des grands nombres

Soit(Xn)n∈Nune suite de variables aléatoires indépendantes, admettant une même espérancem, et une même variance.

Pourn∈N, notons Xn = 1 n

n

X

k=1

Xk =X1+...+Xn

n . Alors :

∀ε >0, lim

n→+∞P(|Xn−m| ≥ε) = 0

Démonstration.

Commençons par voir queXnadmet bien une espérance et une variance : Par linéarité, E(Xn) = 1

n

n

X

k=1

E(Xk) = 1

n ×nm=m.

Notons σ2=V(X1). Par indépendance, V(Xn) = 1 n2V

n

X

k=1

Xk

!

= 1 n2

n

X

k=1

V(Xk) = 1

n2 ×nσ22 n . Soitε >0fixé. On applique alors l’inégalité de Bienaymé-Tchebychev àXn:

P(|Xn−m| ≥ε) =P(|Xn−E(Xn)| ≥ε)≤ V(Xn) ε2 = σ2

2 −−−−−−−−→

n→+∞ 0.

Remarque.

Cet énoncé montre donc, comme l’intuition nous le faisait penser, que la moyenne empiriqueXnpeut permettre d’approcher, d’estimer l’espérance (la moyenne)m.

Nous dirons dans le prochain chapitre que la moyenne empirique est un estimateur convergent de l’espérance, ou encore converge en probabilité vers l’espérance.

II. Convergence en loi

Définition 3.

Soit(Xn)n∈Nune suite de variables aléatoires, de fonctions de répartition respectivesFXn. SoitXune variable aléatoire, de fonction de répartitionFX.

On dit que la suite(Xn)n∈Nconverge en loiversX, et on note Xn−→L X si :

n→+∞lim FXn(x) =FX(x), en toute abscisse réellexoùFXest continue.

Remarque.

Dans le cas oùXest à densité, on sait queFXest continue surR.

Il faut donc vérifier que ∀x∈R, lim

n→+∞FXn(x) =FX(x).

Exemple 3.

Soit, pour toutn∈N, une v.a.Xn,→U

−1 n;1

n

. Alors, Xn−→L 0, v.a. constante certaine, égale à0.

Pour s’en rendre compte, il suffit de déterminer lim

n→+∞FXn(x), en tout pointx6= 0, puisqu’il s’agit du seul point de discontinuité de la v.a. certaine égale à0.

Exemple 4.

SiXn,→U([−n;n]), alorsXnne converge pas en loi.

(3)

Remarque.

L’exemple précédent montre donc qu’une v.a. à densité peut converger en loi vers une v.a. discrète.

La réciproque est également vrai, comme le montrera sous peu le théorème central limite.

Proposition 1. On suppose que les(Xn)n∈NetX sont des variables aléatoires discrètes, à valeurs dansZ.

Alors,Xn −→L Xsi, et seulement si :

∀k∈Z, lim

n→+∞P(Xn=k) =P(X=k).

Exemple 5.

Soitλ >0, et soit(Xn)n∈Nune suite de variables aléatoires, avecXn,→ B

n,λ n

, pourn > λ.

Alors, Xn−→L X, oùX ,→ P(λ).

III. Théorème limite central

Ce théorème apparait aussi parfois sous le nom de "théorème central limite", ou encore "théorème de la limite centrée".

Théorème 4. Théorème limite central

Soit(Xn)n∈Nune suite de v.a. indepéndantes et de même loi, admettant une espérancemet une varianceσ2non nulle.

Pourn∈N, on poseXn= 1 n

n

X

k=1

Xk.

On définit également la variable centréeXn

associée àXn, parXn

=Xn−E(Xn) q

V(Xn)

=√

nXn−m

σ . Alors :

Xn−→ NL (0,1)

Remarque.

En résumé, √

nXn−m σ

−→ NL (0,1), mais il y a encore plus pratique à retenir.

En notant de façon classique Sn=

n

X

k=1

Xk, on a :

E(Sn) =

n

X

k=1

E(Xk) =nE(X1) =nm et, par indépendance, V(Sn) =

n

X

k=1

V(Xk) =nV(X1) =nσ2.

Donc, Sn−E(Sn)

σ(Sn) =Sn−nm

√n σ

−→ NL (0,1) . En effet, √

nXn−m σ =√

n Sn

n −m σ =√

n

Sn−nm n

σ = Sn−nm

√n σ .

En considérant la définition de la convergence en loi, on obtient vu la "continuité" de la loi normale :

Conséquence.

1. ∀x∈R, lim

n→+∞P(Xn

≤x) = Φ(x), oùΦest la fonction de répartition de la loi normale centrée réduite.

2. Plus, généralement, siaetbsont des valeurs, éventuellement infinies, vérifiant −∞ ≤a≤b≤+∞. On a alors :

n→+∞lim P(a≤Xn≤b) = 1

√2π Z b

a

e t2

2 dt

Exemple 6.

(4)

Exemple 7.

Un sondage sur1000personnes annonce qu’un candidat va récolter55%des votes. Le nombre total de votants est bien plus grand.

Soitple résultat final du vote. Calculer une valeur approchée de P(0.52≤p≤0.58).

IV. Informatique

La loiN(0,1)peut donc être approchée en normalisant une somme de v.a. de l’une des quelconques lois usuelles.

Deux exemples sont particulièrement intéressants : à partir d’une loi uniforme discrète (possible en lançant un dé ?), ou une loi uniforme continue (à partir du générateur rand() de Scilab).

Exemple 8.

Dans ce premier exemple, on compare l’histogramme de la répartition des valeurs pour un grand échantillon obtenu en lançant plusieurs dés (loi uniforme sur[[1,6]]).

On constate, bien que l’étendue soit très légèrement insuffisante et le nombre de valeurs un peu faible, que l’on obtient déjà une approximation intéressante en ne lançant que 3 dés !

3 dés (étendue de -2.5 à 2.5, et 96.3% entre -1.96 et 1.96) : 5 dés (étendue de -3.3 à 3.3, et 93.5% entre -1.96 et 1.96) :

10 dés (étendue de -4.4 à 4.4, et 95.0% entre -1.96 et 1.96) : 50 dés (étendue de -4.6 à 4.6, et 94.9% entre -1.96 et 1.96) :

(5)

Exemple 9.

Et pour terminer, à partir du générateurrand()(loi uniforme sur[0,1]).

On constate notamment que les valeurs autour de 0 sont un peu moins souvent prises que nécessaire lorsque le nombrende v.a.

sommées est un peu faible (<10). On voit qu’il "en manque un peu sous la courbe bleue".

3 uniformes (étendue de -3.0 à 3.0, et 95.3% entre -1.96 et 1.96) : 5 uniformes (étendue de -3.7 à 3.7, et 95.2% entre -1.96 et 1.96) :

12 uniformes (étendue de -4.6 à 4.6, et 95.1% entre -1.96 et 1.96) : 50 uniformes (étendue de -4.8 à 4.8, et 95.0% entre -1.96 et 1.96) :

Remarque.

Il est assez amusant de remarquer que pour de petites valeurs den, ce sont les lois uniformes discrètes qui collent le plus à la courbe gaussienne, même s’il est vrai que le nombre de valeurs possibles est alors maigre.

Références

Documents relatifs

Ce théorème peut nous aider dans les rares cas où la méthode des moments en statistique ne peut pas être utilisée, par exemple avec des lois de Cauchy.. L’hypothèse de

Par exemple, les chocs de molécules d’eau sur une molécule de pollen ou les effets des conditions atmosphériques sur le plan de vol d’un avion peuvent être modélisés par

GALLARDO, Une loi des grands nombres et un théorème limite central pour les chaînes de Markov sur N2 associées aux polynômes discaux, C. GALLARDO,

On exprime ce résultat en disant que, si une suite vectorielle est équirépartie (dans le cube), ses termes constituent des suites équiréparties indépendantes. On connaît de

On possède une pièce de monnaie qui a une probabilité inconnue p de tomber sur face.. On aimerait déterminer un intervalle de confiance

• Adapter l'un des deux programmes Tirages pour obtenir un programme Moyennes qui renvoie la liste des N moyennes successives associée à une liste [X 1 , X 2 ,3. Que peut-on dire de

Approximation d’une

Dans la leçon 218, il est bien- venu de mentionner le théorème des évènements rares de Poisson plutôt que la recherche d’un intervalle de confiance..