• Aucun résultat trouvé

III II TabledesmatièresI LOIDESGRANDSNOMBRES

N/A
N/A
Protected

Academic year: 2022

Partager "III II TabledesmatièresI LOIDESGRANDSNOMBRES"

Copied!
10
0
0

Texte intégral

(1)

LOI DES GRANDS NOMBRES

Terminale Spé Maths − Chapitre P-03

Table des matières

I

Sommes de variables aléatoires 2

1) Quelques rappels si nécessaire . . . 2

2) Définitions . . . 3

3) Espérance d’une somme de variables aléatoires . . . 4

4) Variance d’une somme de variables aléatoires . . . 5

5) Échantillons de nvariables aléatoires identiques et indépendantes . . . 5

II

L’inégalité de Bienaymé-Tchebychev 7 1) L’inégalité de Markov . . . 7

2) L’inégalité de Bienaymé-Tchebychev . . . 8

III

Loi des grands nombres 9 1) L’inégalité de concentration . . . 9

2) Loi faible des grands nombres . . . 9

(2)

I Sommes de variables aléatoires

1) Quelques rappels si nécessaire

Une variable aléatoire X définie sur un univers Ωest une fonction définie sur Ωet à valeurs dansR.

DÉFINITIONS

On lance un dé cubique équilibré. Si le 6sort, on gagne 5 euros, sinon on perd 1euro.

Ω= {1 ; 2 ; 3 ; 4 ; 5 ; 6} et X(1) = −1,X(2) = −1, ... ,X(6) =5.

EXEMPLE

Soit nun entier naturel et soitX une variable aléatoire qui prend les valeurs x1,x2, ...,xn. On pose, pour tout entier naturel icompris entre 1etn,pi=P(X=xi).

●L’espérance deX estE(X) =

n

i=1

pixi=p1x1+p2x2+...+pnxn.

●La variance deX estV(X) =

n

i=1

pi(xi−E(X))2.

●L’écart-type de X est σ(X) =

√ V(X).

DÉFINITIONS

● On peut, par définition, également écrire que V(X) =E((X−E(X))2.

●La formule de König-Huyghens vue en classe de Première donne une autre expression de la variance : V(X) =E(X2) −E(X)2

REMARQUES

Soientaetb deux réels etX une variable aléatoire. Alors : E(aX+b) =aE(X) +b

V(aX+b) =a2V(X) σ(aX+b) = ∣a∣σ(X)

PROPRIÉTÉS admises

Soit X une variable aléatoire. On peut obtenir deux autres écritures possibles de la variance deX :

●V(X) =E(X2) −E(X)2 (Formule de König-Huyghens)

●V(X) =E((X−E(X))2) (Par définition)

PROPRIÉTÉ

(3)

● Supposons queX prenne les valeurs x1,x2, ... , xn : V(X) =

n

i=1

pi(xi−E(X))2

=

n

i=1

pi(x2i −2xiE(X) +E(X)2)

=

n

i=1

pix2i −2E(X)

n

i=1

pixi+E(X)2

n

i=1

pi. Or

n

i=1

pix2i =E(X2);

n

i=1

pixi=E(X)et

n

i=1

pi=1.

Donc V(X) =E(X2) −2E(X)2+E(X)2 =E(X2) −E(X)2.

● Par définition, la variance de X est la moyenne des carrés des écarts de X à sa moyenne, d’où le résultat.

On peut le démontrer algébriquement (voir dans la suite du cours).

DÉMONSTRATION

●Deux événementsA etB sont incompatibles⇐⇒ A∩B = ∅ ⇐⇒P(A∩B) =0.

●Deux événementsA etB sont indépendants⇐⇒ P(A∩B) =P(A) ×P(B).

DÉFINITIONS

SoientA etB deux événements. AlorsP(A∪B) =P(A) +P(B) −P(A∩B).

PROPRIÉTÉ admise

2) Définitions

SoientX etY deux variables aléatoires définies sur un même universΩet soit aun réel.

●La variable aléatoire X+Y est la variable aléatoire qui prend pour valeurs les sommes de toutes les valeurs possibles deX et de Y.

● La variable aléatoire aX est la variable aléatoire qui prend pour valeurs toutes les valeurs de X multipliées par le réel a.

DÉFINITIONS

(4)

On lance deux dés équilibrés, l’un tétraédrique numéroté de 1 à 4, et l’autre cubique numéroté de 1 à 6. On appelle X etY les variables aléatoires associées respectivement aux résultats du dé tétraédrique et du dé cubique.

● X+Y est la variable aléatoire égale à la somme des deux dés.

Les valeurs prises par X sont : 1;2;3;4.

Les valeurs prises par Y sont : 1;2;3;4;5;6 Donc les valeurs prises parX+Y sont 2;3; ... ;10.

Calculer P(X+Y =2 etP(X+Y =3) : P(X+Y =2) =P((X, Y) = (1,1))

=P((X=1) ∩ (Y =1))

=P(X=1) ×P(Y =1) (car X etY sont des variables aléatoires indépendantes)

=1 4×1

6 = 1 24

P(X+Y =3) =P({(X, Y) = (1,2)} ∪ {(X, Y) = (2,1)})

=P((X, Y) = (1,2)) +P((X, Y) = (2,1)) (*)

=P(X=1) ×P(Y =2) +P(X=2) ×P(Y =2) (**)

=1 4×1

6 +1 4 ×1

6 = 1 12

(*) : car les événements (X, Y) = (1,2) et(X, Y) = (2,1) sont incompatibles.

(**) : car les variables X etY sont indépendantes.

● 2X est la variable aléatoire égale au double du résultat obtenu par le premier dé.

Les valeurs prises par X sont : 1;2;3;4.

Donc les valeurs prises par2X sont : 2;4;6;8.

Calculer P(2X=6) : P(2X=6) =P(X=3) = 1

4

EXEMPLES

● Attention : si X est une variable aléatoire, alors la variable aléatoire X+X n’est pas égale à la variable aléatoire 2X (X+X≠2X)

Exemple, si X est une variable aléatoire prenant comme valeurs 1;2 et3, alors X+X prend comme valeurs 2;3;4;5et6, alors que2X prend comme valeurs2;4 et6.

● On peut généraliser la somme de variables aléatoires à n variables (où n est un entier naturel non nul). Cf. 4)

REMARQUES

3) Espérance d’une somme de variables aléatoires

SoientX etY deux variables aléatoires. Alors :

E(X+Y) =E(X) +E(Y)

PROPRIÉTÉ admise

(5)

Soit X une variable aléatoire suivant la loi binomiale de paramètres n=200etp=0,2.

Soit Y une variable aléatoire suivant la loi binomiale de paramètres m=100etq=0,5.

Les valeurs prises par X sont tous les entiers compris entre 0et200.

Les valeurs prises par Y sont tous les entiers compris entre 0 et100.

Donc les valeurs prises parX+Y sont tous les entiers compris entre 0et300.

On a de plus E(X+Y) =E(X) +E(Y) =np+mq=200×0,2+100×0,5=90.

Attention : X etY suivent une loi binomiale mais pasX+Y.

EXEMPLE

On peut désormais retrouver le résultat V(X) =E((X−E(X))2) : E((X−E(X))2) =E(X2−2XE(X) +E(X)2)

=E(X2) −E(2XE(X)) +E(E(X)2).

=E(X2) −2E(X)E(X) +E(X)2 (carE(X)est une constante)

=E(X2) −2E(X)2+E(X)2

=E(X2) −E(X)2

=V(X) (Formule de König-Huyghens).

REMARQUE

4) Variance d’une somme de variables aléatoires

SoientX etY deux variables aléatoiresindépendantes. Alors : V(X+Y) =V(X) +V(Y)

PROPRIÉTÉ admise

Dans l’exemple précédent, en supposant que les variables X etY sont indépendantes, on a : V(X+Y) =V(X) +V(Y) =np(1−p) +mq(1−q) =200×0,20×0,8+1000×0,50×0,5=57.

On a alors σ(X+Y) =

V(X+Y) =

57 (écart-type deX+Y)

EXEMPLE

5) Échantillons de n variables aléatoires identiques et indépendantes

Soientn un entier naturel non nul etX une variable aléatoire définie sur un universΩ.

● Un échantillon de taille n de la loi de probabilité de X est une liste (X1, X2, ..., Xn) de variables aléatoires indépendantes et identiques et suivant toutes la loi de probabilité de X.

●La variable aléatoire somme Sn d’un échantillon de taille nde la loi deX est définie par Sn=

n

i=1

Xi=X1+X2+...+Xn

●La variable aléatoire moyenne Mn d’un échantillon de taille nde la loi deX est définie par

n

DÉFINITIONS

(6)

Soit nun entier naturel non nul.

Soit X une variable aléatoire définie sur un universΩ.

Soit Snla variable aléatoire somme d’un échantillon de taille nde la loi deX.

On a alors :

E(Sn) =nE(X) V(Sn) =nV(X) σ(Sn) =

√n×σ(X)

PROPRIÉTÉ

● D’après la linéarité de l’espérance vu précédemment, on a : E(Sn) =E(X1+X2+...+Xn) =E(X1) +E(X2) +...+E(Xn).

Or toutes les variables Xi suivent la même loi que X et ont donc la même espérance queX.

Donc E(Sn) =E(X) +E(X) +...+E(X) =nE(X).

● De la même manière, les variablesXi étaient indépendantes, on a : V(Sn) =V(X1+X2+...+Xn) =V(X1) +V(X2) +...+V(Xn).

Or toutes les variables Xi suivent la même loi que X et ont dont la même variance queX.

Donc V(Sn) =V(X) +V(X) +...+V(X) =nV(X).

● V(Sn) =nV(X), etσ(Sn) =

V(Sn).

Donc σ(Sn) =

nV(X) =

√n×

V(X) =

√n×σ(X).

DÉMONSTRATION

Soit nun entier naturel non nul.

Soit X une variable aléatoire définie sur un universΩ.

Soit Mn la variable aléatoire moyenne d’un échantillon de taillen de la loi deX.

On a alors :

E(Mn) =E(X) V(Mn) = V(X)

n σ(Mn) = σ(X)

√n

PROPRIÉTÉ

● E(Mn) =E(X1+X2+...+Xn

n ) =E(Sn

n ) = 1

nE(Sn) = 1

n×nE(X) =E(X).

● On rappelle un résultat sur la variance : pour tout réela,V(aX) =a2V(X). Ainsi : V(Mn) =V(Sn

n ) = 1

n2V (Sn) = 1

n2 ×nV(X) = V(X) n .

● Enfin,σ(Mn) =

V(Mn) =

√ V(X)

n =

√ V(X)

√n = σ(X)

√n .

DÉMONSTRATION

(7)

II L’inégalité de Bienaymé-Tchebychev

1) L’inégalité de Markov

Soit X une variable aléatoire à valeurs positives et soitaun réel strictement positif. Alors : P(X⩾a) ⩽ E(X)

a

PROPRIÉTÉ

●Interprétation de cette propriété :ce résultat signifie que la probabilité queXprenne des valeurs plus grandes que aest d’autant plus petite queaest grand.

● Si a ⩽ E(X), l’inégalité de Markov n’a pas d’intérêt, car alors E(X)

a ⩾ 1, et donc on obtient P(X⩾a) ⩽1, ce qui est évident.

REMARQUES

Soit X une variable aléatoire à valeurs positives (ou nulles) dont on notexi lesnvaleurs pour l’entier i entre1etn.

Par définition de l’espérance, on a E(X) =

n

i=1

xiP(X=xi).

Séparons cette somme en deux sommes en considérant les valeursxi supérieures ou égales àa, et celles strictement inférieures à a.

On a donc E(X) = ∑

xi⩾a

xiP(X=xi) + ∑

xi<a

xiP(X=xi).

Pour tout entier i compris entre 1 et n, on sait que xi ⩾ 0 (puisque X est positive ou nulle), et P(X=xi) ⩾0 (par définition d’une probabilité), donc ∑

xi<a

xiP(X=xi) ⩾0.

On en déduit que E(X) ⩾ ∑

xi⩾a

xiP(X=xi). (*)

De plus, dans cette partie de la somme, pour tout entier icompris entre 1 etn,xi⩾a.

Donc en multipliant chaque membre de cette inégalité par P(X=xi) (positif ou nul), on a : xiP(X=xi) ⩾aP(X=xi).

Donc par somme, ∑

xi⩾a

xiP(X=xi) ⩾ ∑

xi⩾a

aP(X=xi), d’oùE(X) ⩾ ∑

xi⩾a

aP(X=xi) d’après (*).

Or ∑

xi⩾a

aP(X=xi) =a ∑

xi⩾a

P(X=xi) =aP(X⩾a).

Par conséquent, E(X) ⩾aP(X⩾a).

Puisque a>0, on obtient finalementP(X⩾a) ⩽ E(X) a .

DÉMONSTRATION

Soit X une variable aléatoire positive d’espérance1.

D’après l’inégalité de Markov, on a alors P(X⩾100) ⩽ 1

100, soitP(X⩾100) ⩽0,01.

Autrement dit, une variable aléatoire positive dont l’espérance vaut 1a au plus une chance sur100de dépasser 100.

EXEMPLE

(8)

2) L’inégalité de Bienaymé-Tchebychev

Soit X une variable aléatoire et soitaun réel strictement positif. Alors : P(∣X−E(X)∣ ⩾a) ⩽ V(X)

a2

PROPRIÉTÉ

● Interprétation de cette propriété : ce résultat signifie que la probabilité que les valeurs prises parX s’écartent d’au moinsade l’espéranceE(X) est d’autant plus petite queaest grand.

● On dit que l’intervalle[E(X) −a;E(X) +a] est un intervalle de fluctuationde X.

●Les inégalités de Markov et de Bienaymé-Tchebychev font partie de ce qu’on appelle les inégalités de

« concentration ».

REMARQUES

Comme a>0, on a∣X−E(X)∣ ⩾a⇐⇒ (X−E(X))2⩾a2. De plus, la variable (X−E(X))2 est positive ou nulle.

On peut donc appliquer l’inégalité de Markov à la variable (X−E(X))2 et au réela2. Ainsi, P((X−E(X))2⩾a2) ⩽ E((X−E(X))2)

a2 .

Or par définition, E((X−E(X))2) =V(X), donc P((X−E(X))2⩾a2) ⩽ V(X) a2 , et on a bien P(∣X−E(X)∣ ⩾a) ⩽ V(X)

a2 .

DÉMONSTRATION

Soit X une variable aléatoire et tun réel tel quet=2σ(X).

Alors P(∣X−E(X)∣ ⩾2σ) ⩽ V(X) (2σ(X))2

, soit P(∣X−E(X)∣ ⩾2σ) ⩽ 1 4.

Autrement dit, la probabilité qu’une variable aléatoire prenne des valeurs éloignées de son espérance d’au moins le double de son écart-type est inférieure à 0,25.

EXEMPLE

(9)

III Loi des grands nombres

1) L’inégalité de concentration

Soit X une variable aléatoire d’espéranceE(X) et de varianceV(X).

On pose Mn la variable aléatoire moyenne d’un échantillon de taillende X.

Autrement dit, Mn = 1 n

n

i=1

Xi, où les variables Xi sont indépendantes et de même loi de probabilité (celle deX). Alors pour tout réel astrictement positif,

P(∣Mn−E(X)∣ ⩾a) ⩽ V(X) na2 Cette inégalité est appeléel’inégalité de concentration.

THÉORÈME admis

On effectue nlancers successifs supposés indépendants d’une pièce équilibrée.

On associe à chaque tirageila variable aléatoireXi, prenant comme valeur 0si on obtient face et1 si on obtient pile.

On pose Sn =X1+X2+...+Xn la variable aléatoire donnant le nombre de piles obtenu, et on pose Mn= Sn

n .

On a, pour tout entier icompris entre 1etn :E(Xi) = 1

2 etV(Xi) = 1 4. Pour n=10 000 eta=0,01, l’inégalité de concentration donne :

P(∣Mn−1

2∣ ⩾0,01) ⩽

1 4

10 000×0,012, donc P(∣Mn−1

2∣ ⩾0,01) ⩽ 1 4.

Ainsi, pour 10 000 lancers, la probabilité que la proportion de pile obtenue s’écarte de plus d’un centième de 1

2 est inférieure à 1 4.

EXEMPLE

2) Loi faible des grands nombres

Soit (Xn) un échantillon d’une variable aléatoire. On poseMn= 1 n

n

i=1

Xi. Alors pour tout réel astrictement positif :

n→+∞lim P(∣Mn−E(X)∣ ⩾a) =0

PROPRIÉTÉ

On applique l’inégalité de concentration à la variable aléatoire Mn. Ainsi, 0⩽P(∣Mn−E(X)∣ ⩾a) ⩽ V(X)

na2 . Or lim

n→+∞

1

n =0, donc lim

n→+∞

V(X) na2 =0.

Donc d’après le théorème des gendarmes, lim

n→+∞P(∣Mn−E(X)∣ ⩾a) =0.

DÉMONSTRATION

(10)

On considère une urne contenant 5 boules noires et 3 boules blanches. On souhaite estimer la probabilité d’obtenir au moins six boules noires sur un ensemble de dix tirages avec remise.

Pour simuler cette expérience plusieurs, on a écrit un programme en Python.

En effectuant 100 000 épreuves de dix tirages, on obtient une proportion p≈0,6943.

Sachant que la variance est2,344, déterminer la probabilité de se tromper de plus d’un centième.

Correction :

D’après la loi des grands nombres, la probabilité cherchée est proche de 0,6943.

La probabilité de s’écarter de plus de a=0,01 est donc inférieure à V(X)

n×a2, soit0,2344.

EXEMPLE

Références

Documents relatifs

Dans ce chapitre on désigne par (Ω, A , P) un espace probabilisé, c’est-à-dire, un espace mesurable (Ω, A ) muni d’une probabilité P.. Sont écrites en rouge les parties

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaitre pour sa culture) et en bleu les parties modifiées par rapport au cours

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaître pour sa culture) et en bleu les parties modifiées par rapport au cours

Soit ( ) ∈ℕ ∗ une suite de variables aléatoires réelles définies sur le même espace probabilisé, indépendantes, admettant chacune une espérance et une variance.. •

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/1. 3 Rémy Nicolai

La fonction set.seed() permet de spécifier l’amorce du générateur de nombre aléa- toire, ce qui se révèle utile quand on veut répéter une simulation à l’identique (les

Soit n un entier naturel non nul et x un réel strictement positif... Les trois droites sont donc concourantes

On note X n la variable aléatoire égale au nombre de tirages nécessaires pour l’obtention de la boule numéro 1.. On note Y n la variable aléatoire égale à la somme des numéros