• Aucun résultat trouvé

Chapitre 4 : Variables aléatoires discrètes

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre 4 : Variables aléatoires discrètes"

Copied!
16
0
0

Texte intégral

(1)

Compléments sur les variables aléatoires discrètes

Table des matières

1 Couples de variables aléatoires discrètes 2

1.1 Définitions . . . 2

1.1.1 Loi d’un couple de variables aléatoires discrètes . . . 2

1.1.2 Lois conditionnelles . . . 3

1.1.3 Lois marginales . . . 3

1.1.4 Indépendance de deux variables aléatoires discrètes . . . 4

1.2 Fonction d’un couple de variables aléatoires discrètes . . . 5

1.2.1 Généralités . . . 5

1.2.2 Espérance . . . 6

1.2.3 Loi d’une somme . . . 6

1.3 Covariance, corrélation linéaire . . . 7

1.3.1 Covariance de deux variables aléatoires discrètes . . . 7

1.3.2 Corrélation linéaire . . . 9

1.3.3 Cas de l’indépendance de deux variables aléatoires . . . 11

2 Suites de variables aléatoires discrètes 12 2.1 Définitions . . . 12

2.1.1 Généralités . . . 12

2.1.2 Indépendance mutuelle . . . 13

2.2 Stabilité des lois binomiales et de Poisson par l’addition . . . 14

2.2.1 Somme de variables de Bernoulli mutuellement indépendantes et de même paramètre . 14 2.2.2 Stabilité de la loi de Poisson par l’addition . . . 14

2.2.3 Stabilité de la loi binomiale par l’addition . . . 14

2.3 Espérance et variance d’une somme . . . 15

(2)

Dans ce chapitre, toutes les variables aléatoires sont supposées définies sur le même espace probabilisé (Ω,A,P).

1 Couples de variables aléatoires discrètes

1.1 Définitions

1.1.1 Loi d’un couple de variables aléatoires discrètes Définition 1.1 : Couple de variables aléatoires

On appelle couple de variables aléatoires discrètes définie sur (Ω,A) toute application Ω → R2

ω 7→ (X(ω), Y(ω)) oùX etY sont des variables aléatoires discrètes sur (Ω,A).

Définition 1.2 : Loi conjointe

Soit (X, Y) un couple de variables aléatoires discrètes dans l’espace probabilisé (Ω,A,P). L’application P(X,Y) :X(Ω)×Y(Ω) → [0,1]

(x, y) 7→ P([X=x]∩[Y =y]) est appelée loi du couple (X, Y) ou loi conjointe des variables aléatoiresX etY.

La loi deX est appelée première loi marginale du couple et celle deY est appelée deuxième loi marginale du couple.

Exemple 1. On lance deux dés équilibrés à 6 faces (l’un est bleu, l’autre blanc). On appelle X (resp. Y) le numéro obtenu avec le dé bleu (resp. blanc). Comme X et Y sont des variables aléatoires discrètes, alors (X, Y) est un couple de variables aléatoires discrètes. On a la loi du couple(X, Y) :

∀(i, j)∈[[1,6]]2, P([X =i]∩[Y =j]) = 1 36.

Exemple 2. On lance les mêmes dés que dans l’exemple précédent. Cette fois, on appelle X le plus petit des deux numéros obtenus etY le plus grand numéro obtenu (si les numéros sont égaux, X et Y prennent la valeur commune). Comme X et Y sont des variables aléatoires discrètes, alors(X, Y) est un couple de variables aléatoires discrètes. On a la loi du couple(X, Y) :

∀(i, j)∈[[1,6]]2, P([X=i]∩[Y =j]) =

1

36, si i=j

1

18, si i < j 0, si i > j.

Remarque 1.3

On note aussi la loi conjointeP([X =x],[Y =y]) ou, plus simplement P(X=x, Y =y).

2

(3)

1.1.2 Lois conditionnelles

Définition 1.4 : Loi conditionnelle

Soit (X, Y) un couple de variables aléatoires discrètes et pour tout yY(Ω) tel que P(Y = y) 6= 0, l’application

X(Ω) → R

x 7→ P[Y=y](X =x) = P([X =x]∩[Y =y]) P(Y =y) est appelée loi deX conditionnellement à l’événement [Y =y].

Remarque 1.5

On dit aussi "loi conditionnelle deXsachant que [Y =y] est réalisé" ou plus simplement "loi deX sachant [Y =y]".

Remarque 1.6

On définit de manière similaire la loi conditionnelle deY sachant [X=x].

1.1.3 Lois marginales

Théorème 1.7 : Loi marginale

Soit (X, Y) un couple de variables aléatoires discrètes, alors par application de la formule des probabilités totales, les lois deX etY (lois marginales) sont données par les formules suivantes

∀x∈X(Ω), P(X=x) = X

y∈Y(Ω)

P([X =x]∩[Y =y]),

∀y∈Y(Ω), P(Y =y) = X

x∈X(Ω)

P([X=x]∩[Y =y]).

Remarque 1.8

La connaissance des lois marginales ne suffit cependant pas à reconstituer la loi conjointe du couple, sauf dans le cas où elles sont indépendantes.

Méthode 1.9 : Comment déterminer les lois marginales avec la loi du couple ?

Une fois que l’on a déterminé la loi du couple, on peut déterminer les lois marginales. La loi deX s’écrit

∀x∈X(Ω), P(X=x) = X

y∈Y(Ω)

P([X =x]∩[Y =y]).

À noter que même siY(Ω) n’est pas fini, la série converge puisque l’on calcule la probabilité d’un événement (qui existe donc).

(4)

Exemple 3. On reprend l’exemple précédent : on lance deux dés (X le plus petit des deux numéros obtenus et Y le plus grand numéro obtenu). On rappelle la loi du couple (X, Y) :

∀(i, j)∈[[1,6]]2, P([X=i]∩[Y =j]) =

1

36, si i=j

1

18, si i < j 0, si i > j.

Ainsi puisqueY(Ω) = [[1,6]]

pouri∈[[1,5]], P(X=i) =

6

X

j=1

P([X=i]∩[Y =j]) =P([X=i]∩[Y =i]) +

6

X

j=i+1

P([X=i]∩[Y =j])

= 1

36 +6−i

18 = 13−2i 36 ,

pouri= 6,

P(X= 6) =

6

X

j=1

P([X = 6]∩[Y =j]) =P([X= 6]∩[Y = 6]) = 1 36.

Proposition 1.10 : Loi marginale et loi conditionnelle

Soit (X, Y) un couple de variables aléatoires discrètes. Si l’on connaît la loi marginale de Y, ainsi que la loi conditionnelle deX sachant que [Y =y] est réalisé alors la loi deX est déterminée par :

∀x∈X(Ω), P(X =x) = X

y∈Y(Ω)

P(Y =y)P[Y=y](X=x).

Méthode 1.11 : Comment déterminer une loi marginale avec une loi conditionnelle ?

Une fois que l’on a déterminé la loi deY, ainsi que la loi conditionnelle deX sachant que [Y =y] est réalisé, on peut déterminer la loi deX.

∀x∈X(Ω), P(X =x) = X

y∈Y(Ω)

P(Y =y)P[Y=y](X=x).

Exemple 4. Soient Y ,→ P(λ) pour λ >0 et pour k∈N et p∈]0,1[, la loi de X sachant que [Y =k] est réalisé, est la loiB(k, p). Donner la loi de X.

1.1.4 Indépendance de deux variables aléatoires discrètes Définition 1.12 : Indépendance

On dit que deux variables aléatoires discrètesX etY sont indépendantes lorsque :

∀(x, y)∈X(Ω)×Y(Ω), P([X=x]∩[Y =y]) =P(X=x)P(Y =y).

Exemple 5. On lance deux dés équilibrés à 6 faces (l’un est bleu, l’autre blanc). On appelle X (resp. Y) le numéro obtenu avec le dé bleu (resp. blanc). On rappelle la loi du couple(X, Y) :

∀(i, j)∈[[1,6]]2, P([X =i]∩[Y =j]) = 1 36. On a les lois marginales :

∀i∈[[1,6]], P(X=i) = 1 6. 4

(5)

∀j∈[[1,6]], P(Y =j) = 1 6.

Comme ∀(i, j)∈[[1,6]]2, P([X =i]∩[Y =j]) =P(X =i)P(Y =j), on en déduit que X et Y sont deux variables aléatoires indépendantes.

1.2 Fonction d’un couple de variables aléatoires discrètes 1.2.1 Généralités

Proposition 1.13 : Fonction d’un couple de variables aléatoires discrètes

Soient (X, Y) un couple de variables aléatoires discrètes et gune application de X(Ω)×Y(Ω) dans R. La variable aléatoire Z =g(X, Y) est alors également discrète.

Remarque 1.14 : Quelques exemples

En particulier, si X et Y sont deux variables aléatoires discrètes, alors X +Y, XY, max(X, Y) et min(X, Y) sont aussi des variables aléatoires discrètes.

Méthode 1.15 : Comment déterminer la loi de Max(X, Y), si X et Y sont indépendantes ?

SoientX etY deux variables aléatoires discrètes indépendantes à valeurs dans N. Pour trouver la loi de S= Max(X, Y), on utilise la fonction de répartition, après avoir justifié l’égalité suivante :

∀k∈S(Ω),[S ≤k] = [Xk]∩[Y ≤k].

On obtient alors la loi deS avec

∀k∈S(Ω),P(S=k) =P(S≤k)−P(S ≤k−1).

Exemple 6. Une urne contient nboules numérotées de 1 à n. On tire au hasard deux boules, avec remise de la boule tirée. On note X la variable aléatoire égale au numéro de la première boule et Y la variable aléatoire égale au numéro de la deuxième boule. On poseS = Max(X, Y), ce qui signifie que∀ω∈Ω, S(ω) = Max(X(ω), Y(ω)). Donner la loi de S.

Méthode 1.16 : Comment déterminer la loi de Min(X, Y), siX et Y sont indépendantes ?

SoientX etY deux variables aléatoires discrètes indépendantes à valeurs dans N. Pour trouver la loi de I = Min(X, Y), on utilise la fonction de répartition de manière différente que dans le cas Max(X, Y), après avoir justifié l’égalité suivante :

∀k∈I(Ω),[I > k] = [X > k]∩[Y > k].

On obtient alors la loi deI avec

∀k∈I(Ω),P(I =k) =P(I ≤k)−P(I ≤k−1) =P(I > k−1)−P(I > k).

Exemple 7. Une urne contientnboules numérotées de1àn. On tire au hasard deux boules, avec remise de la boule tirée. On note Xla variable aléatoire égale au numéro de la première boule etY la variable aléatoire égale au numéro de la deuxième boule. On poseI = Min(X, Y), ce qui signifie que∀ω∈Ω, I(ω) = Min(X(ω), Y(ω)).

Donner la loi de I.

(6)

1.2.2 Espérance

Propriété 1.17 : Linéarité de l’espérance

Si deux variables aléatoires X et Y ont chacune une espérance, alors, pour tout a, b ∈ R, la variable aléatoireaX+bY possède une espérance et on a :

E(aX +bY) =aE(X) +bE(Y).

Propriété 1.18 : Croissance

Soient deux variables aléatoiresX et Y ayant chacune une espérance. Si XY presque sûrement (i.e.

P(X≤Y) = 1), alors

E(X)E(Y).

Exemple 8. On reprend l’exemple précédent, on a IS presque sûrement. On a donc forcément E(I)≤E(S).

Théorème 1.19 : Théorème de transfert

Soient (X, Y) un couple de variables aléatoires discrètes etg une application deX(Ω)×Y(Ω) dansR. On a (sous réserve d’existence)

E(g(X, Y)) = X

x∈X(Ω)

y∈Y(Ω)

g(x, y)P([X =x]∩[Y =y]).

Exemple 9. On reprend l’exemple précédent. Déterminer l’espérance deI = Min(X, Y)et deS = Max(X, Y).

1.2.3 Loi d’une somme

Proposition 1.20 : Loi d’une somme de deux variables aléatoires discrètes et indépendantes

Soient X et Y deux variables aléatoires discrètes et indépendantes. La loi de X+Y est donnée par l’égalité suivante :

∀z∈(X+Y)(Ω), P(X+Y =z) = X

(x,y)∈X(Ω)×Y(Ω)

x+y=z

P([X=x]∩[Y =y])

= X

x∈X(Ω)

z−x∈Y(Ω)

P(X =x)P(Y =zx).

Méthode 1.21 : Comment déterminer la loi de la somme de deux variables aléatoires discrètes ? SoientX etY deux variables aléatoires discrètes et indépendantes. On utilise l’égalité précédente pour déterminer la loi deX+Y.

Exemple 10. Soient λ, µ >0. SoientX1 etX2 deux variables aléatoires indépendantes tels queX1 ,→ P(λ) et X2,→ P(µ). Déterminer la loi de X1+X2.

Propriété 1.22 : Stabilité de la loi de Poisson par l’addition

Soient λ, µ > 0. Si X1 et X2 sont deux variables aléatoires indépendantes telles que X1 ,→ P(λ) et X2 ,→ P(µ), alors

X1+X2,→ P(λ+µ).

6

(7)

Propriété 1.22 : Stabilité de la loi de Poisson par l’addition

Soient λ, µ > 0. Si X1 et X2 sont deux variables aléatoires indépendantes telles que X1 ,→ P(λ) et X2,→ P(µ), alors

X1+X2 ,→ P(λ+µ).

Propriété 1.23 : Stabilité de la loi binomiale par l’addition

SiX1 et X2 sont deux variables aléatoires indépendantes telles queX1 ,→ B(n1, p) etX2 ,→ B(n2, p), alors X1+X2 ,→ B(n1+n2, p).

Démonstration. On a :

∀k∈[[0, n1+n2]], P(X1+X2=k) =

k

X

j=0

P(X1 =j)P(X2 =kj)

=

k

X

j=0

n1 j

!

pj(1−p)n1−j

! n2 kj

!

pk−j(1−p)n2−(k−j)

!

= pk(1−p)(n1+n2)−k

k

X

j=0

n1 j

! n2 kj

!

= pk(1−p)(n1+n2)−k n1+n2

k

!

(identité de Vandermonde).

1.3 Covariance, corrélation linéaire

1.3.1 Covariance de deux variables aléatoires discrètes

Proposition 1.24 : Espérance d’un produit de variables aléatoires discrètes

Soit (X, Y) un couple de variables aléatoires discrètes. Si la variable aléatoire XY possède une espérance, alors avec le théorème de transfert :

E(XY) = X

x∈X(Ω)

y∈Y(Ω)

xyP([X =x]∩[Y =y]).

Exemple 11. Soit (X, Y) un couple de variables aléatoires discrètes tel que

∀(i, j)∈[[1,2]]2, P([X =i]∩[Y =j]) =

i

4 sii=j,

1

4 sii < j, 0 sii > j.

Ce que l’on peut résumer dans le tableau suivant donnant la loi de (X, Y) H

HH HHH X

Y 1 2

1 1/4 1/4

2 0 1/2

Calculer E(XY).

(8)

Définition 1.25 : Covariance

Soit (X, Y) un couple de variables aléatoires discrètes. On suppose que X et Y admettent un moment d’ordre 2. On appelle covariance deX etY, le réel noté Cov(X, Y), défini par :

Cov(X, Y) =E(X−E(X)) (YE(Y)).

Remarque 1.26 : Covariance pour des variables aléatoires finies SiX etY sont des variables aléatoires finies, alors Cov(X, Y) existe

Propriété 1.27 : Formule de Huygens

SiX etY admettent un moment d’ordre 2, alors on a :

Cov(X, Y) =E(XY)−E(X)E(Y).

Démonstration. On a

Cov(X, Y) = E(X−E(X)) (YE(Y))

= EXYE(X)YE(Y)X+E(X)E(Y)

= E(XY)−E(X)E(Y)−E(Y)E(X) +E(X)E(Y) par linéarité de l’espérance

= E(XY)−E(X)E(Y).

Méthode 1.28 : Comment calculer directement une covariance ?

On calcule E(XY),E(X) etE(Y), puis on utilise la formule de Huygens.

Exemple 12. On reprend l’exemple précédent. Calculer la covariance de X et Y. Propriété 1.29 : Propriétés de la covariance

• La covariance est symétrique :

Cov(X, Y) = Cov(Y, X).

• Lien entre la covariance et la variance :

Cov(X, X) =V(X).

• Sia∈R, Cov(X, a) = 0. SiA suit une loi certaine, alors Cov(X, A) = 0.

8

(9)

Propriété 1.30 : Linéarité à gauche et à droite de la covariance Pour tout (a, b)∈R2, on a

Cov (aX1+bX2, Y) =aCov (X1, Y) +bCov (X2, Y) Cov (X, aY1+bY2) =aCov (X, Y1) +bCov (X, Y2).

Propriété 1.31 : Variance de la somme de deux variables aléatoires discrètes

Si deux variables aléatoiresX et Y admettent chacune une variance, alors la covariance de X et Y existe etX+Y admet une variance, et on a :

V(X+Y) =V(X) +V(Y) + 2 Cov(X, Y).

Méthode 1.32 : Comment calculer la variance d’une somme ? Il y a deux options :

• On peut calculer la variance avec la formule de König-Huygens.

V(X+Y) =E(X+Y)2E(X+Y)2.

• Si on ne connait pas la loi de la somme, on utilise la formule précédente : V(X+Y) =V(X) +V(Y) + 2 Cov(X, Y).

Exemple 13. On reprend l’exemple précédent. Déterminer V(X+Y).

Remarque 1.33 : Calcul de la covariance

À noter que l’on peut calculer la covariance de X etY à l’aide deV(X+Y), V(X) et de V(Y) : Cov(X, Y) = V(X+Y)−V(X)−V(Y)

2 .

1.3.2 Corrélation linéaire

Définition 1.34 : Coefficient de corrélation linéaire

On appelle coefficient de corrélation linéaire deX etY, le réel : ρ(X, Y) = Cov(X, Y)

pV(X)pV(Y). On a |ρ(X, Y)| ≤1.

Démonstration. Montrons que |ρ(X, Y)| ≤1.On considère la fonction f définie surR par : α 7→f(α) =V (−αX+Y).

On a pour tout réelα :

f(α) =V (−αX) + 2 Cov (−αX, Y) +V(Y) =α2V(X)−2αCov (X, Y) +V(Y).

(10)

La fonctionf est donc une fonction polynomiale du second degré enα. Elle est toujours positive par propriété des variances. Son discriminant est donc négatif ou nul.

∆ = 4 (Cov(X, Y))2−4V(X)V(Y)≤0.

donc (Cov(X, Y))2V(X)V(Y), en prenant les racines carrées on obtient

|Cov(X, Y)| ≤qV(X)qV(Y) ⇔ |ρ(X, Y)| ≤1.

Cette formule est appelée "inégalité de Cauchy-Schwarz".

Remarque 1.35

Le coefficient de corrélation mesure la dépendance linéaire entre deux variables.

• S’il est égal à 1 ou−1,X etY sont corrélées linéairement.

• S’il est égal à 0,X etY sont dites non corrélées.

Etudions désormais le cas d’égalité en poursuivant la démonstration précédente.

|ρ(X, Y)|= 1 ⇔ |Cov(X, Y)|= q

V(X) q

V(Y) ⇔ ∆ = 0.

Donc il existea∈R (a6= 0 car V(Y)6= 0) tel que f(a) = 0, autrement dit V (−aX+Y) = 0.

Ainsi −aX+Y suit une loi certaine. Par conséquent, il existe b∈Rtel que P(−aX+Y =b) = 1,

P(Y =aX+b) = 1.

Y est presque sûrement une fonction affine de X.

Proposition 1.36 : Variables aléatoires corrélées linéairement On a alors

|ρ(X, Y)|= 1 ⇔ ∃(a, b)∈R×R,P(Y =aX+b) = 1.

• Siρ(X, Y) = 1, alorsY varie dans le même sens que X (i.e.a >0).

• Siρ(X, Y) =−1, alorsY varie dans le sens contraire deX (i.e.a <0).

Démonstration. Commeaest solution de l’unique solution de

a2V(X)−2aCov(X, Y) +V(Y) = 0.

Alors

a=−−2 Cov(X, Y)

2V(X) = Cov(X, Y) V(X) . On obtient donc le signe du coefficient directeur apuisque

a >0 ⇔ Cov(X, Y)>0 ⇔ ρ(X, Y)>0.

10

(11)

Méthode 1.37 : Comment déterminer le coefficient de corrélation linéaire de deux variables aléatoires ? Il y a trois options :

• SiX etY sont indépendantes, alors Cov(X, Y) = 0.

• SiY =aX+b presque sûrement, alorsρ(X, Y) = 1 (sia >0) ou −1 (si a <0).

• Sinon on calcule le coefficient de corrélation linéaire à l’aide de la définition, ce qui nécessite de connaître la covariance deX etY et leurs variances.

Exemple 14. On reprend l’exemple précédent. Calculer ρ(X, Y).

1.3.3 Cas de l’indépendance de deux variables aléatoires Proposition 1.38 : Indépendance et espérance

Soit (X, Y) un couple de variables aléatoires discrètes indépendantes ayant chacune une espérance, alors la variable aléatoireXY possède une espérance et on a

E(XY) =E(X)E(Y).

Démonstration. On a

E(XY) = X

x∈X(Ω)

y∈Y(Ω)

xyP([X=x]∩[Y =y])

= X

x∈X(Ω)

X

y∈Y(Ω)

xyP(X =x)P(Y =y) par indépendance deX et de Y

=

X

x∈X(Ω)

xP(X=x)

X

y∈Y(Ω)

yP(Y =y)

= E(X)E(Y)

Proposition 1.39 : Indépendance et covariance

Soit (X, Y) un couple de variables aléatoires discrètes indépendantes admettant un moment d’ordre 2, alors

Cov(X, Y) = 0.

Démonstration. La démonstration est immédiate avec la proposition précédente et la formule de Huygens.

Remarque 1.40 : Variables aléatoires non corrélées

Deux variables aléatoires discrètes indépendantes sont non corrélées. Cependant, la réciproque est fausse.

Exemple 15. Soit X ,→ U([[−1,1]]), on définit la variable aléatoireY de la manière suivante :

Y prend la valeur 1 siX prend la valeur 0.

Y prend la valeur 0 sinon.

On a alors

P([X= 1]∩[Y = 1]) =P([X= 1]∩[X= 0]) = 0 et P(X = 1) =P(Y = 1) = 1 3.

(12)

Les variables aléatoires X etY ne sont donc pas indépendantes. On remarque que XY = 0 presque sûrement.

Donc E(XY) = 0. De plus,E(X) = 0. D’après la formule de Huygens, on obtient alors Cov(X, Y) =E(XY)−E(X)E(Y) = 0.

Les variablesX et Y sont donc non corrélées, mais ne sont pas indépendantes.

Proposition 1.41 : Indépendance et variance

Soit (X, Y) un couple de variables aléatoires discrètes indépendantes admettant une variance, alors V(X+Y) =V(X) +V(Y).

Démonstration. Comme les variables aléatoires X etY sont indépendantes, on a Cov(X, Y) = 0. On conclut alors avec

V(X+Y) =V(X) +V(Y) + 2 Cov(X, Y) =V(X) +V(Y).

2 Suites de variables aléatoires discrètes

2.1 Définitions 2.1.1 Généralités

Définition 2.1 : Vecteur aléatoire discret

On appelle vecteur aléatoire discret défini sur (Ω,A) toute application X: Ω → Rn

ω 7→ X(ω) = (X1(ω), X2(ω), . . . , Xn(ω))

X1 X2,. . .,Xnsont des variables aléatoires discrètes sur (Ω,A). On noteX= (X1, X2, . . . , Xn).

Définition 2.2 : Indépendance mutuelle de n variables aléatoires discrètes

On dit que les variables aléatoires discrètesX1 X2,. . .,Xn sont mutuellement indépendantes lorsque :

∀(x1, x2, . . . , xn)∈X1(Ω)×X2(Ω)× · · · ×Xn(Ω), P

n

\

i=1

[Xi=xi]

!

=

n

Y

i=1

P(Xi =xi).

Proposition 2.3 : Fonction de n variables aléatoires discrètes

Soit (X1, X2, . . . , Xn) un vecteur aléatoire discret etg une application deX1(Ω)×X2(Ω)× · · · ×Xn(Ω) dansR. La variable aléatoireZ =g(X1, X2, . . . , Xn) est alors également discrète.

12

(13)

Remarque 2.4 : Quelques exemples

En particulier, si (X1, X2, . . . , Xn) est un vecteur aléatoire discret, alors

n

X

i=1

Xi,

n

Y

i=1

Xi, max (X1, X2, . . . , Xn) et min (X1, X2, . . . , Xn) sont aussi des variables aléatoires discrètes.

Méthode 2.5 : Comment déterminer la loi du Max de nvariables aléatoires ?

Soient X1 X2, . . ., Xn n variables aléatoires discrètes dans N. Pour trouver la loi de S = Max (X1, X2, . . . , Xn), on utilise la fonction de répartition, après avoir justifié l’égalité sui- vante :

∀k∈S(Ω),[S ≤k] =

n

\

i=1

[Xik]

! .

On obtient alors la loi deS avec

∀k∈S(Ω),P(S=k) =P(S≤k)−P(S ≤k−1).

Exemple 16. Une urne contient n boules numérotées de 1 à n (n ≥ 2). On tire au hasard m boules (m≥1), avec remise après chaque tirage de la boule tirée. Pour i∈[[1, m]], on note Xi la variable aléatoire égale au numéro de la ieme boule. On pose S = Max (X1, X2, . . . , Xm), ce qui signifie que ∀ω ∈Ω, S(ω) =

Max (X1(ω), X2(ω), . . . , Xm(ω)). Donner la loi de S.

Méthode 2.6 : Comment déterminer la loi du Min den variables aléatoires ?

Soient X1 X2, . . ., Xn n variables aléatoires discrètes dans N. Pour trouver la loi de I = Min (X1, X2, . . . , Xn), on utilise la fonction de répartition de manière différente que dans le cas Max (X1, X2, . . . , Xn), après avoir justifié l’égalité suivante :

∀k∈I(Ω),[I > k] =

n

\

i=1

[Xi > k]

! .

On obtient alors la loi deI avec

∀k∈I(Ω),P(I =k) =P(I ≤k)−P(I ≤k−1) =P(I > k−1)−P(I > k).

Exemple 17. Une urne contient n boules numérotées de 1 à n (n ≥ 2). On tire au hasard m boules (m≥1), avec remise après chaque tirage de la boule tirée. Pour i∈[[1, m]], on note Xi la variable aléatoire égale au numéro de la ieme boule. On pose I = Min (X1, X2, . . . , Xm), ce qui signifie que ∀ω ∈Ω, I(ω) =

Min (X1(ω), X2(ω), . . . , Xm(ω)). Donner la loi de I.

2.1.2 Indépendance mutuelle

Définition 2.7 : Suite de variables aléatoires discrètes indépendantes On dit qu’une suite de variables aléatoires (Xk)k∈

N est une suite de variables aléatoires mutuellement indépendantes si, pour toute partie I finie de N, les variables (Xk)k∈I sont mutuellement indépendantes.

(14)

Proposition 2.8 : Lemme des coalitions

Soient les variables aléatoires X1 X2, . . ., Xn sont mutuellement indépendantes,f :X1(Ω)×X2(Ω)×

· · · ×Xp(Ω)→R etg:Xp+1(Ω)×Xp+2(Ω)× · · · ×Xn(Ω)→R, alors

f(X1, X2, . . . , Xp) et g(Xp+1, Xp+2, . . . , Xn) sont indépendantes.

Toute variable aléatoire, fonction de p d’entre elles (p < n), est indépendante de toute variable aléatoire fonction desnp autres.

Exemple 18. On reprend l’exemple précédent. N’importe quelle variable aléatoire fonction des X1,...,Xp (p premiers tirages) est indépendante d’une fonction des Xp+1,..., Xn (np autres tirages).

2.2 Stabilité des lois binomiales et de Poisson par l’addition

2.2.1 Somme de variables de Bernoulli mutuellement indépendantes et de même paramètre Proposition 2.9 : V. a. binomiale comme somme de v.a. de Bernoulli i.i.d.

Une variable aléatoire binomiale peut toujours s’écrire comme somme de variables aléatoires de Bernoulli mutuellement indépendantes et de même paramètrep.

Remarque 2.10

Si les variables aléatoiresX1 X2,. . ., Xn sont mutuellement indépendantes et suivent toutes la loi de BernoulliB(p), alors

X1+X2+· · ·+Xn,→ B(n, p).

2.2.2 Stabilité de la loi de Poisson par l’addition

Propriété 2.11 : Stabilité de la loi de Poisson par l’addition

Si les variables aléatoiresX1X2,. . .,Xm sont mutuellement indépendantes et pouri∈[[1, m]],Xi ,→ P(λi) avec λi >0, alors

m

X

i=1

Xi,→ P

m

X

i=1

λi

! .

Démonstration. On démontre ce résultat par récurrence avec la propriété 1.22.

2.2.3 Stabilité de la loi binomiale par l’addition

Propriété 2.12 : Stabilité de la loi binomiale par l’addition

Si les variables aléatoires X1 X2, . . ., Xm sont mutuellement indépendantes et pour i ∈ [[1, m]], Xi ,→ B(ni, p), alors

m

X

i=1

Xi ,→ B m

X

i=1

ni

! , p

! .

Démonstration. On démontre ce résultat par récurrence avec la propriété 1.23.

Méthode 2.13 : Comment déterminer la loi de la somme den variables aléatoires ?

SoientX1 X2, . . ., Xn n variables aléatoires discrètes dansN. Pour trouver la loi deX1+X2+· · ·+Xn, il y a trois options :

• Si les variables sont mutuellement indépendantes et suivantes des lois binomiales de même second paramètre ou des lois de Poisson, on utilise les propositions précédentes.

• On se raccroche au cours en considérant une nouvelle variable aléatoire.

14

(15)

Méthode 2.13 :Comment déterminer la loi de la somme de nvariables aléatoires ?

Soient X1 X2, . . ., Xn nvariables aléatoires discrètes dansN. Pour trouver la loi de X1+X2+· · ·+Xn, il y a trois options :

• Si les variables sont mutuellement indépendantes et suivantes des lois binomiales de même second paramètre ou des lois de Poisson, on utilise les propositions précédentes.

• On se raccroche au cours en considérant une nouvelle variable aléatoire.

Exemple 19. On considère une suite (Xi)i∈

N de variables aléatoires indépendantes, dont la loi (commune) est donnée, pour tout i∈N, par :

P(Xi= 1) = 1

3 et P(Xi = 2) = 2 3. Pour tout n∈N, on pose : Sn=

n

X

i=1

Xi. Déterminer la loi de Sn.

2.3 Espérance et variance d’une somme

Propriété 2.14 : Linéarité de l’espérance

Si les variables aléatoiresX1 X2,. . .,Xn ont chacune une espérance, alors, on a : E

n

X

i=1

Xi

!

=

n

X

i=1

E(Xi).

Exemple 20. Si on reprend l’exemple précédent, on a pour i∈N,E(Xi) = 1 +2 3 = 5

3. Ainsi E(Sn) =E

n

X

i=1

Xi

!

=

n

X

i=1

E(Xi) = 5n 3 .

À noter que ce calcul est plus simple, que de repasser par la définition de l’espérance : E(Sn) =

2n

X

k=n

kP(Sn=k) =

2n

X

k=n

k n

kn

!2 3

k−n 1 3

2n−k

=

n

X

j=0

(n+j) n j

!2 3

j 1 3

n−j

, avec le changement d’indicej=kn

= n+

n

X

j=0

j n j

!2 3

j 1 3

n−j

, d’après la formule du binôme de Newton

= n+

n

X

j=1

n n−1 j−1

!2 3

j 1 3

n−j

= n+

n−1

X

i=0

n n−1 i

!2 3

i+1 1 3

n−1−i

, avec le changement d’indice i=j−1

= n+n2 3 = 5n

3

(16)

Proposition 2.15 : Indépendance mutuelle et variance

Soient les variables aléatoires X1 X2,. . .,Xn mutuellement indépendantes et admettant une variance, alors

V

n

X

i=1

Xi

!

=

n

X

i=1

V(Xi).

Exemple 21. Si on reprend l’exemple précédent, on a pour i∈N V (Xi) =V (Yi) = 2

3

1−2 3

= 2 9 De plus, comme les Xi sont indépendants, on a

V(Sn) =V

n

X

i=1

Xi

!

=

n

X

i=1

V (Xi) = 2n 9 .

16

Références

Documents relatifs

(Eva23) D'une urne contenant, des boules blanches en pro- portion p et des boules noires, on tire avec remise N boules et on marque x points par boule blanche et y points par

On lance à présent deux dés spéciaux : ce sont des dés cubiques parfaitement équilibrés dont les faces sont numérotées différemment des dés classiques.. • Les faces du

e) Noter les résultats obtenus dans la question précédente par 10 élèves de la classe. Calculer les moyennes de ces résultats. 2) En adaptant les méthodes précédentes, simuler

[r]

ISFA - L3 Actuariat lerouvillois@math.univ-lyon1.fr Probabilités math.univ-lyon1.fr/homes-www/lerouvillois/. Éléments de correction TD 3

On lance deux dés parfaits à 6 faces, l un rouge, l autre vert et on note les numéros obtenus.. On considère les deux événements

Dans la cellule I2 calculez, à l’aide de cette formule, la fréquence d’apparition du « 2 », puis en étirant jusqu’en I12 en déduire les fréquences d’apparition de toutes

Désignons une répartition des quatre personnes par un quadruplet dont le premier élément indique le café où se rend la personne A,.. le deuxième élément indique le café où