• Aucun résultat trouvé

Variables al´ eatoires ind´ ependantes

Dans le document Probabilit´es et statistique pour le CAPES (Page 68-74)

4.4 Vecteurs al´ eatoires discrets

4.4.3 Variables al´ eatoires ind´ ependantes

Soit (Ω,A,P) un espace probabilis´e. Toutes les variables al´eatoires et tous les vecteurs al´eatoires que l’on consid`ere sont d´efinis sur Ω.

D´efinition.

— Soit (X, Y) un couple de variables al´eatoires discr`etes. On dit que les variables al´eatoires X etY sontind´ependantes, si pour tout sous-ensembleAde E et tout sous-ensemble B de F, tels que{X ∈A} ∈ Aet{Y ∈B} ∈ A :

P({X∈A} ∩ {Y ∈B}) =P({X∈A})P({Y ∈B}).

— SoitX= (X1,· · ·, Xn) un vecteur al´eatoire discret. On dit que (X1,· · · , Xn) est un n-uplet de variables al´eatoires ind´ependantes, ou unvecteur al´eatoire ind´ependant si, pour tout sous-ensemble (A1,· · · , An) de E1 × · · · ×En tel que pour tout i ∈ {1,· · ·, n}, {Xi∈Ai} ∈ A :

P({X1 ∈A1} ∩ · · · ∩ {Xn∈An}) =P({X1∈A1})· · ·P({Xn∈An}).

Proposition 4.10. Soit (X, Y) un couple de variables al´eatoires discr`etes. Les assertions sui-vantes sont ´equivalentes.

1. Les variables al´eatoires X etY sont ind´ependantes.

2. ∀(x, y)∈E×F, P({X =x} ∩ {Y =y}) =P({X =x})P({Y =y}).

3. ∀(x, y)∈E×F, P({X =x})>0 ⇒P{X=x}({Y =y}) =P({Y =y}).

4. ∀(x, y)∈E×F, P({Y =y})>0 ⇒P{Y=y}({X=x}) =P({X=x}).

5. Pour toutes fonctionsf etg, respectivement d´efinies surE etF, telles quef(X) etg(Y) soient int´egrables et telles que le produit f(X)g(Y) est int´egrable, et on a :

E[f(X)g(Y)] =E[f(X)]E[g(Y)].

Soit (X1,· · · , Xn) un vecteur al´eatoire discret. Les assertions suivantes sont ´equivalentes.

1. (X1,· · · , Xn) est un n-uplet de variables al´eatoires ind´ependantes.

2. ∀(x1,· · · , xn)∈E1× · · · ×En,

P({X1=x1} ∩ · · · ∩ {Xn=xn}) =P({X1=x1})· · ·P({Xn=xn}).

3. Pour toutes fonctions f1,· · · , fn respectivement d´efinies sur E1,· · · , En, telles que

f1(X1),· · ·, fn(Xn)soient int´egrables et telles que le produitf1(X1)· · ·fn(Xn)est int´egrable, et on a :

E[f1(X1)· · ·fn(Xn)] =E[f1(X1)]· · ·E[fn(Xn)].

Remarque 4.1. On d´eduit de la Proposition 4.10 le fait suivant : si les variables al´eatoires X etY sont ind´ependantes, alors pour toutes fonctions f etgsuffisament r´eguli`eres, les variables al´eatoiresf(X) et g(Y) sont aussi ind´ependantes.

Exemple 4.11. Etudions l’ind´´ ependance des variables al´eatoires X et Y de l’exemple. Les variables al´eatoiresX etY sont ind´ependantes, si et seulement si :

P({X= 1} ∩ {Y = 1}) =P(X = 1)P(Y = 1), et P({X = 1} ∩ {Y =−1}) =P(X = 1)P(Y =−1), et P({X =−1} ∩ {Y = 1}) =P(X =−1)P(Y = 1), et P({X=−1} ∩ {Y =−1}) =P(X =−1)P(Y =−1),

⇔ 1

2 −p= 1

4 etp= 1

4 ⇔p= 1 4.

Proposition 4.11.

— Soient X et Y deux variables al´eatoires discr`etes de carr´e int´egrable. Alors, si X et Y sont ind´ependantes,

1. E(XY) =E(X)E(Y), 2. Cov(X, Y) = 0,

3. Var(X+Y) = Var(X) + Var(Y).

— Soit (X1,· · · , Xn) un n-uplet de variables al´eatoires discr`etes de carr´e int´egrable et ind´ependantes, alors :

1. E(

n

Q

i=1

Xi) =

n

Q

i=1

E(Xi),

2. ∀(i, j)∈ {1,· · ·, n}2, i6=j,Cov(Xi, Xj) = 0. Autrement dit, la matrice de covariance est diagonale.

3. Var(

n

P

i=1

Xi) =

n

P

i=1

Var(Xi).

D´emonstration. Montrons la proposition dans le cas des couples de variables al´eatoires. D’apr`es le th´eor`eme de transfert,

E(XY) = X

(x,y)∈E×F

xyP({X=x} ∩ {Y =y})

= X

(x,y)∈E×F

xyP(X =x)P(Y =y), (par ind´ependance)

= X

x∈E

xP(X=x)X

y∈F

yP(Y =y)

=E(X)E(Y).

Ainsi, siX etY sont ind´ependantes,

Cov(X, Y) =E(XY)−E(X)E(Y) = 0, et

Var(X+Y) = Var(X) + Var(Y) + 2 Cov(X, Y) = Var(X) + Var(Y).

Exemple 4.12. Recalculons la variance d’une variable al´eatoire qui suit une loi binomiale de param`etresnetp. AlorsX a mˆeme loi que

n

P

k=1

Xk, o`u les (Xk)nk=1 sont des variables al´eatoires ind´ependantes de Bernoulli de param`etre p. Ainsi, par la Proposition 4.11 :

Var(X) =

n

X

k=1

Var(Xk) =np(1−p).

Remarque. Attention, si Cov(X, Y) = 0, cela n’implique pas que les variables al´eatoires X et Y sont ind´ependantes. Par exemple, consid´erons le couple Z = (X, Y) de loi uniforme sur {(1,0),(−1,0),(0,1),(0,−1)}. D’apr`es la Proposition 4.7, nous avons :

P(X= 1) = 1

4, P(X=−1) = 1

4,P(X = 0) = 1 2, P(Y = 1) = 1

4, P(Y = 0) = 1

2, P(Y =−1) = 1 4.

Ainsi :

E(X) = 0, E(Y) = 0, E(XY) = 0, d’o`u Cov(X, Y) = 0.

Mais,X et Y ne sont pas ind´ependantes. En effet, P(X= 1, Y = 0) = 1

4 etP(X= 1)P(Y = 0) = 1 8, d’o`u P(X = 1, Y = 0)6=P(X= 1)P(Y = 0).

D´efinition. Soit (Xk)k≥1une suite de variables al´eatoires discr`etes. On dit que la suite (Xk)k≥1

est unesuite de variables al´eatoires discr`etes ind´ependantes, si pour tout entiern, (X1,· · ·, Xn) est unn-uplet de variables al´eatoires ind´ependantes.

Exercices

Exercice 4.11. SoientX etY deux variables al´eatoires ind´ependantes, `a valeurs dansN. 1. Calculer la loi deZ =X+Y.

2. Calculer la loi deT = min(X, Y).

Exercice 4.12.

1. Montrer que la loi de la somme de nvariables al´eatoires ind´ependantes de Bernoulli de param`etrep est une loi binomiale de param`etresn etp.

2. Montrer que la loi de la somme de n variables al´eatoires ind´ependantes de Poisson de param`etresλ1,· · ·, λn, respectivement est une loi de Poisson de param`etre

n

P

i=1

λi. 3. Montrer que la variable al´eatoire T = min(X, Y), o`u X et Y sont ind´ependantes de

mˆeme loi g´eom´etrique de param`etresp(p∈]0,1[), suit une loi g´eom´etrique de param`etre 1−(1−p)2.

Exercice 4.13. Soient X et Y deux variables al´eatoires ind´ependants de loi uniforme sur {1,· · ·, n}. Calculer P[X=Y].

Exercice 4.14. Soient X et Y deux variables al´eatoires ind´ependantes, de mˆeme loi de Ber-noulli de param`etre p, 0< p <1. On poseS =X+Y et D=XY.

1. D´eterminer la loi du couple (S, D).

2. En d´eduire les lois marginales de S etD.

3. Calculer de trois mani`eres diff´erentes E(S) et E(D).

4. Calculer Cov(S, D). Les variables al´eatoiresS etDsont-elles ind´ependantes ? Solutions

Solution 4.11.

1. La variable al´eatoire Z est `a valeurs dans N et la loi de Z est enti`erement d´etermin´ee par la donn´ee des nombres :

PZ({n}) =P(Z =n) =P(X+Y =n), n∈N.

Soit nun entier naturel. D’apr`es la formule des probabilit´es totales : P(Z =n) =

2. La variable al´eatoireT est `a valeurs dansNet la loi deT est enti`erement d´etermin´ee par la donn´ee des nombres :

PT({n}) =P(T =n) =P(min(X, Y) =n), n∈N. ind´ependantes de Bernoulli de param`etrepsuit une loi binomiale de param`etresnetp”.

Si X1 suit une loi de Bernoulli de param`etre p, alors X1 suit une loi binomiale de pa-ram`etres 1 etp et la propri´et´eP(1) est v´erifi´ee.

Supposons que pour un entier n∈N, la propri´et´e P(n) soit vraie. La variable al´eatoire Yn+1 =

et la propri´et´e P(n+ 1) est vraie. On a donc montr´e que la propri´et´e est vraie au rang initial et h´er´editaire. Du principe de raisonnement par r´ecurrence on en d´eduit que la propri´et´e P(n) est vraie pour toutn∈N.

2. Nous ne r´edigerons pas la r´ecurrence en d´etail cette fois-ci. La propri´et´e est clairement vraie au rang initial. Supposons qu’elle soit vraie pour un certainn, et soitYn+1 =

n+1

P

k=1

Xk

comme dans l’´enonc´e. Alors, Yn+1 est `a valeurs dans N et d’apr`es l’exercice pr´ec´edent, pour toutk∈N :

, d’apr`es la formule du binˆome de Newton,

et la propri´et´e est vraie au rang n+ 1.

3. `A faire `a la maison.

Solution 4.13. Nous avons : P[X=Y] =P[∪n caract´eris´ee par la donn´ee des nombres :

∀(x1, x2)∈E×F, PZ[{(x1, x2)}] =P[{S =x1} ∩ {D=x2}].

Calculons. Pour tout x2 ∈ {0,1},

PZ[{(0, x2)}] =P[{X+Y = 0} ∩ {XY =x2}],

=P[{X= 0} ∩ {Y = 0} ∩ {XY =x2}]

=

(P[{X= 0} ∩ {Y = 0}] = (1−p)2, six2= 0

P[∅] = 0, six2= 1

PZ[{(1, x2)}] =P[{X+Y = 1} ∩ {XY =x2}],

=P[{X= 0} ∩ {Y = 1} ∩ {XY =x2}] +P[{X= 1} ∩ {Y = 0} ∩ {XY =x2}]

=

(P[{X= 0} ∩ {Y = 1}] +P[{X= 1} ∩ {Y = 0}] = 2p(1−p), si x2 = 0

P[∅] = 0, si x2 = 1

PZ[{(2, x2)}] =P[{X+Y = 2} ∩ {XY =x2}],

=P[{X= 1} ∩ {Y = 1} ∩ {XY =x2}]

= (

P[∅] = 0, six2= 0

P[{X= 1} ∩ {Y = 1}] =p2, six2= 1.

2. D’apr`es la formule des probabilit´es totales, la loi marginale de la variable al´eatoire S est donn´ee par :

∀x1 ∈E, PS[x1] =P[{S =x1}] = X

x2∈F

PZ[{(x1, x2)}].

Ainsi, la loi marginale deS est :

PS[{0}] =PZ[{(0,0)}] +PZ[{(0,1)}] = (1−p)2 PS[{1}] =PZ[{(1,0)}] +PZ[{(1,1)}] = 2p(1−p) PS[{2}] =PZ[{(2,0)}] +PZ[{(2,1)}] =p2.

Remarquons queS´etant somme de deux variables al´eatoires de Bernoulli ind´ependantes, on sait d’apr`es l’exercice pr´ec´edent, qu’elle suit une loi binomiale de param`etres 2 et p.

De mani`ere analogue, la loi marginale de la variable al´eatoire D est donn´ee par :

PD[{1}] =

2

X

x1=0

PZ[{(x1,1)}] =p2 PD[{0}] = 1−PD[{1}] = 1−p2.

3. Les variables al´eatoiresS etDne prenant qu’un nombre fini de valeurs, elles admettent une esp´erance.

Premi`ere m´ethode. A la question pr´ec´edente, nous avons d´etermin´e les lois des variables al´eatoiresS etD. Ainsi, d’apr`es la d´efinition de l’esp´erance, nous avons :

E[S] = 0·PS[{0}] + 1·PS[{1}] + 2·PS[{2}]

= 2p(1−p) + 2p2= 2p.

E[D] = 0·PD[{0}] + 1·PD[{1}]

=p2.

Deuxi`eme m´ethode. D’apr`es la lin´earit´e de l’esp´erance,

E[S] =E[X+Y] =E[X] +E[Y] = 2p.

Les variables al´eatoires ´etant ind´ependantes :

E[D] =E[XY] =E[X]E[Y] =p2.

Troisi`eme m´ethode. D’apr`es le th´eor`eme de transfert appliqu´e au couple (X, Y), on a : E[X+Y] = X

(x,y)∈{0,1}2

(x+y)P[{X =x} ∩ {Y =y}]

= X

(x,y)∈{0,1}2

(x+y)P[{X =x}]P[{Y =y}], car X etY sont ind´ependantes

= 0(1−p)2+ 1[p(1−p) + (1−p)p] + 2.p2 = 2p E[XY] = X

(x,y)∈{0,1}2

(xy)P[{X =x}]P[{Y =y}]

= 0(1−p)2+ 0.2p(1−p) + 1.p2=p2. 4. Par d´efinition,

Cov(S, D) =E[SD]−E[S]E[D]

=E[(X+Y)XY]−2p3, d’apr`es la question 2

=E[X2Y] +E[Y2X]−2p3

=E[X2]E[Y] +E[Y2]E[X]−2p3, car X etY sont ind´ependantes

= 2p2−2p3= 2p2(1−p).

Pour que les variables al´eatoires soient ind´ependantes, il faut (mais il ne suffit pas) que Cov(S, D) = 0 ; il faut donc quep= 0 oup= 1. Or par hypoth`ese 0< p <1, les variables al´eatoiresS etD ne sont donc pas ind´ependantes.

Dans le document Probabilit´es et statistique pour le CAPES (Page 68-74)