• Aucun résultat trouvé

Indépendance et espérance

Dans le document Chapitre 1 Dénombrer et sommer (Page 162-167)

Vecteurs aléatoires et indépendance Sauf mention explicite du contraire, toutes les variables aléatoires et tous les

5.2.3 Indépendance et espérance

Une propriété essentielle de l’indépendance des suites de variables aléatoires est que l’espérance d’un produit est égale au produit des espérances. La formulation précise, d’une portée encore plus générale, est la suivante.

Théorème 5.39. Pour i = 1, . . . , n, soient Xi : Ω → Rdi des vecteurs aléatoires in-dépendants et hi :RdiR, des fonctions boréliennes telles que les variables aléatoires réelles hi(Xi) soient intégrables. Alors la v.a. h1(X1). . . hn(Xn) est intégrable et

E h1(X1). . . hn(Xn) = n Y

i=1

Ehi(Xi). (5.33)

En particulier si pour touti,di = 1ethi est l’identité surR, on obtient l’interversion espérance produit.

Corollaire 5.40. Si X1, . . . , Xn sont des variables aléatoires réelles indépendantes et intégrables, leur produit X1. . . Xn est intégrable et

E(X1. . . Xn) = (EX1). . .(EXn). (5.34) Preuve. Par hérédité de l’indépendance, plus précisément par la version de la proposi-tion5.25où la suite de départX1, . . . , Xnest une famille hétéroclite de vecteurs aléatoires indépendants, le problème se réduit à la preuve de l’intégrabilité de Y =Y1. . . Yn et de l’égalité

E(Y1. . . Yn) = (EY1). . .(EYn), (5.35) pourtoute suite finie Y1, . . . , Yn (n ≥2) de v.a. intégrables et indépendantes.

Bien qu’il soit possible de traiter le cas n quelconque d’un coup, nous allons réduire le problème au cas n = 2, pour alléger les notations. Admettons donc pour un instant que nous ayons établi (5.35) dans le cas n = 2. On fait alors une récurrence finie sur 2 ≤ k < n en prenant pour hypothèse que (5.35) est vérifiée pour les produits de k

facteurs. Alors l’indépendance des Yi (1 ≤ i ≤ n) implique celle de (Y1, . . . , Yk) et de

Yk+1, par hérédité pour les blocs disjoints cf. corollaire 5.26 et remarque 5.23-1. Par l’hypothèse de récurrence,Y1. . . Yk est intégrable et commeYk+1 l’est aussi, leur produit l’est encore par le cas n= 2. On a donc

E Y1. . . YkYk+1 = E (Y1. . . Yk)Yk+1

= E(Y1. . . Yk)

EYk+1

par le cas n = 2

= (EY1). . .(EYk)(EYk+1) par l’hypothèse de récurrence. Ainsi la validité de (5.35) au rangk implique sa validité au rang k+ 1, ce qui achève la partie « hérédité » de notre récurrence finie.

Il nous reste maintenant à prouver que pour toutes v.a. réellesY1 etY2 indépendantes et intégrables,

Y1Y2 est intégrable et E(Y1Y2) = (EY1)(EY2). (5.36) Nous allons traiter successivement les cas suivants.

5.2. Indépendance de variables et vecteurs aléatoires

1. Yi =1Ai, i= 1,2 où les Ai ∈F sont des évènements ; 2. Y1 et Y2 variables aléatoires simples ;

3. Y1 et Y2 variables aléatoires positives ;

4. Y1 et Y2 variables aléatoires réelles intégrables.

Cas 1. Si Yi = 1Ai, pour un Ai ∈ F, les v.a. Yi et leur produit sont intégrables car bornées. L’indépendance des v.a. Y1 etY2 implique11 celle des évènements A1 etA2 car

Ai =

1Ai ∈ {1} . D’autre part, on vérifie facilement (faites-le) que

1A11A2 =1A1∩A2.

Grâce à la formule E(1A) = P(A) et à l’indépendance de A1 et A2, on en déduit

E(Y1Y2) = E 1A1∩A2

=P(A1∩A2) =P(A1)P(A2) =E 1A1E 1A2= (EY1)(EY2),

ce qui achève la vérification de (5.36) dans le cas des variables aléatoires indicatrices. Cas 2. Supposons maintenant que Y1 et Y2 sont deux variables aléatoires simples in-dépendantes. Elles sont alors bornées donc intégrables ainsi que leur produit. Notons

Y1(Ω) = {y1,1, . . . , y1,l}, les y1,j étant tous distincts et faisons de même pour Y2(Ω) = {y2,1, . . . , y2,m}. Alors on a les décompositions

Y1 = l X j=1 y1,j1A1,j, Y2 = m X k=1 y2,k1A2,k, avec A1,j = {Y1 = y1,j} ={Y1 ∈ {y1,j}} et A2,k ={Y2 = y2,k} = {Y2 ∈ {y2,k}}. On en déduit que pour 1≤ j ≤ l et 1 ≤ k ≤ m, les deux évènements A1,j et A2,k héritent de l’indépendance de Y1 et Y2. En utilisant la linéarité de l’espérance, cette indépendance d’évènements et le cas 1, on obtient :

E(Y1Y2) = E l X j=1 m X k=1 y1,jy2,k1A1,j1A2,k = l X j=1 m X k=1 y1,jy2,kE 1A1,j1A2,k = l X j=1 m X k=1 y1,jy2,kE 1A1,jE 1A2,k = l X j=1 y1,jE 1A1,j m X k=1 y2,kE 1A2,k = E l X j=1 y1,j1A1,j E m X k=1 y2,k1A2,k = EY1EY2.

Ainsi (5.36) est vérifiée dans le cas des variables aléatoires simples. 11En fait équivaut à . . .(exercice).

Cas 3. Soient Y1 et Y2 deux variables aléatoires positives indépendantes (on n’a pas besoin de les supposer intégrables ici). On sait (cf. théorème 4.19) que la v.a. positive

Yi est limite d’une suite croissante de v.a. positives simples : Yi,n ↑ Yi, i = 1,2. Plus précisément, on peut prendre (revoyez la preuve du théorème4.19 et vérifiez la formule proposée ci-après)

Yi,n =hn(Yi), hn :R+R+, x7−→min n,2n[2nx]

.

La fonction hn est croissante donc borélienne. La proposition 5.25 nous dit alors que pour chaque n, les v.a. Y1,n et Y2,n héritent de l’indépendance de Y1 et Y2. Comme ce sont des v.a. simples, le cas 2 nous donne :

∀n∈N, E Y1,nY2,n= EY1,n EY2,n. (5.37) En notant que Y1,nY2,n converge en croissant vers Y1Y2, un passage à la limite dans (5.37) et une triple application du théorème de Beppo Levi nous donnent E(Y1Y2) =

EY1EY2.

Cas 4. Si Y1 et Y2 sont deux variables aléatoires réelles indépendantes et intégrables, |Y1| et|Y2| sont des v.a. positives indépendantes et par le cas 3,

E|Y1Y2|=E(|Y1||Y2|) = (E|Y1|)(E|Y2|)<+∞,

ce qui établit l’intégrabilité deY1Y2. Cette intégrabilité implique aussi celle des produits de v.a. positivesY1+Y2+,Y1+Y2,Y1Y2+etY1Y2. D’autre part les facteurs de chacun de ces produits héritent leur indépendance de celle deY1 etY2, puisqueYi+ = max(Yi,0)et

Yi = max(−Yi,0). En utilisant le cas 3 on obtient alors (notez que toutes les espérances intervenant dans ce calcul sont finies) :

E(Y1Y2) = E (Y1+−Y1)(Y2+−Y2)

= E(Y1+Y2+)−E(Y1+Y2)−E(Y1Y2+) +E(Y1Y2) = EY1+EY2+−EY1+EY2−EY1EY2++EY1EY2

= EY1+−EY1 EY2+−EY2

= (EY1)(EY2),

ce qui achève la vérification de (5.36).

La preuve du théorème 5.39 est maintenant complète.

Comme sous-produit de la démonstration ci-dessus et notamment du cas 3, on a le résultat suivant.

Proposition 5.41. Le théorème 5.39 s’applique sans condition d’intégrabilité des Yi =

hi(Xi) si les fonctions boréliennes hi sont positives. Le corollaire 5.40 est vrai sans condition d’intégrabilité pour des variables aléatoires positives.

5.2. Indépendance de variables et vecteurs aléatoires

Une application importante du théorème 5.39 est que l’indépendance de deux v.a. implique la nullité de leur covariance (lorsqu’elle existe).

Proposition 5.42 (indépendance et covariance).

a) SiX etY sont des v.a. réelles de carré intégrable et indépendantes, leur covariance est nulle.

b) SiX1, . . . , Xnsont des v.a. réelles de carré intégrable et deux à deux indépendantes, en notant Sn:=Pnk=1Xk, on a VarSn= n X k=1 VarXk. (5.38)

Preuve. Le a) est une conséquence immédiate du corollaire 5.40 et de la formule de Koenig puisque Cov(X, Y) =E(XY)−(EX)(EY) = (EX)(EY)−(EX)(EY). On peut le voir aussi à partir de la définition de la covariance puisque X −EX et Y − EY

héritent de l’indépendance de X et Y et sont deux v.a. d’espérance nulle. Notons aussi que pour des v.a. indépendantes, on n’a pas besoin de supposer que X et Y soient de carré intégrable pour définir leur covariance, leur intégrabilité suffit.

Le b) est une conséquence immédiate du a) via la formule 5.7. Notons qu’il suffit d’avoir ici l’indépendance deux à deux qui est plus faible que l’indépendance mutuelle12.

Remarque 5.43. La nullité de la covariance de deux v.a. réellesX etY n’implique pas leur indépendance. Voici un contre exemple. Prenons X de loi uniforme sur [−1,+1] et

Y :=X2. On a alors en notant que X a pour densité 121[−1,1],

EX = 1 2 Z +1 −1 xdx= 0 et E(XY) =E(X3) = 1 2 Z +1 −1 x3dx= 0,

d’où Cov(X, Y) = E(XY)−(EX)(EY) = 0. Il est clair intuitivement que X et Y ne sont pas indépendantes puisqueY est une fonction déterministe deX. Pour vérifier cette non-indépendance par le calcul, on peut remarquer que d’une part

P X ∈[0,1/2]et Y ∈[0,1/4] = P X ∈[0,1/2] etX ∈[−1/2,1/2] = P X ∈[0,1/2]= 1 4 et d’autre part P X ∈[0,1/2])P Y ∈[0,1/4] = 1 4P X ∈[−1/2,1/2] = 1 8.

12En fait il suffit d’avoir la non-corrélation deux à deux, c’est-à-dire Cov(Xi, Xj) = 0pour i6=j, ce qui est encore plus faible.

Chapitre 6

Dans le document Chapitre 1 Dénombrer et sommer (Page 162-167)