Université Paris Dauphine Année universitaire 2016-2017
Deuxième année du DE MI2E TD de MR. BEY
Probabilités multidimensionnelles et théorèmes limite Groupes 2 & 3
TD 10 : 02/03/2017
Correction suite Exos Vecteurs aléatoires
Solution Exercice 31
Soit V = (X, Y) un couple de variables aléatoires admettant pour densité f(x, y) =
k si |x|+|y|61
0 sinon
1. Déterminer k ainsi que les lois marginales de X et Y.
– Notons D={(x, y)∈R2 tel que −16x61 et −1 +|x|6y 61− |x|}.
f(x, y)est une fonction mesurable positive ssi k >0. De plus Z
R2
f(x, y)dxdy= Z
R2
k1Ddxdy = Z 1
0
Z 1−x
−1+x
kdy
dx+ Z 0
−1
Z 1+x
−1−x
kdy
dx
=k Z 1
0
(2−2x)dx+ Z 0
−1
(2 + 2x)dx
=k
2x− 2x2 2
1
0
+
2x+2x2 2
0
−1
!
= 2k.
Donc f(x, y) est une densité de probabilité ssi R
R2f(x, y)dxdy = 1, c-à-d k= 12. – Loi marginale de X
fX(x) = Z 1−x
−1+x
k1{0<x<1}dy+ Z 1+x
−1−x
1{−1<x<0}dy
=k (2−2x)1{0<x<1}+ (2 + 2x)1{−1<x<0}
= 1
2 (2−2x)1{0<x<1}+ (2 + 2x)1{−1<x<0}
= (1− |x|)1{−1<x<1}
– Loi marginale de Y fY(y) =
Z 1−y
−1+y
k1{0<y<1}dx+ Z 1+y
−1−y
k1{−1<y<0}dx= (1− |y|)1{−16y61}
2. Déterminer la covariance du couple (X, Y). Les variables aléatoires X et Y sont elles indépendantes ?
Par définition, nous avons cov(X, Y) =E(XY)−E(X)E(Y). Par un simple calcul intégrale, on obtient
E(X) = Z
R
xfX(x)dx= Z
R
x(1− |x|)1{−1<x<1}dx= 0, et E(Y) = 0.
E(XY) = Z
R2
xyf(x, y)dxdy =k Z
R2
xy 1Ddxdy
=k Z
R2
xy1[x−1,−x+1](y)1{1>x>0}dxdy+k Z
R2
xy1[−1−x,1+x](y) 1{−1<x<0} dxdy
=k Z
R
x1{−1<x<0}
Z 1−x
x−1
ydy
dx+k Z
R
x1{−1<x<0}
Z 1+x
−1−x
ydy
dx
=k Z
R
x1{−1<x<0}
Z 1−x
−(1−x)
y dy
dx+k Z
R
x1{−1<x<0}
Z 1+x
−(1+x)
y dy
dx= 0 Par suite, on montre que cov(X, Y) = 0. Attention la covariance nulle ne nous permet pas de conclure que X etY sont indépendantes. Par contre, on constate que fX(x).fY(y)6=fX,Y(x, y). Par conséquent X et Y ne sont indépendantes pas.
Solution Exercice 32
Soient X et Y deux variables aléatoires indépendantes de loi uniforme sur [0,1].
1. Déterminer la loi de T = min(X, Y) et celle de Z = max(X, Y).
La fonction de répartition de T :
FT(t) = P(T 6t) = P(min(X, Y)6t) =P((X6t)∪(Y 6t))
=P(X6t) +P(Y 6t)−P ((Y 6t)∩(Y 6t))
=P(X6t) +P(Y 6t)−(P(X 6t).P(Y 6t)) = 2t−t2 La densité de T :
fT(t) = (−2t+ 2) 1[0,1](t) La fonction de répartition de Z :
FZ(t) =P(Z 6t) = P(max(X, Y)6t) =P ((Y 6t)∩(Y 6t))
=P(X 6t).P(Y 6t) =t2 La densité de Z :
fZ(t) = 2t 1[0,1](t) 2. Les variables Z et T sont-elles indépendantes ?
L’espérance de T : E[T] =
Z
R
t fT(t)dt= Z
[0,1]
t (−2t+ 2) dt= 1 3
L’espérance de Z :
E[Z] = Z
R
t fZ(t)dt = Z
[0,1]
t (2t)dt = 2 3 L’espérance de (T Z) :
E[T Z] =E[min(X, Y).max(X, Y)] = E[XY]
= Z
R
Z
R
xy f(X,Y)(x, y)dxdy = Z
R
Z
R
xy fX(x)fY(y)dxdy
= Z 1
0
Z 1
0
xy dx dy = 1 2 × 1
2 = 1 4.
Il est clair queE[T Z]6=E[T]E[Z], donc les deux variables aléatoires T etZ ne sont pas indépendantes.
3. Déterminer la covariance du couple (Z, T).
cov(T, Z) = E[T Z]−E[T]E[Z] = 1 4− 1
3× 2 3 = 1
36. 4. Déterminer la loi du couple (Z, T).
On pourrait utiliser deux autres approches pour déterminer la loi du couple (T, Z).
Méthode 1.Comme sous la méthode de la fonction test. Soit g une fonction (bor- née) de deux variables. L’espérance E[g(T, Z)]est donnée par
E[g(T, Z)] = Z
R
Z
R
g(t, z)f(T,Z)(t, z)dtdz.
D’autre part, comme (T, Z) = (min(X, Y), max(X, Y))on peut écrire
E[g(T, Z)] = Z
R
Z
R
g(min(x, y), max(x, y))f(X,Y)(x, y)dxdy
= Z
R
Z
R
g(min(x, y), max(x, y))1x∈[0,1]1y∈[0,1]dxdy
= Z Z
{(x,y):x≤y}
g(min(x, y), max(x, y))1x∈[0,1]1y∈[0,1]dxdy +
Z Z
{(x,y):x>y}
g(min(x, y), max(x, y))1x∈[0,1]1y∈[0,1]dxdy
= Z
R
Z
R
g(x, y)10≤x≤y≤1dxdy+ Z
R
Z
R
g(y, x)10≤y≤x≤1dxdy
= Z
R
Z
R
g(x, y)10≤x≤y≤1dxdy+ Z
R
Z
R
g(x, y)10≤x≤y≤1dxdy
= 2 Z
R
Z
R
g(x, y)10≤x≤y≤1dxdy
= Z
R
Z
R
g(x, y)210≤x≤y≤1dxdy
= Z
R
Z
R
g(t, z)210≤t≤x≤1dtdz
en remplaçant les variables muettes x et y par t et z.
On en déduit que
f(T ,Z)(t, z) = 210≤t≤x≤1
Méthode 2.On peut utiliser la formule suivante (du Jacobien) adaptée au cas où la transformation ϕn’est pas inversible. Soit ϕest une applicaion deD⊂Rd vers D0 ⊂Rdtelle que
D=∪ki=1Di avecDi∩Dj =∅ pour1≤i6=j ≤k et
ϕi :Di −→D0
(la restriction de ϕsurDi) est inversible de classeC1(Di)ainsi que son inverseϕ−1i . Sous ces hypothèses, si V est un vecteur aléatoire de dimension d admettant une densité fv de supportD etW =ϕ(V), alors la densité de W est donnée par
fW(w) =
k
X
i=1
fv(ϕ−1i (w))× |Jϕ−1
i (w)|
!
1w∈D0 (1) Dans notre exemple, on a d = 2,
D = [0,1]×[0,1],
D1 ={(x, y)∈[0,1]×[0,1], x≤y}, D2 ={(x, y)∈[0,1]×[0,1], x > y}, D0 ={(x, y)∈[0,1]×[0,1], x≤y},
V = (X, Y)oùX etY sont i.i.d.U[0,1], et W = (min(X, Y), max(X, Y)) = (T, Z), ϕ: D 7−→D0
(x, y)7−→(min(x, y), max(x, y)),
ϕ1 : D1 7−→D0 (x, y)7−→(x, y) et
ϕ2 : D2 7−→D0 (x, y)7−→(y, x) avec
ϕ−11 : D0 7−→D1
(t, z)7−→(t, z)
et
ϕ−12 : D0 7−→D2 (t, z)7−→(z, t).
Comme Jϕ−1
1 (t, z) =
Jϕ−1
2 (t, z)
= 1, l’utilisation de l’expression (1) donne f(T ,Z)(t, z) = (f(X,Y)(t, z) +f(X,Y)(z, t))1(t,z)∈D0
c’est-à-dire
f(T ,Z)(t, z) = (10≤t≤1,0≤z≤1+10≤z≤1,0≤t≤1)10≤t≤z≤1
= 210≤t≤z≤1.