Probabilités
Chapitre 4 : Vecteurs gaussiens
Lucie Le Briquer 23 novembre 2017
1 Lois gaussiennes réelles
d= 1, loi de probabilité sur R.
• N(0,1): loi de e
−x2
√2
2π
• N(m, σ2): loi dem+σZ oùZ ∼ N(0,1) (par conventionN(m,0) =δm)
On a l’équivalence :
X ∼ N(m, σ2)⇔X =
loim+σZ avecZ ∼ N(0,1)
⇔φX(λ) =eiλme−σ
2λ2 2
⇔X ∼e−(x−m)2/2σ2 σ√
2π dx siσ6= 0
−4 −2 2 4 6 8
0.1 0.2 0.3 0.4 0.5
σ= 1
σ= 2
On retrouve des courbes centrées surmd’étalementσ. On aE[X] =m et Var(X) =σ2.
2 Gaussiennes en dimension d > 2
SoitX = (X1, ..., Xd)v.a. dansRd. On dit que c’est un vecteur gaussien si toute combinaison linéaire (ou affine) desXi a une loi gaussienne sur R.
C’est-à-dire∀λ∈Rd,hλ|Xi=Pd
i=1λiXi∼ N(mλ, σ2λ)pour des certainsmλ etσλ. Définition 1(vecteur gaussien)
Remarque.C’est équivalent de demander linéaire ou affine.
NRd(0Rd, Id)la loi de Z = (Z1, ..., Zd) oùZ1, ..., Zd v.a. indépendantes de loiN(0,1). On a :
Z∼ e−
x2 1
√ 2
2π...e−
x2 d
√ 2
2πdx1...dxd =e−kxk22
√2πn dx
|{z}
Lebesgue surRd
Définition 2
SoitX = (X1, ..., Xd)à valeurs dans(Rd,B(Rd)),m∈Rd, A∈Md×d(R),Σ =AAT. On a l’équivalence :
X =
loim+AZ avecZ ∼ N(0,1)
⇔φX( λ
∈Rd) =eihλ|mie−(λT)Σλ2
⇔X vecteur gaussien etE[X] =met ΓX = (Cov(Xi, Xj))16i,j6d= Σ
⇔X ∼e−((x.m)T)Σ−1x.m2 (2π)d2√
det Σ dx (siΣinversible) Propriété 1
SiX vérifie une de ces propriétés, on dit queX est un vecteur gaussien de loiN(m,Σ). Où mest son espérance etΣsa matrice de covariance.
Définition 3(vecteur gaussien)
Remarque.Σjoue le rôle deσ2. Preuve.(de la propriété)
1. Première équivalence :
En général. φm+AY(λ) =eihλ|miφ(ATλ) Raison.
E
îei<λ|m+AY >ó
=eihλ|miE[eiλAY] =ei<λ|m>
E[ei(ATλ)TY]
| {z }
φY(ATλ)
Si Z= (Z1, ..., Zd)∼ Nd(0, Id),
φZ(λ) =
indépφZ1(λ1)...φZd(λd)
=
Zi∼N(0,1)
e−
λ2 1 2 ...e−
λ2 d 2
=e−λT λ2 Donc,
φm+AZ(λ) =eihλ|mie−(ATλ)TATλ/2=eihλ|mie−λTΣλ2 D’où :
φX(λ) =eihλ|mie−λTΣλ2 ⇔ φX =φm+AZ ⇔
φinjectif X =
loim+AZ
2. ? ? : Il suffit de vérifier quem+AZa une loi de densité qui suit cette formule siAinversible.
E[φ(m+AZ)] =
transfert
Z
Rd
φ Ö
m+A Öx1
... xd
èè
dµZ(x1...xd)
| {z }
e−kxk2 2 2 (2π)
d 2
dx1...dxd
Effectuons le changement de variable affine (doncC1, inversible carAinversible) : Öy1
... yd
è
=m+A Öx1
... xd
è
On obtient :
E[φ(m+AZ)] = Z
Rd
ϕ(y)e−(y−m)TΣ−1y−m2 dy
(2π)d2 detA−1
| {z }
1 detA=√1
det Σ
x=A−1(y−m),kxk22=xTx= (y−m)T(A−1)TA−1(y−m) = (y−m)Σ−1(y−m). Ok.
3. (i⇒iii) Fait général.
• E[m+AY] =m+AE[Y]
• Γm+AY =AΓY(AT) En effet,
• (E[m+AY])i=E[mi+Pd
j=1AijYj] =mi+Pd
j=1AijE[Yj] = (m+AE[Y])i
•
(Γm+AY)ij =Cov((m+AY)i,(m+AY))
=
d
X
k=1 d
X
l=1
AikAjlCov(Yk, Yl)
=
d
X
k=1 d
X
l=1
Aik(ΓY)kl(AT)lj T
SiZ ∼ NRd(0, Id),E[Z] = 0,ΓZ =Id. SiX =
loim+AZ, alors∀λ∈Rd,hλ|Xi=
loihλ|m+
AZiqui est une combinaison affine de Zi, gaussienne car c’est une famille stable par application affine et convolution. DoncX vecteur gaussien etE[X] =m+AE[Z] =m, ΓX=AΓZ(AT) =AAT = Σ.
4. iii ⇒ ii : On veut la fonction caractéristique de X. Soit λ ∈ Rd, on sait que hλ|Xi ∼ N(mλ, σ2λ)et :
mλ=E[hλ|Xi] =E[
d
X
i=1
λiXi] =
d
X
i=1
λimi=hλ|mi
σ22=Var[
d
X
i=1
λiXi] =
d
X
i=1 d
X
j=1
λiλjCov(Xi, Xj)
| {z }
Σij
=λTΣλ
(X ∼ N(m,E)⇒ hλ|Xi ∼ N(hm|λi, λTΣλ)).
Alors :
φX(∈Rd)(λ) =E[eihλ|Xi] =φhλ|Xi(∈R)(1) =ei.1.mλe−1σ2λ12 =eihλ|mie−λTΣλ2
SoitX =
ÅX1∈Rp X2∈Rq ã
avec :
X∼ N
ÅÅm1∈Rp m2∈Rq ã
=
ÅΣ11 Σ12 Σ21 Σ22
ãã
avecΣ11∈Mp×p etΣ22∈Mq×q, etc. Alors : 1. X1∼ N(m1,Σ11)
2. X1 indépendante deX2 ⇔ Σ12= 0 Proposition 1(conséquences)
Preuve.
1. trivial,X1 vecteur gaussien etE[X1] =m1,ΓX1 = Σ11
2. • ⇒: s’ils sont indépendants alors les covariances entre coordonnées de X1 et X2 sont nulles
•
φ(X1,X2)( λ1
|{z}
∈Rp
, λ2
|{z}
∈Rq
) =ei(hλ1,m1i+hλ2,m2i)exp Å
−(λ1|λ2)
ÅΣ11 0 0 Σ22
ã Åλ1
λ2
ã
×1 2 ã
=...
=φX1(λ1)φX2(λ2)
Contre-exemple. Si X ∼ N(0,1)indépendante deZ∼ U {−1,+1}, posonsY =ZX.
• X et Y ne sont pas indépendants (car |Y| = |X| mais P(|X| < 1∩ |Y| > 1) = 0 et P(|X|>1)P(|Y|>1)>0car gaussienne a une densité>0).
• MaisX ∼ N(0,1),
P(Y ∈A) =P(X∈A∩(Z= 1)) +P(X ∈ −A∩Z=−1)
=1
2P(X∈A) +1
2P(X∈A)
=P(X∈A) DoncY ∼ N(0,1). Or :
Cov(X, Y) =E[XY]−E[X]E[Y]
| {z }
0
=E[ZX2] =E[Z]
| {z }
0
E[X2] = 0
Cela montre que Cov(X, Y) = 0 n’implique pas X indépendant de Y, et montre que les coor- données sont gaussiennes n’implique pas que c’est un vecteur gaussien.