• Aucun résultat trouvé

Chapitre 4 : Vecteurs gaussiens

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre 4 : Vecteurs gaussiens"

Copied!
5
0
0

Texte intégral

(1)

Probabilités

Chapitre 4 : Vecteurs gaussiens

Lucie Le Briquer 23 novembre 2017

1 Lois gaussiennes réelles

d= 1, loi de probabilité sur R.

• N(0,1): loi de e

−x2

2

• N(m, σ2): loi dem+σZ oùZ ∼ N(0,1) (par conventionN(m,0) =δm)

On a l’équivalence :

X ∼ N(m, σ2)⇔X =

loim+σZ avecZ ∼ N(0,1)

⇔φX(λ) =eiλmeσ

2λ2 2

⇔X ∼e−(x−m)2/2σ2 σ√

2π dx siσ6= 0

−4 −2 2 4 6 8

0.1 0.2 0.3 0.4 0.5

σ= 1

σ= 2

On retrouve des courbes centrées surmd’étalementσ. On aE[X] =m et Var(X) =σ2.

(2)

2 Gaussiennes en dimension d > 2

SoitX = (X1, ..., Xd)v.a. dansRd. On dit que c’est un vecteur gaussien si toute combinaison linéaire (ou affine) desXi a une loi gaussienne sur R.

C’est-à-dire∀λ∈Rd,hλ|Xi=Pd

i=1λiXi∼ N(mλ, σ2λ)pour des certainsmλ etσλ. Définition 1(vecteur gaussien)

Remarque.C’est équivalent de demander linéaire ou affine.

NRd(0Rd, Id)la loi de Z = (Z1, ..., Zd) oùZ1, ..., Zd v.a. indépendantes de loiN(0,1). On a :

Z∼ e

x2 1

2

2π...e

x2 d

2

2πdx1...dxd =e−kxk22

√2πn dx

|{z}

Lebesgue surRd

Définition 2

SoitX = (X1, ..., Xd)à valeurs dans(Rd,B(Rd)),m∈Rd, A∈Md×d(R),Σ =AAT. On a l’équivalence :

X =

loim+AZ avecZ ∼ N(0,1)

⇔φX( λ

∈Rd) =eihλ|mie−(λTλ2

⇔X vecteur gaussien etE[X] =met ΓX = (Cov(Xi, Xj))16i,j6d= Σ

⇔X ∼e−((x.m)T−1x.m2 (2π)d2

det Σ dx (siΣinversible) Propriété 1

SiX vérifie une de ces propriétés, on dit queX est un vecteur gaussien de loiN(m,Σ). Où mest son espérance etΣsa matrice de covariance.

Définition 3(vecteur gaussien)

Remarque.Σjoue le rôle deσ2. Preuve.(de la propriété)

1. Première équivalence :

En général. φm+AY(λ) =eihλ|miφ(ATλ) Raison.

E

îei<λ|m+AY >ó

=eihλ|miE[eiλAY] =ei<λ|m>

E[ei(ATλ)TY]

| {z }

φY(ATλ)

(3)

Si Z= (Z1, ..., Zd)∼ Nd(0, Id),

φZ(λ) =

indépφZ11)...φZdd)

=

Zi∼N(0,1)

e

λ2 1 2 ...e

λ2 d 2

=eλT λ2 Donc,

φm+AZ(λ) =eihλ|mie−(ATλ)TATλ/2=eihλ|mie−λTΣλ2 D’où :

φX(λ) =eihλ|mie−λTΣλ2 ⇔ φXm+AZ

φinjectif X =

loim+AZ

2. ? ? : Il suffit de vérifier quem+AZa une loi de densité qui suit cette formule siAinversible.

E[φ(m+AZ)] =

transfert

Z

Rd

φ Ö

m+A Öx1

... xd

èè

Z(x1...xd)

| {z }

ekxk2 2 2 (2π)

d 2

dx1...dxd

Effectuons le changement de variable affine (doncC1, inversible carAinversible) : Öy1

... yd

è

=m+A Öx1

... xd

è

On obtient :

E[φ(m+AZ)] = Z

Rd

ϕ(y)e−(y−m)TΣ−1y−m2 dy

(2π)d2 detA−1

| {z }

1 detA=1

det Σ

x=A−1(y−m),kxk22=xTx= (y−m)T(A−1)TA−1(y−m) = (y−m)Σ−1(y−m). Ok.

3. (i⇒iii) Fait général.

• E[m+AY] =m+AE[Y]

• Γm+AY =AΓY(AT) En effet,

• (E[m+AY])i=E[mi+Pd

j=1AijYj] =mi+Pd

j=1AijE[Yj] = (m+AE[Y])i

m+AY)ij =Cov((m+AY)i,(m+AY))

=

d

X

k=1 d

X

l=1

AikAjlCov(Yk, Yl)

=

d

X

k=1 d

X

l=1

AikY)kl(AT)lj T

(4)

SiZ ∼ NRd(0, Id),E[Z] = 0,ΓZ =Id. SiX =

loim+AZ, alors∀λ∈Rd,hλ|Xi=

loihλ|m+

AZiqui est une combinaison affine de Zi, gaussienne car c’est une famille stable par application affine et convolution. DoncX vecteur gaussien etE[X] =m+AE[Z] =m, ΓX=AΓZ(AT) =AAT = Σ.

4. iii ⇒ ii : On veut la fonction caractéristique de X. Soit λ ∈ Rd, on sait que hλ|Xi ∼ N(mλ, σ2λ)et :

mλ=E[hλ|Xi] =E[

d

X

i=1

λiXi] =

d

X

i=1

λimi=hλ|mi

σ22=Var[

d

X

i=1

λiXi] =

d

X

i=1 d

X

j=1

λiλjCov(Xi, Xj)

| {z }

Σij

TΣλ

(X ∼ N(m,E)⇒ hλ|Xi ∼ N(hm|λi, λTΣλ)).

Alors :

φX(∈Rd)(λ) =E[eihλ|Xi] =φhλ|Xi(∈R)(1) =ei.1.mλe−1σ2λ12 =eihλ|mie−λTΣλ2

SoitX =

ÅX1∈Rp X2∈Rq ã

avec :

X∼ N

ÅÅm1∈Rp m2∈Rq ã

=

ÅΣ11 Σ12 Σ21 Σ22

ãã

avecΣ11∈Mp×p etΣ22∈Mq×q, etc. Alors : 1. X1∼ N(m111)

2. X1 indépendante deX2 ⇔ Σ12= 0 Proposition 1(conséquences)

Preuve.

1. trivial,X1 vecteur gaussien etE[X1] =m1X1 = Σ11

2. • ⇒: s’ils sont indépendants alors les covariances entre coordonnées de X1 et X2 sont nulles

φ(X1,X2)( λ1

|{z}

Rp

, λ2

|{z}

Rq

) =ei(hλ1,m1i+hλ2,m2i)exp Å

−(λ12)

ÅΣ11 0 0 Σ22

ã Åλ1

λ2

ã

×1 2 ã

=...

X11X22)

(5)

Contre-exemple. Si X ∼ N(0,1)indépendante deZ∼ U {−1,+1}, posonsY =ZX.

• X et Y ne sont pas indépendants (car |Y| = |X| mais P(|X| < 1∩ |Y| > 1) = 0 et P(|X|>1)P(|Y|>1)>0car gaussienne a une densité>0).

• MaisX ∼ N(0,1),

P(Y ∈A) =P(X∈A∩(Z= 1)) +P(X ∈ −A∩Z=−1)

=1

2P(X∈A) +1

2P(X∈A)

=P(X∈A) DoncY ∼ N(0,1). Or :

Cov(X, Y) =E[XY]−E[X]E[Y]

| {z }

0

=E[ZX2] =E[Z]

| {z }

0

E[X2] = 0

Cela montre que Cov(X, Y) = 0 n’implique pas X indépendant de Y, et montre que les coor- données sont gaussiennes n’implique pas que c’est un vecteur gaussien.

Références

Documents relatifs

[r]

[r]

[r]

Un exemple : Pour tester sa théorie génétique, Mendel croisa des pois tous jaunes et lisses et obtint à la première génération des pois jaunes ou verts et lisses ou ridés.

PROPOSITION 1. Les éléments de S,~ correspondent à ceux des vecteurs propres de cet opérateur qui sont des tenseurs purs, c’est-à-dire de la forme Adopter ce

cace pour l’étude de certains processus gaussiens : il a notamment permis l’étude des propriétés locales et asymptotiques d’un processus fondamen- tal en

L’objectif de l’enseignement de la géométrie plane est de rendre les élèves capables d’étudier un problème dont la résolution repose sur des calculs de distance,

On utilise souvent les faits suivants dans les manipulations d’esp´ erances conditionnelles (Proposition 4.8.17) :. (1) Soit Y