• Aucun résultat trouvé

Les vecteurs gaussiens

exp

−x22

dx σ√

2π = 1 n’est pas évidente a priori. Nous l’admettrons.

- Le calcul de l’espérance et de la variance à partir de la densité se font par intégrations par parties.

- Un point très important est que la loi d’une variable gaussienne ne dépend que de son espérance et de sa variance.

- LorsqueX ∼ N(m, σ2)avecσ >0, la variable aléatoire X−m

σ est centrée réduite.

Voici quelques propriétés des variables aléatoires gaussiennes.

Proposition 3.1.2 Soitm∈R,σ≥0 et soit une variable aléatoire X∼ N(m, σ2).

(1) Pour tout λ∈C,

E(exp(λX)) = exp(λm+σ2λ2 2 ).

(2) Pour tout t∈R,

E(exp(itX)) = exp(itm−σ2λ2 2 ).

(3) Si X est centrée réduite, alors pour tout n≥1,

E(X2n−1) = 0, E(X2n) = (2n)!

2n(n!)2.

Théorème 3.1.3 (Combinaisons linéaires de v.a. gaussiennes indépendantes) SoientX1, . . . , Xn des v.a. gaussiennes d’espérances respectivesm1, . . . , mnet de variances respectivesσ21, . . . , σ2n. On

suppose ces v.a. indépendantes. Soienta1, . . . , an∈R.

Alors la v.a. a1X1+· · ·+anXn est gaussienne de moyenne et variance a1m1+· · ·+anmn , a21σ21+· · ·+a2nσ2n.

Exercice 3.1.1 1. Montrer le théorème précédent en utilisant la transformée de Fourier.

2. Trouver un contre-exemple dans le cas où lesXi ne sont pas indépendants.Indication : on pourra prendren= 2,X1de loi normale centrée réduite, etX2=−X1.

3.2 Les vecteurs gaussiens

3.2.1 Définition

Les v.a. gaussiennes apparaissent fréquement dans les modélisations de phénomènes aléatoires.

Il arrive que l’on ai à travailler avec une famille finie de v.a. (qui constituent donc un vecteur aléatoire) qui soient toutes gaussiennes et telles que leurs combinaisons linéaires soient aussi gaus-siennes. C’est ce qui nous amène à donner la définition suivante :

Définition 3.2.1 (Vecteur gaussien) SoitX = (X1, ..., Xn)un vecteur aléatoire à valeurs dans Rn. On dit que X est un vecteur gaussien si et seulement si pour tout(u1, ..., un)∈Rn,

< u, X >:=u1X1+...+unXn

est une variable aléatoire gaussienne.

Remarque : Si X est un vecteur gaussien, alors pour tout 0 ≤i ≤n, la variable aléatoire Xi

correspondant à la i-ème coordonnée deX est une variable aléatoire gaussienne. Mais, il faut bien faire attention au fait qu’inversement, pour qu’un vecteur soit gaussien, il ne suffit pas que chacune des coordonnées soit une variable gaussienne. Il faut et il suffit quetoute combinaison linéaire des coordonnéesdeX suive une loi normale.

Exercice 3.2.1 Soitr∈N, n1, . . . , nr∈N. Soient Y1, . . . , Yr des vecteurs aléatoires gaussiens indépendants à valeurs dans respectivementRn1, . . . ,Rnr.

Montrer que le vecteur aléatoire(Y1, . . . , Yr), à valeurs dansRn1+···+nr, est gaussien.

3.2.2 Loi d’un vecteur aléatoire

On rappelle la définition :

Définition 3.2.2 SoitX= (X1, ..., Xn)un vecteur aléatoire à valeurs dans Rn.On appelle loi de X la fonction

Q : P(Rn) → [0,1]

A 7→ P(X∈A)) On note souvent L(X)pour Q.

Exercice 3.2.2 SoientX, Y des vecteurs aléatoires à valeurs dansRn, de même loi, et soitf une fonction deRn versR.

Montrer quef(X)et f(Y)ont même loi.

Le résultat suivant est une sorte de réciproque de cet exercice :

Théorème 3.2.3 SoientX, Y des vecteurs aléatoires à valeurs dansRntels que pour toutv∈Rn, les v.a.< v, X >et< v, Y > ont même loi. AlorsX etY ont même loi.

Corollaire 3.2.4 (Transfo. de Fourier et loi des vecteurs aléatoires) SoientX, Y des vec-teurs aléatoires à valeurs dansRn tels que pour tout v∈Rn,

E(exp(i < v, X >)) =E(exp(i < v, Y >)).

AlorsX etY ont même loi.

3.2.3 Transformée de Fourier d’un vecteur gaussien

Le corollaire précédent montre l’interêt du calcul de la tr. de Fourier pour déterminer la loi d’un vecteur aléatoire.

Définition 3.2.5 SoitX = (X1, ..., Xn)un vecteur aléatoire à valeurs dansRndont toutes les co-ordonnées sont intégrables. On appelle espérance deX le vecteur deRnE(X) = (E(X1), . . . ,E(Xn)).

Rappelons la définition et la propriété principale de la matrice de covariance :

Définition 3.2.6 Supposons que X = (X1, ..., Xn) soit un vecteur aléatoire à valeurs dans Rn. On appelle matrice de covariancedeX la matrice carrée(n, n)notée

Cov(X) = Σ(X) = (Σi,j)1≤i≤n

1≤j≤n

telle que pour tout 1≤i, j≤n,

Σi,j = Cov(Xi, Xj).

Définition 3.2.7 Soit

A= (ai,j)1≤i≤n

1≤j≤n

une matrice symétrique. On appelle forme quadratique associée à A l’application qA, de Rn vers R, définie par

qA(x) =

n

X

i,j=1

ai,jxixj.

Remarque : Une matrice de covarianceΣest toujours symétrique et positive : ça signifie que la forme quadratique associéeqΣest une fonction positive surRn.

Proposition 3.2.8 SoitX = (X1, ..., Xn) soit un vecteur aléatoire à valeurs dans Rn, de carré intégrable, et de matrice de covariance A. Alors pour tout vecteur (non aléatoire) v ∈ Rn, la variance de la v.a. réelle < v, X >est qA(v), oùqA est la forme quadratique associée à A.

Théorème 3.2.9 (Transformée de Fourier d’un vecteur gaussien) Soit X = (X1, ..., Xn) un vecteur aléatoire gaussien à valeurs dansRn. On posem=E(X)∈Rn et A= Cov(X). Alors pour toutv∈Rn, on a :

E exp(i < v, X >)

= exp(i < v, m >−1 2qA(v)).

On avait défini un vecteur aléatoire gaussien en disant que c’était un vecteur aléatoire X = (X1, ..., Xn)tel que pour toutv∈Rn, il existemv∈R,σ2v≥0tels que la v.a.v1X1+· · ·+vnXn=<

v, X >a pour loiN(mv, σ2v). On sait maintenant exprimermv et σv2:

Corollaire 3.2.10 Pour tout v∈Rn, la loi dev1X1+· · ·+vnXn est la loi normale d’espérance v1E(X1) +· · ·+vnE(Xn)et de variance qA(v).

Corollaire 3.2.11 La loi d’un vecteur aléatoire gaussien est entièrement déterminée par son es-pérance et sa matrice de covariance.

Remarque : La loi d’un vecteur gaussien n’est pas déterminée par les lois de ses coordonnées : – soit N une v.a. de loiN(0,1), et soitY le vecteur aléatoire à valeurs dans Rn def. par

Y = (N, N, . . . , N

| {z }

nfois

)

– soientX1, . . . , Xn des v.a.i.i.d. de loiN(0,1)et soitZ le vecteur aléatoire à valeurs dansRn def. par

Z = (X1, X2, . . . , Xn)

La loi de toute coordonnée de Y ou deZ est N(0,1) alors que Y et Z n’ont pas la même loi ( exercice : le démontrer).

Ceci justifie la définition suivante :

Définition 3.2.12 - Soitm∈Rn et soitΣ∈ Mn(R)une matrice symétrique positive. On désigne parN(m,Σ)la loi d’un vecteur gaussien d’espérancem et de matrice de covarianceΣ.

- Supposons que loi(X) =N(m,Σ). Lorsquem = 0, on dit que X est centré. Lorsquem= 0 et Σ =Id, on dit queX est centré réduit.

3.2.4 Variables aléatoires gaussiennes indépendantes

Les variables aléatoires gaussiennes nous donnent des exemples de vecteurs gaussiens. Inverse-ment, le formalisme introduit plus haut permet d’avoir des résultats très simples sur l’indépendance de gaussiennes.

Nous énonçons une première proposition simple.

Proposition 3.2.13 Soient X1, ..., Xn des variables aléatoires gaussiennes indépendantes telles que

E(X1) =m1, ...,E(Xn) =mn et Var(X1) =σ12, ...,Var(Xn) =σn2.

Alors le vecteur aléatoire X = (X1, ..., Xn) est un vecteur gaussien d’espérancem= (m1, ..., mn) et de matrice de covariance la matrice diagonale

Σ = unvecteur gaussien, et sa matrice est diagonale car sii6=j, son entrée díndicei, jest la covariance deXi

etXj, qui est nulle par indépendnce deXi etXj.

On peut énoncer et démontrer la réciproque de cette proposition.

Proposition 3.2.14 Soient X1, ..., Xn n variables aléatoires telles que le vecteur aléatoire X = (X1, ..., Xn) soit un vecteur gaussien. Si la matrice de covariance de X est diagonale, alors les variablesX1, ..., Xn sont indépendantes.

Remarque : Il faut surtout noter que l’hypothèse de départ n’est pas seulement que toutes les v.a. sont des gaussiennes mais que toutes leurs combinaisons linéaires sont des gaussiennes, ce qui est beaucoup plus fort.

Preuve : Pour toutt= (t1, ..., tn)∈Rn, on note

φX(t) =E(exp(it.X)) =E(exp(it1X1+...+itnXn)).

Notons également pour tout1≤i≤net toutu∈R,

φXi(u) =E(exp(iuXi)).

Rappelons que pour que X1, ..., Xn soient indépendantes, il faut et il suffit que l’on ait pour tout t = (t1, ..., tn)∈Rn,

φX(t1, ..., tn) =φX1(t1)...φXn(tn).

On noteΣla matrice de covariance deX. Par hypothèse,Σest diagonale, ce qui s’écrit

Σ =

Posons par ailleurs m = (m1, ..., mn) = E(X). Comme X est supposé être un vecteur gaussien nous pouvons dire grâce à la proposition 3.2.9 que l’on a

E(exp(it.X)) = exp(it.m−1 2qΣ(t)).

Or,

qΣ(t) =σ12t21+...+σn2t2n, de sorte que

φX(t1, ..., tn) =E(exp(it.X)) = exp(it1m1+...+itnmn−σ21t21

2 −...−σ2nt2n 2 )

= exp(it1−σ12t21

2 )...exp(itn−σn2t2n

2 )

= φX1(t1)...φXn(tn)

où on a utilisé la proposition 3.1.2, (2). Par conséquent,X1, ..., Xnsont indépendantes.

Pour résumer les deux propositions précédentes, énonçons un théorème qui les englobe.

Théorème 3.2.15 SoientX1, ..., Xn nvariables aléatoires telles que le vecteurX = (X1, ..., Xn) soit gaussien d’espéranceE(X)et de matrice de covarianceΣ(X).

(1) Les variablesX1, ..., Xn sont indépendantes si et seulement si la matriceΣ(X)est diagonale.

(2) Les variablesX1, ..., Xn sont i.i.d. si et seulement si existent des réelsmetσ tels que E(X) = (m, ..., m) et Σ(X) =σ2Id.

Preuve : La partie (1) a déjà été démontrée. Pour (2), on suppose d’abord que les variablesX1, ..., Xn

sont i.i.d. D’après (1),Σ(X)est diagonale. Comme les variablesX1, ..., Xnont par ailleurs même loi, on a E(X1) =...=E(Xn) =m

et

Var(X1) =...= Var(Xn) =σ2 de sorte que

E(X) = (m, ..., m) et Σ(X) =σ2Id.

Si à présent, on suppose que

E(X) = (m, ..., m) et Σ(X) =σ2Id,

en particulier,Σ(X)est diagonale donc on sait d’après (1) que les variablesX1, ..., Xnsont indépendantes.

D’autre part, toutes les variables Xi sont gaussiennes de même espérance m et de même variance σ2. D’après la proposition 3.2.9, les variablesX1, ..., Xnont donc toute la même loiN(m, σ2).

Exercice 3.2.3 Soit

A= [ai,j]1≤i≤n

1≤j≤n

la matrice de covariance d’un vecteur aléatoire. Montrer, en utilisant l’inégalité de Cauchy-Schwartz, que

∀i, j,|ai,j| ≤√ ai,i

√aj,j. (3.1)

Exercice 3.2.4 SoitZune variable aléatoire réelle de loi normale centrée réduite. Soitσ1, . . . , σn >

0. On pose X11Z, X22Z,..., Xn = σnZ. Montrer que X = (X1, . . . , Xn) est gaussien, d’espérance nulle, et de matrice de covariance la matrice

A= [ai,j]1≤i≤n

1≤j≤n

avec pour touti, j,ai,jiσj.

Remarque : On remarque que pour l’exemple de l’exercice précédent, on a égalité dans l’inégalité (3.1). Ainsi, dans le cas où lesXisont proportionnels, qui correspond à une dépendance maximale, les entrées de la matrice de covariance sont maximales compte tenu de la contrainte de l’inégalité (3.1). A l’inverse, dans le cas où lesXi sont indépendants, la matrice de covariance est diagonale, i.e.ai,j= 0 dès quei6=j. Ainsi, quand X= (X1, . . . , Xn)est un vecteur gaussien, les rapports

|Cov(Xi, Xj)|

pVar(Xi) Var(Xj), (i6=j)

permettent dequantifier l’indépendance :plus ils sont élevés, moinsXi et Xj sont indépendants.

3.2.5 Image d’un vecteur gaussien par une application linéaire

A présent, nous allons énoncer un théorème qui nous dit ce que devient un vecteur gaussien lorsqu’on lui applique une application linéaire.

Proposition 3.2.16 Soit X = (X1, ..., Xn) un vecteur gaussien d’espérance m et de matrice de covariance Σ. Soit également A = (ai,j)1≤i≤m

1≤j≤n

∈ Mm,n(R). Soit Y le vecteur aléatoire de Rm défini par

Y =AX.

Alors, Y est un vecteur gaussien d’espérance Am et de matrice de covariance AΣAT, où AT désigne la transposée deA. On résume ceci sous la forme

loi(AX) =N(AE(X), AΣ(X)AT).

Documents relatifs