• Aucun résultat trouvé

Sur les distributions statistiques à arguments matriciels

N/A
N/A
Protected

Academic year: 2021

Partager "Sur les distributions statistiques à arguments matriciels"

Copied!
107
0
0

Texte intégral

(1)

.+.

National Library

of Canada Bibliothèque nationaledu Canada

Canadian Theses Service Service des thèses canadiennes Ottawa,Canada

K1A ON4

NOTICE

AVIS

The quality of this microform is heavilydependent upon the quality of the original thesis submllled for microfilming. Every effort has been made to ensure the highest quality of reproduction possible.

Ifpages are missing, contact the universny which granted the degree.

Sorne pages may have indistinct print especially if the original pages were typed wnh a poor typewriter ribbon or if the university sent us an inferior photocopy.

Reproduction in full or in part of this microform is govemed by the Canadian Copyright Act, R.S.C. 1970, c. C-30, and subsequent amendments.

La qualité de celle microforme dépend grandement de la qualité de la thèse soumise au microfilmage. Nous avons tout fait pour assurer une qualM supérieure de reproduc· tion.

S'il manque des pages, veuillez communiquer avec l'université qui a conféré le grade.

La qualné d'impression de certaines pages peut laisserà désirer, surtout si les pages originales ont été dactylogra· phiéesàl'aide d'un ruban usé ou si l'universné nous a fait parvenir une photocopie de qualité in!érieure.

La reproduction, même partielle, de celle microforme est soumise àla Loi canadienne sur le droit d'auteur, SRC 1970, c. C-30, et ses amendements subséquents.

(2)

Sur les distributions statistiques

à

arguments

matriciels.

par

Bar-Hen Avner

thèse présentée à la faculté d'études supérieures et de recherche

dans le cadre de l'obtention du diplôme de Maîtrise de Science.

departement de mathématiques et de statistiques, Université Mc Gill,

Montréal.

i

M. Sc. Octobre, 1989

(3)

1+1

National library 01 Canada

Bibliothèque nationale du Canada

canadian Theses service service des thèses canadiennes Ottawa.Canada

KtA ON4

The author has granted an irrevocable non-exclusive-Iicence a1lowing the National Ubrary of Canada to reproduce,

Ioan,

dIstribute or sell copies of his/her thesis by any means and in any form or format, making this thesis available to interested persons.

The author retains ownership of the copyright in his/her thesis. Neither the thesis nor substantial extracts from it maybeprinted or otherwise reproduced without his/her per-mission.

L'auteur a accordé une licence irrévocable et non exclusive permettant

à

la Bibliothèque nationale du Canada de reproduire, prêter, distribuer ou vendre des copies de sa thèse de quelque manière et sous quelque forme que ce soit pour mettre des exemplaires de cette thèse à la disposition des personnes intéressées.

L'auteur conserve la propriété du droit d'auteur qui protège sa thèse. Nilathèse ni des extraits substantiels de celle-ci ne doivent être imprimés ou autrement reproduits sans son autorisation.

ISBN 0-315-63520-7

(4)

c

(

c

!teInercieInents

J'aimerais témoigner ma gratitude au professeur A.M. Mathai pour m'avoir permis, par ses conseils et son soutien financier, de mener cette thèseàbien. Je tiensàremercier D. Attonaty qui a vérifié la syntaxe et l'orthographe du texte.

j'exprime ma reconnaissanceàP. Gignere pour ses explications du logiciel

de traitement de texte. .

(5)

Résumé

Cette thèse est un exposé sur les distributions statistiques à argumentes) matriciel(s). Les fonctions dépendant d'une matrice et les distributions s'y rapportant sont d'abord étudiées. Puis les fonctions dépendant de plusieurs matrices et les distributions statistiques généralisées sont analysées. Ces résultats sont rassemblés, compilés, et présentés à travers les chapitres. Quelques petites simplifications et d'autres dérivations sont considérées à divers endroits.

Abstract

This is an expository thesis covering the area of matrix-variate statistical distributions. A survey of functions of one matrix argument and the allied one matrix-variate statistical distributions is carried out first. Then func· tions of several matrix arguments and generalized statistical distributions are surveyed. Recent contributions to hypergeometric functions of several matrix arguments are also examined. These results are collected, compiled, classified and presented in various chapters. Sorne minor simplifications and alternate derivations are also considered at various places.

(6)

(

(

Sommaire

1 Préliminaires. 1

l-A Liste des symboles. . . .. 1 l-B Introduction. . . .. 2 l-C Jacobien de quelques transformations. . . .. 2 2 La loi gamma à argument matriciel et les distributions s'y

rapportant. 6

2-A La loi gamma.. . . 6 2-B La distribution de Wishart. . . .. 8

2-C Les lois béta. 20

3 Loi de Dirichlet et distributions

à

argumentes) matriciel(s). 27 3-A Loi de Dirichlet~oi de Liouville. . . .. 27 3-B Sur le choix de la racine carrée. Application à la loi F. . . .. 42 3-C La loi

t. . . ..

48 4 Les fonctions hypergéométriques

à

argumentes) matriciel(s)

et leurs extensions. 52

4-A Les fonctions hypergéométriques à argumentes) matriciel(s).. 52 4-B Applications de la théorie des fonctions hypergéométriques à

argumentes) matriciel(s) à l'étude de quelques distributions.. 58 4-C Autres fonctions

à

arguments matriciels. . . .. 68

*

Appendice A: Dérivations de quelques distributions multi-dimensionnelles à partir des propriétés d'invariance. 75

c

*

Appendice B: Les polynômes zonaux.

*

Bibliographie.

iv

82 94

(7)

o

Chapitre 1

Préliminaires.

l-A

Liste des symboles.

A

=

A': La matriceA est symétrique définie positive.

fO<A<I: Intégrale sur l'ensemble des matrices A telles que

A= A'

>

0 et 1- A

>

O.

A

=

diag(al,. .. ,an): A

=

(ai;) matrice diagonale composée de al, ... ,an

A

~

Np(O,I): A

suit une loi normale de dimension p.

A

4

B: A

et

B

possèdent la même distribution. 1A1ou detAdésigne le déterminant de la matrice A.

etr(A): Exponentiel de la trace de A.

8upp(J): Support de

f.

~: Ensemble des nombres réels.

Les densités sont toujours considérées par rapport àla mesure de Lebesgue sur ~n

(8)

I-B

Introduction.

Introduite par Fisher et Wishart autour des années l!120-1930.la théorie des distributions statistiques à. argumentes) matriciel(s) a suscitée beaucoup de recherches et donc d'articles. Nous allons à. travers cette thèse faire un tour d'horizon de ces travaux.

Le chapitre 1 sera consacré aux préliminaires et en particulier à. l'étude de quelques Jacobiens.

Dans le chapitre 2 nous étudierons la loi gamma à. argument matriciel, la loi de Wishart et les lois béta à. argument matriciel. ainsi que leurs inter-connections.

Dans le chapitre 3 nous nous intéresserons à. la loi de Liouville et à. un cas particulier: La loi de Dirichlet. Nous étudierons le problème du choix de la racine carrée en appliquant ces résultats à. l'étude de la loi F à. argument matriciel. Puis nous nous intéresserons la loi

t

à. arguments matriciels.

Dans le chapitre4nous étudierons les fonctions hypergéometriques à. ar-gument(s) matriciel(s) ainsi que leurs applications. Nous étudierons ensuite les distributions dépendant de plusieurs matrices.

Les deux appendices nous permettrons de voir d'autres manières de dériver ces densités; Le premier à. l'aide des propriétés d'invariance. le deux-ième à. partir des polynômes zonaux.

l-C

Jacobien de quelques transformations.

Soit X un vecteur aléatoire de dimension m possédant une densité

J(x)

positive sur

S

C ~m. Si la transformation

y

=

y(x)

=

(Yl(X), •.. ,Ym(x»'

est 1:1 de SenT et telle que la transformation inversex = xCV)existe pour tout yET, et si les dérivées partielles ~ (i,j = 1, .... m) existent et sont continues sur

T

alors la densité du vecteur Y =

y(X)

vaut

g(y)

=

J(x(y»

1

J(x ... y)

1 yET

J(x ... y)

représente le Jacobien de la transformation de

x

en

y

et est

égalà.I~1aYj

Le calcul du déterminant de la matrice des dérivées partielles est souvent fastidieux. Nous allons donc considérer une approche équivalente utilisant les propriétés des différentielles (cf. [31]).

Considérons

1= hJ(Xl, ... ,Xm)dXl ... dXm

AC~m.

(1-C-1)

(9)

(1- C - 3)

(1-C-4)

o

o

Avecle changement de variable z,

=

Z'(Yh ••.,Ym) i

=

1, ... ,m ( l-C-l) devient

1= ( f(z(y»

d~~(~z,

)dY1 ••• dYm

lA'

VY;

(1- C - 2)

A'représente l'image de A.

La différentielle de la fonction z, = Z'(Yh"" Ym) vaut

{)z, {)z,

dz,= -()dY1

+... +-()

dYm i = 1, ... ,m.

Y1 Ym

Par simplicité nous allons considérer le cas m

=

2 mais la généralisation est directe. Remplaçons ( l-C-3) dans ( l-C-l)nous obtenons

1

{)Z1 {)Z1 {)Z2 ()Z2

1= f(z(y»( -()dY1

+-()

dY2)( -()dY1

+-()

dY2)'

A' Y1 Y2 111 Y2

TI suffit donc de trouver une manière de multiplier les deux différentielles de

( l-C-4)

de telle sorte que le résultat soit égalà det(~)dY1dY2'

Un calcul simple montre que nous devons avoir dY1dY2 = -dy2dY1 et donc en particulier dy,dy, = -dy,dYi = O. Nous appelerons ce produit produit extérieur et nous le noterons dy, AdYj.

Proposition 1-0.1 Si dyest un vecteur de différentielles de dimension m et si dz

=

BdyB est une matrice m x m régulière, alors

Preuve: ilest clair que nous avons

A~1dz,

=

p(B)A~1dy,

p(B) est un polynôme par rapport aux éléments de B. TI est facile de voir que:

1.

p(

B) est linéaire par rapport àchaque ligne de B .

2. Puisque l'échange de deux facteurs dz, , dz; change le signe deA~1dz" l'échange de deux lignes deB change le signe dep(B).

3. p(I)

= 1.

(10)

c

(

c

On reconnait dans ces trois remarques la définition de Weirstra.ss du déterminant d'oùp(B)

=

detB.

Avant de calculer explicitement quelques

J

a.cobiens nous allons établir quelques notations. Pour une matrice X, dX représente la matrice des différentielles (dZi,j).

TIest facile de vérifier que si X :n X m et

Y :

m Xp,alors

d(XY) = X.dY

+

dX.Y •

Si Sest une matrice m

x

m symétrique nous noterons le produit extérieur des ~m(m

+

1)éléments distincts de dX par (dX)

==

AlSiSjSmdzij.

Si X est une matrice triangulaire supérieure: dX

==

Ai<jdzij. Si X est une matricen Xm arbitraire, alors dX

==

A'J'':;' A~l dZij.

Proposition 1-0.2 si X = BY avec X,Y : n X m et B matrice n X n

régulière de constantes, alors

Preuve: En écrivant dX

=

(dzl, ... ,dzm) et dY

=

(dY1> ... ,dYm) nous avons dZj = BdYj et

dX - A'J'=l A~=ldZij

=

A'J'=l(detB)A~=ldYij (cf.prop. 1-C.1)

= (detB)mdY.

Proposition 1-0.3 Si X = BYC avec X,Y: n Xmi C :m Xm ,

B :

n

X

n,

detB

'f

0, detC

'f

0, alors

dX = (detB)m(detC)"dY.

Preuve: Posons Z = BY, d'où X = ZC donc

dX = (detC)ndZ et dZ = (detB)mdY.

Proposition 1-0.4 Si X

=

BYB' avec X,Y :m X m, symétrique et

B:m Xm,detB

'f

0, alors

(11)

o

o

Preuve: Nous avons dX

==

BdYB'

=

p(B)dY où p(B) est un polynôme

par rapport aux éléments de B. En notant que pour tout Bio B2 nous avons

p(BIB 2)dY

==

BIB2dY(BIB2)'= B I B2dYB~~= p(BI)p(B2)dY

nous en déduisons que p(BIB2) =p(BI)P(B2)' Le seul polynôme par ra.p-port aux éléments d'une matrice possédant cette propriété est une puissance entière du déterminant de la matrice d'où p(B)

=

(det B)k ,k entier. En considérant B = diag(b, 1, ..• ,1) nous obtenons

b2Yn bYml

bYI2 Y22 ... Ym2

BYB'=

bYIm Y2m .•. Ymm

Proposition 1-C.5 Si X = y-I avec y : m X m, synlétrique, alors

dX = (dety)-(m+l)dY.

Preuve: Puisque XY =1 nous avons dY.X

+

y dX = 0, d'où

dY

=

-YdXX-1

=

_X-IdXX-I .

Proposition 1-C.a Si A est une matrice m x m ,définie positive et A =

T'T,

T

est une matrice triangulaire supérieure avec les éléments diago-naux positifs, alors

m

dA= 2m IIt~+l-id7'

..

. i=l

Preuve:

au

=

t~1 d'où dan

=

2tu dtn

aI2

=

tutu â'où daI2

=

tn dtu

+...

alm

=

tUtIm d'où daIm

=

tUdtIm

+...

a22

=

ti2

+

t~2 d'où da22

=

2t22dt22

+...

amm = ~m

+... +

t;'m d'où damm = 2tmmdtmm

+...

et en prenant le produit extérieur nous obtenons:

. dA= 2tnt

n-

I •.• tmm Al';;j dtij.

(12)

(2-A-1)

(

Chapitre 2

La loi gamma

à

argument

matriciel et les distributions

s'y rapportant.

2-A

La loi gamma.

Définition 2-A.l

:(cf.[3Jp.ex.)

Soit

S

une matrice

pxp,

réelle, symétrique.

S

suit une loi gamma centraleà argument matriciel, notée

r

p(

a, C)

si sa fonction de répartition est de la forme

{

etr(-C-'Sldet(Sla-"'!l S 2:=!

F(S) = det{Cjar.{a) pour

>

O,a

>

2

o

sinon

C représente une matrice p

x

p, réelle, définie positive et

aE::!l p i-1

r p(a)=lI" •

I I r ( a - - )

i=1 2 (cf.

[54]

p.ex.).

(2 - A- 2)

c

Remarques:

1. En posantR

=C-!SC-!'

nous avonsdR

=

det(C)-"i'!dS et

{

det(R)"-"'!letr<-RIdR R 0 2:=!

dF(R)

=

t.la)

pour

>,

a

>

2

o

sinon

(2-A-3)

c. à d.

rp(a,I),

appelée forme canonique de la distribution

r p.

(13)

2. En posant

R

=

TT'

avec

T

= (tij) matrice triangulaire inférieure positive, nous avons

dR

= 2Pm=ltfr-i

dT,

de plus det

R

= m=lt~i

et

tr(TT')

= t~l

+

(t~l

+

t~2)

+... +

(t~l

+... +

t~) p i =

~~t~j

i=lj=l d'où (2-A-4) Donc les tij sont distribués selon une loi normale et les t~i selon une loi gamma. De plus lestij :i,j = 1, . ..,psont indépendants.

Proposition 2-A.l La fonction caractéristique de la distribution r p(a,C)

est définie par l'expression

\li(T)

= det(Ip -

iTc)-a

avecT=(r/ijtij),"1ii= 1et "1ij= ~ pouri!'jj. i,j = 1, ...,p.

Preuve:

(2- A - 5)

O

~···

\li.(T)

=

E(etr(iTS»

=

det(C)~rp(a)

k>o

etr[-(C-

1-

iT)S]det(S)a-"t!dS.

En faisant la transformation

R

=

(C-

1 _

iT)tS(C-

1 -

iT)t'

nous obtenons

dR

=1

C-

1-

iT

l''t!

dS

et le résultat est immédiat.

Corollaire: Soit SI ~r p(al'C) et S2 ~r p(0<2,C) indépendantes. Alors la matrice SI

+

S2 ~ r p(O<l

+

0<2,C).

Preuve:

det(I

p -

iTc)-a:

X

det(I

p -

iTc)-a,

=

det(I

p -

iTc)-(a:

+a,).

Proposition 2-A.2 La distribution r p(0<,C) a une loi de urobabilité con-stante sur la sphère passant par S et de centreIp dans l'espace des matrices

réelles, definies positives.

(14)

c

Preuve: En faisant la transformation

S

-+

H SH', H

E

O(p),

le groupe orthogonal et en remarquant que pourqE

!R,

detHq= l, nous avons

dF(HSH')

=

dF(S).

Proposition 2-A.3 Si

S

est une matrice

pxp,

réelle, symétrique distribuée selon une

r

p(

a,

I

p ),alors les valeurs propres et les vecteurs propres de

S

sont

indépendants. De plus la distribution des vecteurs propres correspond àla distribution uniforme sur le groupe orthogonal O(p).

Preuve:

S>

0 et

S

symétrique

=>

3H

E

O(p)

telle que

S

=

HDH'

et

D

matrice diagonale telle que À1

>

À2

> ... >

Àp

>

0 sauf sur un ensemble de

mesure nulle. Cette décomposition est unique et nous avons:

p p 1 p

dS

=

II<Ài -

Àj)

II

dÀ~2

II

hjdhi

i<i i=1 Pi<j

avec H = (hl, ... , hp ) et ( 2-A-3) devient

l

etr(-D)det(D).-"t!m<i(>,,->'j)

II~

dÀ'

m .

h'·dh·

F(S)

= 0 2.r.(a) .=1 • '<3 J •

pourH E

O(p)

sinon.

(2 - A - 6) Le terme

dH

est la forme différentielle correspondant à la mesure invariante sur le groupe O(p)et nous avons:

2-B

La distribution de Wishart.

(2 - B -1)

sinon.

pourS>Oetn;:::p

Définition 2-B.1 Soit S une matricep Xp, symétrique, réelle. S snit une

loi de Wishart centrale, notée

Wp(E,

n)

si S ~

r

p(

a,C) avec a

=

!n

et E = 2C. ( 2-A-1) devient donc

{

det(S)!<.-.-1)etr(

_!

E-1S)

F(S)

= 2':1'IElh.(~)

o

(15)

Lemme 2-B.l (décomposition de Bartlett)

En suivant le raisonnement et les notations de la remarque du §A nous remarquons que les tij, i,j = 1, ... ,p sont indépendants et t?i ~ X~-i+l ' tij ~

N(O,

1). Les tij sont appelés coordonnées rectangulaires.

La distribution de Wishart pour p = 2 fut découverte par Fisher [15] puis géneraiisée pourp quelconque par Wishart [92]. Sverdrup [86] (et Fog [18] pour p = 3) donne une dérivation analytique semblable aux arguments géométriques utilisés par Wishart (puis Mahaianobis,Bose et Roy [52]). A l'aide de la distribution du coefficient de corrélation (pour E = 1) Madow [51] arrive au même résultat. Hsu [28J donne une preuve inductive et Rasch [75] donne une méthode utilisant une équation fonctionnelle. Ingham [29], Wishart et Bartlett [93] et Cramer [7] obtiennent la fonction caractéristique et l'inverse via" la décomposition de Bartlett". Wijsman [91] et Kshir-sagar [48] à l'aide des transformations aléatoires orthogonalesi Narain [63], Ogawa [64], Gordon et Gordon [22], Giri et Basu [21] ont obtenu les mêmes résultats à l'aide de la régression. Pour des dérivations différentes voir: [1,12,17,19,30,31,47,54,57,66,69,81] .

Proposition 2-B.l ( 2-B-1) représente la distribution de la matrice de dispersion empirique d'un échantillon gaussien.

Preuve: Soit U une matrice orthogonale. En utilisant le lemme ( 2-B.1) nous avons: V = TU = (VI, . .. , VN ); N

>

Pi vj ~ Np(O,E) indépendants et N = n.

Corollaires:

1. Avec les notations précédentes, si vj ~ Np(p.,E) alors

5

~ Wp(E,n)

avec N = n

+

1.

2. Soient

5

~Wp(E, n) et B une matriceqX p,réelle, alors

B5B'~ Wq(BEB',n).

3. Soient

et (2-B-2)

(2-B-3)

5n

et

En:

kxk;

5

22 et

E

22 :(p-k)x(p-k) alors

5

11 ~Wk(En,n). 9

(16)

(

4. Soit a un vecteurp X 1 réel si a'~a

#

0 et sia'~a = 0 alors alors a'Sa

a'~a ~ X~(>,)

,À=

p.'

p-a'Sa

=

0p.s.. (2-B-4) (2-B-5)

c

5. Si

S

~ W(~,n) et

S,

~ partitionnées comme en ( 2-B-2), alors

S11.2

=

S11 - S12S;;l S21 ~ Wk(~11.2'n - p

+

k).

Preuve: 1. Evident.

2. En utilisant le lemme précédent nous avons S = L:.i=1 ViVi' d'où

'BSB' = B(L:f=l ViVi')B' = L:f=l(B~i)(BVi)' nous obtenons donc

le résultat en remarquant que les BV' ~ Nq(O,B~B') j = 1, ... ,N

sont indépendants.

. ( v,i ) . .

3. Posons VJ = \

0

vi (

respectivement

Vi )

représente un vecteur de dimension k (respectivementp - k).

Les

vI

sont indépendemment distribués selon uneNk(O,~11) et

N

A11

~

'L-vlvll

~ Wk(~11,

n).

i=l

4. TI suffit de considérer un vecteur

à

la place d'une matrice dans la remarque 2.

TI est intéressant de remarquer que la distribution est indépendante de

a.

5. Evident. De plus S11.2 est indépendant de S12 et S22.

Proposition 2-B.2

[58J

Le corollaire 4 ne représente pas une propriété caractéristique de la distribution de Wishart si r(~)

>

1 oùr(A) représente le rang de la matrice A.

Avant de démontrer la proposition ( 2-B.2) nous allons établir un lemme.

(17)

Lemme 2-B.2 Supposons que: 1. X ~ X~.

2. Y ~ 13(~,

"2")

avec /1

<

n, entier.

3. X

et Y indépendants. Alors

1. XY et (1-X)Y sont indépendants.

2. XY ~ X~ et (1-X)Y ~ X~-".

~-l -f If-Ill l " r -l

Preuve: J(X Y) = " • y -y

, 2~r(~)I3(i,n.u)'

En effectuant le changement de variableU= XY et V = (1-X)Y nous avonsdXdY= utvdUdV d'où le résultat.

CTi;

Pi; = L

l'

±1.

(UiiU;;)'

Soit Ti;

=

Ti;

t.

Si T ~ Wp(~,/I) le corollaire 5 nous indique que la dis-(TiiTjj)

tribution deTi;est la même que celle du moment du coefficient de corrélation d'un échantillon de taille /1

+

1 tiré d'une distribution normale de dimension 2. OrTi; = SH! et S~ Wp(~,

n).

Contradiction.

(S'iSij)

IL existe néanmoins certaines caractérisations de la loi de Wishart. Les deux suivantes sont dues à Mitra[58].

Preuve: (de la proposition)

Soient

S

~ Wp(n,~),Y ~ 13(~,

"2")

(n>

/1 et

n

entier) indépendants. Soit T = YS, du corollaire 4 et du lemme ( 2-B.2) nous déduisons que

(T,~) satisfait ( 2-B-4) et (2-B-5). Mais T n'est pas distribuée comme une Wishart. En effet( 2-B-4 et 2-B-5)=? E(T)

=

/I~ donc si T a une distribution de Wishart alors T ~ Wp(~,/1). T(~)

>

1 doncilexiste i

l'

j tels que

o

Proposition 2-B.3 Si S est une matrice réelle symétrique telle queT(~) = 1 et ( 2-B-4 et 2-B-5) soient vérifiés, alors S ~ Wp(~,/1).

Preuve: SoitP = (Pl,"" Pp) une matrice orthogonale telle que

P/~P

=

D>. soit diagonale. 11

(18)

c

Supposons

P{~Pl

=

Al

>

0 et Pl~Pi

=

0 , i

=

2, ...,p

( 2-B-4) et ( 2-B-5)

'*

Pi;?'

~ X~

et PITPi

=

0 p.s., pouri

=

2, ...,p.

1 •

Soient Zlo"" Zv-l des variables béta indépendantes avec Zj ~

,B(!,

V

2')

et soient el, ... ,ej une suite de nombres tels que

1

ej

1=

1. Posons

VI = Zl(P{TPt}.

Vj

=

Zj(l - Zl)(l - Zz)(l - Zj_t}(P{TPl) pourj

=

2, ... , v - 1.

Vv = (1 - Zl)" .(1 - Zv)(P{TPl)'

Nous avons PîT Pl = 'Lj

Vi

et d'après le lemme ( 2-B.2) Aïl

Vi

~ x~ independants. l

Posons Xj = ej

l-j'

et soit

Yi

,j= 1, ... ,pla solution du système d'équations

P{Yj = Xj

PlYj = 0 i=2, ...,p

En remarquant que Xj ~ N(O,Al) indépendants nous en déduisons que

Yi

~ Np(O,~) indépendants. De plus T = 'L7=1YjYJ donc T ~ Wp(~,v). Proposition 2-B.4 Si a'~a = 0

'*

a' Sa = 0 avec probabilité 1et si pour toute matrice L telle que L~L' =1, les éléments diagonaux de LSL' sont distribués comme des variables X~ indépendantes alorsT ~ Wp(~,n).

Preuve: Soit <p(A).= E(étr(AS))Aest une matrice réelle symétrique.

1or cas: ~

>

O. ~-l et A symétrique donc il existe une matrice L telle

que A

=

L'DL et ~-l

=

L'LD est une matrice diagonale composée des racines de l'équationdet(A - A~-l) = O. TI est facile de vérifier queL~L' =1

donc <plA) = E(eitr(L'DLT)) = E(eitr(DLTL')) p =

I1(1-

i2Ai)-~ i=l det(~-l)~ = det(~-l - i2A)~'

12

(19)

Nous reconnaissons la fonction caractéristique de la distribution de Wishart. 2eme cas: Si E est semi-définie positive et r(E) =

r

<

p, il existe une matrice M telle que MEM' =1. Soit To = MTM'. Nous avons doncTo N

Wr(I, v). Le corollaire 2 de la proposition ( 2-B.1) avec T = BToB' et

BB'

=

E termine la preuve.

Proposition 2-B.6

[20J

Soit la fonction

t/J

d'une matrice symétrique définie par

t/J(A)={OIAI siA>O sinon.

Pour touteA

2:

0 et pour tout réel m

<

li - k

+

1 posons

m 1 1 oy(k,m,A,E)

=1

E

P-

etr(-ZE- A). Si SN Wk(E,v) alors l'estimateur UMVU deoy(k,m,A,E) est

g.(k,

m,

A, S) =

[C(~(~,~)m)]

1S1

+;0_

1

1 [t/J(S _ A)](V-m;H1 avec

:0-..~~ Preuve: En notant " v_0_1

E-l S

w(k,v,S,E)

=

c(k, v)

1

E

1-'

[t/J(S)]-'-etr(--2-)

la densité de la distribution de Wishart par rapport à-la mesure de Lebesgue nous avons

g.(k,m,A, S)w(k, v, S,E)

=

oy(k, m,A,E)w(k, v - m,S - A,E). Par intégration directe nous obtenons que l'estimateur est non biaisé. La complétude de la distribution de Wishart termine la preuve.

Corollaire: SiSN Wk(E,v)et E

>

0 arbitraire, alors l'estimateur UMVU

dew(k,m,A,E), m

<

v - k+1 est m:&:l

c(k, m)[t/J(A)] , g.(k,m,A, S).

Nous allons maintenant nous intéresser au problème de la stabilité, au sens de P. Levy, de la distribution de Wishart.

(20)

(2 - B -7) Proposition 2-B.6 [80] SoitA

=

(ail a12 ) une matrice aléatoire telle

a21 a22

que:

1. A symétrique et A ~ O.

2. ail et a22 soient des variables indépendantes.

3. a12 ait une distribution marginale non dégénérée.

Alors la distribution de A n'est pas infiniment divisible.

Preuve: Si A est infiniment divisible alors(all,a12,a22) l'est aussi. A ~ 0 donc la représentation canonique de Lévy de la fonction caractéristique de

(ail, a12, a22) est donnée par

log4>(t) = logE(ei(t 1all +t2a12+I,a"l)

.

r [

i<o:I> .

<

x,t

>

]d ( )

(2 B 6) =

,<c,t>+J'R,e

'

-1-'1+lI x Il2 p,x

--où

< .,. >

représente un produit scalaire; Il . ilia norme et la mesure p, est définie sur la tribu borélienne de ~ telle que p,(O)

=

0 et

r

Il x 112

J'R' 1+

Il

x 112dP,(x)

<

00.

log4>(t) est donc de la forme ( 2-B-6) avec

f'R'

remplacée par

f'R2

et p, rem-placée par p," définie sur la tribu borélienne de ~2 telle que pour tout en· semble de Borel B de

!R

2 nous ayons

ail et a22 étant indépendants, nous avons

logE(eitlall +il,a,,) = logE(eitlau)

+

logE(eit,a,,).

pour

(tb t3)

E

!R

2•

Sauf si

p,"({O},X

{oy)

= 0

(2 - B - 8)

(2 - B - 9) nous devons avoir une contradiction avec le fait que la représentation canon-ique de la fonction caractéristcanon-ique d'une loi de distribution infiniment divis-ible par rapport

à

la mesure de Lévy est unique. A cause ( 2-B-8) ( 2-B-9 implique

(2 - B - 10)

(21)

o

La distribution de

G12

étant non dégénérée, ilexiste a

>

0 tel que

Posons

El

=

E2l

=

E22

=

[(:l:t,:l:2,:l:a):

1

:1:21< a].

[(:l:l,:l:2,:l:a):

1:l:21~

a;:l:a

=

0],

[(:1:1. :l:2,:l:a) :

1:l:21~

a;:l:a

f.

0]= ~-

{El

U

E2l },

(2 - B - 12) avec a défini comme précédemment.

Soit

E2l•

soit

E22

(soit les deux) étant de mesure positive, nous pouvons, sans perte de généralité poser

p(E2l)

>

O. Nous pouvons remarquer que (2-B-I0) implique

p{(:l:t,:l:2,:l:a): 1

:l:21~

a;:l:l

= O}

>

0 si p(~2)

>

O. De plus

(2 - B-11) Par définition del' nous avons

p(E2l )

<

00et donc ( 2-B-11) implique

f

=

-idltt -

id2t2

+

>.[.p(tl, t2) -

1]

JE,1

avec>'

=

p(E2l ). .p

est une fonction caractéristique telle que

.p(0,t2)

f.

1 pour un

t2

donné;

dl ,

d2

étant des constantes appropriées.

De ( 2-B-11) et ( 2-B-12) nous dédnisons que pour

(tl.

t2, ta) E

~

f

[i<~,t> _ 1 _ .

< :1:,

t

>

]d ( )

J'4fJ

e

'1+

Il :1: 112 1':1:

_ f [

i<~.t> _ 1 _ .

< :1:,

t >]d ()

- Jm

e

'1+

Il:1: 112 1'1:1:

-idltl-

id2t2

+

>.(.p(t

lt

t2) -1)

pl(B)

=

p(B

n

(El

U

E22»

pour tout borélien de~. En substituant dans ( 2-B-6) nous obtenons

(2- B - 13)

o

avec

(Xt,X2,Xa)

et

(Y

lt

Y2,Ya)

indépendants.

E[ei(fIXl+t,X,+t3X3)]

=

eÀ("'(tIh)-l) pour (tlt

t2, ta)

E ~ et

(Yi..

1'2.

Y:!)

possède une loi de distribution infiniment divisible appropriée.

(22)

c

c

c

Soit

(Cl, C2,Ca)

un point dans le support de la distribution de

(Yb Y2,Ya)

( 2-B-13) et A symétrique définie positive implique

C -

-

(XI+CI

X 2+C2) >0

X2+C2

Ca

-

p.s.

et pour tout

(J

=

«(Jt,(J2)

nous avons 1

2:

E(e-eoe')

=

e-o,

~-202e,e2-o3e~e->'+>'E(.-~

Z,-2',..",)

=

€«(Jt,(J2)

avec

(Zb Z2)

vecteur aléatoire ayant 'if; pour fonction caractéristique. Re-marquons que'if;(O,

t2)

t-

1 pour un

t2

donné, donc

P(Z2

=

0)

<

1 .

Pour (JI

>

0 fixé nous avons donc

lim

€«(Jt,(J2)

=

+00

si p(Z2

<

0)

>

0

82_+00

lim

€«(JI,(J2)

=

+00

si p(Z2

<

0)= O.

82--00

Or

€«(JI(J2) ::;

1. Contradiction.

A ne peut être infiniment divisible.

Corollaire: La distribution de WishartWp(E, k) avecp

2:

2 et T(E).2: 2 n'est pas infiniment divisible.

Preuve: il suffit d'établir le résultat pour le cas p = 2 et E régulière. Soit

Y;;

i = 1, ... ,

k

une snite de vecteurs colonnes aléatoires indépendants tels que

Y;

~

N2(0, E).

Soient

A

= D'=l

Y;Y/

et

T

une matrice réelle régulière telle que

TT'

=

E-I,

si pour tout

n

2:

1 nous avons

A:%

A~+ .. ·+A:

avec

Ar;

i = 1, ... , n matrices aléatoires symétriques i.i.d. alors pour tout

n

2:

1 nous avons:

T'AT:%B~+ ... +B:

avec

Br

=

T'ArT;

i

=

1, ... ,n matrices aléatoires symétriques i.i.d.•

A

=

(T')-I(T'AT)T-1

donc

A

est stable si et seulement si

B

l'est. Or

B

~

W2(k,I)

et le résultat découle de la proposition précédente.

(23)

Nous allons maintenant nous intéresser àquelques propriétés de la ma-trice

S.

Un analogue multidimensionnelle de la variance

il

d'une distribu-tionàune seule variable est fourni par la matrice de covariance S. Un autre est fourni par det S et est appelé variance généralisée de la distribution mul-tidimensionnelle. Dans le cas gaussien nous avons montré queS~Wp(Il,

n).

Une application directe de la décomposition de Bartlett nous indique que pour

1

Il

1#

0 ,

m

est distribué comme le produit de p variables chi-deux indépendantes aveck - p

+

1, ...,kdegrés de liberté.

Lemme 2-B.3

E(I

S

I

h ) =

2PhIEr.(~)'i+h).

Preuve:

l

iS

,"T'+hetr(-!Il-lS) = P.!l Do dB 5>0 2' 1Il \, rp(~) = 2!p(n+2h) 1Il1!(n+2h) rp(~

+

h)

2T

1

Il

l'i

rp(~) Considérons d'abord S~Wp(I,n) nous avons

n

S=L:XirXjr où. xir~N(O,l)ii=l, ... ,Pi r=l, ...,p.

r=l

Tous les Sij sont identiquement distribués, les Si; aussi (i

#

j : 1, ... ,Pi).

E(Sk) est donc de la forme

E(Sk)

=

(0 - (3)I

+

f3Epp

E

pp est une matricepX

P

de 1 .

Pour

H

E

O(p) , S

et

H S H'

=

ont la même distribution. En remarquant que

nous avons

(0 -

(3)I

+

f3Epp

=

H[(

0 -

(3)I

+

f3Epp

]H'.

En choisissant

H

telle que

H[(o - (3)I

+

f3Epp

]H'

soit orthogonale nous déduisons

E(Sk) = c(k,

n,p)I

p

où c(k,

n,pl

est une matrice de constantes dépendants de

n,p

et k. L'espérance d'un élément diagonal deSk nous donne donc c(k,

n,pl.

(24)

c

(

c

De la décomposition de Bartlett:

S

=

TT'

avec

T

matrice triangulaire inférieure, nous déduisons

c(l,n,p)

=

E(S11)

=

E(t~l)

=

n

t2 2

car 11 N Xn •

De même l'élément de la première ligne,première colonne de S2 s'écrit

où les t;j sont indépendants avect~, N X~ et tu N N(O,1). Nous avons donc

c(2, n,p) = E(tf1)

+

E(t~1)E(t~2)

+... +

t~p)

= (n2+2n)+n(p-1)

= n(n+p+1).

Dans le cas général S* N Wp(I::,

n).

En posant S* = CSC' avec I:: = CC'

Nous avons

E(S*)

=

E(CSC')

=

CE(S)C'

=

nI::.

Considérons

{(Xi) :

i = 1, ... ,n} une suite de vecteursp X 1distribués indépende=ent selon uneN(O,I::) ,X= (Xl,,,, ,Xn ) etAune matricenX

n,

symétrique. Nous allons chercher un ensemble de conditions nécessaires et suffisantes pour que- X' AX suive une distribution de Wishart. La distribu-tion de Wishart pouvant aisément être vu comme une généralisadistribu-tion de la loi du chi-deux nous nous attendons

à

trouver une généralisation du théorème de Cochran: C'est ce qu'a montré Khatri

[44].

Bien qu'il existe plusieurs ensembles de conditions nécessaires et suffisantes, nous nous contenterons d'en établir un seul.

Lemme 2-B.4 La fonction génér\l-trice des moments de X' AX vaut

t

II

1l - 2>',I::M

1-"

1=1

avec A

=

QDQ'jQ EO(n) , r(A)

=

t,

D

=

diag(>'l, ... ,>'t).

Preuve: A étant symétrique, nous pouvons écrire A = QDQ', et Q, D

comme dans le le=e. I:: est une matrice de covariance et peut s'écrire

(25)

o

E

=

TT'

avec

T

matricepX

P

triangulaire inférieure définie positive. La fonction génératrice des variables

ZiAz:

et

2ziAz;i

i

i

j s'écrit

"'(M)

=

E(etr MXAX')

= ",,-1 n

r

etr[MXAX'-

~E-1XX']dX

(2l1")'

1

E

l'

}x>o

2

M

est une matricepX

P

symétrique.

En posantY

=

T-1XQ i.e. X

=

TYQ', le Jacobien de la transformation vaut

1

T

Inl

Q'

IP=I

E I~

.

Soient

W

=

T'MT

et

Y

=

(Yi,Y2)i

Y1

=

(Yu, ...

,yu) une matricep x

t

et

Y2

une matricepX(n -

t).

En substituant la transformation dans l'intégrale de la fonction génératrice des moments et en intégrant par rapportà

Y2

nous obtenons

"'(M)

=

(2l1")=f!

r

etr(WY1DY{ -

~2Y1Y{)dY1

}Yl>O

=

(2l1")=f!

r

e-!

~:=11r(I-2>.,W)U1iU;'dY1

}Yl>O 1 =

II

1

1-

2ÀiW

I-! .

i=1

o

En remplaçant

W

=

T' MT

et en utilisant le fait que

1

1-

XY

1=1

l

-y

X

1

nous obtenons:

"'(M)

=

m=l

1

1-

2ÀiEM

I-t,

Lemme 2-B.5 : la fonction génératrice des cumulants de

X AX'

est donnée par

Preuve: Si le module des valeurs propres d'une matrice R est inférieur à 1 nous avons

log1

1- R

1=

f:

tr(Ra) .

;=1 8 La fonction génératrice des climulants est donnée par

1 1

log"'(M) =

-2"

~log 11-

2ÀiEM

1•

i=1

(26)

c

(

c

M étant arbitraire nous avons

00

(EM)'

log.p(M)

=

I:2'-ltrA'tr""--'~

a=1 8

pour

tr(A')

=

El=l

>'f.

Proposition 2-B.7 Une condition nécessaire et suffisante pour queX'AX

soit distribué selon une loi de Wishart centrale est que Asoit idempotent si

r(A)

~p.

Preuve: A2

=

A

=>

>.;

=

0ou 1.

Utilisons ce résultat dans le lemme ( 2-B.4) nous obtenons

.p(M)

=1

1 - 2EM

I-~

fonction génératrice d'une loi de Wishart. Réciproquement si XAX' est distribué selon une loi de Wishart, sa fonction génératrice des moments est donnée par

1

1 - 2EM

I-t,

En considérant la fonction génératrice des cumulants nous devons avoir:

pour tout

M

symétrique. En regardant donc les coefficients de

tr

lE:)' nous devons avoir

tr(A')

=

t

pour tout

s

entier Le.

t

I:>.~ =

t

i=1

pour tout s entier positif.

Donc les valeurs propres non nulles deAsont égalesà1 etAest idempotent.

2-C

Les lois béta.

Définition 2-C.1 Soient Si ~ rp(a,C) et S2 ~ r p(/3,C) indépendantes alorsS = (Si +S2)-tSl (Sl +S2)-t'est distribuée selon une loi béta centrale type 1àargument matriciel ayant pour paramètres a et/3,et notée

/3(a,/3).

(27)

Corollaire: Soient 81 N

W

p (

C,

m) et

'8

2 N

W

p (

C,

n) indépendantes, alors

8 = (81

+

82)-~8t{S1

+

82)-~'

N ,8p(;,

~).

Remarques:

1. La distribution de 8 ne dépend pas de C.

2. La distribution de 8 représente une généralisation au cas multidimen-sionnelle du résultat: Si x et y sont distribués indépendemment selon une loi gamma, alors

x+y

est distribué selon une loi béta.

Le Jacobien de la transformation de 81,82 en 81

+

82, 81 vaut 1 . En posant

nous avons

d(81

+

82)d81

=\

U

IP+l

d81d82

, et la densité de la fonction ,8p(

a,,8)

s'écrit

{

rë(a+J3) 18 la-P4!\1-8 11i-P4! d8

r p ajrp(li)

dF(8) = pour1> 8

>

0 et

a,,8

>

~

O ' sinon.

(2 - C -1)

(~.~

U

Une autre manière d'obtenir cette densité peut-être trouvée dans [54]. Remarques:

1. Par construction nous voyons que 8 peut-être facilement considérée co=e une généralisation du coefficient de corrélation multiple de la corrélation entre deux vecteurs aléatoires.

2. 8 est invariant par la transformation 8 ...H 8H'; H EO(p).

3. En remarquant que

nous déduisons que:

(28)

(2 - C - 2)

(

Lemme 2-C.l Pour tout vecteurafixé a~f.a ~ {J(a,{J).

Preuve: D'après le corollaire 4 de la proposition ( 2-B.l) nous avons pour tout vecteur b , b'(;;~';')b ~{J(a, {J) indépendant deC.

En posant

b

=

(S-t')a,

la distribution de

b'(;;

~';')b = a~r.a reste une

{J(

a,{J)

donc b'(;;~;')b est distribué indépendemment de

S.

Par unraisonnement similaire à la proposition ( 2-B.2) nous voyons que le lemme ( 2-C.l) ne caractérise pas la distribution {Jp( a, {J).

Lemme 2-C.2 Si X ~{Jp(a,{J), alorsY = (B-A)tX(B-A)~+Aa pour loi de densité

A

<

Y

<

B et a,{J

>

p;l

sinon

{J ({J) rp(a+13l

avec p a, = rp(a)rp(lll"

Preuve: Le Jacobien de la transformation est égalà

1

B - A

I-E:}!.

Corollaire:

[46]

Si X ~{Jp(a,{J) et

Y

~ {Jp(u,~) indépendants, alors

U =

y~

Xyt'

~

{Jp(u,

~

+

{J) si et seulement sia =

~

+

u.

Preuve: En effectuant la transformation U = ytXyt" V =Y nous avons

dUdV

=1

y

I-E:}!

dXdY d'où

feU, V) = c

1

X

l''-E:}!I

1- Y

Ill-E:}!l

y -

X

I>.-E:}! .

En intégrant par rapport à

Y

sur le domaine {X

<

Y

<

1}

nous obtenons le résultat.

Soit X ~{Jp( a,b)et partitionnons X sous la forme

X =

(~~~ ~~~)

avec Xll : Pl X Pl et X22 : P2 X P2.

En posant X22.1 = X22 - X2lXiilX12 nous avons

det X = det(Xll) det(X22.tl 22

(29)

""'"

'::11j:'

et 11-

x

1 = 11-

X11

III -

X22 - X 21(I -

X11)-l X121 = 11 -

X11

Il

1 - X22.1 - X21(Xii1

+

(1 - X11)-l )X121 = 11-

X11

Il

1 - X22.1 - X21Xii1(I - X11)-lX12 \' En laissant fixe

X11

et X21 nous effectuons la transformation:

X22.1 =

X22 -

X21Xii1X12 le Jacobien vaut 1 et

1

rf("+~) IX

la-!!±!.II

X Ib-!!±!.IX

la_!!±!.

r

p

a)rp

Il) 11 ' - 11 ' 22.1 "

f(X11,

X22.1, X21) =

xiI -

X22.1 - X21Xii1(I - X11)-l

X12Ib-~

sur le domaine A

o

sinon

(2-C-4) où

lEi

domaine A est défini comme suit:

A={I-X22.1-X21X

ii

1(I- X11)-lX12

>

OjO

<

X11,X22.1

<

Ija,b

>

p;

1}. Proposition 2-C.l

[88J

Si

X

~

f3p(a, b)

est partitionné comme en ( 2-C-3) nous avons

X 11

~

f3pl(a,b)

jX22.1 ~

f3.,(a-lf,b)

indépendant de

X11

et la distribution de X21 conditionnellement à

X11

etX22.1 vaut

l

II_X"'ll-~(2b-P2-')

1

(1 - X )X

I-~ k(",Pl,2b) . 11 11

f(X11,X22.1,X21)

= X 11-X22.1 -

X 21

xïl(I -

Xll)-l X12!i(2b-p-1) sur le domaineA

o

sinon

(2 - C - 5)

. .. rp(m-9) ou k(p,q,m) = lP -rp(~) •

Preuve: Nous obtenons la décomposition recherchée en posant Xii1(I - Xllt1= WW' et 1 - X22.1= RR'

puis en effectuant la transformation Z = R-1 X21W dans ( 2-C-5) nous

obtenons sur le domaine A sinon

(2 - C - 6)

et

Z

indépendant de

X11

et X22.1. 23

(30)

c

(

c

Proposition 2-C.2 [88} Si

X

N

,Bp(a,b),

alors

,Bp(a,b)

peut être décomposé

comme le produit de 2p - 1 densités indépendantes .dont p suivent une loi beta:

,B(a, b),,B(a

~ ~,b),

... ,,B(a -

~,b) et les autres une loi de Dirieb1et D(~,b- ~),D(M,b- ~

x

2), ...

,D(~,

•.•

,~,b- Hp-l)).

Preuve: En continuant la décomposition ( 2-C-6) nous vérifions directe-ment que la densité

,Bp(a,b)

se décompose comme le produit de2p-ldensités indépendantes, dontp béta.

Pour tout i E [1,p - 1] nous effectuons la transformation Yji

=

z'fjjj = . , _1

1, ... ,i. Le Jacobien vaut donc 2-'

llj=l

Yj;2. En notant que pour chaque région i,la transformation est 2 : 1 nous obtenons

1 .

{

-111;

-'(1

" i )b-~-l

ci j=lyj; - ","j=lYj; 2

f(Yli,···,Yii) = pour 0

<

- Y"J' _

<

l'1

o

sinon

(2- C -7)

densité d'une loi de Dirieb1et.

Nous avons vu que si UN

rp(E,n)

et V N

rp(E,m)

était indépendants alors U

+

V =WW'et Z = W-1UW-1' était indépendants. De plus Zest invariant par la transformation

Z .... rzr',r

E

O(p).

Olkïn et Rubin

([67])

ont montré le contraire:

Proposition 2-C.3 Si'U etV sont deux matricespx pindépendantes et: 1. U

+

V

=

WW' est indépendant deZ

=

W-1UW-1'

2. Z

est invariant par la transformation

Z .... rzr',r

E

O(p).

AlorsUetVont une distribution gamma centrale

à

argument matriciel avec la même matrice de covariance.

Une autre caractérisation est basée sur la distribution conditionnelle et est due

à

Roux et Ratnaparkhi

[78] ..

Lemme 2-C.3 Soit X N

rp(E,a)

etY N

rp(E,,B)

indépendants alors

.c(X

1

X

+

Y)

est donnée par ( 2-C-8).

(31)

Preuve: nous avons

l

lx,.-~,y,P-~etrl-!:-l(x+Yll

rp(a)rp(lllIEla+p

fx,y(X,Y)= pour X

>

O,Y

>

0 eta,{3

>

~

o

sinon.

En posant U

=

X

+

y

etV

=

X le Jacobien de la transformation vaut 1 et

l

IV'.-~IU_V'P-~etr[_E-'U)

'u,v(U,V) = rp(a)rp(lllIEI·+P

JI pour U

>

V

>

0 et a,{3

>

~

o

sinon.

D'après le corollaire de la proposition (2-A.l) la densité de Uest

rp(E,a+

(3),

nous obtenons donc

{

IXI·-~IU-XIP-:

pour U,X

>

0 et a,{3

>

l!::!

fXlu(X) = /lp(a,lllIUI.+P+T 2

o

sinon.

(2 - C - 8)

En particulier quand U= 1nous retrouvons

(3p(

a,

(3).

Proposition 2-C.4 Soit X,Y deux matrices aléatoirespXPindépendantes avec fx(X) = O{I X la} quand X ... 0; Fy(Y) = O{I

y

Ill} quandY ... 0 aveca,{3

>

O. Une condition nécéssaire et suffisante pour queX ~

rp(E,a)

etY ~

r

p

(E,{3)

est que la distribution deX sachantX +Yadmette ( 2-C-8)

comme loi de densité.

Preuve: Le lemme ( 2-C.3) prouve la nécessité.

suffisance: Si X 1X

+

y

possède ( 2-C-8) comme loi de densité alors

a E±l. Il E±l. f (X)} (Y)=f

(X+yl

p(a)rp

({3)IXI - , IYI- ,

X Y X+y

rp(a + (3)

1X

+ y

la+Il-~

En posant

</J(X)

!1CX

+

Y)

(32)

nous obtenons l'équation fonctionnelle

~(X)..p(Y) = 1/(X

+

Y).

Or ~(X) --+ aquand X --+ 0 et ..p(y)--+ bquandY --+ 0 donc1/(X)

=

b~(X)

et 1/(X)

=

a..p(X). Nous obtenons donc

ab'1(X

+

Y) = '1(X)'1(Y)

i.eg(X

+

Y)

=

g(X)g(Y) avec'1(X)

=

abg(X).

Equation fonctionnelle de Cauchy dont la solution générale est donnée par

g(X)

=

etr(AX) d'où

l!±!

fx(X)

=

c

1

X

1"-

2 etr(AX)

avec c constante de normalisation et A matricep X Parbitraire.

fx(X) étant une loi de densité nous avonsA

<

O. En posant A

=

-E, nous

avons donc X ~rp(E,a). De mêmeY ~ r p(E,,8). Par analogie avec le cas réel nous avons

Définition 2-C.2 SoitSI ~

r

p( a,C) et S2 ~

r

p(,8,C)indépendants, alors

S

=

(S2)-!SI(S2)-!' est distribuée selon une loi béta centrale type 2 à

argument matriciel ayant pour paramètres

a

et ,8,et notée,8~(

a,,8).

Un calcul simple nous donne:

pour A> 0 et a,,8

>

~

sinon.

(2 - C - 9) La plupart des propriétés de la loi béta centrale type 1àargument matriciel se transpose sans difficulté à la loi béta centrale type 2 à argument matriciel. il suffit de remarquer que

Si X ~,8p(a,b)

et siY ~ ,8~(a,b)

alors Y

=

X!(I - Xl-lX! ~ ,8;(a,b) (2-C-10) alors X

=

Y!(I

+

y)-ly!

~ ,8p(a,b).(2-C-ll)

c

Dans ce chapitre nous n'avons parlé que de loi centrale. Le cas non-central faisant intervenir les fonctions hypergéométriques sera traité au chapitre 4.

(33)

O

·.',

Chapitre 3

Loi de Dirichlet et

distributions

à argument(s)

matriciel(s).

3-A

Loi de Dirichlet,loi de Liouville.

Définition 3-A.l

(cf.

[68) p.ex.)

Soient Si"", Sk des matrices

p

X

p,

réelles, symétriques. (Si,"" Sk) suit une loi de Dirichlet centrale à argu· ments matriciels, notée Dp(O<l,'" , O<k,O<k+l)si sa fonction de répartition est

de la forme

(3-A-l) Remarques:

1. pourk= 1 nous retrouvons

f3

p

(0<1,0<2).

2. (Si, ... , Sk)est invariant par une transformation orthogonale.

Nous allons maintenant donner trois dérivations de la distribution de Dirich-let. Les deux propositions sont dues à à ûlkin et Rubin ([68]), le corollaire

1àAsoo ([3]).

(34)

(

(

Proposition 3-A.l Soient Sa, .••, Sk des matrices pxp, symétriques, réelles, indépendantes. Si

Sj

~

r

p(

nj,

E)

alors la distribution jointe de

k k

Wj = (I;Si)-!Sj(I;Sit! j = l, .•. ,k

1=0 1=0

est donnée par ( 3-A-l) quelque soit la racine utilisée. Preuve: nous avons:

{

0Ir[-C-'(80+..+8.)] Il~

1

S'lai+l-~ Il~ dS·

Iclar.(ad...r.(a.)

.=1'

.=1

dF(So, ... ,Sk)= pourai

>

~ et Si> 0

o

sinon. (3-A-2)

a=al+···+ ak+l'

La transformation S

=

Sa

+... +

Sket Wj

=

S-!SjS-!j j

=

l, ... ,k donne dSo'" dSk

=1

S l!k(P+l) dSdWl •••dWk et S indépendant. de Wj.

Proposition 3-A.2 Soient SI,' .. , Sk une suite de matrices pXp, réelles,

_1

symétriques, indépendantes et

Sj

~

rp(nj,E).

Soit Sa 2 la racine carrée

symétrique définie positive de

Sa.

Posons

_1 _1 VJ -

·-s

0 2S'SJ O '2. ) ' - 1- , ••• ,k et k k Zj

=

(I

+

I;lowh1j(I

+

I;Vi)-!j

j

=

1, ...

,k

1=1 1=1

alors la distribution jointe de (Zb"" Zk) est donnée par ( 3-A-l).

Preuve: En définissant Wj co=e dans la proposition ( 3-A.l) nous obtenons

Zj

=

AWjA'

k _1 _1 k 1

avec A

=

(I

+

l:i=1

Vi)

2Sa 2

(l:i=1

Si)"

En remarquant que AA' = l et en utilisant la remarque 2 le résultat est immédiat.

Corollaire:

(35)

(3-A-4)

o

1. Soient 51",',Sk une suite de matrices pX p, réelles, symétriques, indépendantes et Si N f3p(ai, a - al - '" - ai); i

=

1, ... ,kalors les

2. Soient 511 "" Sk une suite de matrice~l x p, réelles, symétriques,

indépendantes et

Sj

N

rp(E,aj).

Soit50 2 la racine carrée symétrique

définie positive de 50. La distribution jointe des

_1 _1

V;

=

502SjSo2 j

=

1, ... ,k est:

rp(c<,) rp(C<H'?

rp(c<,+ +c<.+,

1V;

IC<'-"t'- ... \

Vi

IC<'-"t'-1 k 01, +"'+OIk X II+Vt+"'+Vk\- 2 dV1 .. ·dVk pour ai

>

~,Vi

>

0; i= 1, ... ,k

o

sinon. (3 - A - 3) Définition S-A.2 Soient(V1,••.,Vk)des matricespxp,réelles, symétriques.

(V1, ... , Vk)suit une loi de Dirichlet inversée centraleàarguments matriciels, notée ID p(a1, ... ,ak,ak+1)si sa densité est donnée par (3-A-3).

La loi de Dirichlet correspondàune généralisation de la loi béta (paral-lèle au cas univariable). La loi de Dirichlet inversée correspond à une généralisation de la loi béta type 2.

Pour étudier ces deux distributions nous allons nous placer dans un cadre plus général.

Définition S-A.S

([65,24D

Soit (51" ~.,Sk) une suite de matrices p x p,

symétriques, définies positives. (51,"" Sk) suit une loi de Liouville à ar-guments matriciels de type 1, notée

Ll[f(.)ja1l'"

,akl

si sa loi de densité jointe existe et est proportionnelleà

k k

f(I:Si)

II

1

Si

IC<;-"t'-i=l i=1

(36)

c

pourai

>

2j!

et où

f

est une fonction positive continue telle que

Supp(J) =

~PXP

et r i T l'':+··+''.-''!! f(T)dT

<

00. (3 - A - 5)

+ JRP~p

+

Si de plus1- 2:f=l Si est aussi positif, alors (Sll""Sk)suit une loi de Liouvilleà arguments matriciels de type 2, notéeLUf(.)jal, ... ,ak]. La définition ( 3-A.l) génère donc une loi de Liouville de type 2 alors que la définition ( 3-A.2) génère une loi de Liouville de type 1.

En faisant la transformation Z

=

2:J=l Si etV;

=

Z! SiZ!;

i

=

1, ... , k - 1 nous obtenons rrj=l dSi

=1

Z j(k-1l"!! dZ

rrj,;;t

dl';

et ( 3-A-4) devient

I1f-1

rp(a,)

r i Z 1":+"+". f(Z)dZ. (3 - A - 6)

rp(a)

JRfP

TI est intéressant de noter que si

f

est à support compact, nous pouvons normaliser ( 3-A-4) de telle sorte que Supp(J) C [O,I]PXP.

Proposition 3-A.3 Si

(B1,.00,B

n )~ L;[g(.)ja1,00.,an] et

n n

Ai

= (1 -

L:Bj)-!B,(1 - L:Bj)-!j

i= 1,00.,n

j=l j=l

où la racine carrée désigne la racine carrée symétrique définie positive alors

. (Al, ... ,An ) ~ L~[J(.)jal,.oo,an]

avec

f(T)

=1

l tT I-(a:+,,+anl-"!! g(T(1 tT)-l)j T> O. En particulier,ilexiste une correspondance 1: 1 entre

f(.)

et

g(.).

Preuve: Soit A

o

= 2:f=lA

o

et Bo= 2:f=l Bo nous avons

Ao

= (1 - Bo)-! Bo(1 - Bo)-! = (1 - BO)-l Bo donc Bo

=

(1

t

Aot1

Ao

Le. 1- Bo

=

(1

t

AO)-l et

Bi

=

(1

+

Ao)-!Ai(.~

t

Aot!j

i

=

1'00"

n.

Le Jacobien de la transformation vaut donc 1

l tAo

1-!(n+l)(p+1).

Remarque: Si g(T)

=1

1- T la:+,,+an-"!!j 0

<

T

<

l nous obtenons la transformation d'une distribution de Dirichlet inversée en distribution de Dirichlet. La racine carrée de la matriceT est symétrique définie positive.

(37)

U

·_·".

'.'

.

'1;< ,

Proposition 3-A.4 Si (Alt ... ,An ) ~

LnlJ(.)jah ... ,anl

alors

1.

l n-l 1

(Al, ... ,An)

4

B~(Bl, ... ,Bn_l,I - LBi)B~

1'=1

(BI,"" Bn- l )

sont mutuellement indépendants et

2.

1 n-l 1 n-l 1

BM(II

B~-i)(II

Bn.

1'=1 1'=1 n-l 1 n-l 1 1

(II

B~+l_i)(I

- Bl )(

II

Bl),··· ,(1 -

Bn-l)lB~ 1'=2 1'=2

(BI, ... ,Bn)

sont mutuellement indépendants et

i

Bi

~,6p(Lah

ai+l)j

i =

1, ... ,

n - 1.

j=l

3.

1 n-l n-l

B~

[(II

(1

+

Bn-i)-~)(II

(1

+

Bi)-~),

1'=1 1'=1

n-l n-l

II

(1

+

Bn+l-i)-~Bl(

II

(1

+

Bi)-~'."

1'=2 1'=2

.. . ,(1

+

Bn+lt~Bn-l(I

+

Bn+l)-~lB!

(BI, ... , Bn).

sont mutuellement indépendants et i

Bi

~

,6;(ai+h

L

aj);

i =

1, ... ,

n -

1.

j=l

(38)

(

c

4.

(Al. ••• ,An) d 1 1 1

n

II

-2 1

=

Bi.

[BI,

(I -

BI)'

B2(I -

BI)', .. "

(I - Bi)'

Bn-l

1=1

n-2 n-l n-l 1

II

rI -

Bn_i_l)t, II

(I -

Bi)t)(II

(I -

Bn_i)tlB~

1=1 1'=1 1'=1

(Bt, ... ,B

n ) sont mutuellement indépendants et

n

Bi ~ f3p(ai.

L:

aj); i

=

1, ...,n-1.

j=/+l Dans les quatre casB

n

= Ll [/(.);L:7=1

ad·

Preuve: 1. TIsuffit de poser 1 1 Ai = B~AiB~ .1. n-l 1 et An = B~(I- L:Bi)B~. i=1

Le Jacobien de la transformation est égal

à

1Bn

l(n-llE:}!- .

2. TI suffit de poser 1. n-l 1. n-l 1. .1. Al = B~

(II

B~_i)(

II

BnB~ 1=1 1=1 1 n-l 1 n-l 1 1

Ah =

BJ(II

B~_i+k_l)(I-

Bh-l)(II

Bi'i)BJ

i=k i=k

k= 2, ... ,n-1

1 1

An

=

B~(I-Bn_l)B~.

Le Jacobien de la transformation est égal

à

n

II

1Bi

l(i-llE:}!- •

1'=2

(39)

~,~

·u

3. TI suffit de poser

.1. n-l n-l .1.

Al

=

BJ(II

(I

+

Bn-i)-i)(II

(I+

Bi)-i)BJ

i=l 1'=1 .1. n-l n - l . 1 .

Ak

=

BJ(II(I+Bn-i+k-1)-i)Bk-1(II(I+Bi)-i)BJ

1'=1: 1'=1: k=2, ... ,n-1

An

=

BJ(I+Bn-1)-iBn_1(I+Bn_1)-iB!.

Le Jacobien de la transformation est égalà

n-1

1

Bn

l(n-1)~

II 1

1+ Bi

r(i+1)~ . 1'=1 4. TI suffit de poser 1 1

Al

=

BJB1BJ

1

k-1

k-1

1

Ak

=

BJ(II(I-Bi)i)Bk(II(I-Bk_i)i)BJ;

k=2, ... ,n-1 1'=1 1'=1 .1. n-l n-l .1.

An

=

BJ(II

(I -

Bi)i)(II

(1 - Bn_i)i)BJ.

1'=1 1'=1

Le Jacobien de la transformation est égal à

~n-l ~

1

Bn

l(n-1) 2

II 1

1- Bi

I(n-H) 2 •

1'=1

Corollaire: Si

Bi

N

PP(L:}=l aj, ai+!)j

i = 1, ... ,n indépendants alors

Preuve: le cas n =

2

correspond au corollaire du le=e (

2-C.2),

la récurrence découle directement du n04 de la proposition. TI est intéressant de noter que pour une fonction

f(.)

donnée et un ensemble de valeurs

(al, ... ,an)

la distribution de

(Al, ... ,An)

est déterminée de manière unique par Bn •

(40)

c

(

c

Définition 3-A.4 Si

f

est une fonction continue de ~xP dans

!R,

satis-faisant ( 3-A-5) et a

>

~, alors l'intégrale de la fonctionnelle de Weyl d'ordre a de

f

est

W" f(T)

=

r

l( ) {

1S - T

l''-P

f(S)dS.

pa

JS>T

Richards

([76])

a montré (entre autres) que:

1. Si

f

est une fonction continue satisfaisant ( 3-A-5) alorsilexiste une correspondance 1 : 1entre

f(.)

et W"

f(.).

2. W" satisfait la propriété de semi-groupe

W,,+P = W"WPj a, (3

>

p - 1.

Nous allons utiliser ces résultats pour étudier les propriétés des densités marginales et conditionnelles.

Proposition 3-A.5 Si (AI, ... ,An) ~ Ln[f(.)jal, ..• ,an] et

r

<

n

alors

(AI, ... ,Ar)~ Lr[fr(.)jal,. .. ,ar] et fr(T) = W"f(T)j a=Ef=r+la;. Preuve: Par définition de la densité marginale, la fonction de répartition de (Al,' .. , Ar) est proportionnelleà

r l!±l.{ ( r n n . l!±l.

II

1

A;

1";-

2 J~ X p "J~ Xpf(L;Ai

+

L; Ai)

II

1

Ai

1";-

2 dAi.

i=1 ~ ~ i=1 i=r+l i=r+l

En appliquant la transformation de ( 3-A-4) en( 3-A-6) nous obtenons que la distribution de (Al,"" Ar)est proportionnelle

à

r P±1.

f

r .ti!.

II

1

Ai

1";-

2 J~ x f(T

+

L;Ai)

1

T

1"-

2 dT.

i=1 ~ JI i=1

Corollaires:

1. La distribution de (Xl"'" X n)est déterminée de manière unique par

Xl'

2. Si (Xl,'" ,Xn)~ L~[f(.)jab'" ,an],ilexiste au plus unXi distribué

uniformément sur [O,l]PXP. .

Références

Documents relatifs

• Remplissez la demande d’affiliation (page 7) si vous n’êtes pas encore affilié à une caisse d’allocations familiales ou si vous désirez changer de Caisse

 Heureusement,  un  groupe  a   trouvé  une  solution  pour  être

C’est ainsi que dans un village perdu dans les montagnes, à deux jours de marche de la route la plus proche, j’ai ren- contré un petit garçon nommé Piyangke qui m’a donné

Pour ne pas pénaliser les étudiants qui s’imposent de rendre leur travail avant la date limite même s’ils aimeraient encore l’améliorer, et pour ne pas mettre 00/20 à

Q 3 Démontrer qu'il existe une suite de tels triangles dont les dimensions se rapprochent de plus en plus de celles d'un

2 Le site de l’exposition propulse d’emblée le visiteur sur le globe, car il affiche la volonté de dépassement du cadre national et de rayonnement dans le monde par le biais des

L’analyse des réactions chimiques conduisant à un équilibre fait apparaître la nécessité de disposer d’un outil pour prédire l’évolution de la réaction, et notamment

Le troisième article a étudié la sensibilité aux antibiotiques des germes des infections de la surface oculaire et il recommande la rifampicine et l’acide fusidique