R EVUE DE STATISTIQUE APPLIQUÉE
Y. E SCOUFIER
Les liaisons entre groupes d’aléas
Revue de statistique appliquée, tome 19, n
o2 (1971), p. 5-17
<
http://www.numdam.org/item?id=RSA_1971__19_2_5_0>
© Société française de statistique, 1971, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (
http://www.sfds.asso.fr/publicat/rsa.htm
) implique l’accord avec les conditions générales d’uti- lisation (
http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
LES LIAISONS ENTRE GROUPES D’ALÉAS
Y. ESCOUFIER
L’auteur précise
les liens étroitsqui
existent entrel’analyse canonique
tellequ’elle
estprésentée
dans les traitésclassiques d’analyse statistique multidimensionnelle
etl’analyse factorielle des correspondances développée
parM.
Benzecri et ses colla- borateurs.L’explicitation du
contextemathématique sous-jacent à
cesméthodes permet
unegénéralisation
àdes
aléasvectoriels,
chosequi n’a
pas été abordéejusqu’à
cejour. L’exposé comprend
des
exemples détaillés
pour chacunedes
trois méthodes.I - L’ANALYSE
CANONIQUE
’
Il.
Soit X un vecteur aléatoirepartitionné
en deux sous-vecteursX
1 etX2 (X== j x 11 ) possédant respectivement
p et qcomposantes.
Nous sup-~ L
x 2
/poserons dans la suite de
l’exposé
que le vecteur X est centré.L’analyse canonique
suppose que lescomposantes Xi (i
=1,..., p)
deX
1et
X~(j = 1,..., q)
deX2
sont des fonctions de carrés sommables sur un es-pace
probabilisé (Q P).
Nous verrons
plus
loin l’intérêtqu’il peut
y avoir à ce que le vecteur X soit un vecteurgaussien
sur(Q , 5,’, P) ;
mais cettehypothèse plus forte,
né-cessaire pour l’inférence
statistique,
estsuperflue
dans unpremier temps
si l’on se limite à la
présentation algébrique
duproblème.
Soient
L 2 l’espace
de Hilbert des combinaisons linéaires des compo- santes de X muni duproduit
scalaireU , V >
=E (UV),
etLoi
etL X2 les
sous-espaces de
L~ engendrés respectivement
par lescomposantes
de Xl et celles de X2.Le
probleme
que veut résoudrel’analyse canonique
est de trouver lescouples (U, V), UELX1 ~ Vrz L 121 2 Il U 1 =" VI = 1,
pourlesquels E(UV)
estmaximum ou, ce
qui
revient aumême,
tels quel’angle
entre U et V soit minimum.12 .
Onpeut
remarquer( [4] )
que pour U donné le vecteur Vqui fait avec
Uun
angle
minimum est colinéaire à laprojection Pl (U)
deUGLX,
dansL X2’
Donc,
pour U donné :6
De la même
manière,
pour Vdonné,
U est colinéaire à laprojection
P2(V)
de
VEL X2 2
dansL2 xi
si bien que pour V donné :Revue de Statistique Appliquée. 1971 - vol. XIX N° 2
Il s’ensuit que les
couples (U , V)
solutions duproblème posé
sont tels que :et
c’est dire que :
Les
couples (U , V)
solution duproblème posé
sont tels que U soit vecteur propre del’opérateur Pl 0 P2
associé à la valeurpropre 1 jPI (U) Il ( IIP2 (V) Il ]
et V le vecteur propre de
P2 0 Pl
associé à la même valeur propre.Insertion n° 1
Remarque
12. a: La transformation Pl oP2
est une transformationsymétrique
de
LX2
dans lui-même. La transformationP2 ° Pl
est une transformation sy-métrique
deL2 xi
dans lui-même.On a en effet dans
Lx
pourUE L X1 et V(= X2
D’où :
Il en découle que si
L2xI
etL X2
sontfinis, l’opérateur
Pl 0P2
a des valeurs proprespositives
et des vecteurs propres deux à deuxorthogonaux.
Remarque 12.b: Pl et P2
sont desopérateurs
deprojection
si bien que :Les valeurs propres de
Pl 0 P2
et deP2 0 Pl
sontcomprises
entre 0 et 1.Remarque 12. c :
Lesopérateurs P2 0 Pl
etPl
oP2
nepeuvent
avoir des valeurs propreségales
à l’unité que si :Le nombre de valeur propre
égale
à l’unité seraégal
à la dimension deL2 xi
nL2 X2’
Remarque 12. d .
Si U est le vecteur propre deP 20 Pl
1 as socié à la valeur propreB,
le vecteur propre Vcorrespondant
à la même valeur propre estégal
àPl (U).
En effet :Insertion n° 2
Le
premier couple U1 ,Vi >
solution duproblème
est donc fourni par les vecteurs propres deP2 0 Pl
etPl
oP2
associés à laplus grande
valeur pro- pre différente de l’unité. Si l’on cherche un secondcouple U2, V2 >
tel queU2
soitorthogonal
à U1 et V2à VI,
on trouvera lecouple
des vecteurs pro- pres associés à la valeur propre immédiatement inférieure et ainsi de suite.Is.
Le calculexplicite
des valeurs propres et des vecteurs propres desopé-
rateurs
Pl
oP2
etP2 0 Pi,
conduit à chercher les matrices associées à cesopérateurs
dans les basesXl
etX2.
Pour
cela,
nous devons écrire que pour tout élémentXi
de la baseXl,
le vecteur
Xi - Pi (Xh
estorthogonal
à tout élémentXj2
de la baseX2.
Soit :Pl (Xi)
est un élément deLX2
X2 que l’onpeut
écrire :1
D’où,
les p x qégalités précédentes
deviennent :Si on
appelle E12
la matrice d’élément(L12 hj = X~X~>;Z22l~i~nce
d’élément
(¿22)keJ = X~,X~
> et M la matrice dont lailèlle ligne
est forméedes
M ~ ;
les p x qégalités précédentes
se résument enl’égalité
matricielle :D’où :
Convenons
d’appeler L 21
latransposée
deE12 ,
M est la matrice des coeffi- cients desP (Xi),
les coordonnéees deP 1 (X~)
étantrangées
dans laligne
i.On en déduit que la matrice associée à
P 1 est
-.De
même,
enappelant E 11
la matr ice d’élément(Ll1 )1j
=X~,X~>
on éta-blirait que la matrice associée à
P2
estXi
1L12.
·Il en découle que la matrice associée à
Pl 0 P2 est E-1 ¿21 E 1 i ¿12
et lamatrice associée à
P2 0 Pl : ~li
lE12 z- 22 1E 21
*22 21 il 12
Remarque 1 s. a:
Dans l’utilisation traditionnelle del’analyse canonique,
les statisticiens se contentent de donner les valeurs propres dePl 0 P2 appelées
corrélations
canoniques
et les vecteurs propresappelés
variablescanoniques .
Il nousparait
intéressant desuggérer
dereprésenter
lesX dans l’espace
Li2 rapportés
aux vecteurs propres dePl
oP2
ainsi que les Pl1 (X 1 ) .
Si on ap-pelle E 12 la i1è8e ligne
deE12, d’après
cequi précède,
on a :8
si bien que la
proximité
despoints représentants X1
etXj 2
est liée à l’im-portance
deX i 2
dans larégression
deX i
parrapport
àX28
De
plus :
Là encore, il
apparaft
que lespoints représentant P1 (X i )
etP2 (Xk)
serontd’autant
plus proches
que les variablesX~
etX~
ont des covariances avecX~
voisines.
14.
Nous avonssupposé jusqu’à
maintenant que les matricesE 12 , L 2h Elle
iet
E 22 étaient
connues. Ce n’est pastoujours
le cas et leplus
souvent, elles doivent être estimées.L’hypothèse
d’un vecteur Xgaussien
est alors inte-ressante
puisqu’elle
nouspermet
d’obtenir le résultat suivant :( [1]
p.298).
Appelons
E la matrice~ 11 21 ’-’ 22 ~ 12)
et S son estimation du maximum de vraisemblance. Alors dans le cas où toutes les valeurs propres de~ ~12 ~22 ~21
sontdifférentes,
les vecteurs propres normes sont définis de manièreunique
si l’on s’astreint à leurimposer
unepremière composante positive.
Cecipermet
d’assurer que les estimations du maximumde
vraisem-blance des vecteurs propres et des valeurs propres de
En
1E12 ~22 ~21
sontceux de S =
S Il S12 S22 S 21.
15.
Exemple.
Pour illustrer ce que nous venons de
dire,
nousprendrons
les donnéeprésentées
par Anderson( [1 ] p. 303).
Le lecteur pourra ainsi comparer l’in- térêt de notreapproche
parrapport
à laprésentation
habituelle duproblème.
L’étude
porte
sur les deuxpremiers
fils d’un échantillon de 25 familles.Le vecteur Xi a deux
composantes ; Xl
est lalongueur
de la tête du filsatné ; Xi
salargeur. X2
aégalement
deuxcomposantes ; X2
est lalongueur
de la tête du fils
cadet ; X~
salargeur.
Les calculs sont faits sur les va-riables centrées réduites. La matrice S est la suivante :
D’où :
Revue de Statistique Appliquée. 1971 - vol. XIX N° 2
et
La
première
valeur propre de cette matrice estÀ1
=0, 6215.
Le vecteur pro- pre Yiqui
lui est associé tel queE (y 1 2)
= 1 est :Y1 = 0, 5045 X~+0,5383 X~ .
De la même manière le vecteur propre
Y2
tel queE(Y~)
= 1 associé à la se-conde valeur propre
~2=0,0029
est :En inversant la matrice on obtient :
et en utilisant
Dans ce cas très
simple, l’interprétation
n’est pasparticulièrement riche ;
on pourra noter
cependant
que lespoints représentant X2
etX2
sontplacés
à une distance de
l’origine
des axeségale
à leur variance(ici 1,0000).
Lespoints représentant Pi (X 1 )
etP2 (X~)
sontplacés
depart
et d’autres de l’axeYi
et trèsprès
de celui-ci. Cette dernièreproximité s’explique
par l’ana-logie qu’il
y a entre les troixéquations :
Pi (X~)
estplacé
du même côté deX2
carX~
intervientplus
dans larégres-
de
Pl (Xl)
queX 2 .
n en va de même pourP2 (Xl)
etX 2 .
On notera enfin que la distance de
Pi (Xi )
àl’origine
des axesrepré-
sente la
part
de variationexpliquée
parX~
etX2
dans la variation totale deX 1 1.
La marne remarque vaut pourP i (X i ) .
10
Remarque :
Enmultipliant
agauche
le vecteur(~e~~ ) qui
définit le pre-0,5383
mier vecteur de
822
821Si}
S12 parS li S12
on obtient lepremier
vecteur pro-pre de
S1 i S12 S 22 SZ1,
soit :En
posant
alors on a vérifié que :Analyse canonique
II - L’ANALYSE FACTORIELLE DES CORRESPONDANCES
II1.
L’analyse
factorielle descorrespondances peut
êtreprésentée
commeun cas
particulier
del’analyse canonique
danslequel
Q est un ensemble pro- duit de deux ensembles finis I X J ; I à péléments ;
J à qéléments ;
Q = I x Jest
probabilisé
par la donnée desprobabilités p(i,j)
descouples (i,j)
pouri=1,...,
>p;j=1,...,
> q.Le vecteur
Xl
est le vecteur des fonctions61
définies sur 1 par :De même le vecteur
X 2
est le vecteur desfonctions Y) j
définies sur J par :Explicitons
dans ce casparticulier
les éléments des différentes matrices.Revue de Statistique Appliquée. 1971 - vol. XIX" )B
d’où :
On en déduit :
et
D’où :
II2.
Enparticulier
]Ainsi,
lepoint représentant Pi (61)
sera le centre degravité
despoints
re-présentant
les11 j
affectés des masses :D’autre
part :
Remarque ll2. a :
Si au lieu deprojetter
les éléments61
etbk
on effectuait laprojection
de20132013 et 20132013
on obtiendrait :p
il)
p~)
Ce résultat a été le but des travaux de M. Benzécri et de ses collaborateurs . Il les a conduit à proposer
l’analyse
factorielle descorrespondances,
méthode12
dont il faut
souligner
l’intérêtpuisqu’elle permet
deprendre
encompte
des ensembles 1 et J d’élémentsqui
n’étaient pas abordables par les méthodesstatistiques classiques.
Remarque
II2.b :
Dans le casparticulier
que nousétudions,
l’ensembleL Xifl L X2 n’est
pas vide : il contient les fonctions constantes sur 1 x J. Nous aurons donc une valeur propreégale
à 1 dont nous ne tiendrons pascompte.
Ils. Exemple :
Nous traiterons unexemple
trèss imple qui
nouspermettra
de mettre en évidence les différents calculs à effectuer. Soit J un ensemble à 2éléments ;
I un ensemble à troiséléments ;
sur unepopulation
de 50individus,
les éléments de 1 et de J sont apparus selon la table de corres-pondances
suivantes :On établit sans difficultés que :
D’où :
Le
premier
vecteur propre associée à la valeur propre 1 est sans intérêt(Remarque 112. b)
·La seconde valeur propre est
égale
à0,5652.
n lui est associé le vecteur propre Y =1,2243 T)1- 0,8168 T)2.
On vérifie aisémentque ~Y) ~
= 1.La base des
1’) j
est une baseorthogonale ;
donc la coordonnée de T~ 1 sur Y est1, 2243
et la coordonnéede 7)2 est - 0, 8168.
On en déduit les coordonnées dePl (61)
sur Y. Eneffet,
et la coordonnée sur Y est donc :
Revue de Statistique Appliquée. 1971 - vol. XIX N° 2
On établit de la même manière que la coordonnée de
Pl (62)
sur Y est-
0,2314
et celle dePl (63) : 1, 0747.
1 Lespoints
seplacent
donc sur l’axe Ydans un ordre conforme aux relations
qui
existent entre les éléments des en-sembles 1 et J.
Analyse des correspondances
III - GENERALISATION A DES ALEAS VECTORIELS
III i.
Nous nous proposons dans ceparagraphe
degénéraliser l’analyse
ca-nonique
à des aléas vectoriels. Au lieu de considérer comme en 1 des vec- teursXl
etX2
dont lescomposantes X~
1 etXj 2
sont des variables aléatoires centrées sur(Q, S ,P),
nous supposerons maintenant que Xl et X2 sont des familles de vecteurs aléatoires centrés sur(Q, Si, P) ;
c’est dire que lesX~ et X~
sont des vecteurs aléatoires. Lescomposantes
des vecteurs serontsupposées
de variances finies(X~~L~ (Q, ~ , P)).
Soit
X i’ ~‘,
lakiè8e composante
du i1èaevecteur
de la famille oc ;(oc
=1, 2 ;
i =
1,...,
n a ; k =1,..., n~).
Dans un travailprécédent [ 5 ] ,
nous avons as-socié au vecteur
X~, l’opérateur V~
deL2 (Q, 9,P)
enlui-môme,
definipar :
L’intérêt de cet
opérateur réside,
pour unepart,
dans lespropriétés
sui-vantes,
dont on trouvera les démonstrations dans le travail cité.Propriété
III 1 -.:L’opérateur V& 1
a les mêmes vecteurs propres quel’opé-
rateur A a
défini par la matrice des var iance s et c ovar iance s du vecteurX~;
ses valeurs propres sont
égales
à celles deA ~
divisées parn~.
Dans la mesure
donc,
où les éléments propres deA a sont
caractéris-tiques
deX~, V~
estcaractéristique
de ce dernier vecteur.Propriété III 1, b : L’opérateur V’ appartient
à la classe desopérateurs
deHilbert-Schmidt
(la
somme des carrés des valeurs propres estfinie) et,
surcette
classe,
onpeut
définir unproduit
scalairequi
la munit d’une structured’espace
de Hilbert.En
particulier,
on en déduit une distance ’entreopérateur qui
est nullesi et seulement si les deux
opérateurs
en cause ont les mêmes élémentspropres.
Propriété
III : Pour deuxopérateurs 1et Vj,
ceproduit
scalairepeut
s’écrire :
1. e
V,.’
pAppelons
H la classe desopérateurs
de Hilbert-Schmidt. En identifiant lesX~aux opérateurs V~qui
leur sontassociés,
nous pouvons énoncer le pro- blème del’analyse canonique
pour des aléas vectoriels de la manière sui- vante :Trouver U de norme unité dans le sous-espace de H
engendré
par lesVi
(i
= 1,...,ni)
et V de norme unité dans le sous-espace de Hengendré
par lesV2 (j
=1,..., n 2 ) )
tel queU , V
> soit maximum.Ce
problème qui
est exactement le même que celui que nous avonsposé
en Inous conduira aux mêmes solutions à savoir les éléments propres de la ma- trice
~22 ~21 ~n ~12
danslaquelle :
et :
III2. Exemple.
Pour illustrer ceparagraphe,
nous avons retenu une familleXl
de trois vecteursX~, Xi
etX~ ayant
chacun troiscomposantes ;
X2 estune famille de trois vecteurs à deux
composantes
chacuns.X~ (cx = 1, 2 ;
i = 1,
2, 3)
est le vecteur des notes obtenues par un étudiant pour la ma- tière ipendant
l’année a.Nous nous proposons d’étudier
globalement
les liaisons entre les ensembles de notesX2 , X~,
@X 2
et leur influence sur les ensemblesX i , X~, X i
sur labase d’une
population
de 110 étudiants.La matrice 2 est donnée par la table
111~ :
Table
1112. a
On en déduit successivement :
La table
III2.b
donne les vecteurs propres normés au sens duproduit
sca-laire que nous avons défini :
Il faut
comprendre
Notons que les valeurs propres sont
respectivement 0, 2510 ; 0,0238
et 0.On
peut
en déduiredéjà
que la liaison entre les deux familles de vecteurs est assez faible.En inversant la matrice des coefficients des
V1
sur lesX 2,
on obtientles xoefficients des
X2
sur lesV 1.
La table1112. c
les fournit : T ableIII 2. c
Il faut
comprendre : X 2 = 0 , 5212 VI
+0 , 5343 V2
+0 , 2445 Va .
On
peut également
calculer les coordonnées dePl (X~)1.1. 2. 3 sur
les axesVi,V,, V3 .
’ ’
Pour les deux
premiers
axes, les résultats sontconsignés
dans la tableIII 2. d :
16 T able III 2. d
Que peut-on
déduire d’unereprésentation
despoints correspondant
auxX~
etau
Pl (X 1 )
dans unplan rapporté
àVI
etV 2 ?
On
peut
voir tout d’abord que les vecteursX~, X~
etX~
sont peu liés entreeux
puisque
des liaisons étroites se traduiraient par unegrande proximité
de
ces points.
On constateégalement
que lespoints représentant Pl (X~),
Pl (X1 j
etPl (X~)
restent assezéloignés
despoints représentant X 2, X~, X 2 :
c’est dire que ces derniers
expliquent
peu lesprécédents.
Onperçoit
tou-tefois l’influence
prépondérante
deX 2 dans P 1 (X i)
et celle deX~
dansPl (X~)
par leur
position
parrapport
à l’axeVi.
Analyse canonique généralisée
IV - CONCLUSION
A une
époque
où le nombre des donnéesdisponibles augmente
sanscesse, la méthode
proposée
dans la troisièmepartie
de ce travailpeut
per- mettre des traitementsqui
nesupposent
ni choix effectués sans critères ob-jectifs parmi
lesvariables,
ni réduction de l’informationdisponible
par pas- passage à des moyennes ou autrescaractéristiques.
Revue de Statistique Appliquée. 1971 - vol. XIX N° 2
De
plus,
ilparait
certainqu’un
raisonnementanalogue permettra
unegénéralisation
de toutes les méthodesd’analyse
multidimensionnelle à des familles de vecteurs. C’est dans ce sens que nous travaillons.Je tiens à remercier M. Le Professeur B. CHARLES de l’aide morale et
technique qu’il
m’a sans cesseapporté ;
sans lui ce travail n’aurait pas étépossible.
BIBLIOGRAPHIE
[1]
T.W. ANDERSON - An Introduction to multivariate statisticalanalysis .
John
Xiley
andSons,
1958.[2]
J. P. BENZECRI - Distance distributionnelle etmétrique
du~2
en Ana-lyse
factorielle descorrespondances. Polycopié,
1970.[31
B. CORDIER -L’analyse
factorielle descorrespondances -
Thèse de Doc-torat de 3ème
cycle -
Université deRennes,
1965.[4]
B. ESCOFFIER(CORDIER) -
Surl’Analyse
descorrespondances.
Notepolycopiée,
1970.[5]
Y. ESCOUFIER -Echantillonnage
dans unepopulation
de variables aléa- toires réelles - Thèse de Doctorat d’Etat - Université deMontpellier,
1970.