R EVUE DE STATISTIQUE APPLIQUÉE
H ABIB B ENALI
B RIGITTE E SCOFIER
Analyse factorielle lissée et analyse factorielle des différences locales
Revue de statistique appliquée, tome 38, n
o2 (1990), p. 55-76
<http://www.numdam.org/item?id=RSA_1990__38_2_55_0>
© Société française de statistique, 1990, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
ANALYSE FACTORIELLE LISSÉE
ET ANALYSE FACTORIELLE
DES DIFFÉRENCES LOCALES
Habib BENALI
(1)
etBrigitte
ESCOFIER(2) (1)
INSERM U287 IGR Rue Camille Desmoulins 94805Villejuif
(2)
IRISACampus
de Beaulieu 35042 Rennes Cedex et IUT Kercado 56008 VannesRÉSUMÉ
Nous proposons ici deux méthodes
qui
permettent de tenir compte, dans uneanalyse
en composantesprincipales,
d’une structure deproximité
ou decontiguïté
définie sur l’ensembledes
lignes
d’un tableau de données. Lapremière, l’analyse
lissée permetd’analyser
lestendances
générales
des données en éliminant les fluctuations locales. Ladeuxième, l’analyse
des différences locales permet, au
contraire, d’analyser
ces fluctuations en éliminant les variationsgénérales
liées auxpositions spatiales.
Nous comparons cette dernière àl’analyse
locale
(cf.
Lebart1984)
et àl’analyse
en composantesprincipales
pour des unitésstatistiques
correlées
(cf.
Caussinus1980).
Desexemples d’applications
illustrent cestechniques.
Cesméthodes permettent aussi d’étudier les relations entre un ensemble de variables et une structure de
contiguïté.
SUMMARY
In this paper, two methods are
proposed
which allow to take into account aproximity
or
contiguite
stucture defined on the set of the data matrix rows in aprincipal
componentanalysis.
With the firstmethod,
called smooth factorialanalysis,
one canstudy general
trends in the data
by removing
local fluctuations. On the contrary, the secondmethod,
calledfactorial
analysis
of local differences, is concemed with theanalysis
of these fluctuations.We compare the latter to local
analysis (Lebart 1984)
and toPrincipal Component Analysis
for correlated statisticals units
(Caussinus 1980).
1. Les données
Nous traitons ici le cas de tableaux de données traités habituellement par
l’analyse
encomposantes principales (A.C.R)
c’est-à-dire des tableaux croisant des individus et des variablesnumériques.
Nous exposerons ultérieurement lagénéralisation
des méthodesproposées
à d’autrestypes
de tableaux.On note I l’ensemble des individus et n leur nombre. On note J l’ensemble des variables et p leur nombre. On note X le tableau de
données,
son termegénéral
xij représente
la valeur de lavariable j
pour l’individu i etxi représente
la variablej.
Laplupart
dutemps,
les variables sont centrées etréduites,
poursimplifier
lesnotations,
Xdésigne
la matrice des données ainsi transformées.Sur l’ensemble des individus
existe,
deplus,
une structure decontiguïté.
Il
peut s’agir
d’uneproximité plane si,
parexemple,
les individus sont deszones
géographiques,
ou bien des zones d’uneimage.
Les sérieschronologiques
multidimensionnelles induisent aussi des structures de
proximité : chaque
momentpeut
être relié à son(ou ses) suivant(s).
Ce secondtype
de structure se retrouve dèsqu’il
existe un ordre sur l’ensemble deslignes
d’untableau,
ou sur des sous- ensembles de ceslignes,
notammentlorsque
ceslignes représentent
lespoints
de discrétisation d’une courbe. Une
contiguïté peut
être définie encore sur desrégions
d’un espace euclidien de dimensionquelconque défini,
parexemple,
parun ensemble de variables.
Nous définissons la
contiguïté
sur un ensemble I par ungraphe
dont lessommets sont les éléments de I et les arêtes relient un sommet i à ses voisins.
L’ensemble des voisins de
i, qui
est contenu dans I est notéV(i).
On note A lamatrice
carrée,
de dimensionégale
au cardinal del,
associée augraphe.
Son termegénéral,
aii’(positif
ounul),
est le"poids"
del’élément i’
dans levoisinage
de i.Si i’
n’est pas voisin dei,
cepoids
est nul. Si on veut fairejouer
le même rôle à tous les voisins dei,
lepoids
de chacun d’entre eux vaut1,
legraphe
est alorsun
graphe
nonpondéré.
Lapossibilité
depondérer
legraphe assouplit
la notionde
contiguïté
etpermet
d’introduire des notions deproximité
en donnant unpoids plus important
aux éléments lesplus proches.
Legraphe
n’est pas nécessairementsymétrique.
Cette définition de lacontiguïté
par ungraphe quelconque
est assezgénérale
pour recouvrir laplupart
des situationsauxquelles
onpeut
être confronté.On note ni =
03A3i’aii,
la somme despoids
des voisins dei,
ni n’est autre que le nombre de ces voisins si legraphe
n’est paspondéré
et on note T la matricediagonale
de dimension n dont le coefficienttu
vaut1/ni.
2. Cas d’une
partition, analyse
inter etanalyse
intraUn cas
limite, particulièrement simple,
nousguidera
dans laprise
encompte
en
analyse
factorielle de cette notion decontiguïté.
C’est le cas d’ungraphe symétrique
nonpondéré
induit par unepartition
de l’ensemble deslignes,
où lesvoisins d’un élément sont les éléments
qui appartiennent
à la même classe que lui.Nous étudions d’abord ce cas limite et nous le
généralisons
à ungraphe quelconque.
Lorsque
la structure decontiguïté
est définie par unepartition
de l’ensemble deI,
la matrice dugraphe
estcomposée
de blocs de 1(au
croisement d’une classeavec
elle-même)
et de blocs de 0(un
croisement d’une classe avec une autreclasse).
Dans ce cas, tenir
compte
de cette structure de I revient à étudier lecomportement
des différentes classes pour l’ensemble des variables.Deux
aspects complémentaires
de cette étude sont :-
l’analyse
ducomportement
moyen dechaque
classe-
l’analyse
des différences decomportement
à l’intérieur d’une même classe.La matrice de covariance
(de
corrélation si les variables sontréduites)
se
décompose
en variance inter-classe(variance
des moyennes desclasses)
etvariance intra-classe
(variance
dechaque
classe autour de samoyenne).
Etudierle
comportement
moyen declasses,
c’estanalyser
la varianceinter,
tandis quel’étude du
comportement
à l’intérieur des classes estl’analyse
de la variance intra.Nous
appellons respectivement "analyse
inter" et"analyse
intra" ces deuxanalyses.
2.1.
Analyse
inter2.1.1.
Nuage
des individusA une
partition
de I en K classes notéesIk correspond
unedécomposition
du nuage des individus en K sous-nuages
disjoints.
Lebarycentre
d’une classeIk,
dont l’effectif est noté nk a pour coordonnées :
Ce
qui peut
encore s’écrire :Analyser
la variance inter revient àplacer chaque
individu aubarycentre
desa
classe,
donc à faire l’A.C.P. de ces classes en leur affectant lepoids
nk ; ou bienencore à faire l’A.C.R d’un tableau Y de même dimension
que X
danslequel
Xijest
remplacé
par la valeur moyenne des voisins de i.2.1.2.
Nuage
des variablesLes colonnes du tableau Y définissent de nouvelles variables. Etudions la transformation du nuage des variables
lorsque
l’on passe du tableau X au tableau Y.Nous avons considéré que les variables initiales étaient
centrées;
cette transformation conserve lecentrage,
par contre les nouvelles variables ne sont pas réduites(dans
le cas extrême où une variable initiale à la même valeur moyenne pourchaque classe,
la nouvelle variable a une variance nulle et doit êtresupprimée
du
tableau).
A la
décomposition
de l’ensemble l en K classescorrespond
unedécompo-
sition de
l’espace
Rn(muni,
au coefficient1/n près,
de lamétrique usuelle)
en Ksous-espaces
orthogonaux
notésRnk :
La variable indicatrice de la classe
Ik qui
vaut 1 sur les individus de cetteclasse et 0 sur les autres individus
appartient
àRnk (c’est
la"première
bissectrice"de
Rnk).
Les nouvelles variables yj sont lesprojections
des variables xi , sur le sous-espace Eengendré
par les variables indicatrices des q classes. Eneffet,
ennotant
1k
la variable indicatrice de la classek,
et xi le vecteurreprésentant
lavariable
j,
on a :D’où:
2.2.
Analyse
intra2.2.1.
Nuage
des individusSi l’on s’intéresse à
l’analyse
des différences decomportement
entre les individus d’une mêmeclasse,
il fautsupprimer
du nuage d’individus associés à X ladispersion
inter-classe et ne conserver que ladispersion
intra-classe. Pourcela,
on translate
chaque
sous-nuageN(Ik)
pour que son centre degravité
gk coïncideavec
l’origine
des axes. Un individu i de la classeIk
estreprésenté
par la différenceavec la moyenne de sa
classe, point
dont les coordonnées sont :Dans ce nuage deux individus sont
proches
s’ilss’éloignent
de la mêmefaçon
de la moyenne de leur classe
respective.
2.2.2.
Nuage
des variablesL’ensemble des coordonnées des
points
de ce nouveau nuageregroupées
dansun tableau noté Z définit de nouvelles variables.
Cette transformation consiste tout
simplement
à centrer les variables surchaque
classe de lapartition.
Comme pourl’analyse inter,
les variables définiesdans le tableau Z sont centrées mais non réduites
(si
une variable initiale estconstante sur
chaque classe,
la nouvelle variable a une variance nulle et doit êtresupprimée
desdonnées).
Puisque
Z = X - Y et que la transformationqui permet
de passer des variables de X à celles de Y est uneprojection orthogonale
sur E(i.e.
le sous-espace
engendré
par lapremière
bissectrice de chacun desRnk)
la transformationqui permet
de passer des variables de X à celles de Z est uneprojection orthogonale
sur
l’orthogonal
de E. On retrouve ici unegénéralisation
de lapropriété classique
de l’A.C.P. : le
centrage
des variables se traduit dans le nuage d’individus parun
recentrage
du nuage et dans le nuage des variables par uneprojection
sur lesous-espace
orthogonal
à lapremière
bissectrice.2.3.
Analyse
des covariances ou des corrélationsPour
l’analyse inter,
comme pourl’analyse intra,
une alternative se pose :analyser
les variables définiesrespectivement
dansles
tableaux Y et Z sans les réduire ou en les réduisant. Les deux solutions sontpossibles
et sejustifient
suivant les cas. Les
analyses
exactes des variances inter et intracorrespondent
à lapremière
solution. Dans ce cas les résultats desanalyses
deX, Y,
Z sont directementcomparables,
notamment les valeurs propres,puisque
l’inertie des nuages définis par X est la somme des inerties des nuages définis par Y et Z.Si les variables sont
réduites,
l’influence de chacune des variables dansl’analyse
estéquilibré,
cequi
est souventintéressant,
mais lesanalyses
deX, Y,
Zconcernent des
objets
différents. Parexemple,
une variable dont les valeurs sont trèsproches
sur lesbarycentres
des classes(resp.
à l’intérieur d’une mêmeclasse)
aura une
importante
artificiellementgrande
dansl’analyse
réduite de Y(resp. Z).
3. Généralisation à un
graphe quelconque
Dans le cas d’un
graphe quelconque
définissant une structure deproximité
surles éléments de
I,
onpeut
souhaiter éliminer les variations locales pouranalyser plus
facilement les tendancesgénérales.
Dans ce cas, nous proposonsl’analyse
lissée
qui
est unegénéralisation
del’analyse
inter. Al’opposé,
onpeut
souhaiteranalyser uniquement
les variations locales. Nous proposons alorsl’analyse
desdifférences locales
qui généralise l’analyse
intra.3.1.
Analyse factorielle
lissée(A.F.L.)
Le terme de
lissage
estemprunté
aux sérieschronologiques.
Le butprincipal poursuivi
enanalyse
factorielle lissée est dedégager
lesgrandes tendances,
enéliminant l’influence des fluctuations locales. Son
principe
est trèssimple,
il consisteà
remplacer chaque point i représentant
uneligne
du tableau par le centre degravité (pondéré
par lesaii’)
de ses voisins. Il est clair que celissage
diminuel’influence des différences
locales,
ilpeut
servir à améliorer la fiabilité dans deux circonstances au moins :lorsque
les individus ne sont pas définis apriori
maiscorrespondent
à undécoupage
arbitraire(ce qui peut
seproduire
pour des zonesgéographique
parexemple); lorsque
les mesures sont entachées d’erreurs et queces mesures ont des valeurs
proches
pour des individus voisins au sens dugraphe.
Cette
analyse peut
aussi être utilisée avant uneétape
de classification sur facteurs pour "forcer" la classification et construire des classesplus contigües
que cellesauxquelles
aboutirait uneanalyse classique.
3.1.1
Nuage
des individusChaque point
i du nuageN(I)
défini dans l’A.C.R de X estremplacé
par lebarycentre
de ses voisins. On étudie alors ladispersion
entre ces nouveauxpoints.
Les coordonnées du
point représentant
l’individu i s’écrivent :Dans le cas d’un
graphe
nonpondéré,
cetteexpression
se réduit à :L’ensemble de ces coordonnées définit un tableau Y
qui
s’écrit matriciellement :Généralement le nuage d’individus n’est pas centré. En
effet,
la moyenne d’unecolonne j
s’écrit :Cette moyenne est nulle
(comme
celle de la variablexj) lorsque
le coefficient affecté à Xi’j estindépendant de i’
cequi
seproduit
notamment dans le cas d’ungraphe
departition
et dans le le cas d’ungraphe symétrique (au’
=ai’i)
où niest constant. Dans les autres cas, la moyenne
de yj peut
être différente de 0. Dansbeaucoup d’applications pratiques,
le nombre et lespoids
des voisins des éléments varient peu d’un élément à l’autre et cette moyenne est peu différente de 0.Pour avoir une bonne
représentation
de ce nuaged’individus,
il faut centrerle nuage et donc
appliquer
une A.C.R centrée au tableau Y.Dans le cas d’un
graphe
departition,
on retrouve exactementl’analyse
inter.Si le
graphe
est ungraphe complet (au’
= 1 pour tout i et touti’),
tous lespoints
du nuage sont confondus avec le
barycentre
tandis que dans le cas d’ungraphe
réduit à
l’identité, l’analyse
lissée se confond avec l’A.C.R de X.3.1.2.
Nuage
des variablesLes colonnes du tableau Y définissent de nouvelles
variables,
que nousappellons
"variables lissées". Dans le cas del’analyse inter,
à la transformation du nuage d’individus(remplacement
de tous les individus d’une classe par le centre degravité
de cetteclasse) correspond
une transformation duale du nuage des variables(projection
sur unsous-espace).
En dehors de ce cas, les variables lissées ne sont pas desprojections orthogonales
sur un sous-espace.Cependant,
dans le cas oùle
graphe
decontiguïté
n’est paspondéré,
les variables lissées se déduisent des variables initiales par une transformation non linéaireappellée "projection
sur ungraphe".
Notonsli,
la variable indicatrice des voisins de l’élémenti,
alors :D’où:
3.1.3.
Projection
des individus et des variables du tableau initialComme dans toute
A.C.R,
il estpossible
d’introduire des individus et des variables en élémentssupplémentaires.
Il estparticulièrement
intéressant d’introduire dansl’analyse
lissée les éléments du tableau initial X. Cesprojections peuvent
mêmeêtre,
dans certains cas, les résultats essentiels del’analyse
lissée.En
effet,
on souhaite souventgarder
exactement les individus initiaux pourlesquels
on a laplupart
dutemps
des informations extérieures aux donnéestraitées,
tout en les
représentant
sur des axes dedispersion générale
moinsdépendants
des variations locales que les axes issus de l’A.C.P. de X. La
projection
ensupplémentaires
des individus initiaux dansl’analyse
lisséerépond
exactement à ceproblème.
D’autrepart,
lacomparaison
desprojections
des individusd’origine
etdes individus lissés
permet d’étudier,
dans une certaine mesure, l’effet dulissage.
La
projection
des variables initialespermet
de visualiser leurposition
et de lescomparer aux variables
d’origine.
Cecipermet,
dans une certaine mesure, d’étudier les relations entre la structure deproximité
et legraphe :
une variable très liéeau
graphe,
i.e. dont les valeurs varient assez peu localement est peu modifiée par lelissage
cequi
n’est pas le cas pour les variables non liées augraphe.
Dansla
plupart
desapplications pratiques
les deuxprojections
d’une même variable sont assezproches
car, d’unepart,
leslissages
choisis modifient souvent assez peu les variables et, d’autrepart,
les différences entre variables initiales et variablesprojetées
ne sont pas forcément bien mises en évidence sur les axes d’inertie des variables lissées. Cette situation estparticulièrement
nette dans le cas d’ungraphe
de
partition (analyse inter)
où lesprojections
des variables lissées et des variables initiales se confondent sur tous les axespuisque
le nuage des variables lissées estune
projection
du nuaged’origine.
3.2.
Analyse factorielle
desdifférences
locales(A.F.D.L.)
Le
problème
étudié estl’opposé
duprécédent.
On cherche àanalyser
lesdifférences
locales,
en sedégageant
des tendancesgénérales
liées à lacontiguïté, (comme
parexemple
ungradient nord-sud) qui peuvent
déterminer lespremières composantes principales
dans une A.C.Rclassique.
Leprincipe
del’analyse
desdifférences locales est exactement le
complémentaire
de celui del’analyse
lissée.Il consiste à
remplacer chaque point représentant
uneligne
du tableau X parses différences avec le
barycentre
de ses voisins. Uneanalyse
des différences localespermet
notamment de mettre en évidence des "anomalies"régionales,
desaccidents dans des séries
chronologiques.
Ellepermet
aussi de regrouper deslignes qui
diffèrent entreelles,
mais dont lepoint
commun est de s’écarter de la même manière de leurvoisinage respectif.
Une telleanalyse peut,
commel’analyse lissée,
être utilisée comme
première étape
d’une classification basée sur les différences locales.Des solutions différentes sont
proposées
dans[5]
et[2]
pour résoudre de,problèmes
assezproches.
3.2.1.
Nuage
des individusChaque
individu i estreprésenté
par unpoint qui représente
sa différenceavec le
barycentre
de ses voisins. Ses coordonnées s’écrivent :L’ensemble de ces coordonnées définit un tableau Z
qui
s’écrit matricielle- mentDeux individus sont
proches
s’ilss’éloignent
de la mêmefaçon
de leursvoisins
(dans
le nuaged’origine
ces mêmespoints peuvent
être trèséloignés).
Il résulte de la relation entre les tableaux Y et
Z,
que ce nuage n’est centré quelorsque
le nuage d’individus défini dansl’analyse
lissée l’est(graphe
departition
ousomme des
poids
des voisins constants dans ungraphe symétrique).
Pour avoir unebonne
représentation
de ce nuaged’individus,
il faut le centrer et doncappliquer
une A.C.R centrée au tableau Z.
Dans le cas d’un
graphe
departition,
on retrouve exactementl’analyse
intra. Dans le cas d’un
graphe complet,
le nuage n’est pasmodifié, l’analyse
desdifférences locales se confond avec l’A.C.R de X tandis que dans le cas d’un
graphe
réduit à l’identité tous lespoints
du nuage sont confondus.3.2.2.
Nuage
des variablesLes colonnes du tableau Z définissent de nouvelles variables que nous
appellons
différences locales. Notons que ces variables ne se déduisent des variables initiales par uneprojection
sur un sous-espace de Rn que dans le cas d’ungraphe
de
partition.
La norme de ces variables est d’autantplus
faible que les variables sontplus
liées augraphe.
Cetteanalyse
mettra donc en évidence les variables peu liées à la structure decontiguïté.
3.2.3.
Projection
des variables et des individus du tableau initialDes individus et des variables
peuvent
être introduits en élémentssupplémen- taires,
mais lesprojections
du tableau initial X ontbeaucoup
moins d’intérêt que dansl’analyse
lissée.Si dans
l’analyse lissée,
laprojection
des individus initiaux est souvent un des résultatsessentiels,
ceci est rarement le cas enanalyse
des différences locales. Eneffet,
si "l’individu lissé" a souvent peu designification
concrète etjoue plutôt
le rôle d’intermédiaire decalcul,
"l’individu local"qui
traduit l’écartau
voisinage garde pleinement
son identité propre ets’interprète
facilement : laproximité
d’individus dansl’analyse
locale traduit le mêmetype
"d’anomalies" parrapport
auvoisinage,
anomalies que l’onpeut
relier à des connaissances extérieures.La
position
des individusinitiaux, qui peuvent
être trèséloignés
des individuslocaux n’est
guère utile,
ni pourl’interprétation
d’axesqu’ils
ne déterminent pas, ni pour leur étude propre. D’autrepart,
si lacomparaison
despositions
des individuslissés et des individus initiaux
(qui
se réfèrent toutes deux à des notionsglobales)
a un sens, celle des
positions
desindividus
locaux et des individus initiauxqui
seréfèrent à des notions très différentes est
beaucoup plus
délicate.La
plupart
dutemps,
lesprojections
des variables initiales(très
différentes des variables de différenceslocales)
neprésentent guère
d’intérêt. Comme pourl’analyse lissée,
dans le cas d’ungraphe
departition,
cesprojections
sont confon-dues avec celles des variables des différences locales
puisque
le nuageanalysé
estune
projection
du nuaged’origine
sur un sous-espace.3.3.
Analyse
des covariances ou des corrêlartzonsL’analyse
lissée etl’analyse
des différences locales aboutissent à desA.C.P.,
l’une du tableau Y et l’autre du tableau Z = X - Y. On
peut analyser
ces deuxtableaux,
soit en réduisant lesvariables,
soit en ne les réduisant pas.En dehors du cas de la
partition,
l’inertie des nuages définis par X n’est pas la somme des inerties des nuages définis par Y etZ,
lesbarycentres
des nuages d’individus associés à X et à Y ne sont d’ailleurs même pastoujours
confondus.L’analyse
lissée etl’analyse
des différences locales ne sont donc pas, dans le casgénéral,
lesanalyses
de deuxparties
exactementcomplémentaires
de l’inertie de X. De cefait,
les résultats de ces différentesanalyses,
et notamment les valeurs propres, sont à comparer avecprécaution,
même si les A.C.P. de Y et de Z sontdes A.C.R non normées. Notons que pour mettre en évidence les variables peu liées au
graphe,
il estpréférable
de ne pas normer les variables en A.F.D.L.4.
Quelques graphes particuliers
4.1. Cas d’un
graphe pondéré
Si le
graphe
n’est paspondéré,
tous les voisins d’un individu(y compris
l’individu
lui-même)
ont la même influence dans lelissage.
Si un individu abeaucoup
devoisins,
sescaractéristiques peuvent
être "couvertes" par celles deses
voisins,
cequi peut
être un inconvénient. D’autrepart,
dans le cas d’uneproximité géographique (ou temporelle)
parexemple,
onpeut souhaiter
que deszones interviennent dans le
lissage
avec uneimportance qui
décroit avec la distance.Pour résoudre ces
problèmes,
unpoids
différent de 1peut
être attribué àchaque
arête
(i, i)
dugraphe.
Cepoids
est fixé par l’utilisateur en fonction duproblème
traité.
4.2. Cas d’un
graphe
nonsymétrique (orienté)
Un
graphe
orientéexprime
unehypothèse
de liaisons nonsymétrique
entrel’ensemble des individus. Donnons deux
exemples
où il est utile d’introduire untel
graphe :
-
hypothèse
Markovienne d’ordre r sur des donnéesévolutives,
legraphe
associé est de la forme suivante
= 0 sinon
-
hypothèse
sur le sens de lapollution
due à undépartement
surl’écologie
des
départements voisins,
cegraphe
est de la forme aii’ = 1 si ipollue i’
= 0 sinon
4.3. Cas d’un
graphe
issu de variables instrumentalesLa
méthodologie présentée précédemment s’applique quand
legraphe
estconstruit de
façon
artificielle. Legraphe peut
être déduit de distances ou de simi- larités sur l’ensemble des individus définis par un groupe de variables "instrumen- tales".L’analyse
factorielle lissée renforce les liaisonsqui passent
par cesvariables,
tandis que
l’analyse
des différences locales neutralise leurs effets. Cesanalyses
ontà la base les mêmes idées introduites par Rao
[7]
sur les variables instrumentales etdéveloppées depuis
dans d’autres contextes. La thèse de R. Sabatier[9]
contientune
présentation
trèscomplète
et de nombreuses références à cesujet.
Notons sim-plement
ici quel’analyse
sur variables instrumentales(A.C.RVI.) classique peut
être considérée comme une A.C.R du tableau déduit de X enprojetant
les varia-bles sur le sous-espace
engendré
par les variables instrumentales ou sonorthogonal (A.C.RV.I. orthogonale
selonSabatier).
L’introduction de ces variables à travers ungraphe
estdifférente,
elle est non linéaire et moins stricte : au lieud’imposer
que lescomposantes principales
soient des combinaisons linéaires des variables instru- mentales(A.C.RVI.),
on cherchesimplement
dansl’analyse
lissée descomposantes qui
tiennentcompte
de ces variables en neutralisant lesdispersions
entre élémentsproches
dupoint
de vue de ces dernières.5.
Comparaison
del’analyse
des différences locales avec d’autrestechniques
Plusieurs
analyses
factorielles ont étéproposées
dans le butd’analyser
desliaisons locales entre les variables. La
plus
connue, dont les programmes ont étéimplantés
dans labibliothèque Spadn [8],
estl’analyse
locale introduite par L.Lebart
[4]
etAluja [5]. L’analyse
encomposantes principales
des unitésstatistiques
correlées a été introduite par
Aragon
et Caussinus[3]
selon unpoint
de vuedifférent. Ces
techniques peuvent
êtreregroupées
dans un contexteplus général,
celui où on introduit des
poids
éventuellement nuls ounégatifs
auxcouples
d’individus. Nous allons comparer ces
techniques
àl’analyse
des différences localesau niveau de la matrice de covariances
diagonalisée,
de lareprésentation
desindividus et à celui de la
représentation
des variables. Nous concluons par la miseen oeuvre et
l’interprétation
des résultats.5.1. Les matrices de covariances
L’analyse
locale est introduite àpartir
de la matrice de covariance.Rappelons
que le terme
général Vij’
de cette matrice V =(1 /n)X’X s’exprime
comme unesomme, soit sur l’ensemble des individus
(1),
soit sur celui descouples
d’individus(2) :
car les variables sont centrées
En
analyse locale,
lacontiguïté
est définie par ungraphe symétrique
nonpondéré.
La variance locale L est définie àpartir
de la deuxièmeexpression
ensupprimant
de la somme lescouples qui
ne sont pas reliés par une arête :où m est le double du nombre d’arêtes.
La matrice L
qui
estdiagonalisée peut
s’écrire sous la forme suivante :Dans
l’analyse
des différenceslocales,
la matrice de covariance W est définie par les nouvelles variables. Elle se déduit de lapremière expression
de V enremplaçant
les moyennesgénérales
des variables par les moyennes localesyij :
Le dernier terme, le
produit
des moyennes, découle ducentrage.
Dans les deux cas, seules les différences locales
(entre
lespoints
reliés par legraphe) augmentent
les covariances : la covarianceentre j et j’
estpositive si j et j’
varient dans le même sens, parrapport
à leurs voisins. Mais cesmatrices,
etdonc les
analyses,
sont différentes.Cas d’un
graphe
departition
Nous avons vu que dans le cas d’un
graphe
departition,
la varianceWjj’
seconfond avec la variance intra.
Calculons la variance locale L pour une
partition :
qui
n’est autre que :La variance locale ne se confond avec la variance intra que dans le cas où toutes les classes ont le même nombre d’éléments
puisque chaque
individu a unpoids proportionnel
au nombre d’éléments de sa classe : les individus des classes d’effectif fort interviennent avec uneimportance plus grande
que ceux des classes d’effectif faible. Il en de même dans ungraphe quelconque.
Dans la variance localeL, chaque
individu intervient avec unpoids égal
au nombre de sesvoisins,
les individus
ayant
unvoisinage
richepèseront
doncplus
que ceuxqui
ont unvoisinage
pauvre; alors que dans W tous les individusgardent
le mêmepoids.
Graphe pondéré
et nonsymétrique
Bien que les programmes
proposés
ne lepermettent
pasactuellement, l’analyse
localepeut
êtregénéralisée
sans difficultéparticulière
à ungraphe pondéré,
comme le propose LeFoll[5]
en mettant dansl’expression (2)
de lavariance,
despoids
aux arêtes.Covariance et corrélations
Dans les deux cas, il est
possible
de considérer une matrice de corrélation aulieu d’une matrice de covariance.
5.2.
Représentaction
des individusDans
l’analyse locale,
les individus du tableau initial Xn’apparaissent plus.
Mais on voit facilement que
l’analyse
locale estéquivalent
à une A.C.R d’un tableau B dont leslignes
sont lescouples
d’individus reliés par une arête dugraphe;
lavaleur de la
variable j
pour lecouple (i, i)
est la différence xij - xi’j.Il est tout à fait
possible
de proposer unereprésentation
des individus danscette
analyse
en mettant le tableau X ensupplémentaire
dans l’A.C.R de B. Cecirevient à
projeter
le nuaged’origine
sur des axes différents des axes d’inertie(les
axes de
projection
maximisent la somme des carrés des distances entre lescouples
de
points
reliés par une arête dugraphe).
C’est d’ailleurs ainsi que l’A.C.R sur desunités
statistiques
correlées[6]
estprésentée :
les auteursproposent
d’affecter despoids
auxcouples
depoints
individus et de chercher des axesqui
maximisent lasomme ainsi
pondérée
des carrés des distances descouples
depoints.
Leprincipe général
de cetteanalyse
est doncéquivalent
à celui del’analyse
locale.Dans
l’analyse
des différenceslocales,
les individus "locaux" sontreprésentés
directement et on
dispose
non seulement de leurqualité
dereprésentation,
maisaussi de leur contribution à
l’inertie, qui
est un indice d’aide àl’interprétation
essentiel. La
représentation
des individus que nous proposons icis’apparente beaucoup plus
à celle obtenue en mettant le tableau X en individussupplémentaires
dans l’A.C.P de Z. Nous avons
souligné
auparagraphe
3.2.3. l’intérêt limité deces
représentations.
5.3.
Représentation
des variablesL’analyse
locale étantéquivalente
à une A.C.P. d’un tableau B dont leslignes
sont les arêtes du
graphe,
onpeut
définir des variables "locales" dont le domaine de définition est l’ensemble des arêtes et non l’ensemble des individus. Ces variablespeuvent
êtrereprésentées
dansl’analyse,
mais leur domaine de définition n’étant pas l’ensembleclassique, l’interprétation
estplus
délicate que celle des variables del’analyse
des différences locales.Pour comparer ces variables "locales" aux variables
initiales,
il faut que les domaines de définition soientidentiques.
Le tableau Bpeut
êtrecomplété
par deslignes
nulles pour lescouples qui
ne sont pas reliés par unearête;
l’ensemble de définition est alors l’ensemble descouples
d’individus. Les variables initiales sontreprésentées
par des variables"générales"
définies par legraphe complet.
Notonsque les variables locales sont des
projections orthogonales
des variablesgénérales
sur le sous-espace
engendré
par les arêtes dugraphe
et que dansl’analyse
localeles deux
types
de variables ont leurprojections
confondues. Pour les comparer les auteursproposent
deprojeter
en élémentsupplémentaires
les variables locales dansl’analyse
des variablesgénérales.
Notons que les variables de différences locales(tableau Z)
et les variables lissées(tableau Y) peuvent
être introduites dans l’A.C.P.du tableau initial.
5.4. A.C.P. des variables avec
métrique quelconque
L’analyse
locale etl’analyse
des différences localespeuvent
toutes deux être définies comme une A.C.P. du tableau initial X à condition de considérer encore comme une A.C.R uneanalyse
du nuage des variables danslaquelle l’espace
dereprésentation
est muni d’unemétrique (ou
d’unesemi-métrique) quelconque.
Lesfacteurs sur les variables sont alors vecteurs propres de la matrice
X’QX
oùQ désigne
la matrice associée à lamétrique.
L’analyse
des différences locales étant une A.C.Rclassique
du tableauZ =
(Id - TA)X,
ses facteurs sont vecteurs propres de la matriceZ’Z =
X’(Id - TA)’(Id - T A)X
et sont donc facteurs de l’A.C.P. de X avecQ = (Id - TA)’(Id - TA).
Pour
l’analyse locale,
lamétrique Q
est définie par(T-1 - A)
comme onpeut
le voir dansl’expression
de la matrice des covariances locales donnée dans leparagraphe
5.1.5.5. Mise en oeuvre et
interprétation
des résultatsLa mise en oeuvre de
l’analyse
des différences locales consiste àappliquer
unprogramme
classique
d’A.C.R à un tableau obtenu par une transformationsimple
des données tandis que
l’analyse
locale nécessite un programmespécifique.
Dansles deux cas, il est bien entendu nécessaire d’introduire le
graphe
decontiguïté.
L’interprétation
des résultats del’analyse
des différences locales est absolumentanalogue
à celle d’une A.C.Rclassique
et, contrairement àl’analyse locale, peut
s’appuyer
sur les indices dequalité
dereprésentation
et de contribution à l’inertie tant des variables que des individus ainsi que sur la dualité entre les variables et les individus.6.
Exemples d’application
Nous illustrons nos propos sur deux
exemples
issus des mêmes données. Ondispose
pour 89départements français
des valeurs des 11productions principales agricoles
mesurées en francs constants, ceci pourchaque
année de 1959 à 1985.Ces données nous ont été
communiquées
par Mr. Fouet de l’INRA de Rennes.Cinq productions
sontd’origine végétale :
lescéréales,
les pommes de terre, leslégumes,
les fruits et le vin. Sixproductions
sontd’origine
animale : le porc, le veau, les grosbovins,
lesovins-caprins,
le lait et les volailles.6.1.
Contiguïté géographique
Dans le
premier exemple,
nous étudions cetteproduction
pour l’année 1985uniquement.
Legraphe
considéré est celui descontiguïtés géographiques :
deux
départements
sontcontigüs
s’ils ont une frontière commune. Cegraphe
estsymétrique
et nonpondéré.
La
méthodologie
est la suivante :a)
A.C.R normée sur le tableau des données initiales(tableau X)
en mettanten variables
supplémentaires
les variables lissées.Analyse
lissée(A.C.R
norméedu tableau
Y)
etanalyse
des différences locales(A.C.R
normée du tableauZ)
enmettant dans les deux cas les variables initiales en
supplémentaires.
b)
Classification ascendantehiérarchique,
avec le critère du moment centré d’ordre deux sur les 8premières composantes
de chacune de ces troisanalyses.
c)
Partitions en six classes issues de chacune de ces hiérarchies etreprésen-
tation de ces classes sur la carte de France.
6.1.1
Analyse
du tableau initialLes taux d’inertie extraits par les trois
premières composantes principales
sont
respectivement
32.9 pour lepremier
axe, 18.16 pour le deuxième et 12.45pour le troisième. Nous commentons le
premier plan
factorielreprésenté
dans lafigure
1.FIGURE 1
Plan 1-2 de l’A.C.P. * = variable lissée Les variables
(les productions)
n est intéressant de noter les
positions
relatives des différentes variablessur ce
plan
etplus particulièrement
de comparer les variablesd’origine
et lesvariables lissées. Une
production ayant
une faible variation d’undépartement
à sesvoisins,
serareprésentée
par deuxpoints proches
tandis que la variable lissée d’uneproduction ayant
de fortes variations localess’éloignera
de la variabled’origine.
On remarque ici la forte corrélation entre les variables initiales et les variables lissées.
Certaines,
comme le porc et les volailles sont même confondues sur leplan.
Notons aussi que ces dernièresqui
n’ont pas déterminé les axes sont moins bienreprésentées.
FIGURE 2 Partition issue de l’A.C.P.