R EVUE DE STATISTIQUE APPLIQUÉE
M ICHEL C HAVANCE
Choix des variables les plus informationnelles dans un tableau à triple entrée
Revue de statistique appliquée, tome 26, n
o1 (1978), p. 35-44
<http://www.numdam.org/item?id=RSA_1978__26_1_35_0>
© Société française de statistique, 1978, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.
sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les conditions générales d’uti- lisation (http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
35
CHOIX DES VARIABLES LES PLUS INFORMATIONNELLES DANS UN TABLEAU A TRIPLE ENTRÉE
Michel CHAVANCE
Attaché de Recherche, INSERM U 88
Méthodologie
Informatique et Statistique en MédecineCHU Pitié-Salpétrière, 91, Bd de l’hôpital 75634 Paris cédex 13
1. INTRODUCTION
On s’intéresse de
plus
enplus
àl’analyse
des données contenues dans destableaux à
triple
entrée[9], appelées
souvent données évolutiveslorsque
la troi-sième dimension est le
temps.
Nousn’envisagerons
pas dans cet articlel’aspect spécifique
des données évolutives(troisième
dimensionordonnée).
Différentes méthodes ont étéproposées
pour décrire les données contenues dans de tels ta- bleaux engénéralisant l’analyse
en facteurs communs etspécifiques [10, 3, 6],
l’ana-lyse
factorielle descorrespondances [4], l’analyse
encomposantes principales [1].
Le
problème auquel
nous nous sommes attachés est voisin : étant donné un ensemble de variables mesurées surplusieurs sujets
et dans diversessituations, quelles
va-riables choisir pour
simplifier
ultérieurement le recueil des données ?L’analyse
encomposantes principales permet
derépondre
à cettequestion
dans le cas d’untableau à double entrée soit en utilisant
l’algorithme proposé
par J.M. BRAUN[2],
soit en recherchant les variables les
plus
corrélées avec lespremières composantes.
On
peut envisager
de se ramener à cette situation enjuxtaposant
lestableaux,
c’est-à-dire en considérant les mesures effectuées sur un mêmesujet
dans différentes situations commeprovenant
desujets
distincts. Mais il n’est paspossible
de déméleraisément dans les résultats :
1)
cequi
traduit les modificationsglobales
en fonctiondes situations de recueil des données et,
2)
cequi
traduit les différences inter indivi- duelles. Il est doncpréférable
pourrépondre
à lapremière
de ces deuxquestions d’analyser
le tableau à double entrée variables x situations obtenu par moyennagesur l’ensemble des
sujets
comme cela a étéproposé
par BOUROCHE[ 1 ]
et d’utiliserpour
répondre
à la deuxièmequestion,
une méthodequi
prenne encompte
les trois dimensions du tableau initial.II. ALGORITHME POUR LA RECHERCHE DES VARIABLES
QUI
PERMETTENT LA MEILLEURE DESCRIPTION D’UNE POPULATION DANS PLUSIEURS SITUATIONSL’algorithme proposé
pour choisir les variables lesplus
informationnelles dans 1 situations consiste d’abord à effectuer uneanalyse
encomposantes principales
pour
chaque situation, puis
au vu de ces ACP à fixer le nombre q decomposantes
Revue de Statistique Appliquée, 1978 vol. XXVI N° 1
Mots-clés :
Analyse
encomposantes principales.
Tableau àtriple
entrée.36
que l’on souhaite conserver
(le
même pourchaque situation), enfin,
à chercher les q variables les mieux corrélées en moyenne avec les 1 espaces définis par les q pre- mièrescomposantes principales
dechaque analyse.
Nous
appellerons
J l’ensemble des p variables et T l’ensemble des 1 situations où elles sont mesurées.L’algorithme n’exige
pas que la troisième dimension soit ordonnée commel’est,
enparticulier,
letemps.
Soit
Xt
le tableaunt
x p des données dans la situation t.Rappelons
que l’ana-lyse
encomposantes principales
revient à effectuer une transformation pour obtenir le tableauVt = (vi , ..., vp )
oùvI
est le vecteur centré(ACP)
ou centré réduit(ACP normée)
des valeursprises
par lavariable j
pour lesnt sujets
étudiés dans la situation tpuis
à rechercher les valeurs et vecteurs propres de la matrice d’inertieVt’.Dt.Vt
avecDt
=1/nt. I.
La k-ièmecomposante principale ct k
est le vecteurpropre associé à la k-ième valeur propre
Ak
deVt. Dt . Vtl :
avec :
Si l’on souhaite conserver les q
premiers
facteurs de chacune des 1analyses effectuées,
les variables lesplus
informationnelles sont cellesqui permettent
lemieux de reconstituer les
projections
du nuage des individus dans les espaces à q di- mensions ainsi définis.L’algorithme
recherche donc les q variables lesplus proches
en moyenne de ces 1 espaces, c’est-à-dire les variables
qui permettent
au mieux dereconstituer dans les espaces
Rnt
munis duproduit
scalaire associé à la matriceDt
=1/nt.
1 leshyperplans
définis par les q vecteursct , ct , ... 1 ct
La méthode utilisée est
analogue
à celle suivie pour la sélection des variablesexplicatives
enrégression multiple :
laproximité
entre un vecteur et un sous espace vectoriel estappréciée
à l’aide du carré du coefficient de corrélationmultiple
entrece vecteur et une base du sous-espace considéré. Mais
ici,
au lieu de rechercher lesous espace le
plus proche
de la variable àexpliquer
on recherche les sous espaces lesplus proches
des sous espacesengendrés
par les qpremières
composantes dechaque analyse :
q
en
appelant Ut
le tableaunt
x q des vecteurs unitaires des qpremières composantes principales
dans la situation t et03C1tjk
le coefficient de corrélation linéaire entre lacomposante
k et le vecteurvariable !
dans la situation t. Puis on cherche la variablej 1 qui
maximise cettequantité :
Au deuxième pas, on cherche la variable
j2
laplus proche
deshyperplans orthogonaux â j 1
définis par les qpremières composantes
dechaque analyse.
Onl’obtient en
projetant
pourchaque
situation t les vecteursv1 (j
EJ)
surl’hyperplan
de
Rnt. Dt orthogonal
àvtj1 puis
en calculant la somme des normes desprojections
de ces nouveaux vecteurs sur les
hyperplans
définis par les qpremières composantes
dechaque analyse.
Revue de Statistique Appliquée, 1978 vol. XXVI N° 1
37
Plus
généralement,
au pas m + 1(m
+ 1q),
on cherche la variablejm+1
laplus proche
deshyperplans orthogonaux
aux vecteurscorrespondant
aux m va-riables
déjà
choisies et définis par les qpremières composantes
dechaque analyse.
On l’obtient en
projetant
pourchaque
situation t les vecteursVj t(j
EJ)
surl’hyper-
plan
deRn
tDt orthogonal
àv.
,V 12, ... , t
au moyen del’opérateur rIt
:où
03A0tm-1
estl’opérateur
deprojection
surl’hyperplan
deRnt Dt orthogonal
àvtj1, ..., vlm-l (avec Ilto = I).
Puis en calculant la somme des normes desprojec-
tions de ces nouveaux vecteurs sur les
hyperplans
définis par les qpremières
compo- santes dechaque analyse :
la variable cherchée
jm
+1 est cellequi
maximise cettequantité :
III. COMPARAISON AVEC LA METHODE DE RECHERCHE D’INDICATEURS DE J.M. BRAUN
J.M. BRAUN
[2]
aproposé
une méthodepermettant
de choisir un nombre limité q de variablesparmi
un ensemble de p variables seprésentant
sous la formede vecteurs de
Rn ;
parexemple
sonalgorithme permet
dedéterminer,
pour leschroniques
mensuelles des consommations d’électricité en Francequelles
branchesindustrielles fournissent le meilleur résumé de l’information
(les
variables sontalors les branches industrielles et les
sujets
les mois derelevé).
Ils’agit
d’unproblème plus simple
que celui que nous avons abordépuisqu’il
revient à se limiterà une seule situation
(c’est-à-dire
un indiceéconomique :
consommation d’élec-tricité), cependant,
nous verrons que lagénéralisation
àplusieurs
situations estpossible (on pourrait
parexemple ajouter
une troisième dimension au tableauévoqué plus
haut en considérantplusieurs
indiceséconomiques).
La méthode utilise la notion
d’opérateur
linéaire associé à un ensemble de variables et de distances entreopérateurs.
Aux variables centrées réduites(vj) j E J,
vecteurs de Rn est associé
l’opérateur
V de Rn dansRn :
1
où D = - I est la matrice associée ou
produit
scalaire covariance. Cetopérateur
an
pour vecteurs propres les
composantes principales (cj),j
=1,
p obtenues parl’analyse
du tableau des(vj),j
=1,
p et parconséquent
les ensembles(cj), j
=1,
p et
(vj), j
=1,
p ont le mêmeopérateur
associé.Revue de Statistique Appliquée, 1978 vol. XXVI N° 1
38
Ayant
défini une distance entreopérateurs
àpartir
duproduit
scalaire :où U et V sont des
opérateurs
linéaires Dsymétriques
deRn
et(ek)
une baseD-orthonormée de
Rn , J.M.
BRAUN recherche les variables fournissant le meilleur résumé au sens de laplus petite
distance entre lesopérateurs
associés à l’ensembledes variables et au sous-ensemble résumé. Il montre que la variable fournissant le meilleur résumé est celle
qui
maximise :où 03BBk
est la valeur propre associée à la k-ièmecomposante principale
ck obtenue parl’analyse
du tableau des(Vj) j E J, Pjk
le coefficient de corrélation entre lavariable j
et lacomposante
ck et C le tableau descomposantes principales.
Une foisdéterminé l’ensemble M des m variables fournissant le meilleur résumé la
(m
+1 )
ième est celle
qui
maximise :où ri
est
le coefficient de corrélation linéaire entre les variables iet j.
La
quantité
est constante. La(m
+1)
ième variable est donccelle
qui
minimise c’est-à-dire la variable la moins corrélée aux m variablesprécédemment
choisies.Si l’on
prend
commeopérateur
associé à un ensemble de vecteurs de Rn nonplus
celuiproposé
par J.M. BRAUN mais laprojection D-orthogonale
sur le sous-espace
engendré
par ces vecteurs, on remarque que lesVj(j
EJ)
et leurs compo- santesprincipales
ontégalement
mêmeopérateur
associé. Etant donnés deux sous-espaces vectoriels deRn
de dimension pl et p2,~k ((k = 1 , p1)
et03C81 (1=1, P2)
des bases de ces sous-espaces on montre aisément que la distance entre lesopérateurs
U et Vqui
leur sont associés est :On en déduit que la distance entre
l’opérateur
U associé à p variables etl’opérateur
V associé à l’une d’elles est
indépendante de j
d2 (U,V)
=p +
1 - 2 = p - 1(si
les p variablesengendrent
un espace de dimensionp).
Il n’est donc pas
possible
de déterminer une variable résuméqui
minimisecette distance. On
peut
par contre déterminer defaçon
ascendante les q variables- résuméqui
minimisent la distance entrel’opérateur qui
leur est associé et celuiRevue de Statistique Appliquée, 1978 vol. XXVI N° 1
39
associé aux q
premières composantes principales
ck de vecteurs unitaires uk . Lapremière
variablerésumé j
est cellequi
maximise :où U est le tableau n x p des vecteurs unitaires des p
composantes principales.
Une fois déterminé l’ensemble M des m meilleures
variables-résumé,
la(m
+1 )ième
est celle dont lacomposante Wj orthogonale
au sous-espaceengendré
par les vecteur
(Vj)j ~
Jmaximise.
- aaa
On retrouve, en ce limitant à une seule situation
(card
T =1)
un critèrequi
au
premier
pas estidentique
à celui utilisé dans notrealgorithme
maisqui
en diffèreaux pas suivants en raison du terme
Il Wjm 112
au dénominateur. Onpeut
montrer que ce nouveau critère conduit à retenir la variable dont lacomposante orthogonale
au sous-espace
engendré
par les vecteurs(vj) j ~ M
est laplus proche
del’espace
engendré
par les qpremières composantes principales
etce,même
si cette compo-sante est
faible,
c’est-à-dire même si la variable considérée est fortement corréléeaux variables
déjà choisies ;
ce nouveau critère est donc peu satisfaisant.La méthode de J.M. BRAUN
peut
êtregénéralisée
à 1 situations eneffectuant 1
analyses
encomposantes principales
et en minimisant la somme des distances entreopérateurs
sur l’ensemble des 1 situations : au pas m + 1 on cherche lavariable jm+1 qui
maximise :où pour
la
situation t,Ak
est lake
valeur propre,03C1tjk
le coefficient de corrélation entre la kecomposante principale
et lavariable j
etrtij
le coefficient de corrélation entre les variables i etj,
Mdésignant
l’ensemble des m variables choisies aux pasprécédents.
On voit que cet
algorithme
revient à choisir àchaque
pas la variable la moins corrélée avec les variablesdéjà
choisies tandis que notrealgorithme
revient à choisirà
chaque
pas la variable dont lesprojections
dans leshyperplans orthogonaux
auxhyperplans
définis par les variablesdéjà
choisies sont lesplus
corrélées avec lesespaces définis par les
premières composantes principales.
Les deux
algorithmes peuvent
se comparer de différentspoints
de vue.1. Volume des données à
manipuler
L’algorithme
de J.M. BRAUNexige
le calcul et la mémorisation des p coefficients de corrélation entre les variables et chacun des facteurs dechaque analyse.
Si le nombre devariables,
et donc le nombre defacteurs,
sontimportants,
laprocédure
devient très lourde. Au contraire notrealgorithme
n’utilise que les coefficients de corrélations entre les variables et les qpremiers
facteurs dechaque analyse (si
q est le nombre de variables-résumérecherché). L’allègement
estappréciable.
Revue de Statistique Appliquée, 1978 vol. XXVI N° 1
40 2. Nombre de variables-résumé obtenu
L’algorithme
de J. M. BRAUNpermet
de modifier ou de fixer aposteriori
le nombre de variables-résumé recherché. En
effet,
il fournit en un seul passageune suite d’ensembles de variables résumé dont le cardinal croît de 1 à p. Au contraire notre
algorithme
suppose que soit d’abord déterminé le nombre q de variables-résumé souhaité et il ne travaille que sur les qpremières composantes
dechaque analyse.
Cette contraintecorrespond
en fait à une démarche naturelle :analyser
les résultats desanalyses
encomposantes principales
effectuées et fixerl’importance
de la réduction de données recherchée.3.
Signification
des résultats obtenusL’algorithme
de J.M. BRAUN fournit un ensemble de q variables-résumé tel que les qcomposantes principales qui
leur sont associées soient aussiproches
que
possible (selon
un critèredonné)
descomposantes principales
calculées àpartir
de l’ensemble des variables. Notre
algorithme
fournit un ensemble de q variables résumépermettant
de reconstituer le mieuxpossible
les espaces définis par les qpremières
composantes dechaque analyse.
Dans ce cas, il estthéoriquement possible
que les variables choisies soient moins bien corrélées avec lapremière
composantequ’avec
les suivantes.Rappelons cependant
que dans uneanalyse
en composantesprincipales,
la somme des carrés des corrélations entre une compo- sante etchaque
variable estégale
à la valeur propre associée à cettecomposante.
Si la
première
valeur propre est nettementsupérieure
auxsuivantes,
ledanger évoqué plus
haut est fortimprobable.
Deplus,
la méthode de J.M. BRAUNprivi- légie également
lespremières composantes
en faisant intervenir les valeurs propres dans le calcul. Les deux méthodes doivent donc donner des résultatsanalogues :
même si les variables choisies ne sont pas les
mêmes,
les valeurs des critères de décisionqui
leur sont associées doivent êtreproches.
C’est ce que l’on vérifiera dansl’application
suivante.IV. APPLICATION A L’ANALYSE
AUTOMATIQUE
DE L’EEG - CHOIX DES PARAMETRES SPECTRAUX LES PLUS INFORMATIONNELSL’analyse spectrale
par transformée de Fourierrapide
est l’une des méthodes lesplus
utilisées enanalyse automatique
del’électroencéphalogramme.
Il fautcependant
définir desparamètres permettant
de décrire lesspectres
depuissance
ainsi obtenus. De
multiples propositions
ont été formulées en ce sens, nous en avons retenu 19 et nous avons cherché à déterminer lesparamètres
lesplus
informa-tionnels pour la
description
del’électroencéphalogramme
de l’enfant normal. Les 19paramètres
sont les suivants :DEL
puissance
de la bande delta(1,1 - 3,3 Hz)
T
puissance
de la bande theta(4,4 - 6,6 Hz)
ALP
puissance
de la bandealpha (7,7 - 12,1 Hz)
Bl
puissance
de la bande beta 1(13,2 - 16,5 Hz)
B2
puissance
de la bande beta 2(17,6 - 24,2 Hz)
B3
puissance
de la bande beta 3(25,3 - 33,0 Hz)
PA1
puissance
dupic alpha (1
raie defréquence)
Revue de Statistique Appliquée, 1978 vol XXVI N° 1
41
PA3
puissance
dupic alpha (3
raies defréquence)
PB 1
puissance
dupic
beta(1
raie defréquence)
PB3
puissance
dupic
beta(3
raies defréquence)
T/A rapport
de lapuissance
de la bande theta sur lapuissance
de la bandealpha
FA
fréquence
dupic alpha
FB
fréquence
dupic
betaACT activité de HJROTH
[7]
MOB mobilité de HJORTH
[7]
MBD mobilité de la dérivée
[5]
CX
complexité
deHJORTH [7]
CX1
complexité
d’ordre 1[ 8]
K2 carré du coefficient de résonance
[5].
Les enfants sur
qui
l’étude aporté provenaient
de trois classesd’âge
6-8 ans(n = 87),
10-12 ans(n
=82),
14-16 ans(n
=76).
Leursélectroencéphalogrammes
ont été
enregistrés
surquatre
dérivations(fronto-centrales
droite etgauche,
centro-occipitales
droite etgauche)
et dans 3 états : repos yeuxfermés,
repos yeux ouverts ethyperpnée (respiration profonde
etrapite).
Etant donné le caractèresymétrique
de
l’électroencéphalogramme
chez lesujet normal,
les dérivations droite etgauche
n’ont pas été
analysées séparément.
En raison des artefactsoculaires, l’analyse
desdérivations antérieures au repos yeux ouverts a été abandonnée. Au
total,
ce sontdonc 5 situations
qui
sont étudiées pourchaque
classed’âge.
A.
Comparaison
des deuxalgorithmes
Nous avons
appliqué l’algorithme
de J.M. BRAUN(algorithme 1)
et le nôtre(algorithme 2)
aux donnéesprovenant
des 82 enfants de la classed’âge
10-12 ans.Les trois variables les
plus
informationnelles selonl’algorithme
de J.M. BRAUN sont :1. l’activité
(ACT),
2. la
complexité (CX),
3. la
puissance
dupic
beta(PB3) ;
et selon notre
algorithme :
1. l’activité
(ACT),
2. la mobilité
(MOB),
3. la
complexité
d’ordre 1(CX1).
On remarque que pour les deux
algorithmes
l’activité est la variable laplus
informationnelle et que les résultats
divergent
ensuite(malgré l’analogie
de nom,la
complexité
et lacomplexité
d’ordre 1 sont deuxparamètres distincts).
Letableau 1
permet
de comparerplus précisément
les résultats. On constatequ’au
pas numéro 1
(choix
de la variable laplus informationnelle)
les deux variables pourlesquelles
le critère de décision est leplus
élevé sont les mêmes danschaque algo-
rithme et
qu’elles figurent
au même rang. Au pas numéro deux(choix
de ladeuxième variable la
plus informationnelle),
les trois variables pourlesquelles
lecritère de décision est le
plus
élevé sont les mêmes danschaque algorithme,
maisles rangs des deux
premières
sontpermutés.
Ce résultat est conforme à cequi
a étédit
plus
haut : bien que les variables choisies parchaque algorithme
ne soient pasRevue de Statistique Appliquée, 1978 vol. XXVI N° 1
42
les
mêmes,
les valeurs des critères de décisionqui
leur sont associées sontproches.
Au pas numéro trois les résultats ne sont
plus comparables puisque
les deuxpremières
variables choisies ne sont pas les mêmes danschaque algorithme.
TABLEAU 1
Comparaison
des résultats des deuxalgorithmes
aux deuxpremiers
pas Variables pourlesquelles
le critère de décision est leplus
élevé pourl’algorithme
de J.M. BRAUN(algorithme 1)
et pour le nôtre(algorithme 2)
B. Recherche des variables
plus informationnelles
Nous avons ensuite travaillé sur l’ensemble des trois classes
d’âge. L’analyse
du tableau 19 x 15 des centres de
gravité (19
variables et 5 x 3situations) permet
de mettre en évidence unpremier
facteurqui exprime 47,3 %
de l’inertie et oppose les situations où lerythme alpha
estprésent
à celles où il est absent. C’est évidem- ment lapuissance
de la bandealpha qui
est laplus
corrélée à cettecomposante (p = 0,96).
Le deuxièmefacteur, qui exprime 31,1 %
de l’inertie oppose les tracés lents aux tracésrapides,
il traduit enparticulier
la maturation des tracés et la sensi- bilité àl’hyperpnée.
Les variables les mieux corrélées avec ce facteur sont la mo-bilité
(p
=0,93)
et lerapport
despuissances
dans les bandes theta etalpha (p
= -0,96).
Le troisième facteurexprime 13,4 %
del’inertie,
il est bien corréléavec la
puissance
dans la bande beta 3(p
=0,81).
Lequatrième
facteurn’exprime
que
3,1 %
de l’inertie.Nous avons ensuite effectué 15
analyses
encomposantes principales
afin depouvoir
utiliser notrealgorithme.
Il a été décidé de conserver les troispremiers
facteurs de
chaque analyse qui expriment
de 70 à 76%
de l’inertie. Les trois variables lesplus
informationnelles selonl’algorithme
sont :Revue de Statistique Appliquee, 1978 vol. XXVI N° 1
1. l’activité
2. la mobilité
3. la
complexité
d’ordre 143
L’ensemble de ces résultats conduit donc à proposer de décrire le
spectre
depuissance
del’électroencéphalogramme
d’enfant au moyen dequatre paramètres : l’activité,
lamobilité,
lacomplexité
d’ordre un et lapuissance
de la bandealpha.
On
peut envisager
d’utiliser cesparamètres
dans un but de recherche oud’enseigne-
ment et même de les calculer
systématiquement,
à l’aide d’unmini-ordinateur,
afin de les utiliser en routine dans un laboratoire
d’électroencéphalographie.
V. CONCLUSION
Diverses méthodes
peuvent
êtreenvisagées
pour reconnaître les variables lesplus
informationnelles dans un tableau àtriple
entrée.L’algorithme proposé
icirepose sur
l’analyse
encomposantes principales
des matricesqui composent
ce tableau et ilpeut
êtrecomparé
à unegénéralisation
del’algorithme proposé
par J.M. BRAUN pour la recherche d’indicateurs dans les sérieschronologiques
mul-tiples qui
reposeégalement
surl’analyse
encomposantes principales.
La méthodeque nous proposons suppose que les résultats des
analyses
encomposantes princi- pales
soient étudiés d’abord afin de déterminer le nombre de variables à rechercher.Elle
présente l’avantage
que le volume des données àmanipuler
est ainsiplus
faibleque dans
l’algorithme
de J.M. BRAUN. Par contre, celui-cipermet
à l’utilisateur de choisir aposteriori
ou de modifier le nombre des variables retenues. Les deux méthodes donnentcependant
des résultatsanalogues :
mêmelorsque
les variableschoisies ne sont pas les
mêmes,
les valeurs des critères de décisionqui
leur sontassociés sont
proches.
REFERENCES
[1]
BOUROCHE J.M. -Analyse
des données ternaires : la doubleanalyse
encomposantes principales.
Thèse de doctorat de3ème cycle,
Université de ParisVI,
1975.[2]
BRAUN J.M. - Sérieschronologiques multiples :
recherche d’indicateurs.Revue de
Stat. Appliquée, XXI, 1, 1973,
81-108.[3]
CARROLLJ.D.,
CHANG J.J. -Analysis
of individual difference in multidi- mensionalscaling
via aN-way generalization
of"Eckart-Young" decompo-
sition.
Psychometrika, 35, 3 ,
1970 : 283-319.[4]
CHEVALIER A. -Analyse
factorielle évolutive. Thèse de3ème cycle,
Univer- sité de ParisVI,
1977.[5]
GOLDBERGP.,
ETEVENON P. -Analyse spectrale statistique
dusignal
EEG - Calcul de nouvelles données
spectrales caractéristiques.
Rev.Informa- tique Méd., 1973,4(1):
23-30.[6]
HARSHMAN R. - PARAFAC 2 : mathematical and technical note.Working
paper in
phonetics, n° 22, UCLA,
1972.[7]
HJORTH B. - EEGanalysis
based on time domainproperties. Electroenceph.
Clin.
Neurophysiol., 1970, 29 :
306-310.Revue de Statistique Appliquée, 1978 vol. XXVI N° 1
44
[8]
HJORTH B. - Thephysical significance
of time domaindescriptors
in EEGanalysis. Electroenceph.
Clin.Neurophysiol., 1973,
34 : 321-325.[ 9]
NAKACHE J.P. - Multidimensionalanalysis of three-way
of data. Proceed-ings of MEDCOMP
77(à paraître).
[10]
TUCKERL.R. -
Some mathematical notes on three mode factoranalysis.
Psychometrika, 31,
1966 : 279-311.Revue de Statistique Appliquée, 1978 vol. XXVI N° 1