R EVUE DE STATISTIQUE APPLIQUÉE
J.-M. L EGAY R. T OMASSONE
La comparaison de régressions orthogonales
Revue de statistique appliquée, tome 47, n
o2 (1999), p. 81-101
<http://www.numdam.org/item?id=RSA_1999__47_2_81_0>
© Société française de statistique, 1999, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
LA COMPARAISON DE RÉGRESSIONS ORTHOGONALES
J.-M.
Legay*,
R. Tomassone*** Université Claude Bernard
Lyon
1, 69622 Villeurbanne cedex* * Institut National
Agronomique,
75231 Paris cedex 05RÉSUMÉ
La
comparaison
de droites derégression orthogonales
est rarementprésentée
dansles études de
statistiques appliquées.
Cet article expose comment traiter laquestion
duparallélisme
d’axesprincipaux
calculés dans desanalyses
en composantesprincipales
surplusieurs populations.
Ilapplique
les résultats à deuxproblèmes
issus de situationsbiologiques particulières;
en outre, il montre comment s’assurer que lespremiers
axesprincipaux
sontconfondus ou seulement
parallèles.
Mots-clés :
analyse
en composantesprincipales,
comparaison depopulations,
axesparallèles,
axes
confondus
ABSTRACT
The
comparison
oforthogonal regression
is seldompresented
inapplied
statistics. This paperexplains
how we may testparallelism
ofprincipal
axescomputed
insample
from differentpopulations.
Results areapplied
to twobiological problems;
moreover, it is shown how it ispossible
to test theidentity
of the firstprincipal
axes.Keywords : principal
componentsanalysis,
several groups,parallel
axes,confounded
axesDès les
premiers
travaux sur les corrélations etrégressions (Galton, 1889),
lesbiologistes
eurent l’occasion de vouloir comparer deux ouplusieurs régressions qui représentaient,
pour une mêmesituation,
des matériels différents ou des influences variées de facteurs du milieu ou bien encore des situations référées autemps
ou àl’espace.
Il
s’agissait
d’abord derégressions
où l’une des variables estprivilégiée
parrapport
à l’autre en ce sensqu’elle
constitue unrepère
ordonné discret(ou discrétisé)
et
qu’on peut l’appeler
variableindépendante
ou aussi variableprédictrice.
Dans lecas où ces
régressions
sontlinéaires,
on connaîtdepuis longtemps
des méthodes decomparaison (comparaison
despentes,
des ordonnées àl’origine, analyse
devariance,
test de
linéarité, etc.) (Vessereau, 1960; Zar, 1984;
Tomassone et al.1992).
Mais les deux variables intervenant dans une relation
peuvent
être des variables aléatoiresclassiques
et donc par naturesymétriques.
Le besoin decomparaison
esttoujours
aussiimportant,
enparticulier
dansbeaucoup
deproblèmes d’allométrie,
mais des méthodescomplètement
satisfaisantes n’étaient pasdisponibles,
si bien que les auteurs ontemployé
diversartifices,
comme parexemple
la discrétisation de l’une desvariables,
cellequ’on
aquelque
raison de supposerindépendante,
enregroupant
ou non les données en
classes,
cequi permet
de se ramener à l’exerciceprécédent.
Nous voudrions
précisément,
sur deuxtypes d’exemples permettant
d’aborderquelques
caspossibles parmi
lesplus importants,
décrire lesprocédures qui peuvent
êtreemployées
pour discuter de tellesrelations, qu’on
aappelé régressions orthogo-
nales
(le
terme est deRagnar Frisch, qui partage
lepremier prix
Nobel d’Economieen
1969).
Le
premier exemple
que nous allons aborder concerne, chez leblé,
la relation entre lepoids
del’épi
et lepoids
desgrains
de cetépi.
Nousdisposions
d’échantillons d’un certain nombre de variétés deblé,
cultivées en Tunisie et récoltées en 1947. Les échantillons de 1947 avaient donné lieu à un article(Valdeyron, Séguéla
etLegay, 1949)
et l’un d’entre nous avait été àl’origine
del’acquisition
despremières
donnéesdans ce travail.
A l’époque
seul le niveau élevé des corrélations entre les deux variables avait étésouligné,
car ilpermettait
de substituer aupoids
desgrains
celui del’épi, beaucoup plus rapide
à obtenir dans desperspectives
de sélectionagronomique (ou variétale). L’aspect régression
n’avait pas étéabordé,
cequi
nepermettait
donc pasd’interprétation
dans desperspectives
d’allocation de ressources.Le deuxième
exemple
que nous allonsanalyser
concerne les dimensions(longueur, largeur)
d’oeufs d’insectesprovenant
d’un travailportant
surplus
de350
espèces réparties
dans 5 ordres différents. Cette fois lesperspectives
étaientà la fois
morphogénétiques (stabilité
d’uneforme)
etsystématiques (situations
d’allométrie différentes selon les niveaux
taxinomiques).
L’un d’entre nous avaitacquis
les données et commencé leurinterprétation (Legay, 1977),
enparticulier
pour tester une relation(MacMahon, 1973)
avancée dans la littérature entre lalongueur
et la
largeur (ou diamètre) d’objets biologiques, plus
ou moinsélastiques,
commepeuvent
l’être les oeufs d’insectes.Avant d’examiner ces cas concrets, nous souhaitons donner dans un
premier temps
lesjustifications
formelles desprocédures
que nous allonsemployer.
1.
Rappels théoriques : comparaison
d’axesprincipaux
1.1
Analyse
encomposantes principales
et structure de covariancesL’analyse
encomposantes principales (ACP)
est une des méthodes de réduction de données lesplus largement
utilisées. Connuedepuis
le début dusiècle,
ellea été
largement employée depuis qu’existent
des programmes réalisant les calculs nécessaires et tout utilisateur de lastatistique
endispose
aisément sur sonlogiciel.
Sous sa forme
élémentaire,
l’ACP consiste à transformer un ensemble de p variables aléatoires x,généralement corrélées,
en un autre ensemble de variables non corréléesz : l’ACP est alors une méthode de
transformation
de donnéesqui
fait passer de x àz :Ce que l’utilisateur
espère,
en faisant cettetransformation,
estqu’il
lui seraplus
faciled’analyser
z que x : parce que les nouvelles variableszj(j
=1,..., p)
ne sont pas corrélées et surtout parce
qu’il peut
n’en conserverqu’un
faiblenombre,
les k
(k p) premières.
Enpratique,
ildispose
d’un tableau de données X(n lignes,
p
colonnes)
où laligne
ireprésente
les valeurs de x pour une observation(l’unité expérimentale)
et l’ACP revient à passer de X à Z. X est la matrice des données debase,
où l’élément xij courant est la valeur de la variable xi pour l’observationi ;
Zest la matrice transformée formée des éléments zij; toutes deux sont a
priori
forméesde n
lignes
et de p colonnes. Ce passage s’effectue en calculant :2022 le vecteur moyenne des colonnes de X : x =
[x1
Y2 ...xp]’,
2022 la matrice de variances-covariances S =
[sij];
nousadopterons
la notations2
= siiqui
introduit le vecteur des écartstype
s =diag(S)
==diag(si);
e les valeurs
propres h
de S et les vecteurs propres associés uj, sachant que toute matricesymétrique,
nonsingulière (comme S) peut
être réduite à une matricediagonale
Lprémultipliée
etpostmultipliée
par une matriceorthogonale
U telle que :Les p valeurs
propres h
sont les élémentsdiagonaux
deL,
et les p vecteurs ujsont les colonnes de U. Nous supposerons que
li
>I2
>... lp
> 0.L’ACP est
généralement
utilisée pour étudier un échantillon de taille n ; il est relativement rarequ’on
se pose laquestion
de lacomparaison
de Gpopulations,
chacune étant définie par un échantillon de taille ng. Dans ce cas nous
disposons
de G matrices
Xg (g == 1,..., G),
et il existe toute une série dequestions possibles (donc d’ hypothèses statistiques)
à étudier. Si nous supposons quechaque
échantillonprovient
d’unepopulation
Normale définie par son vecteur moyenneJ.1g
et sa matricede variances-covariances
Eg
et si nous nous intéressonsuniquement
à la structuredes relations entre les
variables,
il existe une hiérarchie de testsd’hypothèses : 1) Egalité
desEg : l’hypothèse
est alors2) Proportionnalité
des matricesEg.
3)
Existence d’une matrice 03A6 commune de facteurs ou d’axesprincipaux (qui
sont alors
parallèles
ouconfondus) ; Ag
étant la matricediagonale
des valeurs propres du groupe g :4)
Existence d’un nombre k(k G)
d’axesprincipaux
communs.Les ouvrages
classiques
destatistique
multidimensionnelle traitentgénérale-
ment des
hypothèses
1 et2,
voir parexemple
dansKshirsagar (1972).
Il existe des testsgénéralement
introduits dans leslogiciels
lesplus
courants; souvent dans lesprocédures
de discriminationqui imposent
que lapremière hypothèse
soit satisfaite pourpouvoir
faire uneanalyse
discriminante linéaire. Leproblème qui
va nous intéres-ser ici est celui de la troisième
hypothèse :
«les axesprincipaux
des Gpopulations
peuvent-ils
être considérés commeidentiques
?». Laquatrième,
décrite dansFlury (1984),
ne sera pas abordée.1.2. Axes
principaux
communs(parallèles
ouconfondus)
à
plusieurs populations (Flury, 1984)
1.2.1 Estimation des axes
principaux
communsS’il existe une matrice 03A6 commune aux G groupes, il est alors
possible
decalculer des matrices
Zg
transformées desXg
se référant aux axesprincipaux
communs :
Notons
qu’ici
lepoint
moyen du nuage de lapopulation
a pour coordonnées dans la transformation :Pour estimer
03A6, Flury (1984)
calculela fonction
de vraisemblance commune auxEg (où Eg
estexprimée
en fonction de 03A6 en utilisant(3»
connaissant lesSg :
où C est une constante ne
dépendant
pas desEg,
etr la fonctionexponentielle
de latrace
et IEgiie
déterminant deEg.
En fait on se ramène à la minimisation de :Si
l’hypothèse H03
estvraie,
on a une matrice 03A6 commune, mais les valeurs proprespeuvent
être différentes pourchaque population
g, on pose donc :La minimisation conduit à résoudre les
p(p - 1)/2 équations :
avec les contraintes :
et les restrictions sur les valeurs propres :
Flury
et Constantine(1985)
ontpublié
unalgorithme permettant
d’effectuerces calculs. Une fois les
estimations,
F de 03A6 etLg
desAg, obtenues,
il est faciled’estimer
Eg
parFLgF’(g
=1,..., G).
On en déduit alors lastatistique
du rapport deslog-vraisemblance :
En
appliquant
la théoriegénérale
des tests derapport
de vraisemblance cettestatistique,
sousH03,
suitasymptotiquement (donc quand
min(ng)
~oo)
une loidu
X2
à(g - 1)p(p - 1)/2 degrés
de liberté.1.2.2 Procédure
simplifiée
Krzanowski
(1984)
aproposé
uneprocédure
de calculsimplifiée
pour estimer03A6,
elle consiste à calculer les vecteurs propres de la matrice de variances-covariances moyenne :Bien que les
propriétés
de cetteprocédure
n’aient pas étécomplètement étudiées,
elle a donné d’excellents résultats sur lesexemples classiques
de la littératurestatistique
comme, bienévidemment,
les Iris de Fisher. Elleprésente
des calculs«allégés»
réalisables avec leslogiciels classiques.
1.2.3
Propriétés
et nouvelle écriture de lastatistique
de testOn
peut,
enremplaçant 03A6
parF,
estimer lescomposantes principales
de chacunedes
populations g
parZg
=Xg F,
et poser :Puisque, d’après (11), Lg
=diag(Fg),
il est facile d’écrire lastatistique X2,
comme une fonction des seules matrices
Fg :
Le test
apparaît
donc comme une mesure de lacapacité
dediagonaliser
simultanément les G matrices
Sg.
La matrice F définit donc une matrice de transformationqui permet d’obtenir,
dans les Gpopulations,
des variables aussi peu corrélées quepossible;
lastatistique X 2
nousindique
si cette transformation eststatistiquement acceptable.
1.2.4
Question complémentaire : alignement
despoints
moyensUne
question complémentaire peut
se poser siH03
estacceptée :
«peut-on admettre que lesdifférents points
moyens despopulations
sontalignés
sur lepremier
axe
principal
?». Si tel est le cas, l’utilisateurpeut prendre
le même axeprincipal
pour toutes les
populations.
Pourrépondre
à cettequestion,
il suffit de faire un test de discrimination despopulations
et de ne trouverqu’une
seule variable discriminante : lepremier
axeprincipal.
Cette discrimination se fait en utilisant les matrices de données transforméesZg.
1.3. Cas de deux variables
Dans le cas où p =
2,
il estpossible
de mieux visualiser le résultat du teststatistique
en s’intéressant auxangles
des axesprincipaux
avec xi,qui représente
l’axe
horizontal,
et X2 l’axevertical;
on sait quel’ellipse
dedispersion
deprobabilité 100 (1 - ce)%
est donnée parl’équation :
où
T203B1
est lastatistique
deHotelling
liée auF03B1,
lastatistique
deFisher,
commeil est
indiqué
ci-dessus. Lapente
dupremier
axeprincipal (la
droite derégression orthogonale)
est :La
pente k2
du second axeprincipal
est obtenue enremplaçant
dans(17)
lesigne
«+» devant la racine carrée par lesigne
«-». Mais dès lors que l’on a calculé les vecteurs propres deS,
onpeut
aussiexprimer k1
en fonction des éléments vij de la matrice V =ULI/2,
par :qui
ne fait intervenir que lescaractéristiques
dupremier
vecteur propre de S. Celle du second axeprincipal
s’écrit :La
demi-longueur
dupremier
axe del’ellipse
estl1T203B1
et celle du secondl2T203B1
L’estimation del’angle
dupremier
axeprincipal
avec l’axe horizontal est= arctan
(k1).
Pour obtenir un intervalle de confiance de lapente,
il suffit de calculer :où
tn-2;a/2
est un t de Student à n - 2degrés
de liberté au niveaua/2.
Les limites deconfiance avec un coefficient de confiance
100(1- a)%
deki
sont alorstan(~ ± c).
Ces résultats sont
largement développés
dans Jackson(1991)
et, avec une formulationdifférente,
dans Jolicoeur(1998).
Ilspermettent
de voir que l’intervalle de confiance est d’autantplus
étroit queli
estgrand
parrapport
àl2,
c’est-à-dire que le coefficient de corrélation entre x, et X2 est élevé. Naturellement cette recherche n’a de sens que sil’ellipse
n’est pas uncercle,
c’est-à-dire si les deux valeurs propres sontdifférentes ;
ce
problème
estidentique
à celui du testclassique
desphéricité (Ho
«03BB1
=03BB2 »);
mais
quand
p =2,
il existe un test exact dont lastatistique
est :qui,
sousHo,
suit une loi de FisherF2,n-2.
Il fautdonc,
aupréalable rejeter
cettehypothèse
pour que la suite ait un sens(James
etVenables, 1980).
Toutes ces
questions
ont été abondamment étudiées par Jolicoeur et Mosimann(1968),
Jolicoeur(1984, 1990, 1992).
2. Examen de deux
exemples
2.1. Le cas des
épis de
bléLes données utilisées sont celles
qui correspondent
à 4 variétés de blé du travail de 1947 et en outre à une variété de blé cultivée dans larégion lyonnaise
et récoltéeen 1997
(soit
50 ansplus tard).
L’ensemble des données estprésenté
dans l’Annexe 1.La
question posée
est lacomparaison
de cescinq
échantillonsquant
à la relationpoids
del’épi
/poids
desgrains
de cetépi (dans
la suite relationEP/GR).
Ilsemble
justifié, après
avoirprésenté
lesstatistiques
élémentaires pour lescinq
variétés(moyennes, variances,
coefficients decorrélation)
et lesellipses
bidimensionnellescorrespondantes, d’envisager
deuxétapes
concernant les axesprincipaux :
e La
première
sera de tester leparallélisme
des axes; si celui-ci estrepoussé,
lasuite n’a
plus
de raison d’être.e La seconde sera de savoir si les
points
moyens des variétés sont sur lepremier
axe
principal
ou non.On trouvera les
statistiques
élémentaires dans le tableau1,
et lepositionnement
des
ellipses
bidimensionnelles dans lesfigures
1.1 et 1.2.TABLEAU 1
Matrice de variances covariances
Sg
des 5populations (dl
= ng -1)
et matrice moyenne S
(r : coefficient
de corrélation entre EP etGR).
2022
Etape
duparallélisme
L’angle
dupremier
axeprincipal (ki :
valeur de latangente, ~ :
valeur del’angle
en
degré)
a été calculé dans le cas dechaque variété,
etprésenté
avec leur intervalle de confiance.Le test du
x2 (15)
a été mis en oeuvre afin de tester leparallélisme
pour les variétés 1 et2,
pour les variétés 3 et 4 et pour les variétés 4 et 5. Ces divers calculs sont donnés dans le tableau 2.Figure 1.1. Ellipse des variétés 1 et 2, avec ellipse moyenne de ces deux variétés.
Figure 1.2. Ellipse des variétés 3 et 4, avec ellipse moyenne de ces deux variétés.
Figure 1.3. Ellipse des variétés moyenne 1 +2, 3+4, et 5.
FIGURE 1
Positionnement des
ellipses
multidimensionnelles pour lescinq
variétés(axe
horizontal :EP;
axe vertical :GR).
TABLEAU 2
Etude du
parallélisme
des axesprincipaux
Estimation des
tangentes (kl)
et desangles (19
endegrés)
avec leur intervalle de confiance
(95%).
Test de
Flury : comparaison
descinq
variétés.TABLEAU 2
(Suite)
Test de
Flury : comparaison
des variétés 1 et 2Test de
Flury : comparaison
des variétés 3 et 4TABLEAU 2
(Suite et fin)
Test de
Flury : comparaison
des variétés 4 et 5En conclusion de cette
première étape,
onpeut
dire que le testglobal
surl’ensemble des variétés entraîne le
rejet
d’axesprincipaux
communs auxcinq
variétés.Par contre on
peut
noterqu’il
y aparallélisme
entre les axesprincipaux
des variétés 1 et 2 et entre ceux de 3 et 4. Iln’y
a pasparallélisme
entre les axes des variétés 4 et5;
pour ce groupel’analyse
de discrimination s’arrête là.2022
Etape
de laconfusion
On va chercher à savoir maintenant si les axes sont confondus ou
si,
bien queparallèles,
ils restent distincts.Cas du groupe 1 et 2
Le test de
comparaison
des deux matrices n’est passignificatif puisque
la valeurdu
X2
= 0.027 à 1degrés
de liberté(tableau 2).
La structure des deuxpremières composantes principales
est :Le test de discrimination des deux variétés n’est
significatif (fortement)
que pour lapremière composante.
La seconden’apporte
aucuneamélioration,
car le testde
l’hypothèse
« Z2 n’est passignificative après
que z, ait été introduite dans ladiscrimination»,
conduit à laprobabilité P{z2/z1}
=0.3761,
donc àl’acceptation
de cette
hypothèse.
Onpeut
donc admettre que lepremier
axeprincipal
estconfondu
pour les deux variétés.
Les
équations
sont :- pour la variété 1 : EP = 1.42 + 0.6949 GR
- pour la variété 2 : EP = 0.81 + 0.7031 GR
- pour l’ensemble des deux variétés : EP = 1.12 + 0.6970 GR
C’est ce que
symbolise
legraphique
descomposantes principales
des variétés 1 et 2 de lafigure
2.Cas du
groupe 3
et 4Il existe des axes
principaux
communs(X2
=0, 199,
tableau2).
Le test decomparaison
des deux matrices n’est passignificatif.
La structure des deuxpremières composantes principales
est :D’après
legraphique
descomposantes principales
des variétés 3 et 4 de lafigure 2,
la variété 3 estplus
étendue que la variété 4 sans que lepremier
axeparaisse
différent. Le test de discrimination
indique
que les deux variétés sontdifférentes,
enparticulier
sur le facteur 2(bien qu’elles
le soient aussi sur le facteur1).
Donc lesaxes
principaux
sontparallèles,
mais non confondus.Les
équations
sont :- pour la variété 3 : EP = 1.48 + 0.7443 GR
- pour la variété 4 : EP = 0.96 + 0.7443 GR
On ne
peut
pasprendre
une mêmeéquation
pour les deux variétés. C’est ce que traduit legraphique
dans leplan
des deuxpremières composantes
des variétés 3 et 4 de lafigure
2.2.2 Le cas des
0153ufs
d’insectesCette fois nous avons choisi trois groupes,
qui
sont trois ordres d’insectes :1) Coléoptères (parmi lesquels
lehanneton,
ledoryphore,
lacoccinelle...), 2) Hémiptères (avec
lespunaises,
les pucerons, lescigales...),
3) Hyménoptères (avec
lesabeilles,
lesfourmis,
lesguêpes...). L’objet
étudiéest l’oeuf de ces
insectes,
caractérisé par deuxvariables,
lalongueur (Xl)
et lalargeur
(X2).
En fait tous les calculs etreprésentations
seront effectués sur leslogarithmes
FIGURE 2
Comparaison
des variétés 1 et 2 et des variétés 3 et 4.des mesures, en réalité 100 fois ces
logarithmes,
soit : L = 100log (X1),
l =100
log (X2).
Les données sontprésentées
en Annexe 2. Commeprécédemment
nous suivrons deux
étapes.
2022
Etape
duparallélisme
Les trois groupes admettent-ils un même ensemble d’axes
principaux?
Lesmatrices sont données au tableau 3 et le test
global présenté
au tableau 4.TABLEAU 3
Matrice de variances covariances
Sg
des 3populations (dl
= ng -1)
et matrice moyenne S
(r : coefficient
de corrélation entre L etl )
La valeur du
X2
est fortementsignificative,
on nepeut
donc pas admettre que les trois groupes aient un même ensemble de axesprincipaux.
Leproblème
ultérieurn’a donc pas de sens. Par contre, on
peut regarder
les trois groupes deux à deux. Sion fait ces
comparaisons
lesstatistiques
de test sonttoujours
desx2 à
1 dl.2022 Etude de la
confusion
La seule
comparaison possible
est donc la seconde : rien nes’oppose
à admettreque les groupes 1 et 3 aient des axes
principaux
communs(voir
le troisièmegraphique
TABLEAU 4
Etude du
parallélisme
des axesprincipaux
Test de
Flury : comparaison
descinq
variétésde la
figure 3).
Le tableau 5 résume les résultats descalculs;
il faut noter que les vecteurs colonne dans F sontpratiquement
confondus avec les bissectrices(les
deuxvariances sont
pratiquement identiques).
En
conclusion,
les deuxcomposantes principales
sont nécessaires pour différen- cier les deux groupes : les axesprincipaux
sont bienparallèles,
mais non confondus :-
(1)
L = -64.67 + l-
(3)
L = -220.18 + l3. Conclusions
générales
Nous avons examiné une série de cas : celui du non
parallélisme
des axes, celuidu
parallélisme
avec confusion des axes ou sans confusion.Dans le cas des variétés de
blé,
on estfrappé
par laproximité
desimages
derégression
dans la relation EP/GR.Quelles
que soient les variétés et le moment(la
variété 5
s’exprime
50 ansaprès
lesautres !),
la relation estremarquablement
stable.Si l’on trouve des différences
significatives
dans certainescomparaisons
soit pour lapente
soit pour l’ordonnée àl’origine,
c’est quel’analyse
discriminante se révèle extrêmementprécise,
à la mesure même de la valeur très élevée des coefficients de corrélation. Sur leplan biologique
onpeut
donc conclure que lepartage
des ressourcesFIGURE 3
Comparaison
desColéoptères
etHyménoptères
haut : variables dans les unités
d’origine
milieu : variables dans les unités
transformées
enlogarithme
bas : données dans le
plan
des deux composantesprincipales.
entre les
grains
et leursenveloppes
est difficilementmodifiable,
maispeut présenter cependant
des différences identifiables.Dans le cas des oeufs
d’insectes, qui
ont la formed’ellipsoïdes
de révolution trèsallongés,
on trouveaussi,
dans un contexte trèsdifférent,
unegrande
stabilitéde la relation
étudiée,
c’est-à-dire en définitive de la forme. Mais entre ordresd’insectes,
on constate des différencesimportantes
soit que lespentes
des axes soient différentes comme c’est le cas entreColéoptères
etHémiptères
ou entreHémiptères
etHyménoptères,
ou que ces axes soientparallèles
mais nettementdistincts,
comme c’est le cas entreColéoptères
etHyménoptères.
Ainsi doncmalgré
untemps
d’évolutionse chiffrant par millions d’années pour les
insectes,
la forme de leurs oeufs ne s’est pas diversifiée defaçon considérable,
mais des relationsallométriques simples grâce
à des
techniques statistiques précises permettent
d’identifier des situations différentesau niveau des ordres.
TABLEAU 5
Comparaison
despopulations
1 et 3Test de
Flury
Discrimination sur les
composantes principales
communesD’un
point
de vueméthodologique,
à notreconnaissance,
cetype d’approche
est
largement méconnu,
alors que lesquestions posées
en relèvent souvent. Sans doutedes améliorations sont
possibles,
en faisantappel
enparticulier
à destechniques
derééchantillonnage.
Comme bien souvent la stabilité desrésultats,
donc leurfiabilité,
serait mieuxétudiée;
nousespérons
que certainss’y
attelleront.Références
DAUXOIS
J.,
ROMAINY.,
VIGUIER S.(1993), Comparison
of Two FactorSubspaces.
Journalof Multivariate Analysis, 44,
160-178.FLURY B.N.
(1984),
CommonPrincipal Components
in kGroups. JASA,
79(388),
892-898.
FLURY B.N.
(1986), Asymptotic Theory
for CommonPrincipal Component Analy-
sis. The Annals
of Statistics,
14(2),
418-430.FLURY
B.N.,
CONSTANTINE G.(1985), Algorithm
AS211 : The F-GDiagonali-
zation
Algorithm. Applied Statistics, 34,
177-183.GALTON F.
(1889),
Natural Inheritance.MacMillan,
London.JACKSON J. E.
(1991),
A User’sguide
toprincipal
components.Wiley,
New York.JAMES
A.T.,
VENABLES W.(1980),
Interval estimates for bivariateprincipal axis,
Multivariate
Analysis,
V(P.R. Krishnaiah, editor), North-Holland,
NewYork, pp.399-411.
JOLIC0152UR
P.,
MOSIMANN J.E.(1968),
Intervalles de confiance pour lapente
de l’axemajeur
d’une distribution normale bidimensionnelle. Biométrie-Praximétrie,
IX(2),121-140.
JOLIC0152UR P.
(1984), Principal Components,
FactorAnalysis,
and MultivariateAllometry :
ASmall-Sample
Direction Test.Biometrics, 40,
685-690.JOLIC0152UR P.
(1990),
BivariateAllometry :
Interval Estimation of theSlopes
of theOrdinary
and Standardized NormalMajor
Axes and StructuralRelationship.
J.Theor.
Biol., 144,
275-285.JOLIC0152UR P.
(1992),
Bivariateallometry :
Point Estimation of theSlope
of theNormal
Major
Axis. J. Theor.Biol., 154,
35-41.JOLIC0152UR P.
(1998),
Introduction à laBiométrie, Décarie, Montréal,
4e édition.KRZANOWSKI W.J.
(1984), Principal component analysis
in the presence of group structure.Appl. Stat., 33,
164-168.KSHIRSAGAR A.M.
(1972),
MultivariateAnalysis.
MarcelDekker,
New York.LEGAY J.M.
(1977), Allometry
andsystematics
Insect egg form. J. Nat.History, 11,
493-499.MACMAHON Th.
(1973),
Size andShape
inBiology.
ScienceN.Y., 179, 4079, 1201-
1204.SCHOTT J.R.
(1988),
Commonprincipal component subspaces
in two groups.Biometrika, 75(2),
229-236.SCHOTT J.R.
(1991),
Some tests for commonprincipal component subspaces
inseveral groups.
Biometrika,
78(4),
771-777.TOMASSONE
R.,
AUDRAINS., LESQUOY-DETURCKHEIM E.,
MILLIER C.(1992),
Larégression :
nouveauxregards
sur une ancienne méthodestatistique.
Masson,
Paris.VALDEYRON
G., SÉGUÉLA J.,
LEGAY J.M.(1949)
Note surquelques propriétés biométriques
du blé et leur intérêt en matière de sélection variétale. C.R. Acad.Agric., Fr.,
9(6),
1-3.VESSEREAU A.
(1960),
Méthodesstatistiques
enbiologie
et enagronomie. Baillère,
Paris.
ZAR J.H.
(1984),
BiostatisticalAnalysis.
PrenticeHall, Inc., Englewood Cliffs,
N.J.Annexe 1
Relation
poids
del’épi (EP)/poids
desgrains
del’épi (GR)
pour
cinq
variétés(Pop)
numérotées de 1 à 5(de
1 à4,
Tunisie1947, 5 Lyon 1997)
Annexe 2 Données insectes