R EVUE DE STATISTIQUE APPLIQUÉE
J. L ELLOUCH
Quelques aspects du problème des comparaisons multiples
Revue de statistique appliquée, tome 14, n
o1 (1966), p. 25-37
<
http://www.numdam.org/item?id=RSA_1966__14_1_25_0>
© Société française de statistique, 1966, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (
http://www.sfds.asso.fr/publicat/rsa.htm
) implique l’accord avec les conditions générales d’uti- lisation (
http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
25
QUELQUES ASPECTS
DU PROBLÈME DES COMPARAISONS MULTIPLES
J. LELLOUCH *
I - INTRODUCTION
L’homogénéité
d’un groupe de kpopulations
s’étudie habituellement par un testglobal (~2, F... ) qui,
si son résultat estsignificatif, indique
seulement que l’ensemble est
hétérogène
sans aucune autreprécision.
Cependant
lesproblèmes
où cettesimple
conclusion suffit sont rares ; d’où la nécessité d’étudier d’autres situations.Ces autres situations
peuvent
être les suivantes :1°) -
L’ordre descomparaisons
estimposé
par la nature du pro- blème : unexemple
en est donné par lesenquêtes
médicales oùdisposant
de
plusieurs
groupes témoins et d’un groupemalade,
on estlogiquement
conduit à tester
l’homogénéité
de l’ensemble des groupestémoins,
et sicette
homogénéité
estacceptée,
à comparer le groupe malade a cet ensemble.2°) -
Une despopulations joue
un rôleparticulier. Exemple :
Com-paraison
deplusieurs
traitements à un même témoin - un casparticulier
de ce
problème
est celui où :3°) -
On compareplusieurs
variances d’effetsorthogonaux,
à unemême variance
résiduelle, dans
les modèlesd’analyse
de la variance.4°) -
On essaie depréciser après
un test d’ensemblesignificatif
où se trouvent les différences.
Le
point 1°)
est cité pour mémoire. Il ne sera pas étudié ici. Lepoint 2°)
sera étudié à propos des deuxpoints
suivants.Notre but est de donner une revue
générale
des méthodesexistantes,
en
renvoyant
aux articlesoriginaux
pour leur démonstration et leur utili- sationpratique.
II - CAS OU PLUSIEURS FACTEURS SONT ETUDIES SIMULTANEMENT DANS UNE MEME EXPERIENCE
Quand
on étudie dans une mêmeexpérience plusieurs
facteurs ortho- gonaux, on fait des testsFi qui
ne sont pasindépendants, puisqu’ils
onttous la variance résiduelle comme dénominateur commun. On montre
[24]
que le coefficient de corrélation entreFv1v
1 etF;2 (les
numérateurs* Unité de Recherches Statistiques de l’Institut National de la Santé et de la Recherche Médicale.
Revue de Statistique Appliquée 1966 - Vol. XIV - N 1
26
étantindépendants)
est pourv > 5.
qui
tend très vite vers 0quand
le nombre de d. d. 1. v de la résiduelleaugmente.
Cependant
même si p estnul,
se pose unproblème.
Si on a parexemple
l’habitude de travailler au seuil 5%,
doit-on fairechaque
testau seuil a = 5
%,
ou choisir des a tels que lerisque
de trouver au moinsune différence
significative
sous toutes leshypothèses
nulles soitégal
à5
% ?
Autrementdit,
doit-on contrôler lepourcentage
de conclusionserronées,
ou lepourcentage
desexpériences
où une ouplusieurs
conclu-sions sont
erronées ?
Lapremière
voie semble universellementadoptée :
elle ne
paraîtra
discutable quequand
on rencontre des interactions d’ordreélevé,
souvent difficiles àinterpréter.
Même si les F sontcorrelés,
cha- que test doit être fait au seuil de 5% ;
lepourcentage
de différences nul - lesproclamées significatives
sera alors exactement 5%.
Si on
adopte
la deuxième voie on doit trouver desfi
tels que Pr{Fi fi
pour touti}
= 1 - a, cequi peut
se faire en étudiant la dis - tribution de)(2 Max
du moins si le nombre de d. d. 1. des numérateurs desX2 res
Fi
sont les mêmes.[15]
On
peut également
étudier Pr{Fi fi
pour touti}
parexemple
pourvérifier que le modèle
d’analyse
de variance que l’on a choisi est cor-rect,
quand
on a trouvé des variances d’effetsplus petites
que la va- riance résiduelle.[17]
Ces derniers tests sont aussi utiles pour comparer du
point
devue de la
variance, plusieurs
traitements à un même témoin.III - COMPARAISONS MULTIPLES ENTRE PLUSIEURS POPULATIONS
Il
s’agit
depréciser
les sous-ensemblesqui
sonthétérogènes.
Nousétudierons
particulièrement
le cas des moyennes deplusieurs
lois nor-males ;
mais dironségalement
un mot despourcentages
et des variances.Le traitement du
problème dépend
dutype
d’erreur que l’on veutcontrôler.
- si on veut contrôler le
pourcentage
de conclusionserronées ,
on comparera 2 à 2 toutes lespopulations
par le test t habituel en pre- nant le seuil a = 5%
pour toutes lescomparaisons.
On a ainsi la méthodequalifiée
habituellement de"t - multiple".
- si on veut contrôler le
pourcentage
desexpériences
où uneou
plusieurs
erreurs depremière espèce
sontcommises,
il faut aupara- vant définir leshypothèses
nulles que l’onpeut
rencontrer au cours d’uneexpérience.
Or ce nombre croît très vite avec le nombre de
populations
à com-parer. Ainsi si on a 5 moyennes à comparer 2 à
2,
soit 10comparaisons
au
total,
il y a :Revue de Statistique Appliquée 1966 - Vol XIV - N 1
27
à
chaque Ho correspond
un certain nombre de conclusions erronéespossi-
bles :
(par exemple
sousH123
onpeut
commettre1, 2,
ou 3erreurs).
On
peut
ensuitedéfinir,
avec DUNCAN[2],
l’erreur depremière espèce
associée à chacune desHo ci-dessus ;
ainsi àH12
on associe laprobabilité
03B312 = Pr {de conclure 03BC2/03BC1
=03BC2}.
Cette fonctionpouvant
dé-pendre
comme on le verraplus
loin des vraies valeursde 41 = 1l2; 03BC3 ,
03BC4.115 on
définitY12 -
=Pr.. m (de conclure 1-l1 f 03BC2 /03BC1 = 03BC2)
le maximum étantpris
surtous les p,. De même Y 123 =
Prmax {conclure 03BC1 ~
112’ ou03BC1 ~
03BC3, ou03BC ~
03BC3/03BC1 =
03BC2 =03BC3} .
A - Méthode contrôlant le
pourcentage
de conclusions erronées(t-multiple)
Si on a à comparer 5 moyennes de même variance
supposée
connuec’est-à-dire basée sur un nombre infini de d. d.
1.,
etégale,
disons à1 ,
on conclura
que Ili
diffère deIlj (au
seuil 5%)
siAvec cette
règle Y12 =
0, 0503B3123 =
l’rob.{de
conclure à au moinsune différence
/H123} =
Pr
{R3
>2, 77} = 12, 2 %
où
Rk désigne
le"range"
d’un échantillon de k observations.de même
et
Quant à 03B312,34
ilvaut, puisque
lescomparaisons (12)
et(34)
sont in-dépendantes
et
Les
probabilités
des erreurs définies ci-dessus croissent donc très vite avec le nombre k de moyennes à comparer.Revue de Statistique Appliquée 1966 - Vol XIV - N 1
28
B - Procédés contrôlant le
pourcentage
desexpériences
où une conclusionau moins est erronée
On
peut
utiliser différents critères pour classer cesprocédés.
Certains sont basés sur des sommes de
carrés,
d’autres sur le"range"
desobservations ;
d’autres sont nonparamétriques.
Les uns sont déterminés à
l’avance,
alors que les autres se font parétapes,
c’est-à-dire que la décision depoursuivre
les calculsdépend
des résultats des calculs antérieurs.
Le tableau
ci-après
donne une classification de certains des testsdisponibles.
1)
Méthode S de SCHEFFE[19]
a)
Elle est basée sur le résultat trèsgénéral
suivant :Etant donnés le modèle
d’analyse
de la variance y =X03B2
+ e, où Xest une matrice
connue, (3
le vecteur desparamètres inconnus,
E = N(O, 02),
et un ensemble de q fonctions linéaires estimables cp linéairementindépendantes,
il y a uneprobabilité
1 - a pour que, pour les q fonctions cp et toutes leurs combinaisons linéaires03A8,
on aitn
avec
estimation des moindres carrésde 03A8, s estimation
de la variancede
etS2 =
q03B1Fqv,
ydésignant
le nombre de d.d.1. de la variance ré-siduelle,
et03B1Fqv,
la limitesupérieure
aurisque
a d’une variable F avec q et v d. d. 1.On conclut donc
que
est différente de 0si ||s>S.
, Et si toutes les cp(donc 03A8)
sont nulles on n’aqu’un risque
a d’émettre une(ou plus)
conclusion erronée.
Dans le cas où on a à comparer 2 à
2,
un ensemble de k moyennes, le nombre de formeslinéaires 03BCi - 03BCj indépendantes
est k - 1 etS 2 = (k - 1). 03B1Fk-1n -k (n :
somme des effectifs despopulations).
Dans
l’exemple
des 5 moyennes de variance unité on conclut à ladifférence - (J.. (au
seuil0. 05)
sidonc si
Si la différence mi -
m3
n’est passignificative
on dira que lecouple (ij)
est
homogène.
Revue de Statistique Appliquée 1966 - Vol. XIV - N 1
29
Mais la méthode S
permet
d’allerplus
loin et de considérer nonseulement les
couples,
maiségalement
tous les sous-ensembles de moyen-nes. En
effet,
elle est directement liée au test F par la relation suivante : si F estsignificatif,
c’est-à-dire si on conclut àl’hétérogénéité
des kmoyennes, alors une au moins des fonctions linéaires
des -
03BCj,(c’est -
à-dire en fait un
"contraste",
fonction linéaireEci
IJ.i telle queZci = 0)
est
significativement
différente de 0 par la méthode S.Réciproquement
si un contraste au moins est non nul au seuil a, alors F est
significati-
vement
trop grand
au même seuil. Il y a doncéquivalence
entre l’exis-tence d’un contraste non nul et
l’hétérogénéité globale
des kpopulations.
Si on considère maintenant un sous-ensemble E de moyennes, il
sera considéré comme
homogène
si tous les contrastes de ces moyennes sont nuls par la méthodeS,
ethétérogène
dans le cas contraire. GABRIEL[7]
montre que pour tester si tous les contrastes d’un sous-ensemble sontnuls,
donc le sous-ensemblehomogène,
il suffit de comparerS2E
às2(k-1) 03B1Fk-1n-k où S2E = 03A3
n i(Xi - XE)2 désigne
la"somme
des carrésentre
moyen-nes"
et s2 la variance résiduelle.Le
procédé
est transitif en ce que si E esthomogène
et si E’CEalors E’ est
homogène
et inversement si E esthétérogène
et siE’DE,
E’est
hétérogène. Cependant
Epeut
êtrehétérogène
alors que tous ses sous-ensembles sonthomogènes,
et afortiori,
Epeut
êtrehétérogène
alors
qu’aucune
différence mi-mj n’est différente de O.Exemple :
Soient les 5 moyennes observées ml =0,
m2 =3,
m3 =6, m4 = 7,
m5 = 9 de variance unité.Il y a
2k -
k - 1 = 26sous-ensembles,
un sous-ensemble E est con-sidéré comme
hétérogène
au seuil 5%
siS2 E
>~24 = 9,
49.Après
calculson trouve que sont
homogènes
les ensembles(234), (345), (12)
et leurs sous-ensembles.Les différences 2 à 2
significatives
sont :(13), (14), (15)
et(25) b)
Evaluation desrisques
depremière espèce.
On
peut
les définir de deuxfaçons :
d’abord comme nous l’avons faitplus haut,
par lesquantités
dénommées y. Parexemple
03B3s12345
= Pr{de
conclure à au moins unedifférence 03BCi - 03BCj/03BC1 = 03BC2
= 03BC3 = 03BC4= 03BC5}
mais on
peut
aussi définir lesquantités 6,
telles que, parexemple
8s 12345 -
Pr{ de
conclure que l’ensemble 12345 esthétérogène/03BC1 =...=03BC5}.
Ces deux
probabilités
ne sont paségales d’après
la remarqueprécédente qu’un
ensemblepeut
êtrehétérogène,
sansqu’il
existe de différence en- tre aucuncouple
de moyennes. Evidemment 03B303B4.
Aurji
03B4s12345 vaut
pardéfinition
5%.
Pour calculer
03B4S1234
parexemple,
il suffit de remarquer[7] qu’on
2
prend
comme limite designification
deS2E s2, qui
est distribué comme3 F3n-k ,
la valeur 403B1F4n-k
d’où la relationRevue de Statistique Appliquée 1966 - Vol. XIV - N 1
30
soit dans le cas
particulier
et
c)
La méthode est extrêmementgénérale puisqu’elle s’appli-
que à toute
comparaison
deparamètres
de modèlesd’analyse
de la va-riance mais on voit que, du fait de sa
généralité,
elle conduit à des in- tervalles trèsgrands,
donc à des tests peupuissants.
d)
Elle s’étend immédiatement à lacomparaison
de pourcen-tages
etplus généralement
de variables normales ouasymptotiquement
normales. Dans le cas despourcentages
on a le théorème suivant :soient des
pourcentages pi
linéairementindépendants
et cp = E ci pi, q formes linéaires linéairementindépendantes
de cespourcentages.
Ona, si les effectifs sont
grands,
avec
Si on a k
pourcentages
à comparer 2 à2,
S2 -a x2 k-1
On
peut également
passer par l’intermédiaire de arc sinB/ p.
2)
Méthode T de TUKEY[voir
19 ou24]
a)
Elle est basée sur le théorème suivantqui
est immédiat :Si
81 03B82 .... 03B8k
sont desparamètres
inconnus dont les estimations1 2 ... k suivent
des lois normales de moyenne8i
et de même va-riance
a20’2, si
s2 est une estimation de Cy2 basée sur v d. d. 1. etindépen-
dante en
probabilité
desalors
p
{i - j -
Ts9i - 03B8j i - j
+ Ts, pour lescouples (ij) }
= 1 - cx) avec T =
a qkv,
limitesupérieure
aurisque
a du range Studen - tisé.Dans la
comparaison
de k moyennes 2 à2, on
concluraque 03BCi~ 03BCj
si |mi - mj| sm
>03B1qkv
Ce théorème se
généralise
pour tous les contrastes :si 03A8 =
Ecri 9i
avecEci = 0,
alors pour toutes lesRemarquons
que cette méthodepeut
être utilisée comme test del’hypothèse 03BC
1 = 03BC2 = = 4k au même titre que le test F dont elle nepossède cependant
ni lesqualités optimales,
si ce n’est la non distor-sion au sens de NEYMAN-PEARSON
[16J,
ni la robustesse. On dira doncqu’un
ensemble de moyennes esthétérogène
si son"étendue"
estsigni-
ficativement
trop grande.
Il y a donc avec cetteméthode, équivalence
entre
l’hétérogénéité
d’un ensemble et la différence de 2 au moins deses moyennes. Elle a les mêmes
propriétés
de transitivité que la mé-thode,
S avec enplus
ce dernierpoint
que tout ensemblehétérogène
con-tient au moins un sous-ensemble
hétérogène.
Revue de Statistique Appliquée 1966 - Vol XIV - N 1
31
Dans
l’exemple
des 5 moyennes de variance 1 on conclut à la dif- férencef-li - f-l j
si|mi - mj|> 0.05q5~ = 3, 86
On aboutit ainsi à des intervalles
plus
courtsqu’avec
la méthode S. Les différences 2 à 2significatives
sont celles obtenues par la mé- thodeS, plus
lecouple (24).
Mais la méthode athéoriquement
une li-mitation
importante :
les mi doivent avoir la mêmevariance, c’est-à-dire,
en
particulier,
être calculées sur les mêmes effectifs.b)
Calcul desrisques
depremière espèce.
On a évidemment
qui
sont bien tous inférieurs à 5%.
Onpeut également
vérifierqu’ils
sont
supérieurs
auxrisques auxquels
conduit la méthode S.c)
L’extension à despourcentages
pi ... p, calculés sur kpopulations
de même effectif n est immédiate. Deuxpourcentages
pipj
seront considérés comme différents si
où p est estimé sur l’ensemble des k
populations qui,
dansl’hypothèse nulle,
sonthomogènes.
Onpeut
aussi comparerd)
Dans le cas où les variances sontinégales
et les observa- tionscorrélées,
KRAMER[10 - 11]
propose la méthode suivante :i
etOj
de variances2i
ets,2
seront considérés comme différents siCe
procédé
se ramène à la méthode T si9.
i etj
ont la même variance et sontindépendants.
Onpeut
montrerqu’il
est conservatif c’est-à-dire que les erreurs depremière espèce
sont en faitplus petites
que celles calculées dansl’hypothèse d’égalité
des variances et de non corrélation.Il y a donc
perte
depuissance,
mais dont onpeut
penserqu’elle
estfaible si les variances ne sont pas
trop
différentes et les corrélations pastrop
fortes.3)
Procédures de NEWMAN - KEULS[9 14]
Elles sont basées sur la
règle
suivante :Tout sous-ensemble de moyennes est
hétérogène
si tous les sous-ensembles
qui
le contiennent(donc
enparticulier lui-même)
sont hété-rogènes ; l’homogénéité
d’un sous-ensemblede pmoyennes étant testée
soitpar une somme de carrés à p - 1 d. d.
1.,
soit par le range de p moyen- nes, les seuils designification
étant touségaux
à a.Revue de Statistique Appliquée 1966 - Vol. XIV - N 1
32
3 - 1 La méthode du F
multiple [ 1 - 2]
a)
soient les 5 moyennes observéesm
m2 m3 m4 m5.On conclut par
exemple
à la différence de(25)
si les sous-ensembles suivants sonthétérogènes :
(12345)
par un testaF;, (1235), (1245), (2345)
par les testsF3
(125), (235), (245)
par les tests03B1F2v
et enfin(25)
par un testaF/).
De même l’ensemble
(123)
sera dithétérogène
si les ensembles(12345) (1234) (1235)
et(123)
sonthétérogènes
par des tests F à4, 3, 3,
2 d. d. 1. Bien entendu(123) peut
êtrehétérogène
sansqu’aucune
desdifférences 2 à 2 ne soit différente de O.
Dans le cas
présent, seuls
sonthomogènes
l’ensemble(345)
et sessous-ensembles. En
particulier
les différences(12), (13), (14), (15), (23), (24), (25)
sontsignificatives.
b)
Calcul desrisques
depremière espèce :
On définit comme pour la méthode
S,
deux sortes d’erreur :03B4, risque
de trouverhétérogène
un ensemble en faithomogène
et y,risque
de trouver au moins une différence de 2 moyennes
significative
dans unensemble en fait
homogène.
Le
point
nouveau est que ces erreurs ne sontplus
constantes, maisdépendent
des vraies valeurs des moyennesqui
ne font paspartie
dusous-ensemble considéré. Il est intéressant d’en trouver des bornes in- férieure et
supérieure . [7]
En ce
qui
concerne les6, 03B412345 = 03B1
par définition.Quant
à b 1234’il est maximum
quand
on a uneprobabilité
1 de tester effectivementl’homogénéité
de cesous-ensemble,
cequi
arrivequand 03BC5
est extrême-ment différent des autres moyennes. Alors
61234 vaut.
De même toutesles autres bornes
supérieures 03B4
valent exactement ex.Pour ce
qui
est d’une borne inférieure des6,
il suffit de remar-quer que si un sous-ensemble est trouvé
significatif
par la méthode S il le sera nécessairement par ceprocédé.
Lerisque
d’erreur est doncplus grand
avec leprocédé
parétapes,
de sorte que 03B4s6,
donc finale-ment
03B4s
03B4 a._
Les 6
sont bien inférieurs aurisque
choisi sauf ceux de la forme03B4 12, 34 qui
font intervenir 2 sous-ensembles distincts.. C’estainsi
parexemple
que si le nombre de d. d. 1. de la résiduelle estinfini,
b 12 34=2 a -
a 2 = 9,
75%.
3 - 2 La méthode du range
multiple [9 - 2.J
a)
Dans le cas des 5 moyennes mi m2 m3 m4m5, la diffé-
rence
(25)
serasignificative
si les sous-ensemblesdéjà
écrits sonthété -
rogènes
par le test du range, c’est-à-dire siconditions
qui
se réduisent évidemment àPour trouver
pratiquement
lescouples hétérogènes
on fait le schémaci-dessous.
Dèsqu’un
R est nonsignificatif
on le barre ainsi que tousceux relatifs à des ensembles intérieurs.
Revue de Statistique Appliquée 1966 - Vol. XIV - N 1
33
En
effet,
pour 5%,
la table du range(avec
un nombre de d. d. 1.infini)
nous donne :Le tableau des étendues étant :
la conclusion est la même
qu’avec
le Fmultiple. (Les symboles
S et NSsignifiant significatif
et nonsignificatif
au seuil 5%)
b)
Calcul desrisques
Le raisonnement fait
précédemment s’applique
sans aucunchange-
ment, de sorte que03B3T 03B3
aTous les y sont inférieurs au seuil
choisi,
sauf ceuxqui
font inter- venir des sous-ensembles distincts.c)
L’extension à des variables normales ouasymptotiquement
normales se fait sans aucune difficulté si les variances sont les mêmes
(pourcentages
calculés sur des mêmeseffectifs).
d)
Cas où les variances sontinégales
et les échantillons corré- lés.On
pourrait
penseropérer
exactement de la mêmefaçon
en utili-sant les
approximations
de KRAMER vues à propos de la méthode T.Cependant
si les moyennes extrêmes mi, m5 ont une trèsgrande variance, RIS
ne sera pas trouvésignificatif,
cequi
conduirait alors à conclure 03BC1 = 03BC2 = 03BC3 = 03BC4 = 03BC5,même
si les différences réelles entre ces moyen-nes sont
grandes,
et leprocédé
sera très peupuissant.
Aussi DUNCAN
[3] propose-t-il
la méthode suivante :Tout sous-ensemble de p moyennes mi m2...
mp
esthomogène
sila
plus grande
des valeursest inférieure à la valeur
critique
du range de pmoyennes 03B1qpv.
Revue de Statistique Appliquée 1966 - Vol XIV - N 1
34
Deux moyennes non contenues dans le même ensemble
homogène
sont considérées comme différant
significativement ;
inversement deux moyennes contenues dans le même ensemblehomogène
ne diffèrent passignificativement.
On trouvera unexemple complètement
traité en[3].
3 - 3 Considérations sur le choix des
risques
des testssuccessifs
On a
jusqu’à présent
fait chacun des tests successifs au même ris- que a. Mais ceci n’est évidemment pas uneobligation théorique ;
et onpeut
être amené dans certains cas, à choisir des seuils designification,
donc s’il
s’agit
de tests de range, des y différents.C’est ainsi que pour limiter à 5
%
tous lesrisques de première
espèce
dans lacomparaison
de 5populations
on choisiraYi2345 = Y 1234 =
5
% ; YB23 = Y12
=2, 5 %.
Dans cette
catégorie
rentrent les tests de TUKEY(voir [2] )
et de DUNCAN[2].
Ce dernier propose de choisir les
7
de telle sorte queAinsi si
y 12
= 5%. 03B3123 = 9, 75 % ; 03B31234 = 14, 3 % et 03B312345 = 19, 5 %
La raison de ce choix est la suivante : une
comparaison de j
moyen-nes
peut
sedécomposer en j -
1comparaisons indépendantes, qui
condui-sent à des tests
indépendants
si le nombre de d. d. 1. est infini. Si pour testerces j -
1comparaisons,
onfaisait j -
1expériences indépen- dantes,
on n’aurait aucune hésitation àappliquer
à chacune un seuil de5
%
cequi
au total donnerait unrisque
depremière espèce
de1 -
0.95-’’/
valeur que l’on choisit pour
7i2....j. Quand j
devientgrand Y12.... j
tendvers 100
%,
cequi
n’est pas grave si on admet que laprobabilité
apriori
que des moyennes soient touteségales
diminuequand
le nombrede ces moyennes
augmente.
Onpeut
montrer[7]
que les bornes inférieu-res des différents
risques
sontégales
aux valeurs desrisques
d’un testT de
TUKEY,
effectué avec un seuil designification
Oc -1-y 12.... j
4 -
Comparaison
des méthodes décritesLes méthodes basées sur la somme des carrés sont
plus générales
mais moins
puissantes
que celles basées sur le range. C’est ainsi que dansl’exemple
étudié deux moyennes seront différentes par la méthode S si leur différence estsupérieure
à4,
36 et seulement3,
86 par la mé- thode T. Si on ne s’intéressequ’aux
différences 2 à 2 et non à tous les contrastes, les méthodes basées sur le range doivent êtrepréférées.
Les méthodes par
étapes
sont lesplus avantageuses :
elles sonten effet
plus puissantes.
Deplus
onpeut prendre
àchaque étape
des ris-ques variables et satisfaisant le mieux au
problème posé :
cesrisques peuvent
être choisisgrands
pour un nombreimportant
de moyennes car si onadmet,
cequi peut
êtrediscutable,
que laprobabilité
apriori
d’unetotale
homogénéité
diminue avec le nombre de moyennes, iln’y
a pas lieu de seprémunir
contre undanger qui
n’existe pas.5 - Autres
procédés
Ils sont décrits par TUKEY
[23].
Ilssupposent
que les moyennes sont calculées sur des effectifségaux.
Revue de Statistique Appliquée 1966 - Vol XIV - N 1
35
1) -
Test des intervalles successifs(Tukey) :
on teste si l’in-tervalle
qui sépare
deux moyennes observées successives n’est pastrop grand -
s’il estsignificativement trop grand,
les deux moyennes appar- tiennent à deux sous-groupes différents. La difficulté est de trouver la distribution duplus long
intervalle entre des observationsrangées
par ordre croissant. Dans le cas de k moyennes de mêmevariance,
TUKEY proposed’approcher
cette distribution par celle du t de la différence de deux variables normales. On a,cefaisant,un
test conservatif. Du fait de l’i- gnorance où on est de la distribution duplus grand intervalle,
onnepeut
calculer les différentes erreurs de
première espèce.
2) -
Test de la valeur extrême(Nair - Tukey) [ 13 - 23] :
on compare l’observationqui
s’écarte leplus
de la moyennegénérale,
àcette moyenne
générale.
NAIR a donné des tables de la"déviation
extrêmestudentisée",
et TUKEY proposel’approximation
suivante :et
(où
v est le nombre de d. d. 1. de la variancerésiduelle).
Si m - ml |
esttrop grand,
m est considérée comme différente des autres moyennes.3) -
Tests des valeurs extrêmes successifsSi le
procédé précédent sépare
une moyenne de l’ensemble onpeut
lerépéter
sur les k - 1 moyennes restantes et ainsi de suite.Supposons
que sur 12 moyennes on soit arrivé à la
disposition suivante, après
sé-paration
des moyennes extrêmes de l’ensemblem5
mem7
ma.m1, m2 , m3, m4
(ms
ma m,m8),
mg, m10, m ilon doit bien entendu tester
l’homogénéité
de(mi
m2m3 m4)
et(mg, mlo,,
ml,).
On leurapplique
le mêmeprocédé
et on aboutit à des sous-ensemblesdisjoints.
4) -
Combinaison desprocédés précédents
TUKEY propose d’utiliser successivement le
procédé 1, puis
le pro- cédé 3 et enfin un des tests décritsprécédemment
à chacun des sous-ensembles
disjoints
ainsi obtenus.6 -
Comparaisons multiples
de variancesOn
peut appliquer
les méthodesqui précèdent
àlog s2i qui
a une dis-tribution pas
trop
écartée de la normale.i.l9]
L’analogue
du test T de TUKEY pour lescomparaisons
de variances de lois normales et le testFmax
de HARTLEY[8] ;
sis;
est l’estimation de6i, 02
et02
seront considérées comme différentes sioù Max
(s2j, s2j) désigne
laplus grande
des deuxquantités s2i
ets2j.
Considéré comme test de
comparaison
d’un ensemble deplusieurs variances,
ce test est comme la méthodeT,
sans distorsion.[16]
Revue de Statistique Appliquée 1966 - Vol. XIV - N’ 1
36
7 -
Comparaison
deplusieurs populations Pl ... Pk
à un mêmestandard
Po
Ce
problème
est un casparticulier
duproblème général
traitéjus- qu’ici.
Lesrisques
depremière espèce
sont définis de lafaçon
suivanteDUNNET
[4 - 6] a
donné une solution de ceproblème quand
ils’agit
de moyennes de lois normales. Il donne des tables de
t
i telles queà la fois pour le test unilatéral et bilatéral.
8 - Méthode non
paramétriques
STEEL
[20 -
21 -22]
a donné desprocédés
nonparamétriques,
ba -sés sur la somme des rangs,
identiques
dans leurprincipe
à ceux deSCHEFFE, TUKEY,
NEWMAN - KEULS et DUNNET.IV - CONCLUSION GENERALE
Nous nous sommes efforcé de classer et de décrire les différentes méthodes
proposées
dans la littérature pour trouver les sous-ensembleshomogènes
d’un ensemble de k moyennes dont un testglobal
a montrél’hétérogénéité.
Legrand
nombre de cesprocédés
montre d’embléequ’au-
cun n’est entièrement satisfaisant. Le
plus
grave de leurs inconvénients estqu’ils
aboutissent souvent à des conclusions extrêmement difficiles voireimpossibles
àinterpréter
concrètement du fait que leur transivité n’est pasparfaite.
Dans l’ensemble de trois moyennes(ml,
m2,m3),
m
peut
être différent de m3, et m2 non différent de ml et m3. Le sta- tisticien sait bien que"non différent" signifie
seulement que la différence n’a pas pu êtreprouvée.
Mais une conclusion de ce genre aboutit néces- sairement à une erreur de deuxièmeespèce.
Aussi devrait-on essayer de formuler leproblème
en termes de décisionplutôt qu’en
termes detest
classique
où sont contrôlées les erreurs depremière espèce.DUNNET [5]
a abordé leproblème
de trouver laplus grande
de k moyennes et LAZAR[12]
étudie lapartition
d’un groupehétérogène,
en sous-groupeshomogènes
et distincts cequi
évite enparticulier
toutes les incohérences .REFERENCES
[1]
DUNCAN D.B.(1951) -
Asignificance
test for differences between ranked treatments in ananalysis
of variance.Virginia
Journal of Science2, n° 3,
171-189.[2 ]
DUNCAN D. B.(1955) - Multiple
range andmultiple
F tests. Biome - trics11,
1-42.[3] DUNCAN
D.B.(1957) - Multiple
range tests for correlated and hete- roscedastic means. Biometrics13,
164-176.Revue de Statistique Appliquée 1966 - Vol XIV - N 1
37
[4]
DUNNET C. W.(1955)
-.Amultiple comparison procedure
for compa -ring
several treatments with a control. J. Amer. Statist. Assoc50,
1096-1121.[5]
DUNNET C. W.(1960) -
Onselecting
thelargest
of k normal popu- lations means. J.R.S.S.B,
22 140.[6]
DUNNET C. W.(1964) -
New tables formultiple comparisons
with a control. Biometrics 20. 482-491.[7]
GABRIEL K.R.(1964) -
Aprocédure
fortesting
thehomogeneity
ofall sets of means in
analysis
of variance.Biometrics 20, 458-477.
[8] HARTLEY H. O. (1950) -
The maximum F. ratio as a short cut test forheterogeneity
of variance. Biometrika37,
308-312.[9]
KEULS M.(1952) -
The use of the"Studentized range"
in connection with ananalysis
of variance.Euphytica 1,
112-122.[10]
KRAMER C. Y.(1956) -
Extension ofmultiple
range tests to groupmeans with
unequal
numbers ofreplications.
Biometrics12,
307-310.[11] KRAMER
C. Y.(1957) -
Extension ofmultiple
range tests to group correlatedajusted
means. Biometrics13,
13-18.[12]
LAZAR P.(1966) -
Partition d’un groupehétérogène
en sous-groupehomogènes.
Revue destatistique appliquée (Même numéro).
[13] NAIR
K. R.(1948) - The
distribution of the extrêmme deviate from thesample
mean and its Studentized form. Biometrika35,
118-144.[14] NEWMAN
D.(1939) -
The distribution of the range insamples
fromthe normal
population, expressed
in terms of anindependent
esti-mate of standard deviation. Biometrika
31,
20-30.[15] RAMACHADRAN
K. V.(1956) -
On the simultaneousanalysis
of va-riance test. Ann. Math. Statist.
27,
521-528.[16] RAMACHADRAN
K. V.(1956) -
On theTukey
test for theequality
of means and the
Hartley
test for theequality
of variance. Ann .Math. Statist.
27,
825-831.[17] RAMACHADRAN
K.V.(1958) -
On the Studendized smallest chi- square.J.
Amer. Statist. Assoc.53,
868-872.[18] RIVES
M.(1959) -
Sur lacomparaison
des moyennes dans les es- sais varietaux. Ann. de l’Amelioration desplantes,
357-376.[19] SCHEFFE
H.(1959) - The Analysis
of Variance - New York - JohnWiley.
[20] STEEL
R.G.D.(1959) -
Amultiple comparison
rank sum test :Treatments versus control. Biometrics
15,
560-572.[21] STEEL
R.G.D.(1960) -
A rank sum test forcomparing
allpairs
of treatments. Technometrics
2,
197-207.[22 ] STEEL
R.G.D.(1961) -
Some rank summultiple comparisons
tests.Biometrics
17,
539-552.[23]
TUKEY J. W.(1949) - Comparing
individual means in theanalysis
of variance. Biometries
2,
99-114.[24 ] ULMO
J.(1959) -
Etude fondamentale de laregression
linéairemultiple.
Cours de l’I.S.U.P. - Paris.Revue de Statistique Appliquée 1966 - Vol. XIV - N 1