M ATHÉMATIQUES ET SCIENCES HUMAINES
H. R OUANET
D. L ÉPINE
Problèmes de méthodologie statistique. I. Introduction à l’étude de la robustesse des méthodes usuelles d’inférence statistique
Mathématiques et sciences humaines, tome 46 (1974), p. 21-33
<http://www.numdam.org/item?id=MSH_1974__46__21_0>
© Centre d’analyse et de mathématiques sociales de l’EHESS, 1974, tous droits réservés.
L’accès aux archives de la revue « Mathématiques et sciences humaines » (http://
msh.revues.org/) implique l’accord avec les conditions générales d’utilisation (http://www.
numdam.org/conditions). Toute utilisation commerciale ou impression systématique est consti- tutive d’une infraction pénale. Toute copie ou impression de ce fichier doit conte- nir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
PROBLÈMES DE MÉTHODOLOGIE STATISTIQUE
I. - INTRODUCTION A
L’ÉTUDE
DE LA ROBUSTESSE DESMÉTHODES
USUELLESD’INFÉRENCE STATISTIQUE
par
H. ROUANET ET D.
LÉPINE
RÉSUMÉ
La connaissance de la robustesse des méthodes usuelles
d’inférence statistique
vis-à-vis de diverstypes
d’écarts parrapport
au modèle de base est essentielle pour leur bonne utilisation. Dans cet article sontexposés
un certain nombre de résultats(pour
laplupart classiques.
maisparfois
malconnus)
concernantla robustesse de ces méthodes vis-à-vis de la non-normalité
(pour
lescomparaisons
de moyennes,puis
pour les
comparaisons
devariances),
vis-à-vis de lanon-équidistribution
et de lanon-indépendance, enfin
vis-à-vis des valeurs aberrantes.
SUMMARY
If
we want toapply correctly
the usual methodsof
statisticalinference
to varioustypes of
deviation in relation to the basicmodels,
we have to be awareof
their robustness. A seriesof
results have beenpresented
in this article
(most of
which are classical but sometimeshardly known) showing
the robustnessof
these methodsin relation to
non-normality (for
meancomparisons,
thenfor
variancecomparisons),
in relation tonon-equi-
distribution and
non-independence,
andfinally
in relation to aberrant values.1. INTRODUCTION
Les méthodes courantes d’inférence
statistique (tests
designification
et intervalles deconfiance)
sont construites de la manière suivante : on pose un modèle
probabiliste
que nousappellerons
modèle debase,
caractérisé par certainesconditions,
et sous ce modèle on dérive une méthodeprésentant
despropriétés d’optimalité. Fondamentalement,
une « méthode» est caractérisée par la donnée d’une variablealéatoire privilégiée (sous
le modèle debase),
dont la distribution est entièrement déterminée par lemodèle,
et àpartir
delaquelle
onconstruit,
soit lastatistique
detest,
soit l’intervalle de confiance. Parexemple,
pour l’inférence sur une moyenne, on pose le modèle selonlequel
les observations constituent un échantillonau hasard d’une distribution
parente
normale et sous ce modèle on dérive la méthode du t de Student.La variable aléatoire
(v.a.) privilégiée
est ici la différence entre la moyenne observée lVl et la moyennes
parente
p,rapportée
à l’estimation de son écarttype
2013= (procédure
dite de « studentisationo);
sous leVn
modèle
normal,
cette v.a. est(quels
que soient lesparamètres Il
eta2)
distribuée comme un t de Student à n-1degrés
deliberté,
cequi permet
d’unepart
de testerl’hypothèse
nulleHo :
a == g ,(où
o est une valeurdonnée)
au moyen de lastatistique
de test201320132013
d’autrepart
de construire l’intervalle de confiance au seuil oc :(où ta
est la valeurcritique
de ladistribution de Student au seuil
oc).
’
Or il
peut
arriver que certaines conditions du modèle de base ne soient pas réalistes dans une situation donnée. Si une condition du modèle de base n’est pasremplie,
maisqu’un
certaincontre-modèle, plus
ou moinséloigné
du modèle debase,
soitvrai,
la méthodestatistique
conduit à des résultatsqui peuvent
êtrefaussés.
Mais ce
faussage peut
êtreplus
ou moinsgrand ;
on diraqu’une
méthodestatistique
estplus
ou moins robuste vis-à-vis d’un certaintype
d’écart au modèle de base selon que cefaussage
estplus
ou moinsgrand.
La connaissance de la robustesse des méthodes d’inférences courantes
présente
donc un intérêt consi-dérable,
car c’est finalement cette connaissancequi
seulepeut permettre d’apprécier
dansquelle
mesureces méthodes
peuvent
être utilisées à bon escient. Eneffet,
leproblème essentiel,
dans l’utilisation d’une méthodestatistique,
n’est pas de savoir si le modèle souslequel
elle est fondée(modèle
debase)
estréaliste,
mais de savoir si cette méthode est suffisamment robuste. C’est
pourquoi
il n’est pas étonnant que de nom- breuses recherches aient été consacrées à l’étude de la robustesse. Le but de laprésente
note est de consti-tuer une introduction à cette
étude ;
nousprésenterons
un certain nombre de résultatsimportants
relatifsà deux conditions
classiques :
- condition de
normalité ;
- condition
d’équidistribution
etd’indépendance
des observations.Auparavant
nousindiquerons quelques
notionsgénérales :
- Pour un intervalle de
con f iance :
soit un intervalle calculé à un seuil a àpartir
du modèle de base : sous ce modèle laprobabilité
que l’intervalle ne contienne pas leparamètre
estégale
à a. Onappellera
oc le seuilnominal. Sous le contre-modèle la
probabilité
de l’événementprécédent prend
la valeur x’ : onappellera
oile seuil réel. Le
faussage
â - a estpositif
si a’ > a,négatif
si o~ oc. Onpeut également
dire que si le faus- sage estpositif
l’intervalle de confiance esttrop étroit,
et que si lefaussage
estnégati f
il esttrop large.
- Pour un test de
signification,
ondistinguera
lefaussage
sousl’hypothèse
nulle :faussage
duseuil,
et lefaussage
sous unecontre-hypothèse : faussage
de lapuissance.
Soit a un seuil donné : laprobabilité
d’ob-server un résultat
significatif
à ce seuil sil’hypothèse
nulle est vraie est par définitionégale
à a sous le modèlede
base ;
sous un contre-modèle donné cetteprobabilité
devient â : oc estappelé
le seuilnominal,
â le seuilréel. Le
faussage
duseuil,
â - oc, estpositif
si oi > a : sil’hypothèse
nulle est vraie on obtient alorstrop
de résultats
significatifs.
Si a’ oc lefaussage
du seuil estnégati f :
sil’hypothèse
nulle est vraie on obtientalors
trop peu de
résultatssignificatifs.
Parailleurs,
laprobabilité
d’obtenir un résultatsignificatif
au seuil asi une certaine
contre-hypothèse
est vraie est par définition lapuissance
du test pour cettecontre-hypothèse.
Soit 1t la valeur de la
puissance
sous le modèle debase,
1t’ sa valeur sous le contre-modèle. Lefaussage
de lapuissance
est 7C’ - 1t(c’est
naturellement une fonction de lacontre-hypothèse). Lorsque
1t’ > Tu(faussage
de la
puissance positif)
on obtienttrop
de résultatssignificatifs
sil’hypothèse
nulle estfausse ; lorsque
1t’ 1t(faussage
de lapuissance négatif)
on obtienttrop
peu de résultatssignificatifs
sil’hypothèse
nulle est fausse.Un
faussage négatif
du seuil ou unfaussage positif
de lapuissance pourraient apparaître
comme descirconstances favorables. Mais
lorsque
lefaussage
du seuil estpositif,
il en estgénéralement
de même dufaussage
de lapuissance (et inversement)
au moins pour descontre-hypothèses proches
del’hypothèse
nulle(ce qui
seconçoit
intuitivement parcontinuité) :
nous dironsalors, généralement parlant,
que le test estfaussé positivement,
etqu’il
conduit àtrop
de résultatssignificatifs.
Dans le cascontraire,
nous dirons que le test estfaussé négativement,
etqu’il
conduit àtrop
peu de résultatssignificatifs.
N.B. :
1)
Un test faussénégativement
estparfois appelé
« test conservateur » : :terminologie appropriée
aux con-textes où on cherche à favoriser
l’hypothèse
nulle(par exemple,
pour des raisonsméthodologiques,
dansdes cas où
l’hypothèse
de travail estprécisément
lanégation
de cettehypothèse nulle) :
dans cescas-là,
un
faussage négatif présente
moins d’inconvénientsqu’un faussage positif.
2) Lorsqu’un
mêmeproblème
donne lieu d’unepart
à une méthode d’intervalle deconfiance,
d’autrepart
à un test de
signification :
àpartir
des conclusions sur lefaussage
relatif à l’intervalle de confiance on passeaux conclusions sur le
faussage
relatif au test et inversement : à unfaussage positif
pour l’intervalle de con- fiancecorrespond
unfaussage positif
pour le test et inversement.Aussi,
dans la suite de cetexte,
nous borne-rons-nous aux tests de
signification.
3) Lorsque
dans unproblème
concret un contre-modèleparticulier apparaît plus
réaliste que le modèle debase,
on pourraparfois
estimer un « facteur defaussage
» etprocéder
à un « testeorrigé » ;
; souvent, ilsera au moins
possible
de connaître le sens(positif
ounégatif)
dufaussage :
on pourra alors tirer des obser- vations des conclusions afortiori, qui
dans certains caspourront
suffire àrépondre
auproblème
d’inférence que l’on se pose.Ainsi,
si lefaussage
estpositif,
une conclusion decompatibilité
avecHo
sous le modèle de base suffit à entraîner une conclusion decompatibilité
sous lecontre-modèle ;
si lefaussage
estnégatif,
une conclusion
d’incompatibilité
avecHo
sous le modèle de base entraînera af ortiori
une conclusion d’in-compatibilité
sous le contre-modèle.4)
Les considérationsdéveloppées
icis’appliquent
directement à des situations dutype
suivant : ondispose
de peu d’informations sur le modèle
vrai,
dont le modèle de basepeut cependant représenter
une formali-sation
admissible;
ons’apprête
à utiliser une méthode d’inférence que l’on saitoptimale
sous le modèlede
base;
laquestion principale qui
se pose est alors de savoir dansquelle
mesure, s’il se trouvait que le modèle vrai s’écartât du modèle debase,
les conclusions en seraient affectées : l’étude de la robustesse de la méthodepermet
derépondre
à cettequestion.
En
revanche,
dans d’autressituations,
onpeut
avoir de bonnes raisons(soit a priori,
soit au vu desdonnées si celles-ci sont
nombreuses)
de penser que le modèle de base est inadmissible.Or,
une méthodeoptimale (par construction)
sous un modèle de basepeut
ne pas l’être sous uncontre-modèle;
unproblème préalable
se pose donc : celui du choix d’une méthoded’inférence appropriée (sous
un modèle différent du modèle debase).
Ceproblème
fait intervenir de nouvelles considérations que nous ne traiterons pas danscet article’
(telles
que le conflit efficacité-robustesse que nous nous proposons d’aborder ultérieurement2)
mais il est clair
qu’un
élément de solutionindispensable
de ceproblème
sera fourni par l’étude de la robustesse des méthodes. C’estainsi,
parexemple,
que s’ilapparaît
que la méthodeprivilégiée
sous lecontre-modèle
n’apporte
pas ungain
d’efficacitéappréciable (lorsque
le contre-modèle estvrai)
parrapport
à la méthode fondée sur le modèle de
base,
on pourra choisir d’utiliser encore celle-ci pourvuqu’elle
soitrobuste,
alors même que l’on sait que le modèle de base n’est pasacceptable.
2. ROBUSTESSE VIS-A-VIS DE LA NON-NORMALITÉ : COMPARAISON DE MOYENNES
La condition de normalité des distributions
parentes
intervient dans les modèles de base de nombreuses méthodes courantes d’inférence. Or cette condition est souvent peu réaliste : contrairement à unpréjugé
encore assez
répandu
chez certainsmathématiciens,
il y a peu de caractères concretsqui
soient distribuésmême
approximativement
selon une distribution normale. Il est donc essentiel de connaître la robustesse vis-à-vis de la non-normalité des méthodes fondées sur le modèle normal. Or il se trouve que cette robustesse diffère du tout au tout selon les méthodes. Nousprésenterons ici,
pour les contraster, les méthodes de com-paraison
de moyennes et les méthodes decomparaison
de variances.Les méthodes de
comparaison
de moyennes dont il sera iciquestion
sont les suivantes :- pour un groupe d’observations : inférence sur une moyenne par la méthode du t de
Student ;
- pour deux groupes
indépendants : comparaison
des moyennes par la méthode du t deStudent ;
1. La distinction entre « robustesse d’une méthode » et « choix d’une méthode
optimale
» recoupe la distinction proposéepar Box et Tiao
(1973,
p. 152sq.)
entre « robustesse du critère » et ~t robustesse de l’inférence ».2.
H. Rouanet et D.Lépine :
« Etude d’un conflit robustesse-ef ficacité dans leproblème
de lacomparaison
de deuxmoyennes
(groupes indépendants)
», àparaître
dans Math. Sci.hum.,
n° 47.- pour
plusieurs
groupesindépendants : comparaison
des moyennes par la méthodedu 3
de Snedecor(en
d’autres termes : étude de l’effet d’un facteursystématique
enanalyse
devariance).
Dans toutes ces
méthodes,
le modèle de basepostule
que la distributionparente
des observations danschaque
groupe est normale. Unepremière
remarques’impose : lorsque
les échantillons sont de tailleélevée,
onpeut
montrer(au
moyen de théorèmes de convergencedassiques )
que la condition de normalité devient inutile etqu’on peut
laremplacer
par une conditionbeaucoup plus
faible(telle
que la condition : distributionsparentes
de variancefinie).
Il enrésulte,
parcontinuité, l’importante première propriété
suivante :la robustesse vis-à-vis de la non-normalité est d’autant
plus grande
que leseffectifs
sontplus
élevés.Pour de
petits échantillons,
on trouvera dans Scheffé(1959, chapitre 10)
unexposé
des résultatsessentiels que nous résumons ici. Le
plus important
de ces résultats est le suivant : dès que les effectifs des échantillons ne sontplus
trèsfaibles,
lefaussage
dû à la non-normalité est minime(disons
moins de0,01
pour un seuil nominal de0,05)
tant que les distributions ne s’écartent pas considérablement de la distribution normale. Onpeut
considérer cettepropriété
comme unegénéralisation
des théorèmesd’approximation
normale
classiques.
Considérons parexemple
le cas de la moyenne d’un groupe. Si M est la moyenne d’un échantillon d’effectif n extrait d’une distributionparente
de moyenne g et de variance62,
la variable aléatoire1111 _
;st distribuée à peu
près
normalement dès que n n’estplus
trèsfaible ;
si onremplace
6 par son..
estimation S à
partir
de l’échantillon(S2
étant l’estimateur usuel sans biais de la variance lapropriété
11
de robustesse
exprime
que, dans des conditionscomparables,
la variable aléatoire - est distribuée à peuprès
comme un t de Student(nous préciserons plus
loin ceténoncé).
’
Dans les études du
faussage lorsque
les effectifs sont trèsfaibles,
onprend généralement
commeindices d’écart à la normalité le « coefficient
d’asymétrie » (
et le « coefficientd’apla-
tissement o
(~ )
de la distributionparente. Rappelons
à titre indicatif : le coeffi- cientd’asymétrie
est nul pour toutes les distributionssymétriques ;
il vaut+
2 pour la distribution expo-nentielle ;
le coefficientd’aplatissement
estégal
à 0 pour la distributionnormale,
à+
6 pour la distributionexponentielle,
à- 1,2
pour la distributionrectangulaire (distribution
uniforme sur unsegment).
D’unefaçon générale : Y"
> 0correspond
à une distributionplus pointue et fou plus
étalée aux extrémités que lanormale ; y"
0 à une distributionplus aplatie
et/ou
moins étalée que la normale(à
noterqu’on
atoujours , > - 2).
2
Sous le modèle
normal,
M est distribué normalement avec E(M) =
,, Var(M) - -
n et S2est distribué comme az d’où on déduit que
’.
1- est
distribué ..b comme t [n-l].Le facteur
prédominant, pour le faussage de la distribution
deM 2013
st l’écart à la normalité Le facteur
prédominant,
pour lefaussage
de la distribution de20132013/",
1 est F écart à la normalité de la distribution de M. Or le coefficientd’asymétrie y’ (M)
et le coefficientd’aplatissement y" (M) de
ladistribution de la moyenne
s’expriment
de la manière suivante en fonction de -1. Voir par
exemple:
H. Rouanet: « Un théorème de convergence probabiliste et sonapplication
à lajustification
de méthodes sta-tistiques
courantes,,, Math. Sci. hum., N° 42, 1973.y’
y" (M) - Y (ces
formules découlent despropriétés classiques
des moments etcumulants).
On voit quen
comme fonction de n,
Y’ (M)
décroîtplus
lentement quey" (M).
Il en résulte que l’influence de la non-norma- lité décroîtlorsque n augmente,
le facteur essentiel étantl’asymétrie.
Mais par ailleurs on démontre(résultat
bien
intuitif )
que l’effet del’asymétrie
estgénéralement négligeable
pour le testbilatéral,
et nepeut
êtrenotable que pour les tests unilatéraux. Plus
précisément,
dans le cas d’une distributionparente symétri-
que, on démontre
(ct.
Box etTiao,
>1973,
p. .155) que
la v.a.( s2 - n ) z
estapproximativement
distribuéecomme
un /3
de Fisher-Snedecor à 8 et 8(n - 1) degrés
deliberté,
où 8En
conclusion,
la distribution despeut
êtreapprochée
par cellede tn _ i
pourvu quey’
et surtout
y"
ne soient pastrop éloignés de
0.Les résultats
précédents
segénéralisent
à lacomparaison
de deux ouplusieurs
moyennes(t
de Studentet
3
de Fisher-Snedecor enAnalyse
devariance),
la situation vis-à-vis del’asymétrie
étant encoreplus
favorable que dans le cas d’une moyenne
lorsque (éventualité fréquente)
les coefficientsd’asymétrie
desdistributions
parentes
sont de mêmesigne :
prenons parexemple
le cas de deux moyennes, on vérifie que le coefficientd’asymétrie
de la différence de deux moyennes tend à êtreplus
faible en valeur absolue que le coefficientd’asymétrie
dechaque
moyenne si du moins les tailles des groupes et les variances ne sont pastrop
différentes(lorsque
les deux distributionsparentes
ont même coefficientd’asymétrie
et mêmevariance,
on vérifie facilement que si les deux groupes ont même
taille,
la distribution de la différence des moyennesa un coefficient
d’asymétrie égal
à0).
8. ROBUSTESSE VIS-A-VIS DE LA NON-NORMALITÉ : COMPARAISON DE VARIANCES
Toutes les méthodes fondées sur la condition de normalité ne sont pas aussi robustes que les méthodes de
comparaison
de moyennes. A titre decontraste,
nous donneronsl’exemple
des testsclassiques
de compa- raison de variances par les méthodes suivantes :- pour un groupe :
comparaison
d’une variance à une valeur donnée par la méthodedu x2 ;
- pour deux groupes
indépendants : comparaison
des variances par la méthodedu 3 ;
-- pour
plusieurs
groupesindépendants : comparaison
des variances par la méthode du test de Bartlett.Or,
dans toutes ces méthodes la condition de normalité est absolument cruciale. Onpeut
le voir sim-plement
sur leproblème
de l’inférence sur une variance. Cette inférence est fondée sur la distribution de/}2, laquelle
q estU2
a sous le modèle normal. Or nous avons vu que si le coefficientd’applatissement
de lan - 1 q pp
distribution
parente
estégal
à"
S2 estapproximativement
distribué commea 2 x 2w~
avecv
valeur de Var
(S2)
sous le modèle normal et on a unfaussage positif ;
si et on a unfaussage négatif.
On remarque que si n2(?
Y"
augmente,
lerapport
de la variance réelle Var(S2)
à sa valeur nominale264
tend vers 1+ - 2
n-1 2
et non pas vers 1. Plus
précisément, lorsque n
estgrand,
la distribution de S2peut
êtreapprochée
par une distribution normaled’espérance
62 et de variance(le
facteur de faus-sage
g -
oug2 -
étantégal
à 1lorsque y" = 0).
Testerl’hypothèse Ho :
a2 -aô (où aô
estune valeur
donnée) quand n
estgrand,
revient à former lastatistique
de testSous
Ho,
cettestatistique
est de la forme X== g Z,
où Z est une v.a. normale réduite. L’événementcritique
au seuil nominal ~x est >
zoe);
saprobabilité
nominale est a ; saprobabilité
réelle oc’ est Prob( IXI
> =le seuil réel oc’
correspondant
au seuil nominal a s’obtient doncen consultant la table habituelle
(bilatérale)
de la distribution normale réduite pour lavaleur - .
Exemples :
pour oc = 0,05et y"
‘ - + 2 on trouve x’ =0,16 ;
poury" = - 1
on trouve ot" = 0,006 :les
faussages
sont considérables.La différence avec l’inférence sur des moyennes tient au fait suivant : dans les méthodes de compa- raison de moyennes, on
procède
par « studentisation » c’est-à-dire onrapporte
la moyenne à une estimation de sonécart-type
effectuée àpartir
del’échantillon,
cette estimation nedépendant
pasd’hypothèses
sur ladistribution
parente.
Aucontraire,
dans la méthodeprécédente
d’inférence sur unevariance,
tout revientà utiliser une estimation de
l’écart-type
de la variancefournie par le
modèle normal. En d’autres termes, lastatistique
de testprivilégiée
sous le modèle normal n’estplus privilégiée
sous un modèleplus général.
La discussion serait
analogue
pour leproblème
de lacomparaison
de deux variances par la méthode du3.
Les résultatsprécédents
segénéralisent
à toutes les méthodesclassiques
decomparaisons
de variances fondées surl’hypothèse
d’une distributionparente
normale : selon que les coefficientsd’aplatissement y"
des distributions
parentes
sontpositifs
ounégatifs,
on a unfaussage positif
ounégatif.
Cefaussage, qui
netend pas à
disparaître
pour degrands échantillons,
est encoreplus
élevélorsqu’on
compareplusieurs
variances(test
deBartlett)
que pour une variance ou deux variances. Parexemple,
pour 20 groupes, lefaussage
asymp-totique
est tel que pour ce = 0,05,lorsque y" == + 2
le seuil réel oi vaut0,72
etlorsque y" = -
1,x’ - 0,000004.
En
conséquence,
les statisticiens avertisprésentent aujourd’hui
avec réserves les méthodes de com-paraisons
de variances fondées sur la condition de normalité. Plusparticulièrement,
ils déconseillent deprocéder systématiquement
à un tel test decomparaison
de variancespréalablement
à un test de compa- raison de moyenneslorsque
ce dernier test supposel’homogénéité
des variancesparentes.
Eneffet,
siy"
est élevé on
risque
derejeter
à tortl’hypothèse d’homogénéité
desvariances,
donc de sepriver
d’effectuerune
comparaison
de moyennesqui
aurait été valide(étant
donné la robustesse de ce dernier test vis-à-vis de lanon-normalité). Inversement,
siy"
est faible onrisque d’accepter
à tortl’homogénéité
des variances et deprocéder
au test decomparaison
de moyennes dans des conditions défectueuses.(Nous
laissons ici de côté leproblème
de la robustesse du test decomparaison
de moyennes vis-à-vis de lanon-homogénéité
des
variances, problème qui
sera abordé ailleurs : il est clair en effet que mêmelorsque
le test decomparaison
de variances est
valide,
leproblème
réel n’est pas de déceler si les variances sonthétérogènes
ou non, maisd’apprécier
sil’hétérogénéité
est assezgrande
pour êtresusceptible
de fausser le test decomparaison
demoyennes fondé sur la condition
d’égalité
desvariances.) Remarques
1.
Test 3 d’égalité
des variances et test3 d’égalité
des moyennes enanalyse
de varianceNous avons vu que le test
3 d’égalité
de deux variances est peu robuste vis-à-vis de lanon-normalité,
etque le
faussage
ne tend pas àdisparaître lorsque
le nombre d’observations dans chacun des deux groupes tend versl’infini ;
au contraire le test3 d’égalité
des moyennes enanalyse
de la variance est robuste etne donne lieu à aucun
faussage asymptotique.
Cette différence n’estparadoxale qu’en
apparence. Eneffet,
en
analyse
devariance,
le carré moyen entre les k groupes estasymptotiquement
sousHo
distribué comme2
]
(’
2 1 ..)
tt0
,t’ , , 10 1 0’ , d 1
a2
X2 [k-1] (où a2 est la variance intragroupe) ;
cette propriété généralise
la propriété
de convergence normale
k- 1
d’une moyenne.
Quant
au carré moyenintragroupe,
il donne bien lieu à unfaussage
dû à lanon-normalité,
mais il converge
(en probabilité)
vers la varianceintragroupe
a2. En vertu des théorèmes de convergenceclassiques rappelés au §
2, lerapport
des deux carrés moyens à une distribution de la formex2Lk-1J
,k- 1 d’où absence de
faussage asymptotique.
2. Test
d’égalité
des variances nedépendant
pas de la condition de normalitéLe peu de robustesse des tests usuels
d’égalité
des variances a conduit certains auteurs à rechercher des tests nedépendant
pas de la condition de normalité. Pour comparer les variances de deux ouplusieurs
groupes
indépendants,
Box et Scheffé(1959,
p.83)
ontproposé
la méthode suivante : diviser(au hasard) chaque
groupe enplusieurs
sous-groupes, estimer surchaque
sous-groupe la variance du groupe correspon-dant,
d’où pourchaque
groupeplusieurs
valeurs estimant la variance du groupe ;procéder
ensuite(de préfé-
rence
après
une transformationlogarithmique)
à uneanalyse
de la variance sur ces valeurs. Cetteméthode,
moinspuissante
que le testusuel,
estpratiquement indépendante
de toute condition de normalité.4. ROBUSTESSE VIS-A-VIS DE LA
NON-ÉQUIDISTRIBUTION
ET DE LA NON-INDÉPENDANCEDans la
plupart
des méthodes d’inférence usuelles(méthodes
fondées sur le modèle normal aussi bien que méthodesnon-paramétriques),
le modèle de basestipule
que les observations constituent un ouplusieurs échantillons,
un échantillon étant la réalisation de variables aléatoireséquidistribuées indépendantes (modèle
«
équiproduit »).
Or les conditionsd’équidistribution
etd’indépendance peuvent
ne pas êtreréalistes,
enparticulier lorsque
les observations sont les réalisations successives d’un processus se déroulant dans letemps.
Lorsque
les observations ne sont paséquidistribuées,
nous disonsqu’il
y a une tendance(nous
donnons donc à ce terme uneacception
trèslarge) ; lorsqu’elles
ne sont pasindépendantes,
nous dironsqu’il
y a deseffets séquentiels.
On étudiera la robustesse vis-à-vis de lanon-équidistribution
et de lanon-indépendance
en faisantdes
hypothèses
sur le processus : pourprésenter
ici cesproblèmes
derobustesse,
nous examinerons leproblème
de la
comparaison
d’une moyenne à une valeur donnée.Appelons (Xt) i
=1, 2,
..., n la famille des n varia- bles aléatoires dont les observations sont lesréalisations ;
soit J.1’ = E(X ,), a2 -
i Var(X,),
soit M lastatistique SJ 20132013.
Sous le modèle debase, les
v.a.Xi sont indépendantes
etéquidistribuées :
si u estl’espé-
n
o
rance commune des
Xi,
62 leur variance commune, M a pourespérance li
etpour variance -,
n
et
m
est une v.a. réduite. Sil’hypothèse
nulle estHo: J.I.
= où u. est une valeurdonnée,
onprendra
commestatistique
de si la variance a2 estdonnée,
ou si la variance a28jyn
est inconnue
(S2
étant l’estimateur usuel sans biais - sous le modèle de base - de62).
La distribution de lastatistique
de test sous le modèle de base et sousH 0
sera connuelorsque
deplus
on suppose soit que la distributionparente (distribution
commune desXi)
estnormale,
soit que l’échantillon est de taille élevée.Plus
précisément, lorsque
la variance OE2 est donnée et la distributionparente normale,
lastatistique
de testest sous
Ho
une v.a. normaleréduite ; lorsque
l’échantillon est de tailleélevée,
lastatistique
de testest
(approximativement)
sous une v.a. normale réduite. Dans cequi suit,
nousenvisagerons
les deux cas. , 1
Nous considérerons d’abord l’écart à
l’équidistribution (tendance).
Poursimplifier
nous supposerons que les v.a.X,
ont même variance az et que seules leursespérances
différent. Si les v.a.XI
sonttoujours
.
d, d M é t .
62
indépendantes,
Af a pourespérance g =
et pour variance-
et-
est encore une v.a. réduite.éd .n rt
(Y / n
L’hypothèse
nullequi généralise
directementl’hypothèse
nulle considérée sous le modèle de baseest J.1 =
po(Il désignant
maintenant la moyenne desqui peuvent
êtredistinctes).
Examinons le test de cettehypo-
thèse nulle au moyen des
statistiques
usuelles.Lorsque
la variance a2 est connue, enprenant
- 1 y -
comme
statistique
detest,
on n’aura pas defaussage.
Maislorsque
la variance a2 estinconnue,
enprenant
comme
statistique
de test on aura unfaussage.
Eneffet,
Sz n’estplus
un estimateur sans biaisde 62 : comme on le vérifie
facilement, J
estime une valeur
supérieure
àa2,
en divisantM - )la
par S on aura unestatistique qui
tendra à avoirune valeur
trop faible,
d’oùfaussage négatif
1. Pourcorriger
cefaussage,
on seplacera
dans un contre-modèle
permettant
une estimation sans biais de a2 : parexemple,
on supposera que les v.a.Xi
ont la mêmeespérance
à l’intérieur de blocs successifs(modèle d’analyse
de lavariance)
ou que la tendancedes p,
a uneforme déterminée
(modèle
derégression).
Nous considérerons maintenant l’écart à
l’indépendance (effets séquentiels) 2,
cequi
suits’applique
aux deux cas : variance donnée et variance inconnue.
Supposons
que pour un contre-modèle donné les v.a.(Xl, X~,
...,Xn~
soienttoujours équidistribuées
mais ne soient
plus indépendantes,
lanon-indépendance
se traduisant par le fait que la variance de M n’est0’2 . 0’2
plus égale
à - mais à2 - ;
onappellera g
le « facteur defaussage
et on a donc :rt n
(On
remarque d’emblée que si les observations sont « corréléespositivement »
- nous donnerons desexemples
2
précis plus
loin - Var(M)
>2013,
c’est-à-direg2
>1.)
n
Sous le
contre-modèle,
M a pourespérance Il
et pour variance a maintenantpour variance
qui
est une v.a. réduite.On en déduit le
faussage
du seuil : si la valeur donnée est Jlo, sousHo,
la v.a.est une v.a.
d’espérance
0 et de variance ; donc onpeut poser X
= où Z est unev.a.
normale réduite. Soit a le seuil
nominal ;
il luicorrespond
unevaleur za
telle que Prob =oc est la valeur lue dans la table usuelle de la distribution normale réduite au seuil bilatéra
ce).
Larégion
1. On aurait un test non faussé en considérant
l’hypothèse
nulle restrictive : V i , ~ == ~o : mais le rejet d’une tellehypothèse
nullesera peu informatif
(il
existe des ~~ différentes de2. On trouvera de nombreux
développements
sur certains aspects de la robustesse vis-à-vis de lanon-indépendance
des observations dans le travail de G.Oppenheim :
Faussage et robustesse de tests de comparaisons de moyennes et defréquences lorsque
les o6seroafions ne sont pas indépendantes(Thèse
de 3ecycle, 1972).
critique (bilatérale)
au seuil oc est(IXI > zoe),
donc le seuil réel est cdonc a’ oc
(faussage négatif). L’amplitude
dufaussage
n’est bornée que par les valeurs 0 et 1 : Si oo, oi --i 1 ; sig -+
0, oi -~ 0. On areprésenté ci-dessous,
en coordonnéesbilogarithmiques,
pour trois valeurs du seuil nominal a(0,10 ; 0,05
et0,01)
la variation de (x’ en fonction du facteur defaussage.
Seuil réel oc" en fonction du facteur de
faussage 3
pour les seuils nominaux a =0,10,
a =0,05
etoc =
0,01.
On étudiera de même le
faussage
de lapuissance.
Caractérisons l’écart àl’hypothèse
nulle par$ _
- i par une méthodeanalogue
à laprécédente,
on trouve que lapuissance
au seuil a, définie para /~/n
) étant la fonction de
répartition
de la distribution normale réduite
(pour 8 = 0,
on retrouve naturellemento~).
Cette formulepermettra
de construire des courbes de
faussage
de lapuissance.
Si l’on
précise
le contre-modèle sous forme de processus, on pourra écrire le facteur defaussage é#
comme fonction des
paramètres
du processus. Parexemple,
supposons le processusmarkovien,
avec un coef-ficient d’autocorrélation
(coefficient
de corrélation entre deux v.a.consécutives) égal
à p ; le coefficient de corrélation entre deuxv.a. X,
etXj
est alorségal
à p j f = On vérifiequ’on
a alors(pour grand)
~z=1+p
~ .1 - P
Un autre processus,
qu’on peut
considérer comme uneapproximation
du processusmarkovien,
con-siste à supposer que Pu = p pour
[1 - il I
= 1 et Pu = 0pour [1 I
> 1. On vérifiequ’on
a alors(pour
n
grand) ~2 =
1+
2 p.(On
vérifie que pour les deux modèlesg2
> 1(faussage positif)
si p > 0,9~
1(faussage
négatif)
si p0. )
Le tableau suivant
indique
pour le modèle markovien(les
résultats sont voisins pour l’autremodèle)
les valeurs de p entraînant un
faussage correspondant
à la moitié et au double du seuil ce, pour ce = 0,10 ; 0,05 et0,01.
Sur ce tableau on voit tout d’abord
que le faussage est
considérable même pour defaibles
valeurs deIpl :
:pour
Ipl
de l’ordre de0,15,
le seuil varie dusimple
au double pour a =0,05. Toujours
pour a =0,05
ona pour p = -
0,3,
oc" =0,008
et pour p = -E-0,3,
oc’ =0,15.
On remarque ensuite que lefaussage
relatifapparaît
un peuplus marqué lorsque
le seuil estplus
faible.Rappelons
que ces considérationss’appliquent
au testasymptotique
decomparaison
d’une moyenne à une valeur donnée : lefaussage
dû à lanon-indépendance
ne tend donc pas àdisparaître
pour degrands
échantillons.
Un cas
particulier
du testprécédent
est le testasymptotique classique
decomparaison
d’unefréquence
à une valeur donnée. Soit F la
statistique-fréquence,
O lafréquence parente, (D.
la valeur donnée. La sta-tistique
de test est -qui
aasymptotiquement
une distribution normale réduite.Lorsque
les observations ne sont
plus indépendantes,
c’estqui
estasymptotiquement
nor-V n
male réduite. Montrons sur un
exemple
comment ensupposant
le processus markovien onpeut
alorsprocéder
à un test
corrigé.
Supposons qu’on
ait observé une suite de 100 observations avec 60 observationségales
à 1 et 40 obser-vations
égales
g à0,
etqu’on
q veuille testerH. : (D =-
o-.
Selon le testclassique
lastatistique
2 q q
_ a une valeur
égale
à - «1
la différence est
significative
au seuilde
0,05.
Prenons comme contre-modèle un modèle markovien : on est conduit à constituer le « tableau des effectifs detransition », qu’on supposerait
être le suivant :(43
est le nombre de transitions de 1 vers 1, c’est-à-dire le nombre de foisqu’on
a observé 1 immédiate-ment
après
1,etc.)
L’estimation du coefficient de corrélation 1> du processus
peut
être obtenue àpartir
dutableau;
c’est le « coefficient de
contingence »
roclassique
associé autableau ;
on trouve ici rf1) =-j-0,292.
Ce coef-, 43
ficient est
positif,
cequi exprime
que lafréquence
des transitions de 1 vers 1(-)
estsupérieure
à la60
~ 17
fréquence
des transitions de 0 vers 1(-),
ou, de manièreéquivalente,
que lafréquence
des transitions 4028 ~ 17
de 0 vers 0
(-)
estsupérieure
à lafréquence
des transitions de 1 vers 0(-) :
nous dirons que les40
" "60
"effets séquentiels
sont ou encore que lacontagion
entre les essais successifs estpositive (si
r(1) étaitnégatif,
nousparlerions
de même d’effetsséquentiels négatifs).
Onpeut
dès lors conclure que lefaussage
du test est
positif,
donc que le seuil observé réel estsupérieur
à0,05.
On
peut
en fait allerplus
loin enestimant,
àpartir
de la valeur estimée de p, le facteur defaussage : g2
est en effet estimé par d’où l’estimation de3 :
1,4. Lastatistique
de test
corrigée
g est alors’00 _ ,00
1,4, cequi correspond
à un seuil réel observé P N0,15 (au
lieu de0,05) : 1,4
» q P ~
(
~)
on voit que le
faussage positif
est considérable.N.B. Dans le cas d’une variable binaire
(ou plus généralement discrète), l’hypothèse d’indépendance
des observations successives
peut
elle-méme être testée àpartir
du tableau des transitions : le test estidentique
au test Khi-deux que l’on effectuerait pour tester
l’indépendance
entre deux variables si le tableau de tran- sition était un « tableau decontingence
». Dans le casprésent,
la valeur de Khi-deux(égale
à est8,5
significative
au seuil de0,01.
Anderson et Goodman ont montré que ce test estapproprié
pour testerl’hypo-
thèse nulle
d’indépendance (chaîne
de Markov d’ordre0)
sous le modèleplus général
d’une chaîne de Markov d’ordre 1.Les considérations sur la robustesse vis-à-vis de la
non-indépendance
s’étendent au cas deplusieurs
groupes d’observations. Par
exemple,
pour comparer les moyennes de deux groupesindépendants,
pourlesquels
les facteurs defaussage
sontrespectivement ’i
etg 2,
on montre que le facteur defaussage g
_, -4
relatif à la