• Aucun résultat trouvé

Pour pallier la dépendance du test à une hypothèse forte sur la distribution des données, un test non paramétrique constitue une bonne alternative. Parmi cette catégorie, les tests de rang reposent sur une comparaison de rangs déterminés à partir des observations, comme leur position dans le vecteur ordonné des observations, ou la position de la différence entre deux observations. Le plus connu d’entre eux est le test de Wilcoxon-Mann-Whitney (WMW), également appelé test U de Mann-Whitney ou encore test de la somme des rangs de Wilcoxon. Le principe a été introduit dans [Wilcoxon, 1945] et indépendamment dans [Mann et Whitney, 1947]. Des développements théoriques sont exposés dans l’ouvrage [Lehmann et D’Abrera, 1975]. Une statistique est construite à partir de la distribution des rangs des observations dans l’échantillon global. Les rangs correspondent aux positions de toutes les observations de X1 et de X2 dans le vecteur ordonné issu de l’ensemble

X = {X1,X2} de n = n1 + n2 valeurs. L’expression du rang Ri de la variable Xi est donnée par la formule (1.60). Les hypothèses testées s’appliquent aux distributions des populations sans avoir à les spécifier :

H0 : F1 = F2

H1 : F1 6= F2, (2.9)

pourvu que la différence entre F1 et F2 sous H1 affecte la moyenne des rangs. L’intérêt du test tient dans le peu d’hypothèses faites sur les données :

— les variables de X1 et X2 sont indépendantes ; — elles sont ordonnables ;

— pour une variable Xi de X1 et une variable Xj de X2, les probabilités Pr(Xi > Xj) et Pr(Xi < Xj) sont égales sous H0;

— ces probabilités sont différentes sous H1.

Ces hypothèses reviennent à tester les probabilités que les variables d’un échantillon soient stochastiquement plus grandes que les variables de l’autre échantillon. En revanche ce test n’est a priori pas sensible à un changement dans le seul paramètre de variance entre les

populations. Bien qu’il soit souvent considéré comme un test sur l’égalité des médianes, le test de WMW n’en est pas un à strictement parler [Hart, 2001]. Dans certains cas cepen- dant, par exemple si la distribution F2 correspond à la distribution F1 avec un décalage dans le paramètre de localisation, ce test est équivalent à un test d’égalité des médianes. Pour simplifier, nous supposons par la suite que nous nous trouvons dans l’un de ces cas, et par raccourci nous parlons de test sur la médiane. Pour illustrer ces remarques, la figure 2.1 donne trois exemples de distributions pour lesquelles le test de WMW est approprié ou non. Les échantillons (partie inférieure), leur distribution (partie supérieure) et leur mé- diane (pointillés) sont représentés, en rouge pour X1 et en bleu pour X2. Dans le premier cas, en 2.1a, les distributions F1 et F2 ont la même forme, et sont décalées de 0,5. Le test de WMW est sensible à cette différence, et revient à tester les médianes des distributions. Le deuxième cas, en 2.1b, correspond à deux distributions de même médiane, de même moyenne, mais de variance différente. Le test de WMW n’est pas adapté à la comparaison de ces populations. Enfin, le troisième cas, en 2.1c, donne un exemple de deux distribu- tions discrètes différentes, mais de même médiane, pour lesquelles le test de WMW est applicable. En effet, les valeurs prises par les variables de X2 sont stochastiquement plus grandes que les valeurs prises par les variables de X1.

Pour comparer X1 et X2, la statistique employée, sous la forme introduite dans [Mann et Whitney, 1947], est U = min(U1,U2) (2.10) où U1 = S1n1(n1+ 1) 2 , U2 = S2− n2(n2 + 1) 2 , (2.11)

et où Sk est la somme des rangs des observations de Xk :

Sk = nk

X

j=1

Rj. (2.12)

La statistique U compte le nombre de fois où une variable de Xk précède une variable de

Xl dans le classement des rangs. Les rangs étant des entiers naturels, U est une variable discrète. L’hypothèse nulle est rejetée pour de grandes valeurs de U . La statistique U est généralisée pour M ≥ 2 échantillons dans le test de Kruskal-Wallis [Kruskal et Wallis, 1952].

Sous l’hypothèse nulle, Pr(Xi > Xj) = Pr(Xi < Xj), les rangs des deux échantillons sont donc mélangés aléatoirement et toutes les séquences possibles de rangs sont équipro- bables. Pour les variables X1, . . . ,Xn1 de X1, la probabilité d’obtenir une séquence donnée

r1, . . . ,rn1 des rangs est donc :

Pr(R1 = r1, . . . ,Rn1 = rn1|H0) =

1

n

n1

. (2.13)

La distribution exacte de U sous H0 peut être obtenue par une relation de récursion. Soit

0.0 0.2 0.4 0.6 0.8 1.0 1.2 F 0.0 0.5 1.0 1.5 2.0 2.5 3.0 X 0 10 20 30 40 50 i

(a) Distributions identiques et décalées : loi inverse-gamma de paramètres α = 3,0 et β = 2,0. Les variables de X2 sont décalées de la valeur 0,5. 0.00.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 F 4 2 0 2 4 X 0 10 20 30 40 50 i

(b) Distributions normales centrées en 0 et de variances différentes : 0,2 pour X1 et 2,0 pour X2. 0.00.1 0.2 0.3 0.4 0.5 0.6 0.7 F 0 1 2 3 4 5 X 0 10 20 30 40 50 i

(c) Distributions discrètes de même médiane.

Figure 2.1 – Exemples d’échantillons X1 (ronds rouge), de taille n1 = 20, et X2 (triangles bleus), de taille n2 = 35. La partie supérieure des figures donne les fonctions de répartitions F1

et F2, et la partie inférieure donne une réalisation de ces échantillons. Les traits verticaux en pointillés sont les médianes.

dans X2. Alors, sous l’hypothèse nulle,

Pn1,n2(U ) =

n1

n Pn1−1,n2(U − n) +

n2

n Pn1,n2−1(U ). (2.14)

Pour de petites valeurs de n1 et n2, la statistique U est facilement calculable et est tabulée. Comme le calcul exact des valeurs de U se complique quand les tailles des populations augmentent, l’approximation normale est utilisée à partir d’une dizaine d’observations (voir [Belleraet al., 2010] pour une justification graphique). Sa distribution converge rapidement vers la loi normale, de moyenne

mU = n1n2

et de variance

σU2 = n1n2(n1+ n2+ 1)

12 . (2.16)

Pour compenser l’approximation de la statistique U , discrète, par une loi continue, une correction de continuité peut être appliquée, afin de corriger les intervalles de confiance. Sous H0, on a alors Pr(U ≤ c) ≈ Φ c − m U +12 σU  (2.17)

où Φ(a) est la mesure de l’aire sous la courbe de la densité de probabilité de la loi normale standard, à gauche de la valeur a [Lehmann et D’Abrera, 1975, chapitre 1.3. p. 14–16].

Lorsque les données sont discrètes, certaines valeurs peuvent être observées plusieurs fois dans les échantillons. Quand le nombre p de rangs attribués à plusieurs observations à la fois dans les deux échantillons devient trop important, la statistique U doit tenir compte des termes appariés. Une correction permet alors de prendre en compte ces répétitions de rangs. Comme expliqué dans [Siegel, 1956, p. 123–126], les rangs égaux sont remplacés par un rang intermédiaire moyen, et la variance de l’approximation normale devient

σU,corr2 = n1n2 12  n + 1 − p X i=1 t3i − ti n(n − 1)  , (2.18)

où ti est le nombre d’observations de même rang Ri. Cette correction a tendance à aug- menter la valeur de la statistique, sans cette correction le test est donc plus conservatif.

Lorsque les observations sont générées selon la loi normale, le test t de Student est uniformément plus puissant que le test WMW. Ce dernier demeure toutefois intéressant : sa puissance est proche de celle du test de Student si les variances des distributions normales

F1 et F2 sont égales, et l’écart est très faible avec des échantillons de petite taille. La puissance du test WMW est étudiée dans [Van der Vaart, 1950]. La robustesse des tests de rangs permet en outre d’analyser des distributions à queues lourdes, des échantillons avec des valeurs aberrantes ou encore des données censurées avec une bonne efficacité, ce qui en fait une solution avantageuse lorsque la distribution des données n’est pas connue.