• Aucun résultat trouvé

Hyp. de normalité pas facilement acceptable

N/A
N/A
Protected

Academic year: 2022

Partager "Hyp. de normalité pas facilement acceptable"

Copied!
90
0
0

Texte intégral

(1)

Statistiques non-paramétriques

M2 CEE

Pr. Philippe Polomé, Université Lumière Lyon 2

2016 – 2017

(2)

I

Hyp. de normalité pas facilement acceptable

I

Données nominales ou ordinales [+loin]

I Ou des outliers qu’on ne veut pas enlever

I

Tests sur des fréquences, médianes ou quantiles

I plutôt que des moyennes ou des variances

I Souvent les mesures associées au revenu sont asymétriques

I dépenses, dispositions à payer...

I Alors, la médiane représente mieux les obs. que la moyenne,

I qui est tirée dans la queue asymétrique de la distribution

(3)

Quand utiliser ?

I

Quand on a peu de données

I Les test np ont peu de puissance (ci-dessous)

I mais les tests param. peuvent donner des résultats aberrants

I si l’hyp. de normalité est fausse I

Inconvénients

I Est plus une collection de recettes

I Qu’une méthodo bien claire

(4)

Rappel sur les tests Tests

Corrélation non-paramétrique

(5)

Rappel sur les tests

I

Les test ont pour objet une hyp. nulle

H0

d’égalité

I p.e. la moyenne dans une certaine population = celle d’un autre groupe

I Si elle est rejetée, on peut accepter l’alternativeH1

I H1 peut être une6=, ou une inégalité si on sait qu’un des côtés de l’= est impossible

I

Les tests sont construits sur plusieurs autres hyp. que

H0

I Si l’une de ces hyp. vient à faillir, les résultats du test sont aberrants

I Mais c’est difficile à avérer

I Moins un test présuppose, plus il est général

(6)

I

On calcule une statistique du test

I Cette stat suit une distribution connuesi H0 est vraie

I p.e. 2 ,t,F,... – c’est la partie difficile à démontrer

I dépend aussi de la taillende l’échantillon I

On compare la stat avec une valeur tabulée de cette

distribution connue

I Cette valeur tabulée est choisie arbitrairement

I Ce choix est le niveau de significativité↵du test

I On prend généralement 5%

I Si la stat est + grande, en valeur absolue, que cette valeur tabulée,

I onRH0

(7)

Les erreurs du test

I

Erreur de type I :

RH0

alors que

H0

est vraie

I Pr{RH0|H0vraie}=↵

I Parfois appelé taille du test

I RH0|H0vraie est unfaux positif: détecter une différence, alors qu’il n’y en a pas

I Rem. dans une régression, un régresseur non pertinent a 5%

de passer pour significatif

I Plus↵est grand, plus onRH0 faussement

I p.e. un coef. d’une régression est + facilement significatif quand↵=.1 que lorsque↵=.05

I

Erreur de type II :

¬RH0

alors que

H0

est fausse

I Pr{¬RH0|H0fausse}=

I Cette Pr décroit à mesure quencroit

I 1 =Pr{RH0|H0fausse}est appelépuissance du test

I Mais pas connu en pratique car dépend de la “fausseté” deH0

(8)

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(9)

Tests & mesures de corrélation np

I 9

une vingtaine de tests np connus

I et une demi-douzaine de mesure de corrélation np

I Selon les situations : mesure & échantillon

I On va voir les mesures ci-dessous

I

L’échantillon

I 1 échantillon

I 2 ou +

I indépendants ou reliés I

Au sein d’un échantillon

I Pour les tests, les obs doivent être indépendantes

I Pour les mesures de corrélations, non

(10)

I

Les données sont toutes codées par des chiffres

I Mais ces chiffres n’ont pas tous la même signification

I

Qualitatif / nominal

I = classification

I p.e. couleurs

I Les classes sont mutuellement exclusives

I La seule relation entre classes est l’équivalence (=)

I Pas de ,ou de +,-,⇥,÷

I Seul le mode (les fréquences) est défini

I Classe la + fréquemment observée

I Médiane, moyenne, variance ne sont pas définies

(11)

La mesure

I

Ordinal (classement, rangs, hiérarchie)

I Il y a un ordre entre les classes

I + grands, difficiles, ...

I Cet ordre ne pourrait prévaloir qu’entre certaines classes mais ici il faut qu’il prévale partout

I Relations d’équivalence = et d’ordre

I ordre : irréflexif, asymétrique et transitif

I Pas d’opérations +, -,⇥,÷

I La distance entre 2 classes n’a pas de sens

I Même si une classe est codée 1 et une autre 3, cette dernière n’est pas “deux de plus” que la 1º

I La moyenne et la variance ne sont donc pas définies

I Mais la médiane et les quantiles (percentiles, déciles...) bien I

Les tests applicables au nominal sont applicables à l’ordinal

(12)

I

Intervalle / cardinal / quantitatif

I La distance entre les classes est définie

I p.e. la température

I La même relation d’ordre prévaut

I mais en plus les opérations sont définies

I Tous les moments ont du sens

I moyenne, variance, ...

I

Les tests applicables à l’ordinal et/ou au nominal sont applicables à l’intervalle

I Les tests param. ne sont applicables qu’à la mesure d’intervalle

I p.e. les tests t & F des régressions

(13)

Sommaire

Rappel sur les tests Tests

Corrélation non-paramétrique

(14)

Mesure 1 éch. 2 échantillons k éch.

Reliés Indépendants Reliés Indép.

Nomin. Binomial2 McNemar Fisher2 Cochran Q 2

Ordin.

Runs Médiane Médiane

Kolmogorov Sign Mann-Whitney U Friedman Kruskal-Walis

-Smirnov K-S 2-way 1-way

(K-S) Wilcoxon Wald-Wolfowitz ANOVA ANOVA I

Seuls les tests colorés sont présentés

I Info abondante, souvent sur Wikipedia et aide de R

(15)

Sommaire

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(16)

I

Un test

2

est tout test d’hyp

I dont la stat suit une dist. 2 quandH0 est vraie

I Sans autre précision, il s’agit svt du test 2 de Pearson

I qui est celui qui nous intéresse

I Même si 2est une dist. paramétrique, le test ne porte pas sur un paramètre

I

2 types de comparaison

Ajustement

tester si une distribution observée diffère d’une distribution théorique

I Pour un éch.

I “Goodness-of-fit”

Indépendance

tester si des obs no reliées sur 2 variables sont indépendantes l’une de l’autre

I Pour 2+ éch.

I s’exprime entable de contingence

(17)

2

1 échantillon – Nominal

I

On cherche à comparer

I un groupe de fréquences absolues observées

I kcatégoriesi sont observées

I avec un groupe de fréquences théoriques

I

La stat de test est

2 = Xk

i=1

(Oi Ei)2 Ei

Oi =

nombre de cas observés dans la cat.

i Ei =

nombre de cas expérés dans la cat.

i

sous

H0

I Il faut donc spécifier une dist espérée

I

S’il y a peu de

6=

entre

O

et

E

I donc si les fréq. obs. sont proches des espérées

I alors, 2 sera petit, donc pas dans les extrêmes de la dist.

I

Le nombre de degrés de liberté est

k p

I pest le nombre de paramètres de la dist. espérée

I p.e. 2 si c’est une normale (espérance, variance)

(18)

I

On lance un dé à 6 faces 60 fois

I Le dé est-il pipé (biaisé) selon le test de 2 de Pearson ?

I

Dé régulier

I Pr{face}=1/6

i Oi Ei (Oi Ei)2 Ei

1 5 10 2.5

2 8 10 .4

3 9 10 .1

4 8 10 .4

5 10 10 0

6 20 10 10

I k =

6

I

Degrés de liberté 6-1=5

I Je pense que c’est plutôt 4 car U(a,b)

I 2 =

13

.

4

I 2 .95;5=?

I Rqchisq(.95, df=5)= 11.07

I RH0

(19)

2

2 ou + échantillons indépendants – Nominal

Figure –Table de contingence

Groupe

i

Résultat

j P

ligne (échantillon) 1 2

. . .

C

1

O11 O1.

2 ...

Oij Oi.

R

ORC

P

col

O.1 O.j

N

I

Table de contingence : fréq. absolues observées

Oij

I H0

: La distribution des résultats est indépendante des groupes

I Peut-on dire que les lignes sont indépendantes entre elles ?

I On ne précise pas de quelle distribution viendraient ces lignes

(20)

I

Il y a N observations au total

I

Somme par ligne (résultats) :

Oi.=P

jOij

I Soitpi.=Oi./N

I

Somme par colonne (groupes) :

O.j =P

iOij

I Soitp.j =O.j/N

I

On définit les fréquences absolues espérées comme

Eij =Npi.p.j

I

La stat de test est

2 = XR i=1

XC j=1

(Oij Eij)2 Eij

(21)

2

2 ou + échantillons indépendants – Nominal

I

Même logique que à un échantillon

I

Le nombre de degrés de liberté est

RC (R+C

1)

I RC est bien le nbr de catégories comme à 1 éch.

I La réduction vient de ce qu’il faut calculerR+C 1 quantités

I pour calculer les fréquences espérées I

Limitations

I Il faut que lesOij 5

I 10 lorsqu’il y a un seul degré de liberté

I Sinon, la stat du test ne converge pas à une 2

I Ne peut déterminer la causalité

I Groupe$résultat

(22)

I

Y-a-t-il indépendance entre la pratique du sport et le choix de logement ?

I Échantillon d’étudiants d’une université USA

Groupe

i

Sport

j P

ligne Aucun Peu Régulier

Résidence U 32 30 28 90

Appart. sur campus 74 64 42 180

Appart. hors campus 110 25 15 150

Chez ses parents 39 6 5 50

P

col 255 125 90 470

(23)

2

2 ou + échantillons indépendants – Nominal : exemple

I

Questions posée dans ce genre d’exercice :

I Le lieu de vie affecte-il la pratique du sport ?

I

Mais le test ne peut déterminer si

I les étudiants ont choisi leur logement pour pratiquer le sport

I le logement induit la pratique du sport

I Pas de un test de causalité

I Sauf à conclure à l’indépendance (pas de causalité) I

Intéressant pour chercher un régresseur

I qu’on penserait significatif

I mais pas linéaire

(24)

I

Calcul des fréquences espérées

I p.e.EAucun,Resid=NpAucun.p.Resid =48.82

I pAucun.=OAucun./N=255/470p.Resid =O.Resid/N=90/470

Groupe

i

Sport

j P

ligne Aucun Peu Régulier

Résidence U 48.8 32 23.9 30 17.2 28 90 Appart. sur campus 97.7 74 47.9 64 34.5 42 180

Appart. hors campus 110 25 15 150

81.4 39.9 28.7

Chez ses parents 27.1 39 13.3 6 9.6 5 50

P

col 255 125 90 470

(25)

2

2 ou + échantillons indépendants – Nominal : exemple

I

Il faut que chaque

Eij

5

I c’est le cas

I

La

2

est calculée en sommant tous les

(Oij Eij)2

Eij I (32 48.8)2

48.8 +. . .=60.5

I Les degrés de liberté sont

RC (R+C 1) =12 (4+3 1) =6

I 2

.95;6=12.59 =) RH0

I Il n’y a pas de quoi conclure à l’indépendance du logement et sport

(26)

I

Si on ramène la table de contingence en fréquences relatives

I On voit bien qu’il y a un clivage dans/hors campus

Groupe

i

Sport

j P

ligne Aucun Peu Régulier

Résidence U 36% 33% 31% 100%

Appart. sur campus 41% 36% 23% 100%

Appart. hors campus 73% 17% 10% 100%

Chez ses parents 78% 12% 10% 100%

P

col 54% 27% 19% 100%

(27)

2

dans R “Pearson’s Chi-squared Test for Count Data”

chisq.test(x, y = NULL, correct = TRUE, p = rep(1/length(x), length(x)), rescale.p = FALSE, simulate.p.value = FALSE, B = 2000)

x

vecteur ou matrice numérique

y

vecteur numérique ; ignoré si x est une matrice

I

x & y peuvent aussi être des factors

I

Si x est un factor, y devrait être un factor de même longueur

correct

logique, indique s’il faut appliquer une correction de continuité pour 1 table 2 par 2

p

vecteur de proba de même longueur que x

I

permet de spécifier des proba ad hoc

simulate.p.value

logique indicant si calculer les p-valeurs par

simulation

B

entier = nombre de réplications pour la simulation

(28)

M <- as.table(rbind(c(762, 327, 468), c(484, 239, 477)))

I

les données

dimnames(M) <- list(gender = c("F", "M"), party = c("Democrat","Independent", "Republican"))

I

nommer les variables (Xsq <- chisq.test(M))

I

Calcul du test, on met dans Xsq & imprime le résumé Xsq$observed

I

Comptes observés (⌘ M) Xsq$expected

I

Comptes espérés sous

H0

I

Conclusion

I on rejette l’indépendance des “échantillons”

I les femmes votent différemment des hommes

(29)

2

dans R – exercices

I

Refaites les 2 tests précédents dans R

I Dé et sport

I

Un échantillon de 44 hommes et 56 femmes

I A-t-il été tiré d’une population où les hommes et les femmes sont en égales proportions ?

I

Une certaine procédure médicale est associée à une morbidité

±

importante

I On voudrait savoir si cette dernière dépendrait d’un score dit Apgar

Morbidité

Apgar Nulle Mineure Majeure

0-4 21 20 16

5-6 135 71 35

7-10 158 62 35

(30)

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(31)

Un échantillon – Nominal : Binomial – Intro

I

Population partagée en 2 classes

I Nombreux exemples

I

Proportion dans une classe est

P

I Dans l’autre classe 1 P

I Proportion fixe dans une pop.

I mais v.a. dans un éch. à cause de l’échantillonnage I

Distribution binomiale

I Distribution d’échantillonnage de proportions calculées sur des échantillons d’une population à 2 classes

I

Test

H0 :

la proportion est

P

dans la population

I P est un certain chiffre

I Le test indique s’il est raisonnable de croire que la proportion observée dans l’éch. puisse provenir d’une pop. avec proportion P

(32)

I

Dans un éch. de taille

N

I extrait d’une pop à 2 classes

I la proba. d’obtenirx objets d’une classe

I et doncN x de l’autre classe

I est

p(x) =

✓ N x

Px(1 P)N x avec

✓ N x

= N!

x! (N x)!

I Ce n’est que de la combinatoire, on compte les évènements

I

La proba d’obtenir

au plus x

objets d’une classe

I est Xx i=0

p(i)

(33)

Un échantillon – Nominal : Binomial – méthode

I

p.e. un dé à 6 faces tiré 5 fois

I

Pr

{deux

6}

I N=5,x =2,

I P proportion supposée de 6=16 =H0

I p(2) =

✓ 5 2

1 6

2 1 16 5 2=.16

I

Pr

{au plus deux

6}

=p(0) +p(1) +p(2) =.4+.4+.16

I p(0)etp(1)constituent la queue de la dist. “après” p(2)

I Donc, sousH0:P=16, on a Pr{x 2}=.96

I Donc, on est .05 =) ¬RH0

I C’est un test à 1 côté (1 tail) car on a supposéP<1 P

I Si on veut juste testerP6=1 P, on a un 2-tailed test

I Il faut doubler la proba calculé (ici : 100%)

I On peut ainsi calculer de nombreuses probabilités

I pour6=H0,6=N,6=x

I C’est de plus en plus long à mesure queNaugmente

I Mais on peut montrer que laPde binomialesN!

!1normale

(34)

I

binom.test(x, n, p = 0.5, alternative = c("two.sided", "less",

"greater"), conf.level = 0.95)

I x nombre de “1” (succès, vrai...)

I n taille de l’échantillon

I p Proba de succès que l’on teste =H0 I alternative indique l’hyp. alternative

I "two.sided", "greater" ou "less" (on n’indique que la 1ºlettre)

I par défaut two.sided

I conf.level le niveau de confiance choisi pour calculer l’intervalle de confiance

(35)

Un échantillon – Nominal : Binomial – Exemple

I

En supposant l’hérédité mendélienne

I un croisement de 2 variétés d’une certaine plante produirait 1/4 de “naines” et 3/4 de “géantes

I Dans une expérience pour déterminer si cette hyp. est raisonable

I on obtient 243 naines et 682 géantes.

I

On teste

H0 :p =

3/4, en prenant “géante” comme le succès

I binom.test(682,682+243,p=3/4)

I résultat : p-valeur>5%¬RH0

(36)
(37)

Un échantillon – Ordinal : Kolmogorov-Smirnov

I

KS teste l’égalité de 2 dist. uni-dimensionnelles continues

I À 1 éch. : compare la dist. empirique de celui-ci avec une distribution connue

I spécifiée dans le test

I H0 la dist. empirique est compatible avec la théorique

I H1 2 tailed : pas compatible, sans dominance claire

I H1 1-tailed : pas compatible, l’une domine l’autre

I À 2 éch. : compare les deux dist. empiriques

I

La stat du test est la plus grande distance possible entre les deux distributions

I Cette stat suit une dist. de Kolmogorov sousH0

(38)

En rouge, une dist. théorique, en bleu une empirique

La flèche noire est la stat du test KS

(39)

Un échantillon – Ordinal : Kolmogorov-Smirnov – remarques

I

Comme les dist. sont continues, la proba de 2 points égaux est nulle

I En pratique, ks ne devrait pas s’appliquer à 2 éch. avec bcp de points identiques

I

Pour tester la normalité,

9

des test spécialisés + puissants

I p.e. Shapiro–Wilk ou Anderson–Darling

I

Si les paramètres de la dist. connue sont estimés

I dans le sens où ils résultent d’une estimation

I alors le test n’est pas valable

I

Une généralisation à un cas multivarié existe

I

La fonction ks.test de R implémente le test – prochaine dia

I Mais permet aussi que la distribution théorique soit discrète

(40)

ks.test(x, y, ..., alternative = c("two.sided", "less", "greater"), exact = NULL)

I

Arguments

I x vecteur numérique de données

I y soit un vecteur numérique de données pour le test à 2 échantillons

I ou une chaine de caractère qui nomme une fonction de distribution continue p.e. pnorm

I ... d’éventuels paramètres de la distribution indiquée dans y

I alternative – voir test binomial

I exact : NULL ou bien TRUE ou 1 pour indiquer si une p-valeur exacte doit être calculée (pas calculable dans tous les cas)

(41)

Un échantillon – Ordinal : Kolmogorov-Smirnov dans R – détails

I

Si y est numérique, c’est le test à 2 éch.

H0 :

x et y sont tirés de la même distribution

I Sinon, y est une chaine de caractères qui teste si x est généré par la distribution nommée

I avec les paramètres indiqués par ...

I

Des égalités causent un avertissement

I car l’hyp. sous-jacente de distribution continue ne les permet pas

I Les arrondis peuvent générer des erreurs importantes ici.

I

Les données sont omises silencieusement

(42)

I

x <- rnorm(50)

I

Est-ce que x vient d’une distribution gamma avec paramètres de forme 3 et taux 2 ?

I

ks.test(x+2, "pgamma", 3, 2) # deux côtés (two-sided)

I

ks.test(x+2, "pgamma", 3, 2, exact = FALSE)

I

ks.test(x+2, "pgamma", 3, 2, alternative = "g")

(43)

Un échantillon – Ordinal : Runs

I

Wald-Wolfowitz “Runs” runs.test

I Installer le package randtests

I Skip

(44)

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(45)

2 ou plus échantillons

I

Échantillons

reliés

I Il y a un lien entre les obs des6=éch.

I p.e. pls obs de la même personne : poids, taille, revenu..

I dans le temps : poids en t & t+1 pour des personnes

I n juges classent k vins. Un vin est-il classé systématiquement plus haut ou plus bas que les autres ?

I

Échantillons

indépendants

I Pas de lien dans le processus d’échantillonnage

I On veut alors souvent comparer les distributions

I Et tester l’indépendance

(46)

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(47)

2 échantillons reliés – Nominal : McNemar

I

Test de significativité des changements

I mcnemar.test

I

Skip

(48)

I

Test pour une différence systématique entre paires d’obs.

(x,y)

I p.e. le poids de sujets avant & après traitement

I

Le test est plus utile si les comparaisons ne peuvent être exprimés que par

x >y,x =y,x<y

I Si(x,y)peuvent être exprimés cardinalement

I p.e.x =17,y =12!t-test

I Mais on peut utiliser le test du signe pour vérifier si la médianedex y est6=0

I Si(x,y)peuvent être exprimés ordinalement

I p.e. x est 1ºrang de tous les x, y est 7º!test des rangs signés de Wilcoxon (prochain test)

(49)

2 échantillons reliés – Ordinal : Signe – Principe

I

S’il n’y a pas de

6=

entre

x

&

y,p =

Pr

{x>y}=.

5

I Pr{x=y}=0 pour des variables continues

I les paires t.q.x =y sont omises du test

I DoncH0:p=.5

I

Soit

W

le nombre de paires positives

I “paire positive” peut-êtrex >y qualitatif, oux y quanti

I SousH0,W suit une distribution binomiale

I Il faut supposer l’indépendance entre paires

I

On utilise donc binom.test comme dans le test binomial avec

p =.5

(50)

I

Longueur des pattes antérieures et postérieures G de cerfs i Avt Arr.

6=

1 142 138 +

2 140 136 +

3 144 147

4 144 139 +

5 142 143

6 146 141 +

7 149 143 +

8 150 145 +

9 142 136 +

10 148 146 +

I H0

: pas de

6=

de longueur

I two-tailed, pas d’à priori

I Si on disaitH0 Avt>Arr. : one-tailed

I

Écrivez le test dans R

I p-value = .109 > .05

I ¬RH0

I À retenir : 8/10 pas signif6=5/10

I Comparer si c’était 80/100

(51)

2 échantillons reliés – Ordinal : Signe – Exemple 2

I

Un fabriquant a 2 produits, A & B

I Il veut savoir si les consommateurs préfèrent B à A

I

Éch de 10 consommateurs

I Chacun reçoit A & B et indque ce qu’il préfère

I H0

B n’est pas préféré à A

I H1B est préféré à A

I =) C’est un test à un côté

I

Sur l’éch. 8 consommateurs préfèrent B, un préfère A et un est indifférent

I Tester – p-valeur=.0195RH0

(52)

I

Survie en semaines pour 10 sujets :

I 49, 58, 75, 110, 112, 132, 151, 276, 281, 362+

I 362+ veut dire >362

I

La médiane est-elle supérieure à 200 ?

I Dans cet éch., la médiane est toute valeur entre 112 & 132

I SiH0 est vraie, médiane =200,

I alors on doit s’attendre à la moitié des sujets en vie après 200 semaines

I 2-tailed

I on assigne + aux obs >200 et - aux <

I Donc 7 - et 3 +

I Tester – p-val=.34 :¬RH0

(53)

2 échantillons reliés – Ordinal : Wilcoxon

I

Test des rangs signés (“Wilcoxon signed-ranks test”)

I H0:la dist. des paires est symmétrique autour de zéro

I lorsqu’on ne peut pas supposer la normalité

I Si on peut supp. la norm. : test t I

Hyp

I Les données sont en paires et viennent de la même pop.

I Chaque paire est choisie au hasrd, indépendamment

I

Soit

N

le nombre de paires

I éventuellement en omettant les paires égales

I Calculer|x2i x1i|etsigne(x2i x1i) =si I Assigner un rangRi aux différences

I Le rang 1 va à la plus petite

I Stat du test :W =P

isiRi la somme de rangs signés

I RH0 si|W|>Wcritical,N

(54)

wilcox.test(x, y, alternative = c("t"), mu = 0, paired = 0/1, exact

= NULL, ...)

I

Arguments

I x : vecteur de données numériques, NA omises

I y : vecteur optionnel de données numériques, comme x

I alternative : comme binomial

I mu : un nombre optionnel – ‘Détails’

I Permet de tester si les6=sont sym. autour de mu, au lieu de zéro

I paired : 0/1 indique si les obs. sont en paires (2 éch.) – Détails

I exact : 0/1 indique une p-valeur exacte doit être calculée

(55)

2 échantillons reliés – Ordinal : Wilcoxon

I

Détails “paired”

I Si seul x est donné, ou x & y, mais paired=1,

I un test de Wilcoxon rangs signés est calculé

I H0 : la distribution de x (1 éch.) ou de x-y (2 éch. paired) est symmétrique autour de mu

I Si x et y sont donnés, mais paired=0,

I un test équivalent au test de Mann-Whitney est calculé

I H0 : les distributions de x et de y diffère de mu (localisition) et l’alternative est qu’ils diffèrent par une autre valeur

I Avec moins de 50 obs : la dist. exacte du test est calculée

I sinon approx normale

(56)

I

Mesures d’importance de dépression sur 9 patients

I Avant & après traitements

I Ordinal car on ne peut comparer entre patients

I On se demande si le traitement a un effet

I H0:dist. sym autour de zéro

I Alternative : dist sym autour de mu>0 “greater” – comme avec binomial

I =) One-tailed test

x <- c(1.83, 0.50, 1.62, 2.48, 1.68, 1.88, 1.55, 3.06, 1.30) y <- c(0.878, 0.647, 0.598, 2.05, 1.06, 1.29, 1.06, 3.14, 1.29) wilcox.test(x, y, paired = TRUE, alternative = "greater")

I

Quelle conclusion ?

(57)

Sommaire

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(58)

I

Test de Fisher

I Skip

I

Test du

2

I Voir la section 2

(59)

2 échantillons indépendants – Ordinal

I

Test de la Médiane

I Skip

I

Test “Mann-Whitney U”

I Même test que Wilcoxon à 2 éch.

I Rwilcox.test( )

(60)

I

Voir Kolmogorov-Smirnov 1 échantillon

I

ks.test(x, y, ..., alternative = c("two.sided", "less", "greater"), exact = NULL)

I x & y vecteurs numériques de données

I

Exemple

I x <- rnorm(50)

I y <- runif(30)

I H0x et y viennent de la même distribution

I ks.test(x, y)

I H0x est (stochastiquement) plus grand que x2

I x2 <- rnorm(50, -1)

I plot(ecdf(x), xlim = range(c(x, x2)))

I plot(ecdf(x2), add = TRUE, lty = "dashed")

I ks.test(x, x2, alternative = "l")

I Comparer avec

I t.test(x, x2, alternative = "g")

I wilcox.test(x, x2, alternative = "g")

(61)

Sommaire

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(62)

I

Je laisse tomber les éch. reliés car il me semble qu’on a vu assez de test

I

Éch. indép.

I Nominal

I Voir section 2

I Ordinal : Extension du test de la médiane

I Skip

(63)

k échantillons indépendants – Ordinal : Kruskal-Wallis

I

Teste si des éch. proviennent de la même dist.

I Assez bien une extension de Wilcoxon

I

La significativité (RH

0

)

I indique qu’au moins un éch. domine stochastiquement au moins un autre éch.

I mais n’identifie pas où cette dominance pourrait se placer

I D’autres tests pourraient aider

I Si on peut faire l’hyp. d’une même distribution pour tous les groupes à l’exception de la médiane

I En rappelant que la moyenne & la variance ne sont pas définies

I alorsH0: toutes les médianes sont égales

I H1 : au moins une médiane est6=de celle d’une autre groupe

(64)

I

Classer toutes les

N

obs. des k éch. ensemble

I Sans tenir compte de l’appartenance de groupes - donc de 1 à N

I

La stat de test est

H = (N

1)

Pg

i=1ni(ri r)¯2 Pg

i=1Pni

j=1(rij r)¯2 ni

est le nombre d’obs. du groupe

i

rij

est le classement de l’obs.

j

du groupe

i

¯ ri.=

Pni

j=1rij

ni

est le classement moyen des obs. du groupe

i

¯

r = 12(N+

1) est la moyenne des

rij

(65)

k éch. indép. – Ordinal : Kruskal-Wallis – méthode

I

Je ne discute pas les gestions des égalités

I mais s’il n’y a pas d’égalité, alors

H= 12 N(N+1)

Xg i=1

nii.2 3(N+1)

qui donc ne comprend que des moyennes de rangs (par groupe)

I

On voit que si les groupes sont “mélangés”

I donc les rangs dans un groupe sont répartis dans tout l’éch.

I alorsHsera relativement petit

I plus petit que si un groupe concentre des rangs élevés

I Cela, à cause du carré I

Sous

H0

,

H ⇠ 2g 1

I Donc siH< 2g 1;0.95alors aucun ne domine un autre stochastiquement

I Si c’est le cas contraire, il faut chercher entre paires de groupes

(66)

I H

ne suit pas exactement une

2g 1

I La différence devient importante lorsque certains groupes ont moins de 5 membres

I Il est possible de trouver une dist. exacte pourH

I

Le test des rangs signés de Wilcoxon est essentiellement un cas particulier de celui-ci

I

Kruskal-Walis est parfois appelé “ANOVA 1-way for ranks”

I ANOVA = ANalysis Of VAriance

I KW n’est pas du tout un test sur les variances

I Mais la structure en tableau évoque ANOVA

I ANOVA teste les moyennes

I KW la dominance stoch

I qui devient la médiane en cas de symmétrie

(67)

k éch. indép. – Ordinal : Kruskal-Wallis – R

I

Kruskal-Wallis Rank Sum Test kruskal.test(x, ...)

x vec. numérique des données ou liste de vec. num de données

I Les éventuels éléments non-num. seront forcés (coerced), avec avertissement

g vec ou factor qui indique le groupe pour chaque élément de x

I Ignoré si x est une liste (car les groupes sont alors définis)

formula de type réponse ~ group ? ? ? ?where response gives the data values and group a vector or factor of the corresponding groups.

data matrice ou frame optionnel qui contient les données de la formula

subset perment éventuellement de prendre un sous-ensemble des données

na.action fonction qui indique ce qu’il faut faire en présence de NAs.

(68)

I

Efficience d’un certain médicament

I pour retirer des poussières de sujets

I normaux x <- c(2.9, 3.0, 2.5, 2.6, 3.2)

I avec une maladie des voies respiratoires y <- c(3.8, 2.7, 4.0, 2.4)

I avec asbestose z <- c(2.8, 3.4, 3.7, 2.2, 2.0)

I kruskal.test(list(x, y, z))

I p-valeur ? Conclusion : pas de dominance stoch

(69)

k éch. indép. – Ordinal : Kruskal-Wallis – Exercice 1

I

24 sujets (N)

I 3 groupes A, B, C de 8, pour une interview

I mais 1 sujet en B et 2 en C ne viennent pas

I nA=8,nB =7,nC=6

I Éch. de6=tailles : argument pour np ? I

Doivent classer 3 vins

I En fait : le même vin, mais

I l’interview est faite pour que les A s’attendent à de bons vins, les C de mauvais

A B C

6.4 2.5 1.3

6.8 3.7 4.1

7.2 4.9 4.9

8.3 5.4 5.2

8.4 5.9 5.5

9.1 8.1 8.2

9.4 8.2

9.7

(70)

Niveaux Rangs

A B C A B C

6.4 2.5 1.3 11 2 1

6.8 3.7 4.1 12 2 4

7.2 4.9 4.9 13 5.5 5.5

8.3 5.4 5.2 17 8 7

8.4 5.9 5.5 18 10 9

9.1 8.1 8.2 19 14 15.5

r¯=

9.4 8.2 NA 20 15.5 11

9.7 NA NA 21

P

rij

Somme rangs 131 58 42 231

Moyenne rangs 16.4 8.3 7.0

i.

(71)

k éch. indép. – Ordinal : Kruskal-Wallis – Exercice 2 & 3

I

Données simulées SimKW.csv sur site diplôme

I 3 éch avec la même moyenne (43.5), la même médiane (27.5),

I mais un résultat Kruskal-Wallis tranché, avec p-valeur=0.025 I

Illustration de la version “formule” de la commande

I Airquality : Daily air quality measurements in New York, May to September 1973.

I Ozone = niv d’ozone

I Month = 5,6...9

I Core distribution R

I utiliserdata(airquality)

I boxplot(Ozone ~ Month, data = airquality)

I kruskal.test(Ozone ~ Month, data = airquality)

(72)

I

Cochran Q

I Skip

I

Friedman analyse de variance 2 voies

I “ANOVA 2-way for ranks”

I Sur Rfriedman.test

I Skip

(73)

Résumé tests np dans R

Mesure 1 éch. 2 échantillons k éch.

Reliés Indépendants Reliés Indép.

Nomin. Binomial

binom.test McNemar Fisher Cochran Q

2

chisq.test mcnemar.test 2 2

Ordin.

Runs Sign Médiane Médiane

runs.test1 binom.test Mann-Whitney Friedman Kruskal-Walis

Kolmogorov Wilcoxon Runs 2-way ANOVA 1-way ANOVA

SmirnovK-S wilcox.test K-Sks.test friedman.test kruskal.test

1. Installer packagerandtests

(74)

Rappel sur les tests

Tests & corrélation : mesures Tests

Nominal : Test du 2 Un échantillon

Plusieurs échantillons 2 échantillons reliés 2 échantillons indépendants k échantillons

Procédure de randomisation Corrélation non-paramétrique

(75)

Tests de randomisation

I

Divers noms

I randomisation, permutation, exact

I

R package coin

I Voir vignette coin_implementation.pdf

I

Randomisation/permutation = une

classe

de tests

I Qui ont pour objectif commun de tester des hyp.

d’indépendance

I Beaucoup de tests y sont dispo, dont ceux qu’on a vu

I 2 I Wilcoxon

I Kruskal-Walis

I Friedman

(76)

I

Pour un certain test

I np ou autre, sur 2 ou plus éch.

I

La distribution de la stat du test est obtenue

I en calculant la stat du test dans tous les réarrangements possibles des étiquettes des points de donnée

I l’étiquette est un groupe auquel appartient le point de donnée

I La ligne d’un tableau de contingence I H0

: les étiquettes sont interchangeables

I Équivalent à “même distribution entre 2 groupes de données”

I On teste l’indépendance

(77)

Randomisation sur des moyennes

I

Soit 2 groupes A & B

I de taillesnA etnB I avec moyennesx¯A etx¯B

I L’appartenance à un groupe estl’étiquettede chaque point de donnée

I

On veut tester si les 2 groupes ont la même distribution (H

0

)

I Lastat du test de permutationest la6=entre les moyennes

¯ xAB

I AppeléeT(obs)

I T(obs)est-elle assez grande pour rejeterH0?

I On calculeT(obs)

I Puis onmélangeles obs. des 2 échantillons

(78)

I

On calcule la

6=

des moyennes pour chacune des possibilités de faire 2 groupes de tailles

nA

et

nB

dans ces données

I L’ensemble de ces6=est l’exacte dist. deT(obs)sousH0

I SinA et/ounB est très grand, il faudra en calculer moins

I

p-valeur one-tailed

I proportion de ces permutations pour lesquelles la6=de moyennes est T(obs)

I si <5% :RH0

I

p-valeur two-tailed

I proportion de ces permutations pour lesquelles la valeur absolue de la6=de moyennes est |T(obs)|

I

On peut calculer un Intervalle de Confiance pourT

(obs)

:

I Trier toutes les6=calculées de la + petite à la + grande

I La borne inf de l’IC est p.e. la 25ºou 250ºvaleur, selon nbr d’obs

(79)

Tests de randomisation – Package coin

I

On ne part pas sur une stat de test à priori

I Ds l’ex., une moyenne

I Mais on peut refaire la stat de test de n’importe quel test

I p.e. rangs signés de Wilcoxon ou somme de carrés de 2

I En général, il s’agit de test d’indépendance sur base d’une table de contingence

I

Au lieu de faire une hypothèse sur la distribution asymptotique de cette stat

I p.e. le test 2 approche la dist. de la stat de test par celle de la 2

I le test calcule la stat de test sur base de permutations de l’éch.

I Si on peut faire toutes les permutations : “exact”

I Sinon : “approximée” – on en prend “beaucoup”

I par opposition à “asymptotique” qui est le cas classique

(80)

I

En général, les permutations reproduisent les tables de contingence

I Avec chaque table, on calcule la stat de test

I Ça donne une distribution “empirique” de la stat de test

I Si la stat de test est dans la queue de la distribution, onRH0

I

Il faut connaitre + de programmation pour réaliser ce test

I Mais je présente un exemple pour inviter à explorer +

(81)

Tests de randomisation – Package coin

I

Charger le package coin

I La commande principale estIndependenceTest( )

I

En premier on met une formule

I Comme dans le dernier exemple de Kruskal-Walis

I independence_test(Ozone ~ Month, data = airquality)

I Les résultats sont bien différents !

I Mais on peut introduire des groupes (blocks)

I y ~ x | block

I p.e. y = satisfaction de son emploi, x = groupes de revenus, block = ho & fe

I

C’est la commande qui “choisit” le test

I Par défaut – c’est assez compliqué à changer

I

On peut choisir un test “exact”, “approximate”, “asymptotic”

I

+ des options diverses

(82)

I

Données “job satisfaction”

I en 4 cat.

I selon 4 niveaux de revenu

I pour les hommes et les femmes

I data("jobsatisfaction", package = "coin")

I

Attention, les données sont en “Table”

I pas en Frame

I Une Table dans R est une table de contingence

I présente le comptes (fréq. abs.) dans chauqe cellule / combinaison de factor

I On l’utilise directement dans le test

(83)

Tests de randomisation – Package coin : exemple

I

Visualisation

I ftable “flat contingency tables”

I ftable(js)

I Tableau de contingence à pls dim

I Installer & charger le package vcd

I Mosaic plot pour des donnés cat pluridim

I mosaic(Income ~ Gender + Job.Satisfaction, data = js, split_vertical=c(TRUE, FALSE, TRUE))

I Peut-être pas le + joli – je vous laisse expérimenter

(84)

I

independence_test(js)

I Le test décide seul

I Il emploie une stat de Max : peu d’info, peu de puissance I

independence_test(js, teststat = "quadratic", distribution =

asymptotic())

I On impose un test classique (Cochran-Mantel-Haenszel)

I p-valeurw.33 : indépendance pas rejetée

I

independence_test(js, distribution = approximate(B = 10000), scores = list(Job.Satisfaction = 1 :4, Income = 1 :4))

I exploite le fait que la satisfaction et le revenu sont des ordres (ordinal, pas nominal)

I p-valeurw.01 : indépendance rejetée

I Réaliser qu’on teste avec 2 ordinales et une nominale

(85)

Conclusion

I

Ceci conclut les tests np

I

On en a vu un échantillon

I Plutôt à titre pédagogique que pour être exhaustif

I

On a vu qu’on pouvait tester dans des situations

I où on ne pourrait utiliser des régressions

I cfr dernier exemple

I mais où la puissance est sans doute faible

I p.e. les différents résultats des tests

(86)

Rappel sur les tests Tests

Corrélation non-paramétrique

(87)

Corrélation non-paramétrique

Équivalent du coef de corrélation pour données “quali.”

+ précisément : “coef de corrélation de Pearson” r ou R – paramétrique

Mesure Corrélation

Nomin. Coefficient de contingence, ,...

Ordin. Coef. de corrélation de rangs de Spearman

rs

Coef. de corrélation de rangs de Kendall

Il y en a quelques autres

(88)

I

Plusieurs mesures ont été définies

I pour des données nominales

I à partir des tables de contingence

I pour essayer de décrire la force de l’association entre variables

I principalement à partir des valeurs de la stat du test 2

I

Il est vrai qu’il est souvent utile de décrire la relation

I mais je crois que la table de contingence y arrive mieux

I qu’un coefficient résumé

(89)

Ordinal : Corrélation de rang de Spearman ⇢

I

Parfois noté

, parfois

rs I

Les obs. sont en paires

hx,yi

I La formule est simplement celle de la corrélation

I appliquée au rangs

⇢= cov(rx,ry) pvar(x)var(y)

I Si les rangs dex sont proches de ceux dey

I ⇢!1

I S’ils sont complètement à l’opposé :⇢! 1

cov(x, y = NULL, use = "everything", method = c("pearson",

"kendall", "spearman"))

(90)

I

Dans les 2 éch. appareillés

I une paire de paireshxi,yiiethxj,yjiest dite concordante si

I soitxi >xj etyi>yj I soitxi <xj etyi<yj I sinon elle est discordante

I Une double égalité sort du calcul du⌧

I

Soit

nc

et

nd

les nombres de paires concordantes et discordantes, respect.,

⌧ = nc nd

n(n

1)

/2

est le

de Kendall

I

Le dénominateur est le total de combinaisons de paires

I s’il y a parfaite concordance,⌧=1

I s’il y a parfaite disconcordance,⌧= 1

I s’il y a indépendance,⌧ =0

Références

Documents relatifs

Duns cette Note nous allons d~velopper une nouvelle m6thode beaucoup plus simple que routes les m~thodes employdes jusqu'ici pour 6tablir le r6sultat (5) et des

Cheating won't get you anywhere in life.. Cheating won't get you anywhere

lente et limitante par sa vitesse) : départ du nucléofuge et formation d’un carbocation plan. rapide) : attaque du réactif nucléophile sur le carbocation, des

[.e thEme privil6gi6 du deuxiEme budget de ceue quatriEme phase financiEre a touch6 encore une fois les 6conomies que le Programme se devait de r€aliser, tout en

La procédure de modification simplifiée du PLU définie par l’article L 123.13.3 du code de l’urbanisme ne comporte pas d’enquête publique mais la mise à disposition du

Donner une règle générale pour le nombre d’antécédents de k..6. Déterminer les antécédents éventuels de 0,5 et 2

n’avons aucune information de caractère théorique sur la forme concrète de la fonction de répartition théorique inconnue Fq (x), nous sommes bien dans le cadre d’un

[r]