• Aucun résultat trouvé

Test d’hypothèse

Dans le document Psychologie statistique avec R (Page 133-141)

6.4 Probabilité des données ou probabilité du modèle

7.1.1 Test d’hypothèse

Hypothèse alternative unilatérale à gauche Exemple 7.1

Imaginons que dans la même situation clinique, nous ayons obtenu 2 réussites au test sur les 4 passations. On désigne par π la probabilité du succès pour un patient et parπ0la probabilité de succès d’un sujet dans la population de référence (non pathologique). Quelle était la probabilité de ce résultat selon le même modèle H0:π=π0= 0.6?

Pour chaque patienti (i= 1, ...,4), nous construisons une variableXi telle que :

⎧⎨

Xi = 1 si le patientiréussit l’épreuve, Xi = 0 si le patientiéchoue.

Si notre modèle est correct, on a :

P(Xi= 1) =π0,∀i.

Définition 7.1 (Variable de Bernoulli)

Une telle variable, dont les modalités sont 0 et 1, avec une probabilité fixée du succès, est appelée variable de Bernoulli.

Pour une telle variable, on peut définir une fonction de distribution, c’est-à-dire une fonction qui à chaque modalité possible de la variable associe une probabilité d’apparaître par une expression explicite. On a ici :

f(x|π0) =π0x(1−π0)1−x, x∈ {0,1}. Son espérance est par définition :

E(X) = (π0×1) + (1−π0)×0 =π0 et sa variance :

V(X) =π(1−π)2+ (1−π)(0−π)2= (1−π)[π−π2+π2] =π(1−π).

Pour ce résultat empirique de deux succès, une configuration possible est celle où les patients identifiés comme 1 et 2 réussissent l’épreuve, tandis que les deux autres échouent. Si l’on note en abrégé parRil’événement « le sujetia réussi l’épreuve », la probabilité d’une telle configuration s’écrit :

P(R1∩R2∩R¯3∩R¯4|H0) = π0×π0×(1−π0)×(1−π0)

= π02(1−π0)2

= 0.0576.

Mais ce n’est pas la seule configuration qui mène au résultat « 2 succès sur 4 passations ». Il y a en réalitéC24= 6manières d’obtenir 2 succès sur 4 passations et elles sont représentées dans le tableau suivant :

Sujeti 1 2 3 4 Y =

iXi

Xi 1 1 0 0 2

Xi 1 0 1 0 2

Xi 1 0 0 1 2

Xi 0 1 1 0 2

Xi 0 1 0 1 2

Xi 0 0 1 1 2

La probabilité totale d’obtenir 2 succès sur 4 passations, c’est la probabilité d’ob-tenir l’une ou l’autre de ces 6 configurations équivalentes. Définissons une nouvelle variableY telle que :

Y =X1+X2+X3+X4.

Comme lesXine peuvent prendre que les valeurs 0 ou 1, on voit queY n’est autre que le comptage du nombre de réussites obtenu empiriquement ; la probabilité que nous cherchons est simplementP(Y = 2).

Définition 7.2 (Variable binomiale)

On appelle variable binomiale une variable qui fait la somme de N variables de Bernoulli indépendantes et de même probabilité de succès.

On a1 :

P(Y = 2|H0) = P

(R1∩R2∩R¯3∩R¯4)∪...∪( ¯R1∩R¯2∩R3∩R4)

= P(R1∩R2∩R¯3∩R¯4) +...+P( ¯R1∩R¯2∩R3∩R4)

= C24π02(1−π0)2

= 6×0.62×0.42

= 0.3456.

Un raisonnement semblable nous permettrait de calculer la probabilité d’obtenir 0, 1, 2, 3 ou 4 succès sur 4 passations, selon notre hypothèse de départ H0. On peut écrire de manière générale la probabilité d’obtenirksuccès surN passations (et doncN−kéchecs) comme :

P(Y =k|H0) = CkNπ0k(1−π0)Nk. (7.1) Pour la première fois, nous sommes en mesure d’associer à l’ensemble de modalités UY ={0,1,2,3,4} de la variable numérique discrèteY des probabilités associées, sous la forme d’une expression mathématique explicite. On dit qu’il s’agit d’une fonction de probabilité ouloi de probabilité.

Définition 7.3 (Loi binomiale) La fonction particulière définie par :

P(Y =k|H0) = CkNπ0k(1−π0)Nk

définit la loi binomiale. C’est la loi qui décrit la probabilité d’obtenir k succès parmi N essais (ou passations, ou épreuves, ou sujets...) quand les essais sont indépendants et de même probabilité de succèsπ0. On la note en abrégéB(N, π0).

De cette définition l’on déduit que cette fonction sera adaptée pour modéliser la distribution d’une variable i) numérique, ii) discrète, iii) bornée à gauche et à droite par 0 etN.

1. Les configurations de réussites sont incompatibles et on suppose l’indépendance des scores des sujets (passations séparées). Les lois de l’addition et du produit des probabilités s’appliquent donc (voir sections 4.3.2 et 4.3.3).

Comme cette variable fait la somme de variables de Bernoulli indépendantes, il est facile de calculer son espérance et sa variance :

E(Y) = E(X1+X2+X3+X4)

= E(X1) +E(X2) +E(X3) +E(X4)

= 4π0,

V(Y) = V(X1+X2+X3+X4)

= V(X1) +V(X2) +V(X3) +V(X4)

= 4π0(1−π0).

On peut espérer dans cette distribution obtenir4×0.6 = 2.4réussites en moyenne sur 4 passations, avec un écart type de

4×0.6×0.40.97.

Les formes variées de cette distribution pour quatre essais et trois valeurs diffé-rentes du paramètreπ0sont représentées figure 7.1.

Fig. 7.1– Formes de la loi binomiale

On peut noter qu’une variable de Bernoulli est le cas particulier d’une variable binomialeB(1, π0).

Une fois ce résultat général obtenu, il ne sera plus nécessaire en pratique de refaire tous les raisonnements qui nous y ont amenés, si nous avons à traiter une situation similaire (prévision du nombre de succès attendus selon une hypothèse normative sur la probabilité de chaque succès). Il suffit d’utiliser cette formule pour obtenir directement la valeur de probabilité d’un certain nombre de succès. Par exemple, la probabilité d’obtenir un seul succès sur 4 passations selon notre modèle est :

P(Y = 1|H0) = C14π0(1−π0)3= 4×0.6×0.43= 0.1536.

Maintenant, que pouvons-nous dire de notre modèle ? Est-il plausible de penser que nos patients ont montré un niveau de performance équivalent à ce qui est observé dans la population normale ?

Pour en juger, nous calculons une probabilité un peu étendue, que nous nommons valeur p, soit la probabilité d’observer un résultatau moins aussi mauvais que 2 succès sur 4. ContreH0 en effet, nous définissons une hypothèse alternative, notée H1, qui affirme que la performance des patients est moins bonne que celle de la population générale2:H1:π < π0ouH1:π−π0<0. Dans le chapitre précédent, les probabilités L0 (probabilité du résultat empirique obtenu ou vraisemblance) et p(probabilité d’un résultat au moins aussi mauvais) étaient confondues car il n’y a pas de résultat plus extrême que 0 réussite sur 4. Elles seront en général différentes.

Formellement, la probabilité d’un résultat au moins aussi mauvais s’écrit : p = P(Y 20)

= P[(Y = 0)(Y = 1)(Y = 2)0]

= P(Y = 00) +P(Y = 10) +P(Y = 20).

Le passage à la somme des probabilités est justifié par la loi de l’addition, car les événements sont incompatibles.

Ces valeurs ont été calculées plus haut et on obtient :

p = P(Y 20) = 0.0256 + 0.1536 + 0.3456 = 0.5248.

Pour interpréter cette probabilité, il nous faut un seuil de décision, c’est-à-dire une probabilité repère définie à l’avance, notée α, à quoi nous comparerons la valeur p. Il est courant de fixerα= 0.05. Si la valeur pest plus petite que le seuil, nous déciderons de rejeterH0, car une hypothèse qui conduit à considérer que le résultat effectivement obtenu avait peu de chances d’apparaître a toutes chances d’être une mauvaise hypothèse. Clairement ici, nous avons p > α et nous ne pourrions pas rejeter dans ce contexte (contrairement au précédent) l’hypothèse selon laquelle les patients ont le même niveau de performance que la population générale à cette épreuve.

Hypothèse alternative unilatérale à droite Exemple 7.2

Un psychologue clinicien spécialisé dans le traitement de certains troubles névro-tiques à conversion somatique examine la réussite de son traitement sur 12 patients, au bout de 4 années de psychothérapie. Sept patients sur 12 déclarent être soulagés de leurs troubles. Le clinicien se déclare satisfait de son résultat. Cependant, les études scientifiques publiées sur ces troubles montrent que ces symptômes se ré-sorbent spontanément dans 40% des cas dans un intervalle de 4 ans. Partagez-vous l’enthousiasme du clinicien ?

2. Bien que la binomiale s’écrive symboliquementB(N, π),comme une fonction de deux pa-ramètres, le nombreN est généralement fixé dans une expérience par l’effectif dont on dispose et est à ce titre un « paramètre » trivial. Nous parlons de modèle à un paramètre en désignant donc le seul paramètre de probabilité.

Pour cette situation, nous utilisons la même démarche : il suffit pour en juger de calculer la probabilité p d’observer un résultat thérapeutique au moins aussi bon si l’hypothèseH0:π=π0= 0.40est correcte. Si cette probabilité est petite devant α = 0.05, nous déciderons de rejeter l’hypothèse qui assimile l’efficacité thérapeutique à la rémission spontanée. L’ensemble des résultats « au moins aussi extrêmes » est cette fois-ci dans les grandes valeurs d’effectifs. Par application directe de la formule 7.1, on a :

p = P(Y 70)

= P[(Y = 7)(Y = 8)∪...∪(Y = 12)0]

= P(Y = 70) +P(Y = 80) +...+P(Y = 120)

= C712π70(1−π0)5+ C812π08(1−π0)4+...+ C1212π012(1−π0)0

= 0.1582.

Il y a donc plus de 15% de chances d’obtenir un résultat au moins aussi bon si l’hypothèse de la rémission spontanée est vraie. Nous ne pouvons pas rejeter cette hypothèse dans ce contexte (p > α). Si le clinicien veut défendre l’efficacité de son protocole, il faudra que son taux de succès soit un peu plus élevé. On note que la conclusion ne dit en aucune manière que le protocole est inefficace, mais simplement qu’un même résultat est facilement obtenu sous l’effet simple de la rémission spontanée. En n’acceptant pas l’hypothèse alternative unilatérale à droite H1 : π > π0, nous courons le risque de rejeter une alternative qui est peut-être correcte. C’est ce qu’on appelle l’erreur de type II ou erreur de type β.

Hypothèse alternative bilatérale, cas symétrique : π0= 0.5 Exemple 7.3

Un enseignant propose un devoir de type QCM à ses étudiants. Il y a 10 ques-tions auxquelles on répond en choisissant une parmi deux réponses possibles. Un étudiant obtient la note 8/10. Puis-je évaluer la possibilité qu’il ait obtenu un tel résultat en répondant tout simplement au hasard ?

Commençons d’abord par construire le modèle de la situation sous l’hypothèse que l’étudiant répond au hasard. Si l’on note π sa probabilité vraie de réussite à une question et par π0 sa probabilité de réussir à une question selon l’hypothèse des réponses aléatoires (π0= 12), le modèle s’écrit simplement :

H0:π=π0= 1 2.

Comment s’écrit l’alternative dans ce contexte ? Si l’on peut argumenter que la fréquence de réussite du sujet est trop différente deπ0, nous serons en mesure de rejeterH0. Autrement dit :

H1:π=π0.

On note que cette alternative est composée :

{π/π=π0}={π/π < π0} ∪ {π/π > π0}.

Je n’ai pas d’hypothèsea priorisur le signe de la différenceπ−π0, si elle est non nulle. Un sujet qui a mal compris un cours peut adopter des schémas systématiques de réponse qui l’amènent à obtenir une note moins élevée que s’il avait répondu au hasard. Un étudiant qui a bien compris le cours réussira plus de questions que s’il avait répondu au hasard. Les deux scénarios mèneraient au rejet de H0. L’hypothèse alternative est donc bilatérale (la contradiction deH0est susceptible de se manifester en sous ou en sur-performance).

Si H0 est vraie, alors chaque réponseX du sujet à un item de l’examen suit une loi de Bernoulli de probabilité π0 = 12 et le nombreY de bonnes réponses à cet examen suit une loi binomialeB(10,12).

Fig. 7.2– ModèleB(10,12)

Comme nous disposons d’un modèle exact, on peut calculer la probabilité d’avoir un résultat au moins aussi improbable que 8 bonnes réponses, dans un sens ou dans l’autre, si H0 est correcte. En examinant la distribution modèle correspondante, on voit que les notes 0, 1 et 2 sont au moins aussi improbables, dans les basses notes. La valeurps’écrit donc3:

p = P[(Y 2)(Y 8)|H0]

= P(Y 2|H0) +P(Y 8|H0)

= P(Y = 0|H0) +P(Y = 1|H0) +P(Y = 2|H0) + P(Y = 8|H0) +P(Y = 9|H0) +P(Y = 10|H0).

3. Pour simplifier les calculs, nous utilisons la propriétéCkN= CN−kN (voir section 4.4.3) : il y a autant de manières de prendrekobjets parmiN que d’en laisserNk. Pour calculerC810, il est plus simple de calculerC210=10×92 .

En remplacçant ces probabilités par leurs expressions binomiales : p = C010π00(1−π0)10+ C110π01(1−π0)9+ C210π20(1−π0)8

+ C810π08(1−π0)2+ C910π90(1−π0)1+ C1010π100 (1−π0)0

= 0.0547 + 0.0547

= 0.1094.

Au seuil α = 0.05, on a p > α et nous ne pouvons pas, dans les termes où la question a été posée, rejeter dans ce cas l’hypothèse que l’étudiant a répondu au hasard. Il est tout à fait possible d’obtenir une note aussi extrême que 8/10 dans ces conditions, par chance.

Hypothèse alternative bilatérale, cas dissymétrique : π0= 0.5

Fort de ce constat, l’enseignant prend désormais soin de proposer pour chaque question 5 réponses possibles. Sous l’hypothèse que l’étudiant répond au hasard, le modèle de base et l’alternative contradictoire s’écrivent :

H0:π=π0=1 5, H1:π=π0.

Si H0 est vraie, alors chaque réponseX du sujet à un item de l’examen suit une loi de Bernoulli de probabilité π0 = 15 et le nombreY de bonnes réponses à cet examen suit une loi binomialeB(10,15).

On peut calculer la probabilité d’avoir un résultat au moins aussi improbable, si H0 est correcte. Quand on examine la distribution modèle correspondante, on constate qu’aucune note dans les plus basses n’est aussi improbable que 8/10.

Fig. 7.3– ModèleB(10,15)

La valeur pse réduit donc à : p = P(Y 8|H0)

= P(Y = 8|H0) +P(Y = 9|H0) +P(Y = 10|H0)

= C810π08(1−π0)2+ C910π90(1−π0)1+ C1010π100 (1−π0)0

= 0.00007793.

Au seuil α = 0.05 on a p < α et nous pouvons rejeter dans ce cas l’hypothèse que l’étudiant a répondu au hasard, avec très peu de chances de nous tromper. On voit que l’enseignant a tout intérêt à proposer beaucoup de possibilités de réponses pour minimiser la part du hasard dans le succès à l’examen.

On peut noter que dans ce cas notre conclusion serait la même si l’alternative avait été unilatérale à droite (peut-on dire que l’étudiant réussitmieux que le hasard ne peut le laisser espérer ?).

Dans le document Psychologie statistique avec R (Page 133-141)