Universit´e de Strasbourg S´egolen Geffray
M1 - Magist`ere geffray@math.unistra.fr
Statistique - ´etudes de cas Ann´ee 2016/2017
Sujet 6: Etude du comportement de l’estimateur des coefficients d’un mod`ele de r´egression de Bernoulli, des r´esidus de Pearson studentis´es et des r´esidus
quantiles randomis´es
• Introduction `a la r´egression de Bernoulli:
De mani`ere g´en´erale, le but de tout mod`ele de r´egression est de sp´ecifier une relation (de nature stochastique) entre une variable Y appel´ee variable `a expliquer et un certain nombre de vari- ables explicativesX(1), ..., X(p). Dans toute la suite, on supposera que les variables explicatives sont de loi continue.
Notons (Yi, Xi(1), ..., Xi(p)) pour i = 1, ..., n les observations correspondant `a n individus que l’on suppose distribu´ees comme (Y, X(1), ..., X(p)). Le mod`ele de r´egression de Bernoulli `a n observations ind´ependantes s’´ecrit sous la forme suivante:
1. ind´ependance des individus: les vecteurs (Yi, Xi(1), ..., Xi(p)) sont mutuellement in- d´ependants,
2. hypoth`ese distributionnelle: conditionnellement `a Xi(1), ..., Xi(p), la loi de la variable r´eponse Yi est la loi de Bernoulli.
3. lin´earit´e en les param`etres: les covariables influent sur la loi conditionnelle des Yi au travers d’un pr´edicteur lin´eaire
ηi :=β0+
p
X
k=1
βkXi(k).
On supposera toujours que le mod`ele est identifiable, `a savoir ici:
β := (β0, ..., βp)t= (β00, ..., βp0)t:=β0 =⇒ Eβ[Yi|Xi(1), ..., Xi(p)] =Eβ0[Yi|Xi(1), ..., Xi(p)].
4. fonction de lien: le pr´edicteur lin´eaire ηi influe l’esp´erance conditionnelle de Yi not´ee µi :=E[Yi|Xi(1), ..., Xi(p)]
via une fonction de lien g monotone (souvent croissante), inversible et deux fois diff´eren- tiable, choisie par l’utilisateur, de sorte que
g(µi) =ηi.
Il convient de prˆeter attention `a l’ensemble de d´efinition de g. En effet, dans le cas de la loi de Bernoulli, les variables Yi prennent les valeurs ‘0’ ou ‘1’. Comme µi = g−1(ηi), il est alors judicieux de s’assurer que g−1(ηi) ∈]0,1[ quelque soit la valeur de ηi. Ainsi, la fonction de lien la plus utilis´ee est la fonction logit(.) = log
. 1−.
. Les fonctions de lien probit(.) = φ−1(.) en notant φ la fonction de r´epartition de la loi N(0,1) et log(−log(1−.)) sont deux autres choix possibles.
1
On dit que le mod`ele est bien sp´ecifi´e lorsqu’il correspond effectivement au m´ecanisme ayant servi `a g´en´er´e les donn´ees. Dans le cas contraire, on dit qu’il est mal sp´ecifi´e.
• Estimation de l’effet des variables explicatives:
Dans le cadre du mod`ele de r´egression pr´esent´e ci-dessus, on se demande si les variables ex- plicatives introduites dans le mod`ele ont un effet ou non sur la variable `a expliquer. Cet effet est quantifi´e par le coefficient de r´egression correspondant.
Dans un mod`ele de r´egression de Poisson, la fonction de lien et la loi conditionnelle des Yi´etant choisies par l’utilisateur, la seule inconnue `a estimer `a partir des observations (yi, x(1)i , ..., x(p)i )i=1,....,n de (Yi, Xi(1), ..., Xi(p))i=1,....,n est le vecteur des param`etres β =
β0 β1 ... βp
. Notons βbn l’estimateur de β obtenu par la m´ethode du maximum de vraisemblance. Cet estimateur est solution des
´
equations du score que l’on obtient en annulant le vecteur gradient de la log-vraisemblance de (Y1, ..., Yn) en (y1, ..., yn) conditionnellement `a (Xi(1), ..., Xi(p)) = (x(1)i , ..., x(p)i ) au point β.
Les ´equations du score ainsi obtenues ne sont pas r´esolubles analytiquement. L’algorithme dit du Fisher scoring, une variante de l’algorithme de Newton-Raphson, en fournit une r´esolution num´erique.
Sous des hypoth`eses assez techniques, on peut montrer que le vecteurβbexiste avec une probabil- it´e qui tend vers 1, est consistent pourβet suit approximativement la loiNp+1 β,(Xt.A(β).X)−1 pour n assez grand avec A(β) = diag
1
µi(1−µi)g0(µi)2
i=1,...,n
.
• Ajustement du mod`ele aux donn´ees:
Sont pr´esent´es ci-dessous deux types de r´esidus dans le cas d’une r´egression de Bernoulli.
L’expression des r´esidus de Pearson (internement) studentis´es dans le cas d’une r´egression de Bernoulli est:
εbP Si = (Yi−µbi) p
µbi(1−hi)
o`ug(µbi) = Xi.βbet o`uhi est le levier de l’observationi, `a savoirhi est lei`emecoefficient diagonal de la matrice des leviers H. La matrice des leviers est d´efinie dans le cas d’une r´egression de Bernoulli par:
H=A(β)b 1/2.X.(Xt.A(β).b X)−1.Xt.A(β)b1/2 avec A(β) = diagb
1
µbi(1−bµi)g0(µbi)2
i=1,...,n
.
Si le mod`ele de r´egression de Bernoulli est ad´equat, pour n assez grand, les r´esidus de Pearson studentis´es sont “approximativement” centr´es et leur distribution s’approche “raisonnablement”
de l’homosc´edasticit´e et de la sym´etrie.
Notons Fµi la fonction de r´epartition conditionnelle de la loi conditionnelle de la r´eponse L(Yi|Xi(1), ..., Xi(p)), qui est ici la loi de Bernoulli de param`etre µi. Notons φ la fonction de r´epartition de laN(0,1). Les r´esidus quantiles randomis´es sont d´efinis dans le cas d’un mod`ele de r´egression de Bernoulli par
bεRi =φ−1(Ui) 2
o`u Ui ∼ U(ai, bi) avec ai = lim
y↑yi
Fµbi(y) et bi =Fµbi(yi).
Les r´esidus quantiles randomis´es sont cens´es approcher “raisonnablement” la normalit´e.
• Impl´ementation au moyen du logiciel R:
Le logiciel R permet d’ajuster simplement un mod`ele de r´egression de Bernoulli `a des donn´ees.
Pour ajuster un mod`ele lin´eaire sur un ´echantillon (Yi, Xi(1), ..., Xi(p))i=1,...,n, on stockera les n valeurs des Yi dans un vecteur y, puis, pour k = 1, . . . , p, on stockera les n valeurs des Xi(k) dans un vecteur xk. Le mod`ele de r´egression de Bernoulli avec fonction de lien logit est ajust´e au moyen de l’instruction suivante (o`up= 3)
myglm<- glm(y~x1+x2+x3,family=binomial)
et le r´esultat est stock´e dans l’objetmyglm. Le mod`ele de r´egression de Bernoulli avec fonction de lien probit est ajust´e au moyen de l’instruction suivante (o`u p= 3)
myglm<- glm(y~x1+x2+x3,family=binomial(link=‘‘probit’’))
tandis que l’ajustement d’un mod`ele de r´egression de Bernoulli avec fonction de lien log(−log(1−
.)) est ajust´e au moyen de l’instruction suivante (o`up= 3)
myglm<- glm(y~x1+x2+x3,family=binomial(link=‘‘cloglog’’))
L’instruction suivante permet d’acc´eder `a l’ensemble des quantit´es calcul´ees:
summary(myglm)
Sont notamment calcul´ees, les estimations des βj pour j = 0, . . . , p et les estimations de leurs
´
ecarts-types. L’objet summary(myglm) est une liste dont on peut r´ecup´erer chacune des com- posantes qui nous int´eresse. Pour cela, l’instruction str(summary(myglm)) permet de voir le nom et la structure des diff´erentes composantes de cette liste.
La fonction residuals fournit diff´erents types de r´esidus `a partir d’un mod`ele ajust´e avec la fonction glm du packagestats. L’instruction
residuals(myglm,type=‘‘pearson’’)
fournit les r´esidus de Pearson sans la normalisation par p
1−hi. On peut effectuer la normal- isation en r´ecup´erant les valeurs des leviers au moyen de l’instruction
hatvalues(myglm)
La fonction qresiduals du packagestatmod fournit les r´esidus quantiles randomis´es.
Exercice 1.
Etudier de mani`ere empirique `a partir de donn´ees simul´ees
• la distribution de l’estimateur des coefficients de r´egression,
• le comportement des r´esidus de Pearson studentis´es,
• le comportement des r´esidus quantiles randomis´es, 3
en fonction de
• l’inclusion lors de l’ajustement d’une variable explicative non-influente en r´ealit´e,
• l’omission lors de l’ajustement d’une variable explicative influente en r´ealit´e,
• la taille de l’´echantillonn simul´e,
• la fonction de lien choisie.
4