• Aucun résultat trouvé

MAP 433 : Introduction aux méthodes. statistiques. Cours 6. 1 Sélection de variables

N/A
N/A
Protected

Academic year: 2022

Partager "MAP 433 : Introduction aux méthodes. statistiques. Cours 6. 1 Sélection de variables"

Copied!
16
0
0

Texte intégral

(1)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

MAP 433 : Introduction aux m´ethodes statistiques. Cours 6

21 mars 2014

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Aujourd’hui

1 S´election de variables

Backward Stepwise Regression LASSO

2 R´egression non-lin´eaire

3 Comparaison d’estimateurs Risque et admissibilit´e Approche asymptotique

4 Mod`eles r´eguliers et information de Fisher Construction de l’information de Fisher Mod`ele r´egulier

Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

R´egression lin´eaire multiple (= Mod`ele lin´eaire)

La fonction de r´egression est r(#,xi) =#Txi. On observe (x1,Y1), . . . ,(xn,Yn)

avec

Yi =#Txi+⇠i, i = 1, . . . ,n o`u #2⇥=Rk, xi 2Rk.

Matriciellement

Y=M#+⇠

avecY= (Y1· · ·Yn)T,⇠= (⇠1· · ·⇠n)T etMla matrice (n⇥k) dont leslignes sont lesxi.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

EMC en r´egression lin´eaire multiple

Estimateur desmoindres carr´esen r´egression lin´eaire multiple : tout estimateur #bnmc satisfaisant

Xn i=1

Yi (#bnmc)Txi 2= min

#2Rk

Xn i=1

Yi #Txi 2. En notation matricielle :

kY M#bnmck2 = min

#2RkkY M#k2

= min

v2VkY vk2 o`uV = Im(M) ={v 2Rn :v =M#, #2Rk}. Projection orthogonale surV.

(2)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

G´eom´etrie de l’EMC

L’EMC v´erifie

M#bnmc =PVY o`u PV est le projecteur orthogonal surV.

Mais MTPV =MTPVT = (PV M)T =MT. On en d´eduit les ´equations normales des moindres carr´es :

MTM#bnmc =MTY.

Remarques.

L’EMC est unZ-estimateur.

Pas d’unicit´ede#bnmc si la matriceMTMn’est pas inversible.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

G´eom´etrie de l’EMC

Proposition

SiMTM(matrice k⇥k) inversible, alors#bnmc est unique et

#bnmc= MTM 1MTY

Contient la droite de r´egression simple.

R´esultat g´eometrique,non stochastique.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Cadre gaussien : loi des estimateurs

Hyp. 1 : ⇠⇠N(0, 2Idn).

Hyp. 2 : MTM>0.

Proposition

(i) #bnmc⇠N #, 2 MTM 1

(ii) kY M#bnmck22 2(n k)loi du Chi 2 `a n k degr´es de libert´e

(iii) #bnmc etY M#bnmc sont ind´ependants.

Preuve : Thm. de Cochran(Poly, page 18). Si

⇠⇠N(0,Idn) etAj matricesn⇥n projecteurs t.q.

AjAi = 0 pouri 6=j, alors : Aj⇠⇠N 0,Aj , ind´ependants, kAj⇠k22(Rang(Aj)).

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Propri´et´es de l’EMC : cadre gaussien

Estimateur de la variance 2 : bn2= kY M#bnmck2

n k = 1

n k

Xn i=1

Yi (#bnmc)Txi 2

D’apr`es la derni`ere Proposition :

b2n/ 22(n k)loi du Chi 2 `an k degr´es de libert´e C’est un estimateursans biais :

E#

⇥bn2

= 2. b2n estind´ependant de#bnmc.

(3)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Propri´et´es de l’EMC : cadre gaussien

Lois des coordonn´ees de #bnmc :

(#bnmc)j #j ⇠N 0, 2bj)

o`u bj est lej`eme ´el´ement diagonal de MTM 1. (#bnmc)j #j

bnp

bj ⇠tn k loi de Student `a n k degr´es de libert´e.

tq = ⇠ p⌘/q

o`u q 1 un entier,⇠⇠N 0,1), ⌘⇠ 2(q) et

⇠ ind´ependant de⌘.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Exemple de donn´ees de r´egression

Donn´ees de diab`ete

Patient age sex bmi map tc ldl hdl tch ltg glu Response

1 59 2 32.1 101 157 93.2 38 4 4.9 87 151

2 48 1 21.6 87 183 103.2 70 3 3.9 69 75

3 72 2 30.5 93 156 93.6 41 4 4.7 85 141

4 24 1 25.3 84 198 131.4 40 5 4.9 89 206

5 50 1 23.0 101 192 125.4 52 4 4.3 80 135

6 23 1 22.6 89 139 64.8 61 2 4.2 68 97

... ... ... ... ... ... ... ... ... ... ... ...

441 36 1 30.0 95 201 125.2 42 5 5.1 82 220

442 36 1 19.6 71 250 132.2 97 3 4.6 92 57

n=442,k=10

bmi = Body Mass Index map = Blood Pressure

tc, ldl, tch, ltg, glu = Blood Serum Measurements ResponseY = a quantitative measure of disease progression 1 year after baseline

1 MAP 433 :

Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

R´esultats de traitement statistique initial

Estimate Std. Error t value Pr(>|t|) (Intercept) 152.133 2.576 59.061 <2e 16⇤ ⇤⇤

age 10.012 59.749 0.168 0.867000

sex 239.819 61.222 3.917 0.000104⇤ ⇤⇤

bmi 519.840 66.534 7.813 4.30e 14⇤ ⇤⇤

map 324.390 65.422 4.958 1.02e 06⇤ ⇤⇤

tc 792.184 416.684 1.901 0.057947

ldl 476.746 339.035 1.406 0.160389

hdl 101.045 212.533 0.475 0.634721

tch 177.064 161.476 1.097 0.273456

ltg 751.279 171.902 4.370 1.56e 05⇤ ⇤⇤

glu 67.625 65.984 1.025 0.305998

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Questions statistiques

S´election de variables.Lesquelles parmi les 10 variables : age,sex,bmi,map,tc,ldl,hdl,tch,ltg,glu

sont significatives ? Formalisation math´ematique : trouver (estimer) l’ensembleN ={j:#j 6= 0}.

Pr´evison.Un nouveau patient arrive avec son vecteur des 10 variablesx02R10. Donner la pr´evison de la r´eponseY

=´etat du patient dans 1 an.

(4)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

RSS (Residual Sum of Squares)

Mod`ele de r´egression

Yi =r(#,xi) +⇠i, i = 1, . . . ,n.

R´esidu : si#bn est un estimateur de #,

⇠bi =Yi r(#bn,xi) r´esiduau pointi.

RSS :Residual Sum of Squares, somme r´esiduelle des carr´es. Caract´erise la qualit´e d’approximation.

RSS(=RSS#b

n) =k⇠bk2= Xn

i=1

Yi r(#bn,xi) 2.

En r´egression lin´eaire: RSS=kY M#bnk2.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

S´election de variables : Backward Stepwise Regression

On se donne un crit`ere d’´elimination de variables (plusieurs choix de crit`ere possibles...).

On ´elimine une variable, la moins significative du point de vue du crit`ere choisi.

On calcule l’EMC #bmcn,k 1 dans le nouveau mod`ele, avec seulement lesk 1 param´etres restants, ainsi que le RSS :

RSSk 1=kY M#bmcn,k 1k2.

On continue `a ´eliminer des variables, une par une, jusqu’`a lastabilisation de RSS: RSSm⇡RSSm 1.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Donn´ees de diab`ete : Backward Regression

S´election ”na¨ıve”: {sex,bmi,map,ltg} S´election par Backward Regression:

Crit`ere d’´elimination : plus grande valeur de Pr(>|t|).

Estimate Std. Error t value Pr(>|t|) (Intercept) 152.133 2.576 59.061 <2e 16⇤ ⇤⇤

age 10.012 59.749 0.168 0.867000

sex 239.819 61.222 3.917 0.000104⇤ ⇤⇤

bmi 519.840 66.534 7.813 4.30e 14⇤ ⇤⇤

map 324.390 65.422 4.958 1.02e 06⇤ ⇤⇤

tc 792.184 416.684 1.901 0.057947

ldl 476.746 339.035 1.406 0.160389

hdl 101.045 212.533 0.475 0.634721

tch 177.064 161.476 1.097 0.273456

ltg 751.279 171.902 4.370 1.56e 05⇤ ⇤⇤

glu 67.625 65.984 1.025 0.305998

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Donn´ees de diab`ete : Backward Regression

Backward Regression : It´eration 2.

Crit`ere d’´elimination : plus grande valeur de Pr(>|t|).

Estimate Std. Error t value Pr(>|t|) (Intercept) 152.133 2.573 59.128 <2e 16

sex 240.835 60.853 3.958 0.000104

bmi 519.905 64.156 5.024 8.85e 05

map 322.306 65.422 4.958 7.43e 07

tc 790.896 416.144 1.901 0.058

ldl 474.377 338.358 1.402 0.162

hdl 99.718 212.146 0.470 0.639

tch 177.458 161.277 1.100 0.272

ltg 749.506 171.383 4.373 1.54e 05

glu 67.170 65.336 1.013 0.312

(5)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Donn´ees de diab`ete : Backward Regression

Backward Regression : It´eration 5 (derni`ere).

Variables s´electionn´ees : {sex,bmi,map,tc,ldl,ltg}

Estimate Std. Error t value Pr(>|t|) (Intercept) 152.133 2.572 59.159 <2e 16

sex 226.511 59.857 3.784 0.000176

bmi 529.873 65.620 8.075 6.69e 15

map 327.220 62.693 5.219 2.79e 07

tc 757.938 160.435 4.724 3.12e 06

ldl 538.586 146.738 3.670 0.000272 ltg 804.192 80.173 10.031 <2e 16

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

S´election de variables : Backward Regression

Discussion deBackward Regression:

M´ethode de s´election purement empirique, pas de justification th´eorique.

Application d’autres crit`eres d’´elimination enBackward Regression peut amener aux r´esultats di↵´erents.

Exemple.Crit`ere Cp de Mallows–Akaike : on ´elimine la variablej qui r´ealise

minj

RSSm,( j)+ 2bn2m⌘ .

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

S´election de variables : LASSO

LASSO = Least Absolute Shrinkage and Selection Operator Estimateur LASSO : tout estimateur#bLn v´erifiant

#bLn2arg min

#2Rk

0

@ Xn

i=1

Yi #T xi 2+ Xk j=1

|#j| 1

A avec >0.

Si MTM>0, l’estimateur LASSO#bLn est unique.

Estimateur des moindres carr´es p´enalis´e. P´enalisation par Pk

j=1|#j|, la norme `1 de#.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

S´election de variables : LASSO

Deux utilisations de LASSO :

Estimation de#: alternative `a#bnmcsik>n.

S´election de variables: on ne retient que les variables qui correspondent aux coordonn´ees non-nulles du vecteur#bLn. LASSO admet une justification th´eorique: sous certaines hypoth`eses sur la matriceM,

nlim!1P{Nbn=N}= 1, o`uN ={j :#j 6= 0}etNbn ={j :#bLn,j 6= 0}.

(6)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Application de LASSO : ”regularization path”

* * * * * * * * * * * * *

0.0 0.2 0.4 0.6 0.8 1.0

5000500

|beta|/max|beta|

Standardized Coefficients

* * * * *

* *

* * * * * *

*

*

*

*

* * * * * * * * *

* * *

*

* * * * * * * * *

* * * * * * *

*

*

*

**

*

* * * * * * * * **

**

*

* * * *

*

* *

*

* *

* *

*

* * * * * * * *

* * * * *

* *

*

*

* * *

* * *

* *

*

* * * * * * * * * * * * *

LASSO

52178469

0 2 3 4 5 6 7 8 10 12

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Donn´ees de diab`ete : LASSO

Application aux donn´ees de diab`ete.

L’ensemble de variables s´electionn´e par LASSO : {sex,bmi,map,tc,hdl,ltg,glu}

Backward Regression:

{sex,bmi,map,tc,ldl,ltg} S´election na¨ıve :

{sex,bmi,map,tc}

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Limites des moindres carr´es et du cadre gaussien

Calcul explicite(et efficace) de l’EMC limit´e `a une fonction de r´egression lin´eaire.

Mod`ele lin´eaire donne un cadre assez g´en´eral : Mod`ele polynomial,

Mod`eles avec interactions...

Hypoth`ese de gaussianit´e= cadre asymptotique implicite.

Besoin d’outils pour les mod`eles `a r´eponseY discr`ete.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables

Backward Stepwise Regression LASSO R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

R´egression lin´eaire non-gaussienne

Mod`ele de r´egression lin´eaire

Yi =#Txi+⇠i, i = 1, . . . ,n.

Hyp. 1’ :⇠i i.i.d.,E[⇠i] = 0,E[⇠2i] = 2>0.

Hyp. 2’ :MTM>0,limnmax1inxTi MTM 1xi = 0.

Proposition (Normalit´e asymptotique de l’EMC)

1 MTM 1/2(#bnmc #) d!N 0,Idk), n! 1.

A comparer avec le cadre gaussien :

1 MTM 1/2(#bnmc #)⇠N 0,Idk) pour toutn.

(7)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

R´egression non-lin´eaire

On observe

(x1,Y1), . . . ,(xn,Yn), o`u

Yi =r(#,xi) +⇠i, i = 1, . . . ,n avec

xi 2Rk, et #2⇥⇢Rd. Si ⇠ii.i.d. N(0, 2),

Ln(#,Y1, . . . ,Yn)/exp⇣ 1 2 2

Xn i=1

Yi r(#,xi) 2⌘ et l’estimateur du maximum de vraisemblanceest obtenu en minimisant la fonction

# Xn

i=1

Yi r(#,xi) 2.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Moindre carr´es non-lin´eaires

D´efinition

M-estimateur associ´e `a lafonction de contraste :⇥⇥Rk⇥R!R : tout estimateur#bn satisfaisant

Xn i=1

(#bn,xi,Yi) = max

a2

Xn i=1

(a,xi,Yi).

Estimateur desmoindres carr´es non-lin´eaires : associ´e au contraste (a,x,y) = y r(a,x) 2.

Extensiondes r´esultats en densit´e!th´eor`emes limites pour des sommes de v.a. ind´ependantes

non-´equidistribu´ees.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Mod`ele `a r´eponse binaire

On observe

(x1,Y1), . . . ,(xn,Yn), Yi 2{0,1}, xi 2Rk. Mod´elisationvia la fonction de r´egression

x px(#) =E#

Y|X=x⇤

=P#

Y = 1|X=x⇤ Repr´esentation

Yi =pxi(#) + Yi pxi(#)

=r(#,xi) +⇠i

avecr(#,xi) =pxi(#) et⇠i =Yi pxi(#).

E#

i

= 0 mais structure des⇠i compliqu´ee(d´ependance en #).

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Mod`ele `a r´eponse discr`ete

Yi v.a. de Bernoulli de param`etre pxi(#).

Vraisemblance

Ln(#,Y1, . . . ,Yn) = Yn i=1

pxi(#)Yi(1 pxi #) 1 Yi

!m´ethodes de r´esolution num´erique.

R´egression logistique(tr`es utile dans les applications) px(#) = (xT#),

(t) = et

1 +et, t2R fonction logistique.

(8)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

R´egression logistique et mod`eles latents

Repr´esentation ´equivalente de la r´egression logistique: on observe

Yi = 1

Yi?>0 , i= 1, . . . ,n

(les xi sont donn´es), et Yi? est une variable latenteou cach´ee,

Yi?=#Txi+Ui, i= 1, . . . ,n avecUii.i.d.F, o`u

F(t) = 1

1 +e t, t2R. P#

⇥Yi?>0] =P#

⇥xTi #+Ui >0⇤

= 1 P#

⇥Ui  xTi #⇤

= 1 1 + exp( xTi #) 1= (xTi #).

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Bilan provisoire : mod`eles param´etriques domin´es

Mod`ele de densit´e :on observe

X1, . . . ,Xni.i.d.P#, #2⇥⇢Rd. Estimateurs :moments,Z- et M-estimateurs,EMV.

Mod`ele de r´egression :on observe

Yi =r(#,xi) +⇠i, i= 1, . . . ,n, ⇠i i.i.d., #2⇥⇢Rd. Estimateurs :

Si r(#,x) =x#T, EMC (co¨ıncide avec l’EMVsi les⇠i gaussiens)

Sinon,M-estimateurs,EMV...

Autres m´ethodes selon deshypoth`esessur ledesign ...

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

#bn estimateur de#: pr´ecision, qualit´ede#bn? En pratique, on asouvent

une information non-asymptotiquede type E⇥

k#bn #k2

cn(#)2, ou bien asymptotiquede type

vn(#bn #) d!Z#, vn! 1.

Permetsouvent de construire un(e) r´egion-intervalle de confiance...

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Region-intervalle de confiance : d´efinition formelle

{Pn#,#2⇥}, ⇥⇢Rd, engendr´ee par l’observationZ(n). Densit´e: Z(n)= (X1, . . . ,Xn),Pn#=P#⌦. . .⌦P# R´egression(`a design d´eterministe) : Z(n)= (Y1, . . . ,Yn), Pn#=P#,x1⌦. . .⌦P#,xn, o`uP#,xi loi deYi =r(#,xi) +⇠i. D´efinition

R´egion de confiancede niveau1 ↵, ↵2(0,1), (resp.

asymptotiquement de niveau↵) : sous-ensembleobservable Cn,↵(Z(n)) deRd t.q.

8#2⇥:Pn#

⇥#2Cn,↵(Z(n))⇤

1 ↵

resp.

8#2⇥: lim inf

n!1 Pn#

⇥#2Cn,↵(Z(n))⇤

1 ↵.

(9)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Comparaison d’estimateurs

Etant donn´e{Pn#,#2⇥}commentconstruirelemeilleur estimateur ? Dans quel sens ?

Intuitivement :#bn fournit une pr´ecision optimale si on peut lui associer une r´egion de confiance de longueur (moyenne) minimale.

Di↵´erence entre point de vue asymptotiqueet non-asymptotique.

Dans ce cours, nous ´etudions les deux points de vue sous un angle –un peu r´educteur– particulier :

Non-asymptotique : contrˆole durisque quadratique Asymptotique : comparaison des estimateurs asymptotiquement normaux.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Risque quadratique, admissibilit´e

Situation :#bn,i =#bn,i(Z(n)),i = 1,2 deux estimateurs bas´es sur l’observationZ(n)qui engendre l’exp´erience {Pn#,#2⇥},

⇥⇢R1. D´efinition

Risque quadratique de l’estimateur#bn au point#2⇥: R(#bn,#) =En#⇥ b#n # 2

.

D´efinition

L’estimateur#bn,1 estpr´ef´erable– au sens du risque quadratique – `a l’estimateur#bn,2 si

8#2⇥, R #bn,1,# R #bn,2,# .

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Absence d’optimalit´e

Existe-t-il un estimateur optimal#?n au sens o`u 8#2⇥, R #?n,# inf

#bn

R #bn,# ? Si ⇥={#1,#2}ets’il n’existe pas d’´ev´enement observable Atel que, simultan´ement:

Pn#1

⇥A⇤

= 0 et Pn#2

⇥A⇤

= 1,

(on dit que Pn#1 etPn#2 ne sontpas ´etrang`eres), alorsil n’existe pas d’estimateur optimal.

Condition suffisante pour quePn#1 etPn#2 ne soient pas

´etrang`eres :Pn#1⌧Pn#2 etPn#2 ⌧Pn#1.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Absence d’optimalit´e (cont.)

Preuve : Pour tout estimateur#?n, on a

max R(#?n,#1),R(#?n,#2) >0 (?).

Supposons #?n estimateur optimal etR(#?n,#1)>0. Alors

#bn trivial

:=#1 v´erifie 0 =R #bn

trivial

,#1 <R #?n,#1 contradiction ! et contredit l’optimalit´e de#?n.

(10)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Absence d’optimalit´e (fin.)

Preuve de (?) : siR #?n,#1 =R #?n,#2 = 0, alors

#?n=#1 Pn#1 p.s. et #?n =#2 Pn#2 p.s..

Soient A={!,#?n(!) =#1}etB ={!,#?n(!) =#2}. Alors Pn#1[A] = 1 et doncPn#2[A]>0. Aussi,Pn#2[B] = 1.

Donc A\B 6=;. Il existe!0 tel que#1 =#?n(!0) =#2 contradiction !

Attention ! La propri´et´ePn#1 etPn#2 non ´etrang`eres est minimale. Mais elle disparaˆıt en g´en´eral lorsque n! 1.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Notions d’optimalit´e

Di↵´erentes notions existent. Deux exemples extrˆemes : D´efinition (Admissibilit´e et crit`ere minimax)

Un estimateur#?n estadmissibles’iln’existe pas d’estimateur#bnpr´ef´erable`a#?n tel que, pourun point

#02⇥

R(b#n,#0)<R(#?n,#0).

Un estimateur#?n estminimaxsi sup

#2⇥R(#?n,#) = inf

#bn

sup

#2⇥R(b#n,#).

Admissibilit´e: permet d’´eliminer des estimateurs absurdes (mais pas tous).

Minimaxit´e: notion tr`es robuste mais conservatrice, `a suivre...

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Approche asymptotique

Hypoth`ese simplificatrice :#2⇥⇢R. On se restreint aux estimateurs asymptotiquement normaux c’est-`a-dire v´erifiant p

n #bn # d!N 0,v(#)

cf. th´eor`emes limites obtenus pour les Z-,M-estimateurs.

Si #bn,1 et#bn,2 as. normaux de variance asymptotique v1(#)v2(#), alors la pr´ecision de#bn,1 est

asymptotiquement meilleure que celle de#bn,2 au point# :

#bn,1=#+

rv1(#) n ⇠(n)

#bn,2=#+

rv2(#) n ⇣(n) o`u ⇠(n) et⇣(n)!d N(0,1).

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Comparaison d’estimateurs : cas asymptotique

Si v1(#)<v2(#), et si# vi(#) est continue, on pose

Cn,↵(#bn,i) = 2 4b#n,i±

s vi(#bn,i)

n

1(1 ↵/2) 3

5, i = 1,2

o`u↵2(0,1) et (·) est la fonction de r´epartition de la loi normale standard.

Cn,↵(#bn,i),i = 1,2 sont deux intervalles de confiance asymptotiquement de niveau 1 ↵ et on a

|Cn,↵(#bn,1)|

|Cn,↵(#bn,2)|

Pn#

! s

v1(#) v2(#) <1.

La notion delongueur minimale possible d’un intervalle de confianceest en g´en´eral difficile `a manipuler.

(11)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs

Risque et admissibilit´e Approche asymptotique Mod`eles r´eguliers et information de Fisher

Conclusion provisoire

Il est difficile en g´en´eralde comparer des estimateurs.

Cadre asymptotique + normalit´e asymptotique ! comparaison de la variance asymptotique# v(#).

Sous des hypoth`eses de r´egularit´e du mod`ele {Pn#,#2⇥} alors

Ilexisteune variance asymptotiquev?(#)minimaleparmi les variances de la classe desM-estimateurs as. normaux.

Cette fonction est associ´ee `a unequantit´e d’information intrins`equeau mod`ele.

La variance asymptotique de l’EMVestv?(#).

Ceci r`egle partiellementle probl`eme de l’optimalit´e.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

R´egularit´e d’un mod`ele statistique et information

Cadre simplificateur : mod`ele de densit´e X1, . . . ,Xn i.i.d. de loi P#

dans la famille P#,#2⇥ avec⇥⇢R pour simplifier.

Notation :

f(#,x) = dP#

dµ (x), x 2R,#2⇥.

Hypoth`ese : la quantit´e I(#) =E#

⇥ @#logf(#,X) 2⇤ est bien d´efinie.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Information de Fisher

D´efinition I(#) =E#

@#logf(#,X) 2

s’appellel’information de Fisher de la famille{P#,#2⇥}au point#. Elle ne d´epend pas de la mesure dominanteµ.

Le cadre d’int´erˆet est celui o`u

0<I(#)<+1.

I(#)quantifiel’information qu’apporte chaque observation Xi sur le param`etre#.

Remarque : on aP#

f(#,X)>0⇤

= 1, donc la quantit´e logf(#,X) est bien d´efinie.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Information dans quel sens ? Origine de la notion

Supposons l’EMV#bnmv bien d´efini et convergent.

Supposons l’application (#,x) f(#,x) poss´edanttoutes les propri´et´es de r´egularit´e et d’int´egrabilit´evoulues.

Alors

pn #bnmv # d!N⇣ 0, 1

I(#)

en loi sousP#, o`u encore

#bnmvd #+ 1

pnI(#)N(0,1) en loi sousP#.

(12)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Construction de l’information + jeu d’hypoth`eses attenant

Heuristique : on ´etablira un jeu d’hypoth`eses justifianta posteriorile raisonnement.

Etape 1 : l’EMV#bnmv converge:

#bnmv P!# #

via le th´eor`eme de convergence des M-estimateurs.

Etape 2 : l’EMV#bnmv est unZ-estimateur: 0 =@#

⇣Xn

i=1

logf(#,Xi)⌘

#=#bnmv.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Construction de I (#) cont.

Etape 3 : d´eveloppement asymptotique autour de#: 0⇡

Xn i=1

@#logf(#,Xi) +(#bnmv #) Xn

i=1

@#2logf(#,Xi), soit

#bnmv #⇡ Pn

i=1@#logf(#,Xi) Pn

i=1@#2logf(#,Xi)

Etape 4 : le num´erateur. Normalisation et convergence de Pn

i=1@#logf(#,Xi) ?

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Num´erateur

Lemme On a

E#

@#logf(#,X)⇤

= 0.

Preuve.

E#

@#logf(#,X)⇤

= Z

R@#logf(#,x)f(#,x)µ(dx)

= Z

R

@#f(#,x)

f(#,x) f(#,x)µ(dx)

= Z

R@#f(#,x)µ(dx)

=@#

Z

Rf(#,x)µ(dx) =@#1 = 0.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

D´enominateur

De mˆemeR

R@2#f(#,x)µ(dx) = 0. Cons´equence: I(#)=E#

⇥ @#logf(#,X) 2

= E#

⇥@2#logf(#,X)⇤

En e↵et E#

@#2logf(#,X)⇤

=

= Z

R

@#2f(#,x)f(#,x) @#f(#,x) 2

f(#,x)2 f(#,x)µ(dx)

= Z

R@#2f(#,x)µ(dx) Z

R

@#f(#,x) 2 f(#,x) µ(dx)

= 0 Z

R

⇣@#f(#,x) f(#,x)

2

f(#,x)µ(dx) = E⇥

@#logf(#,X) 2⇤ .

(13)

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Cons´equences

Les @#logf(#,Xi) sont i.i.d. etE#

@#logf(#,X)⇤

= 0.

TCL : p1

n Xn i=1

@#logf(#,Xi) d!N 0,E#

@#logf(#,X) 2

=N 0,I(#) . Les @2#logf(#,Xi) sont i.i.d. LGN :

1 n

Xn i=1

@2#logf(#,Xi) P!# E#

@#2logf(#,X)⇤

cons´equence

= I(#).

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Conclusion

En combinant les deux estimations + lemme de Slutsky : pn(#bnmv #)⇡

p1 n

Pn

i=1@#logf(#,Xi)

n1

Pn

i=1@#2logf(#,Xi)

d!N 0,I(#) I(#)

loi=N⇣ 0, 1

I(#)

⌘ .

Le raisonnement estrigoureux d`es lors que: i) on a la convergence de#bnmv, ii) on peut justifier le lemme et sa cons´equence, iii)I(#) est bien d´efinie et non d´eg´en´er´ee et iv) on sait contrˆoler le terme de reste dans le

d´eveloppement asymptotique,partie la plus difficile.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

Mod`ele r´egulier

D´efinition

La famille de densit´es {f(#,·),#2⇥}, par rapport `a la mesure dominanteµ, ⇥⇢R, est r´eguli`eresi

⇥ ouvert et{f(#,·)>0}={f(#0,·)>0}, 8#,#02⇥.

µ-p.p.# f(#,·), # logf(#,·)sontC2.

8#2⇥,9V#⇢⇥ t.q. pour a2V#

|@a2logf(a,x)|+|@alogf(a,x)|+ @alogf(a,x) 2g(x)

o`u Z

Rg(x) sup

a2V(#)

f(a,x)µ(dx)<+1. L’information de Fisher est non-d´eg´en´er´ee :

8#2⇥, I(#)>0.

MAP 433 : Introduction aux m´ethodes

statistiques.

Cours 6

S´election de variables R´egression non-lin´eaire Comparaison d’estimateurs Mod`eles r´eguliers et information de Fisher

Construction de l’information de Fisher Mod`ele r´egulier Cadre g´en´eral et interpr´etation g´eom´etrique Exemples, applications

R´esultat principal

Proposition

Si l’exp´erience engendr´ee par l’observation X1, . . . ,Xni.i.d. P# est associ´ee `a une famille de probabilit´es{P#,#2⇥}sur Rr´eguli`ere au sens de la d´efinition pr´ec´edente, alors

pn #bnmv # d!N⇣ 0, 1

I(#)

⌘ .

Si #bn est un Z -estimateurr´egulierasymptotiquement normal de variance v(#), alors

8#2⇥, v(#) 1 I(#).

Références

Documents relatifs

Notons β le vecteur des param` etres de r´ egression ` a estimer dans le cadre d’un mod` ele d’analyse de la variance ` a un facteur et β b son

Notons β le vecteur des param` etres de r´ egression ` a estimer dans le cadre d’un mod` ele d’analyse de la variance ` a un facteur et β b son estimateur?. Proposer des simulations

Proposer des simulations de Monte-Carlo permettant d’´ evaluer l’erreur empirique de 1 ` ere esp` ece et la puissance empirique de ce test.. Les r´ esultats obtenus sont- ils

Proposer des simulations de Monte-Carlo permettant d’´ evaluer l’erreur empirique de 1 ` ere esp` ece et la puissance empirique de ces deux tests.. Les r´ esultats obtenus

Pour pouvoir d´ eterminer la concentration du Glucose ` a partir de la mesure de l’absorbance, on effectue une calibration pr´ eliminaire: une courbe d’´ etalonnage du dosage

Pour pouvoir d´ eterminer la concentration du Glucose ` a partir de la mesure de l’absorbance, on effectue une calibration pr´ eliminaire: une courbe d’´ etalonnage du dosage

Les ´ echantillons pr´ elev´ es seront dilu´ es afin de rester dans la zone de lin´ earit´ e du spectrophotom` etre, zone pour laquelle la densit´ e optique est proportionnelle ` a

Les ´ echantillons pr´ elev´ es seront dilu´ es afin de rester dans la zone de lin´ earit´ e du spectrophotom` etre, zone pour laquelle la densit´ e optique est proportionnelle ` a