• Aucun résultat trouvé

 E imateur du maximum de vraisemblance

N/A
N/A
Protected

Academic year: 2022

Partager " E imateur du maximum de vraisemblance"

Copied!
6
0
0

Texte intégral

(1)

X  – MAP 

PC  –  juin  – E imateurs, TCL, ve eurs gaussiens Corrig´e des que ions non abord´ees en PC

Igor Kortchemski –igor.kortchemski@cmap.polytechnique.fr

Corrig´e des exercices non trait´es surhttp:// www.normalesup.org/ ˜ kortchem/ MAPun peu apr`es la PC.

 E imateur du maximum de vraisemblance

E xercice 3.

(Plus appliqu´e)Une colonie de vampires a ´elu domicile dans un chˆateau des Carpates, et la comptesse D. souhaite eimer leur nombre. Pour cela, une nuit de pleine lune, la comptesse en capture, leur mord les oreilles, puis les relˆache. La nuit suivante, elle en captureau hasard. Trois ont une morsure aux oreilles.

Aidez la comptesse D. en utilisant un eimateur du maximum de vraisemblance.

Corrig´e : Notonsnle nombre de vampires dans le chˆateau. Alors la probabilit´e que parmivampires captur´es au hasard la nuit suivante trois vampires ont des morsures aux oreilles e

pn=

n

n . Pour trouver la valeur denmaximisant cette quantit´e, on remarque que

pn

pn+ =n−n−

n−n+,

qui e riement inf´erieur `apourn≤et qui e riement sup´erieur `apourn≥. Ainsi,pn emaximal

pourn=.

 Probl`eme r´ecapitulatif

E xercice 4.

(Mod`ele auto-r´egressif d’ordreAR()). Soit (Yn)nune suite de variables al´eatoires ind´ependantes et de mˆeme loiN(m, σ). Soienta∈RetXune variable al´eatoire de loiN(m, σ) ind´ependante de (Yn)n. Pour toutn≥, on d´efinit la suite r´ecurrente al´eatoire (Xn)npar

Xn=aXn+Yn.

Il s’agit d’un cas particulier des´eries temporelles, utilis´ees pour mod´eliser l’´evolution pass´ee d’une quantit´e pour en pr´evoir le comportement futur.

Premi`ere partie.

() Montrer que (X, . . . , Xn) eun veeur gaussien.

() D´eterminer la loi deXnet exprimer Cov(Xk, Xn) en fonion de Var(Xk) pour≤kn. Trouver la valeur dectelle queX+cXsoit ind´ependant deX.

() `A quelle condition surala suite (Xn) converge-t-elle en loi ?Quelle ealors la loi limite ?Quelle ela loi deXnsi Xa cette loi limite ?

Pour des queions, demande d’explications etc., n’h´esitez pas `a m’envoyer un mail.

(2)

() Montrer que sia∈]−,[, le veeur (Xn, Xn+) converge en loi vers un veeur gaussien dont on d´eterminera les param`etres.

() Poura∈]−,[, ´etudier la convergence en loi de la moyenne empiriqueXn=nPn i=Xi.

Deuxi`eme partie. On suppose maintenant que (Yn)neune suite de variables al´eatoires ind´ependantes et de mˆeme loiN(, σ) (avecσ connu), queX=et queaeinconnu.

() Soitgla densit´e d’une loi gaussienneN(, σ). Montrer qu’une densit´efnde (X, . . . , Xn) au point (x, . . . , xn) e fn(x, . . . , xn) =g(x)g(xax)· · ·g(xnaxn).

() D´eterminer l’eimateur du maximum de vraisemblanceban=ban(X, . . . , Xn) dea.

Corrig´e :

Premi`ere partie.

() On montre par r´ecurrence surnque toute combinaison lin´eaire de (X, . . . , Xn) egaussienne. Pourn=il n’y a rien `a faire. Supposons acquis le r´esultat au rangnet montrons le au rangn+. Pour des r´eels (λi)in+,

on a n+

X

i=

λiXi=λX+· · ·+λnXn+ (aλn++λn)Xn+Yn+.

Par hypoth`ese de r´ecurrence,λX+· · ·+λnXn+ (aλn++λn)Xneune gaussienne, de plus ind´ependante deYn+, d’o `u le r´esultat.

() Pour trouver la loi deXn, il suffit de trouver son esp´erance et sa variance. On a

E[Xn] =aE[Xn] +E[Yn] =aE[Xn] +m, Var(Xn) =aVar(Xn) +σ. Ce sont deux suites arithm´etico-g´eom´etriques, et on trouve

E[Xn] =





mn+m sia= an

mm

a

+ma sia,, Var(Xn) =





σn+σ sia= an

σσ

a

+σa sia,.

Pour calculer Cov(Xk, Xn), on remarque que

Xn=Yn+aYn+· · ·+ankYk++ankXk, d’o `u, par ind´ependance deXket desYi,

Cov(Xk, Xn) =ankVar(Xk).

Comme (X, X) e un veeur gaussien, X+cX e ind´ependant de X si et seulement si Cov(X+ cX, X) =. Or

Cov(X+cX, X) = Var(X) +cCov(X, X) = Var(X)(c+a).

Ainsi,X+cXeind´ependant deXsi et seulement sic=−a.

() La suite (Xn) converge en loi si et seulement si sa fonion cara´eriique converge en tout point vers une fonion continue en. On rappelle que

E[Xn] =





mn+m sia= an

mm

a

+ma sia,, Var(Xn) =





σn+σ si|a|= an

σσ

a

+σa si|a|,.

(3)

On a

E heitXni

=eiE[Xn]tVar(Xn)t

Si|a|<ou si (m, σ) = (ma,σa), on voit que

E heitXni

−→

n→∞ eitma σ

a·t

.

Ainsi,

Xn −→loi

n→∞

N m

−a, σ

−a

! .

Si|a|=, ou si|a|>avecσ,σa, alorseσnt →lorsquet,. Dans ce cas, E

heitXni

−→

n→∞ 1t=, fonion qui n’epas continue en. DoncXnne converge pas en loi.

Finalement, le cas o `u|a|>etσ=σa ebeacoup plus d´elicat. Supposons par l’absurde queXnconverge en loi vers X. L’ensemble des points de discontinuit´e de la fonion de r´epartition FX de X e au plus d´enombrable, il exie donc A >suffisamment grand tel queP(X≥A)</et tel que FX soit continue enA. Commemntend vers l’infini, pournsuffisamment grand (de sorte quemn> A) :

P(XnA)≥P(Xnmn) =

.

carXneune gaussienne de moyennemn. OrP(XnA)→P(X≥A)</, absurde.

SiX=N m

a,σa

, on voit queXna la mˆeme loi queXpour toutn≥.

() D’apr`es la queion pr´ec´edente, comme Xn et Yn+ sont ind´ependantes, (Xn, Yn+) converge en loi vers un veeur gaussien (X, Y) avec X=N m

a,σa

,Y =N(m, σ) etX ind´ependant deY. Comme (Xn, Xn+) = (Xn, aXn+Yn+), on en d´eduit que (Xn, Xn+) converge en loi vers (X, aX+Y) (par composition avec l’application continue (x, y)7→(x, ax+y)). Tout d’abord, on a

Cov(X, aX+Y) = Cov(X, aX) =aVar(X) =

−a.

Le veeur gaussien (X, aX+Y) a donc pour moyenne (ma,ama+m) = (ma,ma) et pour matrice de covariance





σ

a

a

a σ

a





() La variable al´eatoireXn suit une loi gaussienne car (X, . . . , Xn) e un veeur gaussien. On calcule ainsi la fonion cara´eriique deXn:

E

eitXn

=eiE[Xn]tVar(Xn)t. Il s’agit donc d’´etudier le comportement asymptotique deE

hXni

et de Var(Xn) lorsquen→ ∞. Tout d’abord,

E hXni

= Pn

k=E[Xk]

n −→

n→∞

m

−a. Pour calculer la variance deXn, on peut remarquer queXk=akX+Pk

i=akiYi pourk≥. Ainsi, X+· · ·+Xn=λX+λY+· · ·+λnYn

(4)

avec

λ=a+a+· · ·+an≤ 

−a etλi=+a+· · ·+ani≤ 

−a pour≤in.

Ainsi,

Var(X+· · ·+Xn) =λσ+ Xn

i=

λiσCn.

pour une certaine conanteC >qui ne d´epend pas den. Donc Var(Xn) =Var(X+· · ·+Xn)

n −→

n→∞ .

Ainsi,

E

eitXn

−→

n→∞ eimat. DoncXnconverge en loi vers la variable al´eatoire conante ma.

Remarque.Une fois qu’on sait queE hXni

m

a et que Var(Xn)→, il epossible d’en d´eduire queXn converge en loi vers maen toute g´en´eralit´e en utilisant l’in´egalit´e de Markov. En effet, pour tout >

P

Xnm

−a >

≤  E

Xnm

−a

= 

E

Xn−E hXn

i+E hXn

i− m

−a

= 

Var(Xn) +

E hXni

m

−a

, qui tend vers. DoncXnconverge en probabilit´e vers ma, donc en loi.

Deuxi`eme solution.

Deuxi`eme partie.

() On raisonne par r´ecurence surnen utilisant la m´ethode de la fonion muette. Pourn=, le r´esultat evrai.

Supposons le acquis au rangn−et d´emontrons-le au rangn. Par ind´ependance de (X, . . . , Xn) avecYn, pour toute fonionF:Rn→Rcontinue born´ee on a d’apr`es le th´eor`eme de transfert

E[F(X, . . . , Xn)] = E[F(X, . . . , Xn, aXn+Yn)]

= Z

Rn

dx· · ·dxn

Z

R

dyF(x, . . . , xn, axn+y)fn(x, . . . , xn)g(y).

En faisant le changement de variableu=axn+y, on a donc E[F(X, . . . , Xn)] =

Z

Rn

dx· · ·dxnF(x, . . . , xn, xn)fn(x, . . . , xn)g(xnaxn).

Donc

fn(x, . . . , xn) =fn(x, . . . , xn)g(xnaxn) et le r´esultat d´esir´e s’ensuit.

(`e) Pour d´eterminer l’eimateur du maximum de vraisemblance, posonsh(a) =g(x)g(xax)· · ·g(xnaxn) et maximisonshen maximisant plutˆotL(a) = lnh(a). On a

L(a) =nln(σ

π)

 − x

σ+

n

X

i=

(xi+axi)

σ , d’o `u

L0(a) =

n

X

i=

xi(xi+axi) σ =σ





 a

n

X

i=

xi

n

X

i=

xixi





 .

On a donc

ban= Pn

i=XiXi

Pn i=Xi .

(5)

 Pour aller plus loin

E xercice 6.

(Eimateurs lin´eaires)Soient X, . . . , Xn des variables al´eatoires ind´ependantes de mˆeme loi et de carr´e int´egrable. Trouver l’eimateurθbn de la moyenneθ=E[X], qui soit sans biais (c’e-`a-direE

h θbn

i=θet de variance minimale dans la classe des eimateurs lin´eairesθbn=Pn

k=akXk.

Corrig´e : Commeθbn esans biais, on aa+· · ·+an=. Comme les variables al´eatoires sont ind´ependantes, on aVar(θbn) =Pn

i=aiσavecσ= Var(X). D’apr`es l’in´egalit´e de Cauchy-Schwarz, on a





 Xn

i=

ai







·





 Xn

i=

n











 Xn

i=

ai

n







. Puisquea+· · ·+an=, on en d´eduit quePn

i=ai

n avec ´egalit´e si et seulement siai =n pour touti∈ {,, . . . , n}. L’eimateur de variance minimale dans la classe des eimateurs lin´eaires et sans biais edonc la moyenne empi- riqueXn=nPn

i=Xi.

E xercice 7.

Soit g: [,][,] une fonion (mesurable) born´ee. On souhaite calculerm=R

g(x)dx. On poseσ= R

g(x)dxm. SoientXetY des variables al´eatoires ind´ependantes de loi uniforme sur [,]. On pose U=1Yg(X), V=g(X), W=g(X) +g(X)

.

() Calculer l’esp´erance et la variance deU , V , W. Comparer les variances deU etV. () Proposer trois m´ethodes de type Monte-Carlo pour calculerm.

On suppose dans la suite quegemonotone.

() V´erifier queE[g(X)g(−W)]≤met comparer les variances deV etW.

Indication.On pourra montrer que (g(x)−g(y))(g(−x)g(−y))≤pour toutx, y∈[,].

Soit (Xi)iune suite de variables al´eatoires ind´ependantes de loi uniforme sur [,].

() On consid`ere les eimateurs suivants dem:

An= 

n Xn

k=

g(Xk) et 

n Xn

k=

(g(Xk) +g(Xk)).

Montrer qu’ils sont sans biais. Lequel poss`ede la plus petite variance ?

() Dans le cas o `ug(x) =x, d´eterminer le nombrende simulations n´ecessaires garantissant une pr´ecision relative de

% sur le calcul demen erreur quadratique avecAnetBn(la pr´ecision relative ´etantVar(Amn),Var(Bmn)).

Corrig´e :

() Tout d’abord,Usuit une loi de Bernoulli de param`etreP(Y≤g(X)). On calcule cette quantit´e avec le th´eor`eme de transfert :

P(Y≤g(X)) =E

h1Yg(X)

i= Z

[,]dxdy1yg(x)= Z

g(x)dx=m.

Ainsi,E[U] =metVar(U) =m(m).

D’apr`es le th´eor`eme de transfert,

E[V] = Z

g(x)dx=m et E[V] = Z

g(x)dx, doncVar(V) =σ.

(6)

CommeXet−Xont mˆeme loi, on a par lin´earit´e de l’esp´erance

E[W] =m et E[W] =(σ+m) +R

g(x)g(−x)dx

.

Ainsi,

Var(W) =σm+R

g(x)g(x)dx

.

On a

Var(U)−V = Z

g(x)(−g(x))dx.

() Par la loi forte des grands nombres, presque s ˆurement,

m= lim

n→∞

Card({≤in:Yig(Xi)})

n = lim

n→∞

Xn

i=

g(Xi) = lim

n→∞

n Xn

i=

(g(Xi) +g(Xi)).

() Comme g e monotone, on a (g(x)−g(y))(g(x)g(−y))≤ pour tous x, y∈ [,]. On en d´eduit que E[g(X)g(−X)] +E[g(Y)g(−Y)]−E[g(X)]E[g(Y)]≤, c’e-`a-dire queE[g(X)g(−X)]m.

Ainsi,Var(W)≤σ

=Var(V) .

() On a bienE[An] =E[Bn] =m. Par ailleurs, compte tenu de ce qui pr´ec`ede,

Var(An) =σ

n, Var(Bn)≤Var(W) nσ

n.

La variance deAnedonc moindre, maisAnn´ecessite un ´echantillon deux fois plus gros queBn.

() Var(Amn)= donnen=σm. Pourg(x) =x, il vientm= etσ= et doncn'avecAn, et en fait plus de

fois moins avecBncar il s’av`ere queVar(W) = .

Références

Documents relatifs

 Les espèces qui évoluent plus vite que les autres pour les caractères utilisés se traduisent dans un arbre par une branche propre plus longue.  On a pu montrer théoriquement

Il n’y avait pas de différence statistiquement significative entre les nombres moyens de moustiques (Forme M) collectés à l’intérieur et l’extérieur des habitations

Subsidence toujours marquée durant la nuit avec inversion basse mais trop de flux et air pas assez humide. En fin de nuit, les nuages se font plus nombreux

Pour cela, une nuit de pleine lune, la comptesse en capture , leur mord les oreilles, puis les relˆache.. La nuit suivante, elle en capture 

Sur un ´echantillon repr´esentatif de  personnes, on rapporte les avis favorables pour un homme politique.. En novembre, il y avait % d’avis favorables, et %

», les enfants font état de leur expérience du référent, ils sont à même de donner certains traits sémantiques, mais ne semblent pas encore capables d’organiser

7 – Comment s’appelle l’homme avec qui la mère de Thomas avait rendez-vous ?. a) Il

Consigne : découpe les étiquettes puis à l'aide de ton dictionnaire, retrouve à quel dessin elles correspondent. Colle-les au