Correction du DM (TD5 exercice 6)
1. Estimation de λ
a. La loi de X param´etr´ee par λappartient la famille exponentielle:
lnfλ(x) = a(x)α(λ) +b(x) +β(λ), avec β(λ) = −λ, a(x) = x, α(λ) = lnλ et b(x) = −lnx!. D’apr`es le th´eor`eme de Darmois, une statistique exhaustive pour λ est Sn = Pn
i=1a(Xi). Par ailleurs, d’apr`es le th´eor`eme d’efficacit´e, il n’existe qu’une fonc- tion deλqui puisse ˆetre estim´ee efficacement: k(λ) =−β0(λ)/α0(λ) = λet son estimateur efficace estTn=Sn/n= ¯X.L’estimateur des moments ˆΛ est solution de l’´equation EΛˆ = ¯X ⇔ Λ = ¯ˆ X et on retrouve Tn. Pour l’EMV, voir cours. Enfin, d’apr`es le TCL, on ap
(n)(Tn−λ)→L N(0,√ λ).
b. Tn∗ estime sans biais la variance de X qui vaut ici λ. Le fait que cet estimateur est sans biais a ´et´e d´emontr´e dans le cours et en TD.
c. PuisqueTnest efficace et qu’il existe au plus un estimateur efficace deλ,Tn∗ne peut pas ˆetre efficace. Il est donc forcement moins bon queTn(en terme d’EQM, donc de variance ici car les estimateurs sont sans biais).
2. Estimation de p=e−λ a. p=P(X1 = 0)
b. Y suit une loi de Bernouilli de param`etre p. On a doncE(Y) =p, V(Y) =p(1−p). Y n’est pas un estimateur convergent depdonc il ne peut pas ˆetre un bon estimateur.
c. D’une part, et ce point aurait du ˆetre demand´e explicitement dans l’´enonc´e, on v´erifie que Sn est une statistique exhaustive de p.
En effet, la loi de X param´etr´ee par p appartient la famille exponentielle: lnfp(x) =a(x)α(p) +b(x) +β(p),avecβ(p) = lnp, a(x) =x,α(p) = ln(−lnp) etb(x) =−lnx!.D’apr`es le th´eor`eme de Darmois, une statistique exhaustive pourp est Pn
i=1a(Xi) = Sn. Ensuite, d’apr`es le th´eor`eme de Rao-Blackwell, si Y est un estimateur sans biais dep etSn une statistique exhaustive de p, alors, l’estimateur ˆPn=E(Y|Sn) est un estimateur sans biais de pau moins aussi bon queY. On va calculer cet estimateur. Pour
cela, on rappelle que l’esp´erance conditionnelle de Z sachant T, Z et T variables al´eatoires discr`etes (resp. continues), E(Z|T), est la variable al´eatoire de mˆeme loi que T prenant pour toute valeur t de T la valeur E(Z|T = t) = P
zzP(Z = z|T = t) (resp. E(Z|T =t) = R
Rzf(z|t)dz) avec la probabilit´e P(T =t) (resp. la densit´e de probabilit´ef(t)). Ici, pour tout s= 0,1, . . . , E(Y|Sn) prend les valeurs
E(Y|Sn=s) = X
y
yP(Y =y|Sn=s) =P(Y = 1|Sn=s)
= P(X1 = 0|Sn=s).
Calculons cette probabilit´e. Posons Sn−1=Pn
i=2Xi. On a : P(X1 = 0|Sn=s) = P(X1 = 0, Sn=s)
P(Sn=s) = P(X1 = 0, Sn−1 =s) P(Sn=s)
= P(X1 = 0)P(Sn−1=s) P(Sn=s) .
Le fait de passer deSn`aSn−1est n´ecessaire pour assurer l’ind´ependance des deux ´ev`enements intervenant dans la probabilit´e jointe et donc passer au produit des probabilit´es. Comme on sait que la somme de n variables ind´ependantes de mˆeme loi de Pois- son de param`etre λsuit une loi de Poisson de param`etre nλ, on peut calculer chacune des probabilit´es ci-dessus : P(X1 = 0) = e−λ, P(Sn = s) = e−nλ(nλ)s/s!, P(Sn−1 = s) = e−(n−1)λ((n− 1)λ)s/s!.Donc,
E(Y|Sn=s) =
e−λe−(n−1)λ((n−1)λ)s s!
e−nλ(nλ)s s!
= (1− 1 n)s. Finalement,E(Y|Sn) = (1−n1)Sn.
d. Un estimateur naif est : ˆPn∗=e−Tn.Il est identique `a l’EMV de p.
En effet,
l(X1, . . . , Xn, p) =nlnp+nX¯ln(−lnp)−lnY Xi!.
Pn∗ satisfait donc:
δ
δpl(X1, . . . , Xn, Pn∗) = n
Pn∗ + nX¯
Pn∗lnPn∗ = 0, soitPn∗ =e−Tn.