• Aucun résultat trouvé

EMV de la loi uniforme

N/A
N/A
Protected

Academic year: 2022

Partager "EMV de la loi uniforme"

Copied!
4
0
0

Texte intégral

(1)

EMV de la loi uniforme

Akita & Richi plaisir ENS Rennes, 2013-2014

Référence : Cours de statistique de M1 de F.Malrieu.

Développement pour les leçons :

– 260. Espérance, variance et moments d’une variable aléatoire.

– 262. Modes de convergence d’une suite de variables aléatoires. Exemples et applications.

– 263. Variables aléatoires à densité. Exemples et applications.

Résultats :

Soient X1, . . . , Xn des variables aléatoires de même loi uniforme U[0,θ],

avecθ ∈R+. Notons ˆθn l’estimateur du maximum de vraisemblance du paramètre θ. Nous allons montrer les résultats suivants :

1. ˆθn=X(n) := max

1≤i≤nXi, 2. le biais est : E(ˆθn) = n

n+ 1θ, 3. consistance : ˆθn−→ps

n θ, 4. vitesse et loi limite : n

θθnθ)−→L Y, où −Y ∼ E

1 θ

, 5. risque quadratique : E((ˆθnθ)2) = 2θ2

(n+ 1)(n+ 2). Démonstration :

1) La vraisemblance des observations (x1, . . . xn) est :

L(x1, . . . , xn;θ) =

n

Y

i=1

fθ(xi) =

n

Y

i=1

1

θ11[0,θ]=

0, si θ≤max(x1, . . . , xn) 1

θn, si θ≥max(x1, . . . , xn) .

1

(2)

Vraisemblance d’un échantillon suivant la loi uniforme

D’où l’estimateur cherché : ˆθn=X(n).

2) Calculons la loi de ˆθnen utilisant les fonctions de répartition et les densités :

∀t≥0, Fθˆn(t) :=P(ˆθnt) =P(Xit,∀i∈[[1, n]]) =P(X1t)n =

t

θ

n

, sitθ, 1, sinon

.

D’où la densité de ˆθn : fθˆn(t) = n θ

t θ

n

11[0,θ](t) Nous pouvons maintenant calculer le biais :

E(ˆθn) =

θ

Z

0

tfθˆn(t)dt =n

θ

Z

0

t θ

n

dt = n n+ 1θ.

3) Soit ε >0. Calculons :

P(|θˆn−θ| ≥) = 1−P(θ−ε≤θˆnθ+) = 1−(Fθˆn(θ+ε)−Fθˆn(θ−ε)) = θε θ

!n

=

1− ε θ

n

.

1−ε/θ <1 donc la série XP

|θˆnθ| ≥ε converge et d’après le lemme de Borel-Cantelli :

θˆn

−→ps n θ.

2

(3)

4) Soit t∈R. Calculons en utilisant les fonctions de répartition : P(n(θ−θˆn)≥t) =P

θˆnθt n

= θt/n θ

!n

=

1− t

n

= exp

nln

1− t

−→n e−t/θ. Donc : n(ˆθnθ)−→ −YL , où Y ∼ E

1 θ

. 5) Nous avons :

E(ˆθ2n) =

+∞

Z

0

P(ˆθn2 > t)dt

=

+∞

Z

0

P(ˆθn>t)dt

=

θ2

Z

0

1−

t θ

!n!

dt

=

"

ttn/2+1 θn(n/2 + 1)

#θ2

0

=θ2θ2 n/2 + 1. D’où le risque quadratique :

E((ˆθnθ)2) =E(ˆθn2−2θθˆn+θ2)

=θ2θ2

n/2 + 1 −2θ n

n+ 1θ+θ2

=θ2 1− 1

n/2 + 1 − 2n n+ 1 + 1

!

= 2θ2

(n+ 1)(n+ 2). 3

(4)

Remarques :

– 2) : c’était prévisible que l’estimateur serait de moyenne plus petite que θ car ˆθn prend des valeurs plus petites que θ,

– 4) : l’estimateur n’est donc pas asymptotiquement normal, – ici la log-vraisemblance n’est pas définie.

4

Références

Documents relatifs

Compléter le programme suivant pour qu’il simule l’expérience aléatoire décrite dans cet exercice et pour qu’il affiche, dans cet ordre, les valeurs des variables

• On considère une expérience aléatoire qui consiste en une succession de n épreuves indépendantes, chacune d’entre elles ayant deux issues : succès obtenu avec probabilité p

Ce problème aborde la notion de moment dans différents contextes : moment d’une variable aléatoire réelle discrète à valeurs positives dans la partie I ; moment d’une

Pierre tire un jeton, note le numéro et le replace dans le sac ; puis Jean tire à son tour un jeton.. Il y

On reprend les même exemples qu’au I ; calculer les espérances des deux variables aléatoires définies Exemple 1 ​à compléter à la maison au crayon à

Dans ce chapitre on désigne par (Ω, A , P) un espace probabilisé, c’est-à-dire, un espace mesurable (Ω, A ) muni d’une probabilité P.. Sont écrites en rouge les parties

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaitre pour sa culture) et en bleu les parties modifiées par rapport au cours

X suit la loi de Poisson P (λ) de paramètre λ &gt; 0 (c’est la notation habituelle, mais il faut faire attention à ne pas confondre ce nombre positif λ avec la mesure de Lebesgue