• Aucun résultat trouvé

CM-Thème 3

N/A
N/A
Protected

Academic year: 2022

Partager "CM-Thème 3"

Copied!
14
0
0

Texte intégral

(1)

C

HAPITRE

3 - C

HOIX ET CONSTRUCTION D

ESTIMATEURS

Julie Scholler - Bureau B246

novembre 2019

.

Objectifs de l’estimation

Déterminer des estimateurs ˆθ proche de θ

Évaluer la qualité d’un estimateur

Mesurer l’écart entre θ et ˆθ

Donner des intervalles de valeurs plausibles pour θ

(2)

I. Méthode des moments

Une approche intuitive

Cas courant :

l’espérance (ou la variance) s’exprime en fonction du paramètre E(X) = f (θ)

Estimateur par la méthode des moments θbM Si f est inversible

θbM = f−1X

II. Choix d’un estimateur

Écart au carré

Tn un estimateur d’un paramètre θ

Risque quadratique ou erreur quadratique moyenne de Tn par rapport à θ

EQMθ(Tn) := Eθ

h

(Tnθ)2i On a

EQMθ(Tn) = (biaisθ(Tn))2 + Vθ(Tn)

(3)

II. Choix d’un estimateur

II. Choix d’un estimateur

Choisir selon EQM

Domination

L’estimateur Tn1 domine l’estimateur Tn2 si

∀θ ∈ Θ, EQMθTn1 6 EQMθTn2, l’inégalité étant stricte pour au moins une valeur de θ.

Estimateur admissible

Un estimateur est admissible s’il existe aucun estimateur le dominant.

(4)

II. Choix d’un estimateur

Choix entre deux estimateurs d’une proportion

Loi mère : Ber(p) Estimateurs : pb1 = X et pb2 = Pn

i=1 Xi + 1 n + 2 Représentations graphiques des erreurs quadratiques moyennes selon le valeur de p pour pb1 en rouge et pour pb2 en noir

0.0 0.4 0.8

0.0000.0020.0040.0060.008

Pour n= 30

0.0 0.4 0.8

0.0000.0010.0020.0030.0040.005

Pour n= 50

0.0 0.4 0.8

0.00000.00040.00080.0012

Pour n= 100

0.0 0.4 0.8

0.0000.0020.0040.0060.008

Pour n= 30

0.0 0.4 0.8

0.0000.0020.0040.0060.008

Pour n= 50

0.0 0.4 0.8

0.0000.0020.0040.0060.008

Pour n= 100

II. Choix d’un estimateur

Choix parmi les estimateurs sans biais

Estimateur UMVUE

L’estimateur Tn est un estimateur non biaisé de variance uniformément minimale ou UMVUE (uniformly minimum variance unbiaised estimator) si

il est sans biais

pour tout autre estimateur Tn sans biais, on a : Vθ (Tn) 6 Vθ(Tn), ∀θ ∈ Θ

(5)

II. Choix d’un estimateur

Choix parmi les estimateurs sans biais

Soit T un estimateur sans biais pour θ, avec θ de dimension 1.

Inégalité de Cramer–Rao ou de Fréchet

Sous certaines conditions, on a, pour tout θ ∈ Θ :

Vθ(T) > 1

nI(θ) avec I(θ) = Eθ

"

∂θ ln (f(X;θ)) 2#

I(θ) est appelé information de Fisher

Estimateur efficace

estimateur sans biais pour θ dont la variance est égale à la borne de Cramer–Rao

II. Choix d’un estimateur

Trouver de bons estimateurs

Méthode des moments

M-estimateurs dont estimateurs des moindres carrés

Méthode du maximum de vraisemblance (maximum likelihood)

simplicité de son approche

faculté d’adaptation à une multitude de paramètres inconnus

aspect numérique grâce à l’application de méthodes d’optimisation

estimateur fourni de très bonne qualité

initialement appelée « critère absolu » (1912)

(6)

III. Méthode du maximum de vraisemblance

Introduction

Dé ordinaire

P(X = k) = 1

6, ∀k ∈ J1; 6K

Dé pipé

P(Y = 1) = 1

2 et P(Y = k) = 1

10, ∀k ∈ J2; 6K

III. Méthode du maximum de vraisemblance

On choisit un dé au hasard et on lance 3 fois ce dé.

On obtient :

4 - 1 - 1

Quel dé a-t-on lancé ?

ou ?

(7)

III. Méthode du maximum de vraisemblance

Principe

Objectif

estimer θ à partir des observations x1, . . . ,xn d’un échantillon X1,X2, . . . ,Xn.

Idée de la méthode

« le fait d’avoir observé les valeurs x1, . . . ,xn n’est pas surprenant »

« l’hypothèse d’observer les valeurs x1, . . . ,xn plutôt que d’autres était vraisemblable »

On cherche les valeurs de θ qui

« rendent l’observation des valeurs x1, . . . ,xn la plus vraisemblable possible »

« maximisent les chances de réalisation de l’événement {(X1,X2, . . . ,Xn) = (x1, . . . ,xn)} »

III. Méthode du maximum de vraisemblance

Cas discret

On cherche les valeurs de θ qui

« maximisent la probabilité Pθ((X1,X2, . . . ,Xn) = (x1, . . . ,xn)) » Problème d’optimisation : maximisation d’une fonction de θ caractérisant la vraisemblance d’avoir obtenu x1, . . . ,xn

Vraisemblance des données

Ln(θ;x1, . . . ,xn) = Pθ((X1,X2, . . . ,Xn) = (x1, . . . ,xn))

= Pθ n

\

i=1

{Xi = xi}

!

=

n

Y

i=1

Pθ(Xi = xi)

=

n

Y

i=1

Pθ(X = xi)

(8)

III. Méthode du maximum de vraisemblance

Cadre et notations

X1,X2, . . . ,Xn : un n-échantillon

X : variable aléatoire de même loi que la loi mère

la loi mère appartient à une famille paramétrique de densité ou de fonction de probabilité {fθ(x) ; θ ∈ Θ} avec Θ ⊂ Rk

III. Méthode du maximum de vraisemblance

Fonction de vraisemblance

Fonction de vraisemblance de θ pour une réalisation donnée (x1, . . . ,xn) de l’échantillon :

Ln : Θ× Rn −→ R+

(θ;x1, . . . ,xn) 7−→ L(θ;x1, . . . ,xn) = fθ(x1, . . . ,xn) =

n

Y

i=1

fθ(xi)

(9)

III. Méthode du maximum de vraisemblance

Obtention de l’estimateur MV

Estimation du maximum de vraisemblance une valeur θbobsMV, si elle existe, telle que :

LθbobsMV;x1, . . . ,xn = sup

θ∈Θ

L(θ;x1, . . . ,xn),

c’est-à-dire θbobsMV ∈ argmax

θ∈Θ

L(θ;x1, . . . ,xn)

Une telle solution est fonction de x1, . . . ,xn : θbobsMV = h(x1, . . . ,xn).

Estimateur du maximum de vraisemblance θbMV = h(X1,X2, . . . ,Xn)

III. Méthode du maximum de vraisemblance

Exemples

Estimateur de θ

1. X ∼ U[0;θ] θbn = X(n)

2. X ∼ P(θ)

(10)

III. Méthode du maximum de vraisemblance

Fonction de log-vraisemblance

Fonction de log-vraisemblance de θ pour une réalisation donnée (x1, . . . ,xn) de l’échantillon, la fonction de θ :

`n : Θ× Rn −→ R+

(θ;x1, . . . ,xn) 7−→ ln (L(θ;x1, . . . ,xn))

La fonction de log-vraisemblance n’a de sens que si θ vérifie L(θ;x1, . . . ,xn) > 0.

La fonction logarithme étant croissante, on a argmax

θ∈Θ

`(θ;x1, . . . ,xn) = argmax

θ∈Θ

L(θ;x1, . . . ,xn)

III. Méthode du maximum de vraisemblance

Programme de maximisation argmax

θ∈Θ

`(θ;x1, . . . ,xn) = argmax

θ∈Θ

L(θ;x1, . . . ,xn)

Condition nécessaire (ordre 1)

∂`n

∂θ

θbobsMV;x1, . . . ,xn = 0 ou ∂Ln

∂θ

x1, . . . ,xn;θbMVobs = 0

Condition suffisante (ordre 2)

2`n

∂θ2

θbobsMV;x1, . . . ,xn < 0 ou 2Ln

∂θ2

θbobsMV;x1, . . . ,xn < 0

(11)

III. Méthode du maximum de vraisemblance

Exemples

1. X ∼ U[0;θ] θbn = X(n)

2. X ∼ P(θ) θbn = X(n)

3. X ∼ N(µ, σ), µb? σc2?

III. Méthode du maximum de vraisemblance

Propriétés de l’estimateur MV

Estimateur efficace

estimateur sans biais dont la variance est égale à la borne de Cramer–Rao

Efficacité de l’estimateur MV

Sous certaines conditions de régularité et d’intégralité, s’il existe un estimateur sans biais efficace pour θ, alors l’estimateur du maximum de vraisemblance existe et est efficace.

(12)

III. Méthode du maximum de vraisemblance

Propriétés

Soit le n-échantillon X1,X2, . . . ,Xn issu de la densité (ou de la fonction de probabilité) f(x;θ) avec θ ∈ Θ ⊂ R répondant à certaines conditions de régularité qui garantissent notamment l’existence d’un estimateur du maximum de vraisemblance θbnMV pour tout n.

On a les résultats suivants.

θbnMV est asymptotiquement sans biais.

θbnMV est asymptotiquement efficace.

Comportement asymptotique

θbMVnθ q 1

nI(θ)

−−−−→loi

n→+∞ N (0 ; 1)

III. Méthode du maximum de vraisemblance

IC à partir d’un estimateur du MV

Fonction pivotale 1

T1 = θbMVnθ q 1

nI(θ)

−−−−→loi

n→+∞ N (0 ; 1)

Si T1 n’est pas pivotable (facilement), on substitue.

Méthode par substitution

Sous certaines conditions de régularité, l’estimateur θbMVn est

convergent et l’information de Fisher I est continue par rapport à θ, alors on a

T2 = θbMVnθ r 1

nI bθMVn

−−−−→loi

n→+∞ N (0 ; 1)

(13)

III. Méthode du maximum de vraisemblance

IC à partir d’un estimateur du MV

Application

IC1−α(θ) '

θbnMVz1−α

2

r

nI θbnMV

; θbnMV + z1−α

2

r

nIθbnMV

Exemple

X de densité f(x) = θx−(θ+1)1]1;+∞[(x) avec θ ∈ R+

III. Méthode du maximum de vraisemblance

Information de Fisher

Sous certaines conditions de régularité et d’intégrabilité des fonctions mises en jeu, on a, pour tout θ ∈ Θ :

I(θ) = −Eθ

"

2

∂θ2 ln (fθ(X))

#

(14)

IV. Application

Régression linéaire simple

Y1,Y2, . . . ,Yn : indépendantes non de même loi telles que Yi = α+ βxi +εi

avec εi ∼ N(0;σ) i.i.d.

On cherche à estimer α et β.

`(α, β;x1, . . . ,xn;y1, . . . ,yn) = −n

2 ln(2πσ2)− 1 2σ2

n

X

i=1

(yi−α−βxi)2

Références

Documents relatifs

Soit k un entier naturel... Or n est

[r]

D’une statistique est une distribution de probabilité des valeurs prises par cette statis- tique mesurées sur tous les échantillons possibles.. D’une moyenne empirique a pour

On constate que le retard d'un bus (temps entre l'horaire prévu et l'arrivée eective d'un bus) peut être modélisé par une variable aléatoire de loi uniforme sur [0, θ] et que

Donner la définition du biais et de l’erreur quadratique moyenne d’un

Sous certaines conditions de régularité et d’intégralité, s’il existe un estimateur sans biais efficace pour θ, alors l’estimateur du maximum de vraisemblance existe et

c’est une hypothèse simplificatrice dans les démonstrations et que ce n’est pas une limitation très forte en pratique, on la conservera dans toute la suite de

En particulier, un estimateur robuste doit voir sa valeur faiblement perturbée par la présence de valeurs aberrantes dans l'échantillon.. Pour l'illustrer, imaginons qu'on ajoute à