• Aucun résultat trouvé

Partie 1 : développements en série

N/A
N/A
Protected

Academic year: 2022

Partager "Partie 1 : développements en série"

Copied!
16
0
0

Texte intégral

(1)

HEC ESCP Maths II S 2020 Corrigé Pierre Veuillez

Lorsque l'on cherche à estimer un paramètre inconnu à partir d'un échantillon de données, on appelle statistique exhaustive toute fonction de ces données qui résume à elle seule l'information que ces données fournissent sur le paramètre. On donne ici une dénition précise de cette notion d'exhaustives dans le cas des échantillons de variables aléatoire discrètes, illustrée de plusieurs exemples qui en montrent l'intérêt. On s'intéressera dans ce problème à l'estimation d'un paramètre réel inconnu θ appartenant à un intervalle Θ

On dispose pour cela de plusieurs observations x1, . . . , xn considérées comme les réalisations de va- riables aléatoire discrètesX1, . . . , Xndénie sur le même espace probabilisable(Ω,A),à valeurs dans une partie B deN

L'espace probabilisable (Ω,A) est muni d'une famille Pθ

θ∈Θ de probabilités indexées par le para- mètre θ.

On fait, pour toutes les valeurs du paramètre θ, les trois hypothèse suivantes :

Les variables aléatoiresX1, . . . , Xn sont mutuellement indépendantes, c'est-à-dire :

∀(x1, . . . , xn)∈Bn, Pθ

n

\

i=1

[Xi =xi]

!

=

n

Y

i=1

Pθ([Xi =xi]) ((1)) Les variables aléatoires X1, . . . , Xn suivent toutes la même loi qu'une variable aléatoire de référence, dotée X, à valeurs dans B, c'est-à-dire :

∀i∈[1, n], ∀x∈B, Pθ([Xi =x]) =Pθ([X=x]) ((2)) Tous les éléments de B sont des valeurs eectivement possibles de X,c'est-à-dire :

∀x∈B, Pθ([X =x])>0 ((3)) On appelle statistique toute variable aléatoire S de la forme ω 7−→s(X1(ω), . . . , Xn(ω)), où sdésigne une application dénie surBn et à valeurs réelles. On note alors S =s(X1, . . . , Xn) Pour tout θ ∈ Θ, on note Eθ(S) l'espérance de S lorsque (Ω,A) est muni de la probabilité Pθ (si cette espérance existe). On note de même Vθ(S)la variance de S (si elle existe).

Partie 1 : développements en série

1. Dans cette question, x désigne un nombre réel strictement compris entre 0 et 1 a) Justier la convergence de la sérieP

k≥1

xk k

Réponse : x∈]0,1[donc pour tout k∈N : xk k ≤xk Et comme |x|<1, la série géométrique P

k≥1xk converge.

Donc, par majoration de termes positifs, P

k≥1

xk

k converge b) Vérier, pour toutm ∈N et tout t∈]0,1[, l'égalité :

1

1−t = tm 1−t +

m−1

X

k=0

tk Réponse : t ∈]0,1[ donc t6= 1 donc Pm−1

k=0 tk= 1−tm 1−t Réponse : donc tm

1−t +Pm−1

k=0 tk = 1 1−t

(2)

c) Démontrer que l'intégraleRx 0

tm

1−tdt tend vers 0 quand l'entier m tend vers l'inni.

Réponse : Pour tout t de [0, x] on a 0<1−x≤1−t donc 0≤ 1

1−t ≤ 1 1−x et t≥0donc 0≤ tm

1−t ≤ tm 1−x.

Donc par croissance de l'intégrale de fonctions continues sur un segment,0≤Rx 0

tm 1−tdt≤ 1

1−x Rx

0 tmdt = 1 1−x

xm+1 m+ 1 Enn, on a |x|<1donc xm+1

m→+∞0 Et, par encadrement, Rx

0

tm

1−tdt →

m→+∞0 d) En déduire la somme de la sérieP

k≥1

xk k Réponse : On aPm−1

k=0 tk = 1

1−t − tm

1−t pour tout t de[0, x] donc (fonctions continues et linéarité de l'intégration)

Pm−1 k=0

Rx

0 tkdt=Rx 0

1

1−tdt−Rx 0

tm

1−tdt donc Pm−1

k=0

xk+1

k+ 1 =−ln (1−x)−Rx 0

tm

1−tdt avec Rx 0

tm

1−tdt →

m→+∞ 0. Et par réindexation h=k+ 1 : Pm

h=1

xh

h →

m→+∞−ln (1−x) P+∞

k=1

xk

k =−ln (1−x)

2. Dans cette question, indépendante de la précédente, (ak)k∈N désigne une suite de nombres réels telle que la série P

k≥0akck est absolument convergente pour un réel strictement positif c

a) Justier que la fonction f :x7−→a0+P+∞

k=1akxk est bien dénie sur le segment [−c,+c]

Réponse : Pour x∈[−c, c]et k ∈N: akxk

=|ak| |x|k ≤ akck

Par absolue convergence, , la série P

k≥0

akck

est convergente.

Donc, par majoration de termes positifs, la sérieP

k≥0

akxk

est convergente donc la série P

k≥0akxk est absolument convergente donc convergente. Donc x7−→a0+P+∞

k=1akxk est bien dénie sur le segment [−c,+c]

b) Pour un entier naturel m, on pose : Mm = P+∞

k=m+1|ak|ck−m−1 Justier, pour tout x ∈ [−c,+c], l'inégalité :

+∞

X

k=m+1

akxk

≤Mm|x|m+1 Réponse : Pour tout x ∈ [−c,+c] :

P+∞

k=m+1akxk

≤ P+∞

k=m+1

akxk

par inégalité triangulaire sur des séries convergentes,

et akxk

=

akxk−m−1

|xm+1| ≤

akck−m−1

|xm+1| Donc, (séries convergentes)

+∞

X

k=m+1

akxk

+∞

X

k=m+1

akck−m−1

xm+1 =

+∞

X

k=m+1

akck−m−1

!

xm+1

(3)

donc

P+∞

k=m+1akxk

≤Mm|x|m+1

c) Justier, pour toutm∈N, le développement limite au voisinage de 0 : f(x) =a0+

m

X

k=1

akxk+o(xm) Réponse : Pour tout x∈[−c, c] :

f(x) = a0+

+∞

X

k=1

akxk Chasles

= a0+

m

X

k=1

akxk+

+∞

X

k=m+1

akxk et comme

P+∞

k=m+1akxk

≤Mm|x|m+1 on a donc, pour x6= 0 : 0≤

+∞

X

k=m+1

akxk

! 1 xm

≤Mnx→0

Donc, par encadrement, P+∞

k=m+1akxk 1 xm

x→00 etP+∞

k=m+1akxk = o (xm) D'où f(x) = a0+Pm

k=1akxk+ o (xm)

d) Démontrer que si la fonction f est nulle sur l'intervalle ]0,+c], alors (ak)k∈

N est la suite nulle.

Réponse : pour tout m ∈ N, si la fonction f est nulle sur l'intervalle ]0,+c] alors, un développement limité de f en0+ à l'ordre m est

f(x) = 0 + o (xm) =a0+

m

X

k=1

akxk+ o (xm).

Et par unicité du développement limité, ak= 0 pour tout k ≤m et cela pour tout m.

Donc, pour tout k, ak= 0. si f = 0 sur ]0,+c], alors (ak)k∈

N est la suite nulle.

Dans toute la suite du problème, pour tout θ ∈Θ et. tout(x1, . . . , xn)∈Bn,on note : L(x1, . . . , xn, θ) =

n

Y

i=1

Pθ([Xi =xi]) ((4))

Cette quantité, qui s'écrit aussi Qn

i=1Pθ([X =xi]) d'après (2), est appelée la vraisemblance de la valeur θ du paramètre au vu des observations x1, . . . , xn

Partie II : estimateur du maximum de vraisemblance, un exemple

Dans cette partie, Θ est l'intervalle ouvert ]0,1[, B est égal à N et on a :

∀x∈B, Pθ([X =x]) = (1−θ)x−1θ On note X¯ la variable aléatoire 1

n Pn

i=1Xi

(4)

3. Soit θ∈Θ

a) Reconnaître la loi deX lorsque (Ω,A)est muni de la probabilité Pθ Réponse : X ,→ G(θ) loi géométrique de paramètre θ.

b) En déduire que X¯ est un estimateur sans biais du paramètre 1/θ.

Réponse : X ,→ G(θ) donc X a une espérance et Eθ(X) = 1 θ. Donc, par linéarité de l'espérance, X¯ a une espérance

et Eθ

= 1 n

Pn

i=1Eθ(Xi) = 1

nnEθ(X) = 1

Or X¯ est un estimateur (variable aléatoire fonction desθ Xi et pas de θ).

Donc X¯ est un estimateur sans biais du paramètre 1/θ.

c) Quel est le risque quadratique de cet estimateur ?

Réponse : X ,→ G(θ) donc X a une variance et Vθ(X) = 1−θ θ2 . Donc X¯ = 1

n Pn

i=1Xi a une variance et Vθ

= 1 n2

PVθ(Xi) = 1

n2nVθ(X) = 1−θ nθ2 Donc le risque quadratique deX¯ est 0 + 1−θ

2 4. On note T la variable aléatoire 1

n Pn

i=1

1 Xi

a) En utilisant le résultat de la question1.d, justier que :

∀θ∈Θ, Eθ(T) = θln(θ) θ−1 Réponse : 1

X a une espérance si et seulement siP+∞

k=1

1

kPθ(X =k)converge absolument (th de transfert).

Or 1

kPθ(X =k) = 1

k (1−θ)k−1θ etP+∞

k=1

xk

k =−ln (1−x)converge pour toutx∈]0,1[. Or 1−θ ∈]0,1[ donc P

k≥1

1

k (1−θ)k à termes positifs converge ; donc converge absolu- ment.

Donc 1

X a une espérance et Eθ

1 X

=

+∞

X

k=1

1

k(1−θ)k θ

1−θ =− θ

1−θln (1−(1−θ)) et ∀θ∈Θ, Eθ(T) = θln(θ)

θ−1

b) En déduire que T est un estimateur de θ dont le biais bθ(T) est strictement positif.

Réponse : T est une variable aléatoire fonction des Xi et de n et pas de 1

θ donc T est un estimateur. Son biais est

Eθ(T)−θ = θln(θ) θ−1 −θ

= θ

ln(θ) θ−1 −1

= θ

θ−1(ln(θ)−θ+ 1)

(5)

et comme la fonction ln est strictement concave sur ]0,+∞[, elle est en dessous de sa tangente en 1 :y=x−1

Méthode : La stricte concavité n'est pas au programme, mais, ici, HEC/ESCP , cela ne devrait pas choquer le correcteur. Les dicultés réelles sont ailleurs.

Une alternative est d'étudier les variations de la diérence x7→ln (x)−x+ 1 Réponse : Donc ln(θ)−(θ−1)<0pour tout θ >0 et6= 1

et comme θ−1<0, θ

θ−1(ln(θ)−θ+ 1)>0.

T est un estimateur de θ et bθ(T)>0 5. Soit (x1, . . . , xn)∈Bn

a) Justier, pour toutθ ∈Θ, l'égalité :

ln (L(x1, . . . , xn, θ)) = nln(θ)− n−

n

X

i=1

xi

!

ln(1−θ) Réponse : L(x1, . . . , xn, θ) =Qn

i=1Pθ([Xi =xi]) produit de termes strictement positifs donc

ln (L(x1, . . . , xn, θ)) =

n

X

i=1

ln Pθ([Xi =xi])

=

n

X

i=1

ln (1−θ)xi−1θ

=

n

X

i=1

[(xi−1) ln (1−θ) + ln (θ)]

=

n

X

i=1

xi

n

X

i=1

1

!

ln (1−θ) +nln (θ) et ln (L(x1, . . . , xn, θ)) =nln(θ)−(n−Pn

i=1xi) ln(1−θ)

b) En déduire que, lorsque lesxi ne sont pas tous égaux a1, le nombre n Pn

i=1xi est l'unique valeur de θ qui maximise la vraisemblance L(x1, . . . , xn, θ)

Réponse : Pour tout i, xi ≤1,donc lorsque les xi ne sont pas tous égaux a 1, Pn

i=1xi <Pn

i=11 = n et n Pn

i=1xi ∈]0,1[

La fonction f : θ 7→ nln(θ)−(n−Pn

i=1xi) ln(1−θ) est dérivable en θ tel que θ > 0 et 1−θ >0, donc sur ]0,1[.

f0(θ) = n

θ + n−Pn i=1xi

1−θ = 1

θ(1−θ)

"

(1−θ)n+ n−

n

X

i=1

xi

! θ

#

= 1

θ(1−θ)

"

n−

n

X

i=1

xi

! θ

#

donc

θ 0 n

Pn

i=1xi 1

n−(Pn

i=1xi)θ + 0 − ane

f0(θ) + 0 −

f(θ) % &

et, pour les xi xés, non tous égaux à 1, n

Pn

i=1xi est l'unique valeur de θ qui maximise L(x1, . . . , xn, θ)

(6)

6. On note U la variable aléatoire n Pn

i=1Xi

a) Établir, pour toutθ ∈Θet tout entier k ≥n, l'égalité : n

k =θ−θ2 k

n − 1 θ

+

Z k/n 1/θ

k n −t

2 t3dt

Réponse : Par linéarité de l'intégration de fonctions continues sur un segment, Z k/n

1/θ

k n −t

2 t3dt =

Z k/n 1/θ

2k n

1 t3 − 2

t2dt= k

n

−1 t2 + 21

t k/n

1/θ

= −k n

n2 k2 + 2n

k + k

2−2θ

= n k + k

2−2θ

donc en développant, pour tout θ∈Θ et tout entier k≥n : θ−θ2

k n −1

θ

+Rk/n 1/θ

k n −t

2

t3dt= n k

b) En déduire que U est un estimateur de θ dont le biais bθ(U) est donneé par :

∀θ ∈Θ, bθ(U) =

+∞

X

k=n

P " n

X

i=1

Xi =k

#!Z k/n

1/θ

k n −t

2 t3dt Réponse : U = n

Pn i=1Xi

, fonction des Xi et pas de θ,est bien un estimateur de θ.

(Pn

i=1Xi) (Ω) = [[n,+∞[[ donc, 0≤U ≤1 et, par majoration,U a une espérance Par le théorème de transfert,puis avec l'égalité précédente

E(U) =

+∞

X

k=n

n kPθ

" n X

i=1

Xi =k

#!

=

+∞

X

k=n

Pθ " n

X

i=1

Xi =k

#! "

θ−θ2 k

n − 1 θ

+

Z k/n 1/θ

k n −t

2 t3dt

#

= 2θ

+∞

X

k=n

Pθ " n

X

i=1

Xi =k

#!

−θ2 n

+∞

X

k=n

kPθ

n

X

i=1

Xi =k

!

+

+∞

X

k=n

P " n

X

i=1

Xi =k

#! "

Z k/n 1/θ

k n −t

2 t3dt

#

avec

P+∞

k=nPθ(Pn

i=1Xi =k) = 1 (système complet d'événements) θ2

n P+∞

k=nkPθ(Pn

i=1Xi =k) = θ2

nE(Pn

i=1Xi) = θ2 n

n

θ =θ par th de transfert donc bθ(U) = E(U)−θ =

+∞

X

k=n

P " n

X

i=1

Xi =k

#! "

Z k/n 1/θ

k n −t

2 t3dt

#

c) Justier quebθ(U) est strictement positif, quelle que soit la valeur du paramètre θ Réponse : On ne connaît pas l'ordre des bornes de Rk/n

1/θ

k n −t

2 t3dt.

(7)

Si 1 θ < k

n alors , pour tout t de 1

θ,k n

, k

n −t 2

t3 > 0, donc (bornes croissantes) Rk/n

1/θ

k n −t

2

t3dt >0 Si 1

θ > k

n alors , pour tout t de k

n,1 θ

, k

n −t 2

t3 < 0, donc (bornes décroissantes) Rk/n

1/θ

k n −t

2

t3dt >0 et si 1

θ = k

n alors l'intégrale est nulle.

Donc tous les termes des la somme, sauf éventuellement un, sont strictement positifs (les probabilités sont non nulle) et bθ(U)>0

7. Dans cette question, on suppose que le nombre des observations est illimité. On dispose donc, pour estimer le paramètreθ, d'une suite (Xn)n∈

N de variables aléatoires mutuellement indé- pendantes et de même loi. Pour tout entiern ∈N,on noteTn= 1

n Pn

i=1

1

Xi etUn= n Pn

i=1Xi. Étudier la convergence des deux suites d'estimateurs (Tn)n∈

N et (Un)n∈

N du paramètre θ Réponse : X¯n=

Pn i=1Xi

n a pour risque quadratique 1−θ

2 comme estimateur de 1 θ.

Son risque quadratique tend vers 0 donc X¯n est un estimateur convergent (convergence en probabilité vers la constante 1/θ)

La fonctionf :t7→1/test continue en1/θ,on montre alors quef X¯n

converge en probabilité vers f

1 θ

=θ:

Soit ε >0. Alors il existeα >0 tel que si

t− 1 θ

≤α alors |f(t)−f(θ)| ≤ε Donc, si |f(t)−f(θ)|> ε alors

t− 1 θ

> α et

f X¯n

−f(θ) > ε

n− 1 θ

> α

donc, P

f X¯n

−f(θ) > ε

≤P

n−1 θ

> α

Or, P

n− 1 θ

> α

→0 quand n tend vers l'inni (estimateur convergent).

Donc, par encadrement,P f X¯n

−f(θ) > ε

→0 et donc Un =f X¯n

est un estimateur convergent de f 1

θ

=θ.

Méthode : Le biais deTn ne tend pas vers 0, donc le risque quadratique non plus.

Attention, cette condition est susante mais non nécessaire.

Contre exemple : Si la loi deYnest :P (Yn=n) = 1

n etP (Yn = 0) = 1−1

n doncP (|Yn−0|> ε) = 1

n pourn ≥ 1 ε alors Yn

P 0 mais E(Yn) = 1.

DoncE(Tn) constante non nulle, n'empêche pas la convergence en probabilité.

Réponse : La série desP+∞

k=1

1

k2 (1−θ)k converge absolument donc 1

X a une variance.

(8)

Tn est donc la moyenne empirique d'une suites de variables aléatoires 1

Xi

ayant même espérance et variance, indépendantes

Donc, d'après la loi faible des grands nombres, TnP E(X) = θln(θ)

θ−1 > θ d'après 4.b) DoncTn est un estimateur convergent ... de θln(θ)

θ−1 et non pas de θ: En notantϕ= θln(θ)

θ−1 > θ

|Tn−θ|=|Tn−ϕ+ϕ−θ| ≥ ||Tn−ϕ| − |ϕ−θ||

Donc, avec ε=|ϕ−θ|>0,si|Tn−ϕ| ≤ε/2alors||Tn−ϕ| − |ϕ−θ|| ≥ε/2et|Tn−θ| ≥ε/2 Donc[|Tn−ϕ| ≤ε/2]⊂[|Tn−θ| ≥ε/2]et par croissance de la probabilité,

P(|Tn−ϕ| ≤ε/2)≤P (|Tn−θ| ≥ε/2)≤1

Et, comme P(|Tn−ϕ| ≤ε/2)→1(convergence en probablité) quand n→+∞,alors, par encadrement, P(|Tn−θ| ≥ε/2)→16= 0 donc

Tn n'est pas un estimateur convergent vers θ

Dans toute la suite du problème, on dit qu'une statistique S = s(X1, . . . , Xn) est exhaustive s'il existe une application g de s(Bn)×Θ dans R+ et une application h de Bn dans R+ telles que :

∀θ ∈Θ,∀(x1, . . . , xn)∈Bn, L(x1, . . . , xn, θ) = g(s(x1, . . . , xn), θ)h(x1, . . . , xn) ((5))

Partie III : statistique exhaustive, un exemple

Dans cette partie, on suppose que B = {0,1},Θ =]0,1[et que, quel que soit θ ∈ Θ, les variables aléatoiresX1, . . . , Xnsuivent la loi de Bernoulli de paramètreθ,lorsque l'espace probabilisable(Ω,A) est muni de la probabilitéPθ On pose : S =Pn

i=1Xi

8. a) Démontrer que la vraisemblance de n'importe quelle valeurθ∈Θdu paramètre est donnée par :

∀(x1, . . . , xn)∈ {0,1}n, L(x1, . . . , xn, θ) =θ(Pni=1xi)×(1−θ)(Pni=1(1−xi)) Réponse : Si X ,→ B(θ) et x∈ {0,1} alors

θx(1−θ)1−x =

θ six= 1

1−θ six= 0 =Pθ(X =x)donc

∀(x1, . . . , xn)∈ {0,1}n,

L(x1, . . . , xn, θ) =

n

Y

i=1

Pθ([Xi =xi])

=

n

Y

i=1

θxi(1−θ)1−xi et L(x1, . . . , xn, θ) =θ(Pni=1xi)×(1−θ)(Pni=1(1−xi))

b) En déduire que la statistique S est exhaustive.

Réponse : On a Pn

i=1(1−xi) = n−Pn

i=1xi donc avec s:x∈Rn 7→Pn

i=1xi on a L(x1, . . . , xn, θ) = θs(x1,...,xn)×(1−θ)(n−s(x1,...,xn))

et avec g : (s, θ)7→θs(1−θ)n−s eth= 1 on a bien

∀θ ∈Θ,∀(x1, . . . , xn)∈Bn, L(x1, . . . , xn, θ) = g(s(x1, . . . , xn), θ)h(x1, . . . , xn) Donc la statistique S est exhaustive.

(9)

9. Soit k∈[0, n] et (x1, . . . , xn)∈ {0,1}n

a) Calculer la probabilité conditionnelleP[S=k]θ ([X1 =x1]∩ · · · ∩[Xn=xn])et vérier que la loi conditionnelle du vecteur aléatoire(X1, . . . , Xn)sachant l'événement[S =k]ne dépend pas du paramètre θ

Méthode : En revenant à la dénition,

P[S=k]θ ([X1 =x1]∩ · · · ∩[Xn=xn]) = P[S=k]θ ([X1 =x1]∩ · · · ∩[Xn =xn]∩[S =k]) P(S =k)

Donc cette probabilité est nulle si Pn

i=1xi 6=k Et si

n

X

i=1

xi = k,[X1 =x1]∩ · · · ∩[Xn =xn]∩[S =k]

= [X1 =x1]∩ · · · ∩[Xn=xn] indépendants donc le numérateur est Qn

i=1Pθ([Xi =xi]) = L(x1, . . . , xn, θ) = θk×(1− θ)n−k

Comme les Xi sont indépendants, par stabilité des loi binomiales, S ,→ B(n, θ)et P (S=k) = nk

θk(1−θ)n−k Donc P[S=k]θ (X1 =x1∩ · · · ∩Xn=xn) =

0 si Pn

i=1xi 6=k 1/ nk

si Pn

i=1xi =k donc la loi conditionnelle sachantS =k ne dépend pas de θ.

b) Établir, pour toutθ ∈Θ, l'égalité : P[S=k]θ ([X1 = 1]) = k Réponse : (X1 = 1)∩(S =k) = (X1 = 1)∩(Pn n

i=2Xi =k−1)avecPn

i=2Xi ,→ B(k−1, θ) et par indépendance des deux,

P ((X1 = 1)∩(S =k)) = Pθ(X1 = 1)Pθ

n

X

i=2

Xi =k−1

!

= θ

n−1 k−1

θk−1(1−θ)n−k donc

P[S=k]θ ([X1 = 1]) = θ n−1k−1

θk−1(1−θ)n−k

n k

θk(1−θ)n−k =

n−1 k−1

n k

et en repassant par l'écriture factorielle pour tout θ ∈Θ, P[S=k]θ ([X1 = 1]) = k n

10. Le script Scilab suivant permet d'eectuer des simulations, qu'il place dans une matrice Y, dont il évalue ensuite la moyenne de chaque colonne.

> theta=0.3;

> N=100000;

> n=10;

> k=4;

> U=grand(n,N,'bin',1,theta);

> S=sum(U,'r');// somme des lignes de U colonne par colonne.

> K=find(S==k);// recherche des coefficients de S égaux à k

(10)

> Y=U(1:n,K);

> M=mean(Y,'c')//moyenne des colonnes de Y, ligne par ligne ans=

0.4019917 0.4042436 0.4008908 0.3962868 0.4054947 0.3953861 0.3990892 0.4002402 0.3941851 0.4021919

a) Décrire avec précision ce que représente une colonne de la matrice U.

Réponse : grand avec les paramètres 'bin',1,theta simule des lois binômiales indé- pendantes de longueur 1 et de paramètre θ,c'est à dire des lois de Brenouilli.

Les colonnes sont formées de n= 10 lignes de 0et de 1, simulations de lois de Bernouilli de paramètre θ

b) Expliquer pourquoi les coecients deY fournissent une simulation d'une loi conditionnelle du vecteur (X1, . . . , Xn)

Réponse : somme des lignes de U colonne par colonne. est confus.

S=sum(U,'r') calcule la somme des chacune des colonnes deU et forme la ligne (Raw) de ces résultats.

K=find(S==k) détermine les colonnes de U pour lesquelles la somme dePn

i=1Xi vaut k Y=U(1:n,K); selectionne les colonnes de U pour lesquelles Pn

i=1Xi vautk.

Donc les colonnes de Y sont des simulations d'un nombre ν=length(K) réalisations du vecteurs(X1, . . . , Xn) sous la condition Pn

i=1Xi =k. En ce sens,

Y donne ν simulations de la loi conditionnelle de (X1, . . . , Xn) sachantPn

i=1Xi =k (on ne sait pas avant la simulation combien de simulation de cette loi conditionnelle seront réalsiées)

c) Commenter les résultats trouvés pour les coecients de M.

Réponse : On avait trouvé que la loi conditionelle pour X1 ,→ B(?) était : P[S=k]θ ([X1 = 1]) = k

n

La loi faible des grand nombre donne la convergence en probablité de la moyenne empirique M vers l'espérance qui est (loi de Bernouilli) P[S=k]θ ([X1 = 1]) = k

n.

Ici, pour la moyenne sur ν simulations desn = 10variables simulées sont toutes proche de 0,4 = 4

10 la probabilté conditionnelle.

Ce qui est cohérent.

11. A la suite du script précédent, on exécuté l'instruction suivante : C=Y*Y'/length(K)

(11)

a) Donner le format de la matriceC et indiquer la valeur de son coecientC(1,1).

Méthode : Y est une matrice n= 10 lignes et ν colonnes. Et Y' sa transposée a ν lignes et n= 10 colonnes.

Donc Y*Y' produit matriciel est une matrice n×n : 10×10 Et comme 02 = 0 et 12 = 1 on donc (y1,h)2 =y1,h

C(1,1) = 1 ν

Pν

k=1(y1,h)2 = 1 ν

Pν h=1y1,h

simule la moyenne empirique de ν réalistions deX1 sachantS10 = 4

b) A quelle valeur approchée peut-on s'attendre pour C(1,2) et pour les autres coecients non diagonaux de la matrice C?

Réponse : C(1,2) = 1 ν

Pν

k=1y1,ky2,k est la moyenne de ν rélalisations de X1X2 pour lesquelles S10= 4

DoncC(1,2)convergera en loi vers l'espéranceESθ10=4(X1X2)(loi faible des grands nombres) Les (Xi) sont indépendants pour la probabalitéPθ, mais pas pour PSθ

10=4 et PSθ

10=4(X1 = 1∩X2 = 1) =???

Donc on ne peut pas utliser ici la loi faible des grand nombres.

Mais, on connait [X1X2 = 1] = [X1 = 1] [X2 = 1] donc PSθn=k(X1X2 = 1) = Pθ(X1 = 1∩X2 = 1∩Pn

i=3Xi =k−2) Pθ(S =k)

= Pθ(X1 = 1)Pθ(X2 = 1)Pθ(Pn

i=3Xi =k−2) Pθ(Sn=k)

= θ×θ× n−2k−2

θk−2(1−θ)n−k

n k

θk(1−θ)n−k =

n−2 k−2

n k

= k(k−1) n(n−1) donc, d'après la loi faible des grands nombres, et C(1,2)' 4×3

10×9 = 2

15 = 1.33 ainsi que les autres termes non diagonaux c) Quelle est la somme totale des coecients de la matrice C ?

Réponse : Scilab a donné :16.

n

X

i=1 n

X

j=1

ci,j =

n

X

i=1 n

X

j=1

1 ν

ν

X

h=1

yi,hyj,h

= 1 ν

ν

X

h=1 n

X

i=1

yi,h

n

X

j=1

yj,h

!

et comme on a selectionné les colonnes de U pour lesquelles la somme vaut k= 4,

n

X

i=1 n

X

j=1

ci,j = 1 ν

ν

X

h=1

k2

= ν

νk2 =k2 Donc la somme des coecients de C vaut 16

(12)

Partie IV : inégalité de Rao-Blackwell

Dans cette partie, on reprend les hypothèses générale du préambule et on considère une statistique exhaustiveS =s(X1, . . . , Xn),au sens donne par (5) On admet que, pour tout élément u des(Bn) et tout élément (x1, . . . , xn) de Bn,la probabilité conditionnelle P[S=u]θ ([X1 =x1]∩ · · · ∩[Xn =xn]) ne dépend pas de θ

12. Soit T un estimateur sans biais du paramètre θ

a) Démontrer que, pour tout u ∈ s(Bn), l'espérance conditionnelle E[S=u]θ (T) existe et que sa valeur ne dépend pas de θ

Réponse : T un estimateur sans biais du paramètre θ donc T a une espérance pour Pθ et Eθ(T) = P

t∈T(Ω)t Pθ(T =t) Méthode : E[S=u]θ (T) existe si P

t∈T(Ω)t PS=θθ (T =t) converge absolument.

On pense donc au théorèmes de convergence par comparaison.

Pour cela, on compare P[S=u]θ (T =t)et Pθ(T =t) . Réponse : Soitu∈s(Bn) ett ∈T(Ω).

PS=uθ (T =t) = P (S =u∩T =t)

P (S =u) par dénition.

Avec(S =u∩T =t)⊂(T =t)donc P (S =u∩T =t)≤P(T =t) et PS=uθ (T =t)≤ P(T =t)

P (S =u) d'où

t PS=uθ (T =t)

≤ 1 P(S =u)

t Pθ(T =t) Or, la série P

t∈T(Ω)t Pθ(T =t) converge absolument, donc, par majoration de termes positifs, la série desP

t∈T(Ω)

t PS=uθ (T =t)

converge et E[S=u]θ (T)existe

Méthode : Pour montrer qu'elle ne dépend pas deθ,on doit décomposer suivant les Xi, pour lesquelles P[S=u]θ ([X1 =x1]∩ · · · ∩[Xn =xn])est constante par rapport à θ.

Réponse : T, estimateur, est fonction de (X1,· · · , Xn). Donc il exsite une fonction f telle que T =f(X1,· · · , Xn)

Donc P[S=u]θ (T =t) = P

(xi)i∈Bn/f(x1,···xi)=t

PS=uθ (∩iXi =xi), loi conditionelle de T, ne dé- pend pas de θ puisque lesPS=uθ (∩iXi =xi) ne dépendent pas de θ.

Et, E[S=u]θ (T) ne dépend pas de θ

b) Justier que([S =u])u∈s(Bn) est un système complet d'événements.

Réponse : On a S =s(X1,· · ·Xn) et(X1,· · ·Xn) (Ω) =Bn Doncs(Bn)est l'ensemble des valeurs possibles de S.

D'autre part les ([S =u])u∈s(Bn) sont deux à deux incompatibles.

Donc ([S =u])u∈s(Bn) est un système complet d'événements.

13. Comme l'espérance conditionnelle E[S=u]θ (T)ne dépend pas de la valeur deθ, on peut la noter E[S=u](T)et dénir une application r deBn dans Rpar :

∀(x1, . . . , xn)∈Bn, r(x1, . . . , xn) =E[S=s(x1,...,xn)](T)

a) En utilisant la formule de l'espérance totale, démontrer que R = r(X1, . . . , Xn) est un estimateur sans biais de θ

Réponse : Comme T a une espérance et que ([S = u])u∈s(Bn) est un système complet d'événements, la formule de l'espérance totale donne alors

Eθ(T) = X

u∈s(Bn)

Pθ(S =u)ES=uθ (T)

(13)

En notant Ξ le vecteur (X1,· · ·Xn), on a (S =u) = [s(Ξ) =u] = S

x∈Bn/s(x)=u(Ξ = x) est disjointe donc

Pθ(S =u) = X

x∈Bn/s(x)=u

Pθ(Ξ =x) et

Eθ(T) = X

u∈s(Bn)

X

x∈Bn/s(x)=u

Pθ(Ξ =x)ES=s(x)θ (T) avec {x∈Bn/s(x) = u, u∈s(Bn)}=Bn

= X

x∈Bn

Pθ(X1 =x,· · · , Xn=xn)r(x1, . . . , xn)

= Eθ(r(X1, . . . , Xn)) =Eθ(R) selon le théorème de transfert.

Et comme T est sans biais,θ =Eθ(T) = Eθ(R) Donc R est un estimateur sans biais deθ

b) On suppose que T admet une variance, quelle que soit la valeur du paramètre θ Justier qu'il en est de même pour R et en utilisant les inégalités

E[S=u](T −θ)2

≤E[S=u] (T −θ)2

établir, pour tout θ ∈Θ, l'inégalité (appelée inégalité de Rao-Blackwell) : Vθ(R)≤Vθ(T)

Réponse : Puisque T a une variance pour tout θ, T2 a une espérance pour tout θ.

Donc T2 a une espérance conditionnelle pour tout θ.

Pour une variable aléatoire X ayant une variance sur un espace probabilisé, E(X)2 ≤E(X2)

Donc, pour tout x∈Bn et pour la probabilité , PS=s(x), E[S=s(x)](T)2 ≤E[S=s(x)](T2) Donc R2 = 0 ≤E[S=s(Ξ)](T2).

R2 =r(Ξ)2 a une espérance si et seuelement si la série est absoluemnt convergente, ce qui équivaut -tout est positif et théorème de transfert - à la convergence simple de

X

x∈Bn

P (Ξ =x)r(x)2 = X

x∈Bn

Pθ(Ξ = x)ES=s(x)θ (T)2

= X

u∈s(Bn)

X

x∈Bn/s(x)=u

Pθ(Ξ =x)ES=uθ (T)2

| {z }

≤EθS=u(T2)

et comme T2 a une espérance, par la formule de l'espérance totale, la famille suivante est sommable :

Eθ T2

= X

u∈s(Bn)

Pθ(S =u)ES=uθ T2

= X

u∈s(Bn)

X

x∈Bn/s(x)=u

Pθ(Ξ = x)ES=uθ T2 donc, par majoration de termes positifs, la sérieP

x∈BnP (Ξ =x)r(x)2converge également et R2 a une espérance

et Eθ(R2)≤Eθ(T2) par sommation convergente des inégalités donc R a une variance pour tout θ ∈Θ

et Vθ(R) =Eθ(R2)−Eθ(R)2 =Eθ(R2)−Eθ(T)2 ≤Eθ(T2)−Eθ(T)2 ≤Vθ(T2) et pour tout θ ∈Θ Vθ(R)≤Vθ(T2)

(14)

14. Un exemple d'estimateur sans biais optimal

Dans cette question uniquement, on suppose queB =N,Θ =]0,+∞[ et que, pour toutθ ∈Θ la loi commune des variables aléatoires X1, . . . , Xn sur l'espace probabilisé Ω,A, Pθ

est la loi de Poisson de paramètreθ

a) Justier que la statistiqueS =Pn

i=1Xi est exhaustive.

Réponse : La statistique S = Pn

i=1Xi = s(X1,· · · , Xn) est exhaustive s'il existe une application g des(Bn)×Θdans R+ et une application h deBn dans R+ telles que :

∀θ∈Θ,∀(x1, . . . , xn)∈Bn, L(x1, . . . , xn, θ) =g(s(x1, . . . , xn), θ)h(x1, . . . , xn) ((5)) ici, s : (x1,· · ·xn)7→Pn

i=1xi,

s(Bn) =N (les sommes de n entiers sont tous les entiers) et, pour tout (x1,· · ·xn)∈Nn:

L(x1, . . . , xn, θ) =

n

Y

i=1

Pθ([Xi =xi]) =

n

Y

i=1

e−θθxi xi!

= e−nθθs(x1,···xn) 1 Qxi! donc, avec g : (t, θ)7→e−nθθt et h: (x1,· · ·xn)7→ 1

Qxi! on a bien la relation demandée.

Donc la statistique S =Pn

i=1Xi est exhaustive.

b) Soitu∈N et(x1, . . . , xn)∈Nn Vérier que la probabilité conditionnelle P[S=u]θ ([X1 =x1]∩ · · · ∩[Xn=xn])

ne dépend pas deθ Réponse : S =Pn

i=1Xiest une somme de lois de Poisson indépendantes. DoncS ,→ P(nθ).

u∈N et(x1, . . . , xn)∈Nn

P[S=u]θ ([X1 =x1]∩ · · · ∩[Xn=xn]) = Pθ([X1 =x1]∩ · · · ∩[Xn =xn]∩[S=u]) Pθ(S =u)

donc cette probabilté est nulle si u6=P

xi et ne dépend donc pas deθ.

Si u=Pn i=1xi :

Pθ(S =u) =e−nθ(nθ)u

u! =e−nθθunu u!

et, par indépdenance des Xi :

P (X1 =x1∩ · · · ∩Xn=xn∩S =u) = P (X1 =x1∩ · · · ∩Xn=xn)

=

n

Y

i=1

Pθ(X =xi) =g(u, θ)h(x1, . . . , xn) d'où simplication des g(u, θ) et

P[S=u]θ ([X1 =x1]∩ · · · ∩[Xn=xn]) = u!

nuh(x1, . . . , xn) quantité qui ne dépend pas de θ.

(15)

c) Soit u ∈ N Démontrer que chacune des variables aléatoires X1, . . . , Xn suit une loi bino- miale lorsque l'espace probabilisable (Ω,A) est muni de la probabilité P[S=u]θ . Sont-elles indépendantes pour cette probabilité ?

Réponse : Les Xi sont tous positifs, donc, quand leur somme est S=u,aucune ne peut dépasseru.

Toutes les valeurs inférieures restent possibles.

Donc la loi de Xn est donnée par :

Donc, quand S=u, Xn(Ω∩[S =u]) = [[0, u]]

Et pour tout k ∈[[0, u]] :

P[S=u]θ (Xn=k) = Pθ [Xn=k]∩Pn−1

i=1 Xi =u−k

Pθ(S =u) indépendance par coalition

= Pθ(Xn=k)×Pθ Pn−1

i=1 Xi =u−k Pθ(S =u)

=

e−θθk

k!e−(n−1)θ((n−1)θ)u−k (u−k)!

u!

e−nθ(nθ)u car

n−1

X

i=1

Xi ,→ P((n−1)θ)

= u!

(u−k)!k!

((n−1))u−k

nu =

u k

1 n

k 1− 1

n n−k

Donc de même pour tous les Xi en réoronnant leur numérotations.

Donc, pour tout i∈[[1, n]] :Xi ,→ B

u, 1 n

pour P[S=u]

Si u6= 0 alors (X1 =u∩X2 =u)∩(S =u) = ∅, donc les Xi ne sont pas indépendantes.

Si u= 0, elles sont constantes donc indépendantes.

d) Trouver une suite réelle (ϕk)k∈

N telle que

∀θ > 0,

+∞

X

k=0

ϕk(nθ)k

k! =θe et en prouver l'unicité à l'aide du résultat de la question 2.

Méthode : le coecient ϕk, ne doit pas dépendre de θ,qui n'est connu qu'après.

Réponse : P+∞

k=0

(nθ)k

k! = e et θe =

+∞

X

k=0

θ(nθ)k k! =

+∞

X

k=0

1 n

(nθ)k+1 k!

=

+∞

X

k=0

k+ 1 n

(nθ)k+1 (k+ 1)! ∗

=

+∞

X

h=1

h n

(nθ)h h!

Donc ϕk = k

n pour tout k ∈Nest une solution.

A la question 2.d) , on a vu que si f :x 7→ P+∞

k=0akxk série absolument convergente, sur R+ alors, si la fonciton est nulle, tous les ak sont nuls.

(16)

Ici, , si P+∞

k=0ϕk(nθ)k

k! =θe =P+∞

k=0

k n

(nθ)k

k! pour toutθ >0 alors P+∞

k=0

ϕk− k n

(nθ)k

k! = 0 et donc 2.d)ϕk− k

n = 0 pour tout entiern.

On a donc unicité de (ϕk)k∈

N

e) En exploitant le résultat de la question 13, démontrer que, parmi les estimateur sans biais deθ, l'estimateur 1

n Pn

i=1Xi est optimal, c'est-à-dire que son risque quadratique est inférieur ou égal à celui de tout autre estimateur sans biais de θ

Réponse : On a vu que siT était un estimateur sans biais, etSune statistique exhaustive alors avec R=r(X1,· · · , Xn),

V (R)≤V (T) donc r(R)≤r(T).

De plus, si T0 est un estimateur biaisé, T = T0−E(T0) est sans biais de même variance que T.

Donc r(R)≤r(T)≤rθ(T0) pour tout estimateurT0 deθ.

Donc, parmi les estimateurs biaisés ou non, R en est un de plus petit risque quadratique.

AvecT =X1 estimateur non biaisé de θ et a S =Pn

i=1Xi qui est une statistique exhaustive, on a vu que, pour PS=u :X1 ,→ B

u, 1

n

donc ES=u(X1) = u

n et avec Pn

i=1xi =u, r(x1, . . . , xn) = E[S=s(x1,...,xn)](X1) = 1

n Pn

i=1xi Donc R=r(X1,· · ·, Xn) = 1

n Pn

i=1Xi est optimal.

Références

Documents relatifs

 Une variable f de type intitulé Feu comportant les valeurs suivantes (Vert, Rouge, Orangé).  Une variable B qui peut avoir l’une des deux valeurs True

Parmi les élèves de 6ème, quel est l'effectif de ceux ayant un trajet de moins d'une

Parmi les élèves de 6ème, quel est l'effectif de ceux ayant un trajet de moins d'une

Formules nouvelles, pour l’intégration approchée de toute fonction différentielle d’une seule variable, entre deux limites données quelconques.. Annales de Mathématiques pures

Le taux de gravité d’un accident de service avec arrêt correspond au nombre de journées non travaillées (arrêts de travail) pour 1 000 heures travaillées.. Les heures

Supposons que dans le schéma en étoile de l'exercice précédent, chaque produit appartient une seule catégorie (alimentation, produits de nettoyage...) et que l’entreprise

(En effet, dans certaines situations, la moyenne des deux termes centraux, qui n'est pas une valeur de la série, n'a pas de sens : par exemple, quel est le jour médian du mois

Exemple : On a interrogé 25 familles pour étudier le nombre de téléphones mobiles que chacune possède.. Une moyenne est toujours comprise entre la plus petite et la plus