Chapitre 2 : Vraisemblance et Estimation ponctuelle
Chapitre 2 : Vraisemblance et Estimation ponctuelle 1 / 52
Organisation du chapitre 2
1 Vraisemblance et Estimation
Vraisemblance, exhaustivité, liberté La famille exponentielle
Comment Construire un Estimateur ? Information de Fisher
Comportement asymptotique des estimateurs
2 Intervalle de Conance
Intervalle de Conance : dénition
Construction pratique d'un Intervalle de Conance Intervalle de Conance Asymptotique
1. Vraisemblance et Estimation
1.1. Vraisemblance, exhaustivité, liberté
Vraisemblance d'un échantillon
Dénition 2.1 : Soitsn= (x1, . . . ,xn)réalisation d'un échantillon (i.i.d) de loi de densité f(x;θ)appartenant au modèle
M ={f(x;θ)|θ∈Θ}. La vraisemblance de l'échantillonsnest la fonctionL(θ,x1, . . . ,xn):
L: Θ −→ R+
θ 7→ f(x1, . . . ,xn;θ) =∏ni=1f(xi;θ) La log-vraisemblance est
L(θ,x1, . . . ,xn) = logL(θ,x1, . . . ,xn)
=
n
∑
i=1log(f(xi;θ)) Exemples :
I Echantillon issue d'une loi normale.
I Echantillon issue d'une loi de Weibull M =n
f(x;λ,α) =α
λ x λ
α−1
exp
− αxα
1x≥0|α,λ >0o (α paramètre de forme,λ paramètre d'échelle).
Chapitre 2 : Vraisemblance et Estimation ponctuelle 6 / 52
Exhaustivité
Dénition 2.2 : SoitM ={f(x,θ),x∈X,θ∈Θ}un modèle paramétrique etS :Xn−→Y une statistique. La statistique
S(x1, . . . ,xn) est dite exhaustive si la loi de X sachantS=s est
indépendante deθ.
Interprétation :S(x1, . . . ,xn)contient toute l'information de l'échantillon surθ, c'est un résumé qui préserve l'information.
Théoréme de factorisation : Une statistiqueS(x1, . . . ,xn) est exhaustive du modèle paramétrique si et seulement si la densité s'écrit
f(x1, . . . ,xn;θ) =gθ(S(x1, . . . ,xn);θ)h(x)
Propriété : SiS1,S2 sont des statistiques telles que S1=h(S2). Alors siS1 est exhaustive pourθ, alorsS2 est exhaustive pourθ.
Dénition 2.3 : Une statistique S est exhaustive minimale si tout autre statistique exhaustiveT s'écrit S=h(T).
Dénition 2.4 : Dans un modèle paramétrique M, une statistiqueS est libre en θ si sa loi ne dépend pas deθ.
Exemples
L'échantillon lui-même Le cas BernoulliB(1,p) Le cas gaussien N(m,Σ) Le cas uniformeU([a,b])
Chapitre 2 : Vraisemblance et Estimation ponctuelle 8 / 52
1.2. La famille exponentielle
La famille exponentielle
Dénition 2.5 : Un modèle statistique{f(x;θ)|θ∈Θ} surX =Rd est une famille exponentielle si les densitésf(x;θ) s'écrivent
f(x;θ) =exp
∑
si=1
ηi(θ)Ti(x)−B(θ)
! h(x)
avech,B,ηi,Ti,i=1, . . . ,s à valeurs réels, eth(x)≥0.
T(x) = (T1(x). . .Ts(x)) ∈Rs est la statistique privilégiée du modèle (lesTi sont linéairement libres = de rang plein)
Il est plus commode d'utiliser directement lesηi comme paramétre : la densité s'écrit alors sous forme canonique
f(x;η) =exp
∑
si=1
ηiTi(x)−A(η)
! h(x)
et η= (η1, . . . ,ηs) est appelé paramètre naturel.
Chapitre 2 : Vraisemblance et Estimation ponctuelle 11 / 52
Propriétés
C(η) =exp(−A(η))est la constante de normalisation.
L'ensembleH={η∈Rs|RX exp(∑si=1ηiTi(x))<∞}est un convexe.
Pour une famille exponentielle, le modèle d'échantillonnage est encore une famille exponentielle avec la statistique privilégiée :
T(x1, . . . ,xn) =
n
∑
i=1
T(xi).
On peut écrire∑si=1ηiTi(x) sous la forme d'un produit scalaire adapté : hη,T(x)iH dans un bon espace de paramètre.
La fonctionη7→A(η) est indéniment dérivable et
1 Eη[T(X)] =∇ηA(η)
2 covη(Ti,Tj) = ∂2
∂ ηi∂ ηjA(η)
θ7→η(θ) est le plus souvent un diéomorphisme.
Beaucoup de modèles usuels sont exponentiels...
Le modèle Gamma est M =
f(x;a,b) = xa−1ba
Γ(a) exp(−bx)1x≥0|a,b>0
la densité se réécrit :
f(x;a,b) =exp(−bx+alog(x) +alogb−logΓ(a))x11x≥0.
I SoitT1(x) =−x etT2(x) =logx;η1=betη2=a, avec B(a,b) =alogb−logΓ(a)que l'on ré-écrit
A(η1,η2) =−η1logη2+logΓ(η2),h(x) =1x1x≥0
Le modèle Gaussien multivarié M=
(
f(x;µ,Σ) =|detΣ|−1/2 (2π)p/2 exp
−1
2(x−µ)>Σ−1(x−µ)
|µ∈Rp,Σ0 )
I SoitT1(x) =x,T2(x) =−12xx>;η1= Σ−1µ,η2= Σ−1, A(η1,η2) =−12logdetη2+12η1>η2−1η1.
Chapitre 2 : Vraisemblance et Estimation ponctuelle 13 / 52
Exhaustivité dans les familles exponentielles
Propriété : Dans une famille exponentielleM, si le modèle est de rang plein (égale às), la statistique privilégiée est exhaustive minimale.
Réciproquement,
Théoréme de Pitman-Koopman : Si le modèle est homogène (le support ne dépend pas du paramétre) et est tel que pour une taille d'échantillonn assez grand, il existe une statistique exhaustive de taille xe s, alors la famille est exponentielle.
Exemple : La loi de Fréchetf(x;s,α) =αs xs−(1+α)
exp
− xs−α .
1.3. Comment Construire un estimateur ?
La méthode des moments
Estimation deθ dans un modèle M={f(x,θ)|θ∈Θ}. On suppose que l'on ait capable de calculer théoriquementEθ[X] =µ1(θ), Eθ
X2
=µ2(θ),...Eθ
XK
=µK(θ).
Les espérances sont estimables par leur version empirique : Eθ
Xk
≈n1∑ni=1xik ,Xk (estimateurs consistants).
Détermination deθ(Xˆ 1, . . . ,Xn) par moindres carrés
θˆ=arg min
θ∈Θ K
∑
i=1
µk(θ)−Xk2
Exemple : Loi Gamma E(X) =ba,V(X) =ba2. Loi de Poisson P(X =k) =exp(−λ)λk! k, etE(X) =λ,V(X) =λ
La méthode des moindres carrés
Le modèle de régression est dénie parY =a+bx+ε, avecE[ε] =0.
Nous avons les observationsYi =a+bxi+εi avecεi i.i.d.
Paramètre à estimerθ= (a,b). Nous avons pour touti=1. . .n, E[Yi] =a+bxi= [1xi]
a b
. L'estimateur par moindres carrés est
R(θ) =
n
∑
i=1
(yi−(a+bxi))2
= kY−Xθk2
Chapitre 2 : Vraisemblance et Estimation ponctuelle 18 / 52
Estimateur du Maximum de Vraisemblance
Dénition 2.6 : SoitM un modèle paramétrique et x1, . . . ,xnun échantillon de vraisemblanceL(θ;x1, . . . ,xn) =∏ni=1f(xi;θ). Lorsqu'il existe, l'estimateur du maximum de vraisemblance est dénie par
θˆnEMV = argmax
θ∈ΘL(θ;x1, . . . ,xn)
= argmax
θ∈ΘL(θ;x1, . . . ,xn) Remarque
Les conditions susantes d'optimalité pour déterminerθˆnEMV sont :
∂L
∂ θ (x,θ)|θ= ˆ
θnEMV =0
∂2L
∂ θ2 (x1, . . . ,xn,θˆnEMV)≤0
L(x,θˆnEMV)≥L(x1, . . . ,xn,θ),∀θ∈Θ.
Exemples d'estimateurs d'EMV
Le cas BernoulliL(p;x1, . . . ,xn) =p∑ni=1xi(1−p)∑ni=1(1−xi), soit L(p;x1, . . . ,xn) =∑ni=1xilog(1−pp ) +nlog(1−p).
Le cas PoissonL(p;x1, . . . ,xn) =exp(−nλ)λ(xx1+···+xn)
1!...xn! ,....
Chapitre 2 : Vraisemblance et Estimation ponctuelle 20 / 52
Exemples d'estimateurs d'EMV
Le cas de la régression logistiqueYi ∼B(1,pi =p(xi)), et l'échantillon est Sn= ((x1,y1), . . . ,(xn,yn)). On dénit ϕ(p) =log1−pp et on suppose queϕ(pi) =axi+b, avecθ=a,b∈Ralors
L(θ;xi,yi) =
n
∑
i=1
yi(axi+b) +
n
∑
i=1log(1−ϕ(axi+b))
Propriétés de l'EMV
Sous les hypothéses du théoréme de factorisation, θˆnEMVest fonction de toute statistique exhaustive.
Pour l'EMV, il y a des problémes :
I Existence d'une solution au probléme de maximisation
I Existence de plusieurs solutions et de minima locaux
I Numérique (pour l'optimisation)
Pour un modèle exponentiel de plein rang (avec la paramétrisation naturelle) etI(η)>0 pour toutη, alors L(η;x1, . . . ,xn)est strictement concave et l'EMV est l'unique solution de
1 n
n
∑
i=1
T(xi) =∇ηA( ˆηEMV)
Chapitre 2 : Vraisemblance et Estimation ponctuelle 22 / 52
1.3. Information de Fisher
Score et Information de Fisher
On suppose que M ={f(x;θ),θ∈Θ} est régulier. Le score est le vecteur aléatoire
S(X;θ) =∇θlogf(X;θ) Dans ce cas, ∀θ∈Θ,
Eθ[∇θlogf(X;θ)] =0 Attention au support !
La matrice d'information de FisherI(θ), ou information apportée par X sur θ :
I(X;θ) =covθ(∇θlogf(X;θ))
Additivité de l'Information de Fisher pour un échantillon i.i.d : I(X1, . . . ,Xn;θ),In(θ) =nI1(θ)
Chapitre 2 : Vraisemblance et Estimation ponctuelle 25 / 52
Calcul de l'Information de Fisher
Théoréme : Si ∂ θ∂i∂ θ2 jf(x;θ) existe pour toutx et toutθ, et si on peut dériver 2 fois sous le signe intégral Rf(x;θ)µ(dx)alors
I(X;θ) =−
Eθ ∂2
∂ θi∂ θj logf(X;θ)
1≤i,j≤p
Pour une famille exponentielle, si on utilise la paramétrisation canonique :
S(X;η) = T(X)−∇ηA(η) I(X;η) = ∇2ηA(η) =covη(T(X))
Inégalité d'information de Cramér-Rao
Théorème
Soit M modèle statistique régulier, g fonction dérivable et
Tn=T(X1, . . . ,Xn) un estimateur sans biais deg(θ).
Cas θ scalaire : la borne de Cramer-Rao est dénie parBCR(θ) =gI0(θ)2
n(θ) et Vθ(Tn)≥BCR(θ) =g0(θ)2
In(θ) Cas θ vectoriel :
Vθ(Tn)≥J(g)(θ)>In(θ)−1J(g)(θ) avecJ(g)(θ)= Jacobien deg évalué au pointθ.
Chapitre 2 : Vraisemblance et Estimation ponctuelle 27 / 52
Ecacité d'un estimateur
La comparaison entre les matrices de covariances est au sens de l'ordre (partiel) matrices s.d.p :A,B s.d.p. A≤B ⇐⇒B−As.d.p
Inégalité d'information = BCR(θ) est la meilleure variance possible pour un estimateur sans biais.
Un estimateurTn sans biais de g(θ) est un estimateur ecace si Vθ(g(θ)) =BCR(θ).
1.5. Comportement asymptotique des estimateurs
Convergence de l'EMV
Si le modèle paramétriqueM est régulier et si θ∗∈Θ◦ est le vrai paramétre alors
θˆnEMV −→θ∗ en probabilitéPθ∗.
Remarque
La régularité suppose que l'information de Fisher I(θ) existe et est dénie positive. Une conséquence de I(θ)>0 est que le modèle est localement identiable, i.e f(·;θ) =f(·,θ0) =⇒ θ=θ0, for allθ,θ0 dans un voisinage de θ.
Normalité asymptotique de l'EMV
Si le modèle paramétriqueM est régulier et si θ∗∈Θ◦ est le vrai paramétre alors
√n
θˆnEMV−θ∗
N 0,I1−1(θ)
Remarque
√n est la vitesse de convergence de l'estimateur. De maniére générale, la convergence des estimateurs paramétriques est "en √1n".
Un estimateur consistent θˆn est dit asymptotiquement normal si il existern>0 tel que
rn
θˆn−θ∗
N(0,J(θ)).
J(θ) est la variance asymptotique.
Chapitre 2 : Vraisemblance et Estimation ponctuelle 32 / 52
Delta-Method
Soitθˆn, un estimateur asymptotiquement normal rn
θˆn−θ∗
N(0,J(θ)), etψ une fonction diérentiable autour deθ∗, alors ψ( ˆθn)est asymptotiquement normal et
rn
ψ
θˆn
−ψ(θ∗)
N
0,ψ0(θ)>J(θ)ψ0(θ)
Lemme de Slutsky : Si Yn Y etAn Proba
−→ Aet Bn Proba
−→ B, alors
An+BnYn A+BY
Ces résultats sont utilisées pour obtenir la normalité asymptotique de statistique complexe (mais réguliére) de l'échantillon.
2. Intervalle de conance
2.1. Intervalle de Conance : dénition
Intervalle de Conance
On considère un modèle d'échantillonnage paramétriqueX1, ...,Xn de taille n. Les variables aléatoiresX1, ...,Xn sont indépendantes et de mÍme loi inconnueP, et elles sont à valeurs dansX (Rou Rd).
On suppose que la loiP appartient à une famille de probabilité P={Pθ,θ∈Θ}.
Dénition 3.1 (Région de Conance)
Soitx7→Λ(x)une application deXn à valeurs dans l'ensemble des boréliens de g(Θ) telle que pour toutθ∈Θ, on a
Pθ(g(θ)∈Λ(X1, ...,Xn)) =1−α.
On dit que l'ensemble aléatoire Λest une région de conance de niveau(1−α). Dans le cas oùg(Θ)⊂RetΛest un intervalle, on parle d'un intervalle de conance.
Dénition 3.2 (Intervalle de Conance)
Pourα∈[01]donné, on appelle intervalle de conance pour le paramètreθ (resp.
g(θ)), de niveau de conance 1−α, un intervalle ICα qui a la probabilité de 1−α de contenir la vraie valeur deθ (resp.g(θ)), i.e.,
P(θ∈ICα) =1−α(resp. P(g(θ)∈ICα) =1−α.)
Chapitre 2 : Vraisemblance et Estimation ponctuelle 37 / 52
Intervalle de Conance
Dénition 3.4 (Statistique asymptoptiquement libre)
On appelle statistique asymptotiquement libre pourθ, toute statistique dont sa loi asymptotique ne dépend pas deθ.
Exemple 3.1 SoitX1, ...,Xn un échantillon de loiN(µ,σ2). Notons X¯n=1n
n i
∑
=1Xi et Sn2=n−11
n i
∑
=1(Xi−X¯n)2.
- Siσ est connu, √n( ¯Xσn−µ) est une statistique libre pour µ, de loiN(0,1). - Siσ est inconnu √n( ¯XSnn−µ) est une statistique libre pour µ, de loiTn−1. - Siµ est connu∑ni=1
X
i−µ σ
2
est une statistique libre pour σ, de loi χn2. - Siµ est inconnu(n−1)Sn2
σ2 est une statistique libre pourσ, de loiχn−2 1.
2.2. Construction pratique d'un Intervalle de Conance
Chapitre 2 : Vraisemblance et Estimation ponctuelle 40 / 52
Construction pratique d'un IC
Exemple 3.2 X1, ...,Xn un échantillon de loiP(1
λ). Tn=
√n( ¯Xn−λ)
λ est une statistique asymptotiquement libre pourλ. En eet, par le théorème central-limite Tn loi
n→∞−→ N(0,1).
Construction pratique d'un IC
SoitTn un estimateur du paramètreθ. On chercheϕ1(Tn)etϕ2(Tn)de sorte que leurs lois ne dépendent pas deθ et
P(ϕ1(Tn) ≤ θ ≤ ϕ2(Tn)) =1−α
Remarque Le choix d'une statistique libre revient à éviter d'avoir les bornes de l'IC dépendantes deθ
IC - Espérance d'une variable normale : σ connu
σ connu SoitX1, ...,Xn un échantillon de loiN(µ,σ2). - PrenonsX¯n=1n
n
∑
i=1
Xi comme estimateur de µ.
- On utilise le fait que √n( ¯Xσn−µ) est une statistique libre pour µ, de loi N (0,1).
- L'intervalle de probabilité deX¯n à 1−α est :
−uα
2 ≤
√n( ¯Xn−µ)
σ ≤ uα
2
µ−uα 2
√σ
n ≤X¯n≤ µ+uα 2
√σ n oùuα
2 est telle queφ(uα
2) =P(N(0,1)≤uα
2) =1−α2. d'où l'intervalle de conance :
¯ xn−uα
2
√σ
n ≤µ≤ x¯n+uα 2
√σ n - Application numérique : si(1−α) =0,95, on auα
2 =1,96. L'intervalle de conance de niveau 95%pour µ est
[¯xn−1√,96
n σ; ¯xn+1√,96 n σ]
Chapitre 2 : Vraisemblance et Estimation ponctuelle 42 / 52
IC - Espérance d'une variable normale : σ inconnu
On utilise le fait queTn−1=
√n( ¯Xn−µ)
Sn suit une loi de Student à(n−1) degrés de liberté.
L'intervalle de probabilité pourTn−1 :
−t(n−1),α
2 ≤
√n( ¯Xn−µ)
Sn ≤t(n−1),α 2
d'où l'intervalle de conance :
¯
xn−t(n−1),α 2
√s
n≤µ≤x¯n+t(n−1),α 2
√s n
Remarque Si la dénitionSn2∗=1n∑ni=1(Xi−X¯n)2alors l'intervalle de conance devient :
¯
xn−t(n−1),α 2
s∗
√n−1≤µ≤x¯n+t(n−1),α 2
s∗
√n−1 Exemple 3.3 On prend, par exempleα=0,05, etn=25, on a t(n−1),α
2 =2,064 et l'intervalle de conance de niveau de conance 95%pour µ est :
¯
xn−2,064
√25 s25,x¯n+2,064
√25 s25
Remarque Le TCL a pour conséquence que les intervalles précédents sont valables pour estimer d'une loi quelconque quandChapitre 2 : Vraisemblance et Estimation ponctuellenest assez grand. 43 / 52
IC - Variance d'une variable normale
µconnu soitUˆn2=1n∑ni=1(Xi−µ)2. on utilise le fait que nσUˆ22n suit une loi de χn2 comme somme dencarrés de N(0,1)indépendantes.
Soitk1 etk2, les bornes de l'intervalle de probabilité d'unχn2: P(k1≤nUˆn2
σ2 ≤k2) =1−α d'où l'intervalle de conance :
nuˆ2n
k2 ≤σ2≤nuˆ2n k1 µ inconnu On utiliseSn2=n−11
n
∑
i=1
(Xi−X¯n)2, et on sait que (n−σ12)Sn2 suit une loiχn−2 1, soitb1etb2 les bornes de l'intervalle de probabilité :
P(b1≤(n−1)Sn2
σ2 ≤b2) =1−α d'où l'intervalle de conance :
(n−1)sn2
b2 ≤σ2≤(n−1)ˆsn2 b1
Chapitre 2 : Vraisemblance et Estimation ponctuelle 44 / 52
Intervalle de Conance : Exemple
Exemple 3.4 SoitX1, ...,Xn un échantillon de loi uniformeU([0,θ]). La vraisemblance associé à l'échantillon est dénie par
Ln(x,θ) = Πni=11
θ1[0,θ](xi)
Déterminons l'EMV :Ln(x,θ)est maximum enθ ssiΠni=11[0,θ[(xi) =1.
Autrement dit∀i=1, ...,n θ≥xi, donc, sup
1≤i≤n
xi≤θ.D'où l'EMV : θˆn= sup
1≤i≤n
Xi
Cherchons une statistique libre pourθ (à partir deθˆn). D'abord calculons la loi deθˆn,∀x∈[0,θ],
Fθˆn(x) = P( ˆθn≤x)
= (x θ)n Vérions queTn=θˆn
θ est une statistique libre pourθ. En eet,∀x∈[0,1], on a
FTn(x) = P(Tn≤x) =P( ˆθn≤θx)
= xn(bien indépendant deθ)
Chapitre 2 : Vraisemblance et Estimation ponctuelle 45 / 52
Intervalle de Conance : Exemple
IC Méthode 1: Déterminons un ϕ1( ˆθn)etϕ2( ˆθn)telle que P
ϕ1( ˆθn)≤θ≤ϕ2( ˆθn)
=1−α (1)
A partir de(1), il faut construire autour deθ, l'estimateurTn P
1 ϕ2( ˆθn)≤ 1
θ ≤ 1 ϕ1( ˆθn)
= 1−α P
θˆn
ϕ2( ˆθn)≤Tn≤ θˆn
ϕ1( ˆθn)
!
= 1−α
Comme on connait la loi de la statistique libreTn, on cherche donc un a := θˆn
ϕ2( ˆθn) etb := θˆn
ϕ1( ˆθn) tels que
P(a≤Tn≤b) = 1−α FTn(b)−FTn(a) = 1−α bn−an = 1−α
Il y a une innité deaetbpossibles. On choisita etbtels que l'intervalle [a,b]soit le plus court possible. Soitb=1 et donca=α1n.
D'où θˆn
ϕ2( ˆθn) =α1n et 1= θˆn
ϕ1( ˆθn)
Chapitre 2 : Vraisemblance et Estimation ponctuelle 46 / 52
Intervalle de Conance : Exemple
Soitϕ1( ˆθn) = ˆθn et ϕ1( ˆθn) =α−1nθˆn Nous avons donc obtenu un intervalle
de conance : h
θˆn;α−1nθˆn
i
IC Méthode 2: On peut partir directement deTn, et l'on cherche unaet btel que
P(a≤Tn≤b) = 1−α FTn(b)−FTn(a) = 1−α bn−an = 1−α
On choisit lesaetbtels que [a,b]soit l'intervalle le plus court possible.
Puis on remonte le raisonnement pour arriver à un intervalle de conance (voir exemple sur les espérances/variances normales).
2.3. Intervalle de Conance Asymptotique
Chapitre 2 : Vraisemblance et Estimation ponctuelle 49 / 52
Intervalle de Conance Asymptotique
Méthode Modèle régulier.
- On construit l'intervalle asymptotique en utilisant l'estimateur du maximum de vraisemblanceθˆn deθ.
- On sait queθˆn est asymtotiquement normal, i.e. :
√n( ˆθn−θ)−→loi
n→∞N(0, 1 I1(θ)).
- Autrement dit :
pnI1(θ)( ˆθn−θ)loi
n→∞−→N (0,1).
On obtient : P
−uα
2 ≤
q
nI1( ˆθn)( ˆθn−θ)≤uα 2
= 1−α d'oùl'intervalle de conance asymptotique :
θˆn− uα 2
q
nI1( ˆθn)
,θˆn+ uα 2
q
nI1( ˆθn)
.
Intervalle de Conance Asymptotique : Exemple
Remarque On a mentionné l'EMV car il est asymptotiquement normal, donc il converge en loi vers une loi connue (ici la loi normale).
Exemple 3.5 SoitX1, ...,Xn un échantillon de loi uniformeU([0,θ]). L'Estimateur de Maximum de Vraisemblance :θˆn= sup
1≤i≤n
Xi. SoitTn:=n
1−θˆn
θ
,Tn est une statistique asymptÙtiquement libre pour θ, en eet ;
FTn(x) = P(Tn≤x)
= P
θˆn≥θ(1−x n)n
= 1−(1−x n)n et lim
n→∞FTn(x) =1−e−x. Donc,Tn→T, oùT suit une loi exponentielle Exp(1).
Chapitre 2 : Vraisemblance et Estimation ponctuelle 51 / 52
Intervalle de Conance Asymptotique : Exemple
On cherche un intervalle de la forme[ ˆθn;b] tel que pour unα donné on ait P( ˆθn≤θ≤b) =1−α.
P( ˆθn≤θ≤b) = P 0≤Tn≤n 1−θˆn b
!!
≈n→∞ FT n(1−θˆn
b )
!
=1−α d'oùb= θˆn
1−1nFT−1(1−α) = θˆn
1−1nlogα On a donc
IC=
"
θˆn; θˆn
1−1nlogα
#