• Aucun résultat trouvé

Chapitre 2 : Vraisemblance et Estimation ponctuelle

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre 2 : Vraisemblance et Estimation ponctuelle"

Copied!
44
0
0

Texte intégral

(1)

Chapitre 2 : Vraisemblance et Estimation ponctuelle

Chapitre 2 : Vraisemblance et Estimation ponctuelle 1 / 52

(2)

Organisation du chapitre 2

1 Vraisemblance et Estimation

Vraisemblance, exhaustivité, liberté La famille exponentielle

Comment Construire un Estimateur ? Information de Fisher

Comportement asymptotique des estimateurs

2 Intervalle de Conance

Intervalle de Conance : dénition

Construction pratique d'un Intervalle de Conance Intervalle de Conance Asymptotique

(3)

1. Vraisemblance et Estimation

(4)

1.1. Vraisemblance, exhaustivité, liberté

(5)

Vraisemblance d'un échantillon

Dénition 2.1 : Soitsn= (x1, . . . ,xn)réalisation d'un échantillon (i.i.d) de loi de densité f(x;θ)appartenant au modèle

M ={f(x;θ)|θ∈Θ}. La vraisemblance de l'échantillonsnest la fonctionL(θ,x1, . . . ,xn):

L: Θ −→ R+

θ 7→ f(x1, . . . ,xn;θ) =∏ni=1f(xi;θ) La log-vraisemblance est

L(θ,x1, . . . ,xn) = logL(θ,x1, . . . ,xn)

=

n

i=1log(f(xi;θ)) Exemples :

I Echantillon issue d'une loi normale.

I Echantillon issue d'une loi de Weibull M =n

f(x;λ,α) =α

λ x λ

α−1

exp

αxα

1x0 >0o (α paramètre de forme,λ paramètre d'échelle).

Chapitre 2 : Vraisemblance et Estimation ponctuelle 6 / 52

(6)

Exhaustivité

Dénition 2.2 : SoitM ={f(x,θ),x∈X,θ∈Θ}un modèle paramétrique etS :Xn−→Y une statistique. La statistique

S(x1, . . . ,xn) est dite exhaustive si la loi de X sachantS=s est

indépendante deθ.

Interprétation :S(x1, . . . ,xn)contient toute l'information de l'échantillon surθ, c'est un résumé qui préserve l'information.

Théoréme de factorisation : Une statistiqueS(x1, . . . ,xn) est exhaustive du modèle paramétrique si et seulement si la densité s'écrit

f(x1, . . . ,xn;θ) =gθ(S(x1, . . . ,xn);θ)h(x)

Propriété : SiS1,S2 sont des statistiques telles que S1=h(S2). Alors siS1 est exhaustive pourθ, alorsS2 est exhaustive pourθ.

Dénition 2.3 : Une statistique S est exhaustive minimale si tout autre statistique exhaustiveT s'écrit S=h(T).

Dénition 2.4 : Dans un modèle paramétrique M, une statistiqueS est libre en θ si sa loi ne dépend pas deθ.

(7)

Exemples

L'échantillon lui-même Le cas BernoulliB(1,p) Le cas gaussien N(m,Σ) Le cas uniformeU([a,b])

Chapitre 2 : Vraisemblance et Estimation ponctuelle 8 / 52

(8)

1.2. La famille exponentielle

(9)

La famille exponentielle

Dénition 2.5 : Un modèle statistique{f(x;θ)|θ∈Θ} surX =Rd est une famille exponentielle si les densitésf(x;θ) s'écrivent

f(x;θ) =exp

s

i=1

ηi(θ)Ti(x)−B(θ)

! h(x)

avech,B,ηi,Ti,i=1, . . . ,s à valeurs réels, eth(x)≥0.

T(x) = (T1(x). . .Ts(x)) ∈Rs est la statistique privilégiée du modèle (lesTi sont linéairement libres = de rang plein)

Il est plus commode d'utiliser directement lesηi comme paramétre : la densité s'écrit alors sous forme canonique

f(x;η) =exp

s

i=1

ηiTi(x)−A(η)

! h(x)

et η= (η1, . . . ,ηs) est appelé paramètre naturel.

Chapitre 2 : Vraisemblance et Estimation ponctuelle 11 / 52

(10)

Propriétés

C(η) =exp(−A(η))est la constante de normalisation.

L'ensembleH={η∈Rs|RX exp(∑si=1ηiTi(x))<∞}est un convexe.

Pour une famille exponentielle, le modèle d'échantillonnage est encore une famille exponentielle avec la statistique privilégiée :

T(x1, . . . ,xn) =

n

i=1

T(xi).

On peut écrire∑si=1ηiTi(x) sous la forme d'un produit scalaire adapté : hη,T(x)iH dans un bon espace de paramètre.

La fonctionη7→A(η) est indéniment dérivable et

1 Eη[T(X)] =ηA(η)

2 covη(Ti,Tj) = 2

∂ ηi∂ ηjA(η)

θ7→η(θ) est le plus souvent un diéomorphisme.

(11)

Beaucoup de modèles usuels sont exponentiels...

Le modèle Gamma est M =

f(x;a,b) = xa−1ba

Γ(a) exp(−bx)1x≥0|a,b>0

la densité se réécrit :

f(x;a,b) =exp(−bx+alog(x) +alogb−logΓ(a))x11x≥0.

I SoitT1(x) =−x etT2(x) =logx;η1=betη2=a, avec B(a,b) =alogblogΓ(a)que l'on ré-écrit

A(η1,η2) =−η1logη2+logΓ(η2),h(x) =1x1x0

Le modèle Gaussien multivarié M=

(

f(x;µ,Σ) =|detΣ|1/2 (2π)p/2 exp

1

2(xµ)>Σ1(xµ)

Rp,Σ0 )

I SoitT1(x) =x,T2(x) =12xx>;η1= Σ1µ,η2= Σ1, A(η1,η2) =12logdetη2+12η1>η21η1.

Chapitre 2 : Vraisemblance et Estimation ponctuelle 13 / 52

(12)

Exhaustivité dans les familles exponentielles

Propriété : Dans une famille exponentielleM, si le modèle est de rang plein (égale às), la statistique privilégiée est exhaustive minimale.

Réciproquement,

Théoréme de Pitman-Koopman : Si le modèle est homogène (le support ne dépend pas du paramétre) et est tel que pour une taille d'échantillonn assez grand, il existe une statistique exhaustive de taille xe s, alors la famille est exponentielle.

Exemple : La loi de Fréchetf(x;s,α) =αs xs−(1+α)

exp

xs−α .

(13)

1.3. Comment Construire un estimateur ?

(14)

La méthode des moments

Estimation deθ dans un modèle M={f(x,θ)|θ∈Θ}. On suppose que l'on ait capable de calculer théoriquementEθ[X] =µ1(θ), Eθ

X2

2(θ),...Eθ

XK

K(θ).

Les espérances sont estimables par leur version empirique : Eθ

Xk

n1ni=1xik ,Xk (estimateurs consistants).

Détermination deθ(Xˆ 1, . . . ,Xn) par moindres carrés

θˆ=arg min

θ∈Θ K

i=1

µk(θ)−Xk2

Exemple : Loi Gamma E(X) =ba,V(X) =ba2. Loi de Poisson P(X =k) =exp(−λ)λk! k, etE(X) =λ,V(X) =λ

(15)

La méthode des moindres carrés

Le modèle de régression est dénie parY =a+bx+ε, avecE[ε] =0.

Nous avons les observationsYi =a+bxii avecεi i.i.d.

Paramètre à estimerθ= (a,b). Nous avons pour touti=1. . .n, E[Yi] =a+bxi= [1xi]

a b

. L'estimateur par moindres carrés est

R(θ) =

n

i=1

(yi−(a+bxi))2

= kY−Xθk2

Chapitre 2 : Vraisemblance et Estimation ponctuelle 18 / 52

(16)

Estimateur du Maximum de Vraisemblance

Dénition 2.6 : SoitM un modèle paramétrique et x1, . . . ,xnun échantillon de vraisemblanceL(θ;x1, . . . ,xn) =∏ni=1f(xi;θ). Lorsqu'il existe, l'estimateur du maximum de vraisemblance est dénie par

θˆnEMV = argmax

θ∈ΘL(θ;x1, . . . ,xn)

= argmax

θ∈ΘL(θ;x1, . . . ,xn) Remarque

Les conditions susantes d'optimalité pour déterminerθˆnEMV sont :









∂L

∂ θ (x,θ)|θ= ˆ

θnEMV =0

2L

∂ θ2 (x1, . . . ,xn,θˆnEMV)≤0

L(x,θˆnEMV)≥L(x1, . . . ,xn,θ),∀θ∈Θ.

(17)

Exemples d'estimateurs d'EMV

Le cas BernoulliL(p;x1, . . . ,xn) =pni=1xi(1−p)ni=1(1−xi), soit L(p;x1, . . . ,xn) =∑ni=1xilog(1−pp ) +nlog(1−p).

Le cas PoissonL(p;x1, . . . ,xn) =exp(−nλ)λ(xx1+···+xn)

1!...xn! ,....

Chapitre 2 : Vraisemblance et Estimation ponctuelle 20 / 52

(18)

Exemples d'estimateurs d'EMV

Le cas de la régression logistiqueYi ∼B(1,pi =p(xi)), et l'échantillon est Sn= ((x1,y1), . . . ,(xn,yn)). On dénit ϕ(p) =log1−pp et on suppose queϕ(pi) =axi+b, avecθ=a,b∈Ralors

L(θ;xi,yi) =

n

i=1

yi(axi+b) +

n

i=1log(1−ϕ(axi+b))

(19)

Propriétés de l'EMV

Sous les hypothéses du théoréme de factorisation, θˆnEMVest fonction de toute statistique exhaustive.

Pour l'EMV, il y a des problémes :

I Existence d'une solution au probléme de maximisation

I Existence de plusieurs solutions et de minima locaux

I Numérique (pour l'optimisation)

Pour un modèle exponentiel de plein rang (avec la paramétrisation naturelle) etI(η)>0 pour toutη, alors L(η;x1, . . . ,xn)est strictement concave et l'EMV est l'unique solution de

1 n

n

i=1

T(xi) =∇ηA( ˆηEMV)

Chapitre 2 : Vraisemblance et Estimation ponctuelle 22 / 52

(20)

1.3. Information de Fisher

(21)

Score et Information de Fisher

On suppose que M ={f(x;θ),θ∈Θ} est régulier. Le score est le vecteur aléatoire

S(X;θ) =∇θlogf(X;θ) Dans ce cas, ∀θ∈Θ,

Eθ[∇θlogf(X;θ)] =0 Attention au support !

La matrice d'information de FisherI(θ), ou information apportée par X sur θ :

I(X;θ) =covθ(∇θlogf(X;θ))

Additivité de l'Information de Fisher pour un échantillon i.i.d : I(X1, . . . ,Xn;θ),In(θ) =nI1(θ)

Chapitre 2 : Vraisemblance et Estimation ponctuelle 25 / 52

(22)

Calcul de l'Information de Fisher

Théoréme : Si ∂ θi∂ θ2 jf(x;θ) existe pour toutx et toutθ, et si on peut dériver 2 fois sous le signe intégral Rf(x;θ)µ(dx)alors

I(X;θ) =−

Eθ2

∂ θi∂ θj logf(X;θ)

1≤i,j≤p

Pour une famille exponentielle, si on utilise la paramétrisation canonique :

S(X;η) = T(X)−∇ηA(η) I(X;η) = ∇2ηA(η) =covη(T(X))

(23)

Inégalité d'information de Cramér-Rao

Théorème

Soit M modèle statistique régulier, g fonction dérivable et

Tn=T(X1, . . . ,Xn) un estimateur sans biais deg(θ).

Cas θ scalaire : la borne de Cramer-Rao est dénie parBCR(θ) =gI0)2

n) et Vθ(Tn)≥BCR(θ) =g0(θ)2

In(θ) Cas θ vectoriel :

Vθ(Tn)≥J(g)(θ)>In(θ)1J(g)(θ) avecJ(g)(θ)= Jacobien deg évalué au pointθ.

Chapitre 2 : Vraisemblance et Estimation ponctuelle 27 / 52

(24)

Ecacité d'un estimateur

La comparaison entre les matrices de covariances est au sens de l'ordre (partiel) matrices s.d.p :A,B s.d.p. A≤B ⇐⇒B−As.d.p

Inégalité d'information = BCR(θ) est la meilleure variance possible pour un estimateur sans biais.

Un estimateurTn sans biais de g(θ) est un estimateur ecace si Vθ(g(θ)) =BCR(θ).

(25)

1.5. Comportement asymptotique des estimateurs

(26)

Convergence de l'EMV

Si le modèle paramétriqueM est régulier et si θ∈Θ est le vrai paramétre alors

θˆnEMV −→θ en probabilitéPθ.

Remarque

La régularité suppose que l'information de Fisher I(θ) existe et est dénie positive. Une conséquence de I(θ)>0 est que le modèle est localement identiable, i.e f(·;θ) =f(·,θ0) =⇒ θ=θ0, for allθ,θ0 dans un voisinage de θ.

(27)

Normalité asymptotique de l'EMV

Si le modèle paramétriqueM est régulier et si θ∈Θ est le vrai paramétre alors

√n

θˆnEMV−θ

N 0,I11(θ)

Remarque

√n est la vitesse de convergence de l'estimateur. De maniére générale, la convergence des estimateurs paramétriques est "en 1n".

Un estimateur consistent θˆn est dit asymptotiquement normal si il existern>0 tel que

rn

θˆn−θ

N(0,J(θ)).

J(θ) est la variance asymptotique.

Chapitre 2 : Vraisemblance et Estimation ponctuelle 32 / 52

(28)

Delta-Method

Soitθˆn, un estimateur asymptotiquement normal rn

θˆn−θ

N(0,J(θ)), etψ une fonction diérentiable autour deθ, alors ψ( ˆθn)est asymptotiquement normal et

rn

ψ

θˆn

−ψ(θ)

N

0,ψ0(θ)>J(θ)ψ0(θ)

Lemme de Slutsky : Si Yn Y etAn Proba

−→ Aet Bn Proba

−→ B, alors

An+BnYn A+BY

Ces résultats sont utilisées pour obtenir la normalité asymptotique de statistique complexe (mais réguliére) de l'échantillon.

(29)

2. Intervalle de conance

(30)

2.1. Intervalle de Conance : dénition

(31)

Intervalle de Conance

On considère un modèle d'échantillonnage paramétriqueX1, ...,Xn de taille n. Les variables aléatoiresX1, ...,Xn sont indépendantes et de mÍme loi inconnueP, et elles sont à valeurs dansX (Rou Rd).

On suppose que la loiP appartient à une famille de probabilité P={Pθ,θΘ}.

Dénition 3.1 (Région de Conance)

Soitx7→Λ(x)une application deXn à valeurs dans l'ensemble des boréliens de g(Θ) telle que pour toutθΘ, on a

Pθ(g)Λ(X1, ...,Xn)) =1−α.

On dit que l'ensemble aléatoire Λest une région de conance de niveau(1α). Dans le cas oùg(Θ)RetΛest un intervalle, on parle d'un intervalle de conance.

Dénition 3.2 (Intervalle de Conance)

Pourα[01]donné, on appelle intervalle de conance pour le paramètreθ (resp.

g)), de niveau de conance 1α, un intervalle ICα qui a la probabilité de 1−α de contenir la vraie valeur deθ (resp.g(θ)), i.e.,

P(θICα) =1−α(resp. P(g)ICα) =1α.)

Chapitre 2 : Vraisemblance et Estimation ponctuelle 37 / 52

(32)

Intervalle de Conance

Dénition 3.4 (Statistique asymptoptiquement libre)

On appelle statistique asymptotiquement libre pourθ, toute statistique dont sa loi asymptotique ne dépend pas deθ.

Exemple 3.1 SoitX1, ...,Xn un échantillon de loiN(µ,σ2). Notons X¯n=1n

n i

=1

Xi et Sn2=n−11

n i

=1

(XiX¯n)2.

- Siσ est connu, n( ¯Xσn−µ) est une statistique libre pour µ, de loiN(0,1). - Siσ est inconnu n( ¯XSnn−µ) est une statistique libre pour µ, de loiTn−1. - Siµ est connuni=1

X

i−µ σ

2

est une statistique libre pour σ, de loi χn2. - Siµ est inconnu(n1)Sn2

σ2 est une statistique libre pourσ, de loiχn−2 1.

(33)

2.2. Construction pratique d'un Intervalle de Conance

Chapitre 2 : Vraisemblance et Estimation ponctuelle 40 / 52

(34)

Construction pratique d'un IC

Exemple 3.2 X1, ...,Xn un échantillon de loiP(1

λ). Tn=

n( ¯Xn−λ)

λ est une statistique asymptotiquement libre pourλ. En eet, par le théorème central-limite Tn loi

n→∞−→ N(0,1).

Construction pratique d'un IC

SoitTn un estimateur du paramètreθ. On chercheϕ1(Tn)etϕ2(Tn)de sorte que leurs lois ne dépendent pas deθ et

P(ϕ1(Tn) θ ϕ2(Tn)) =1α

Remarque Le choix d'une statistique libre revient à éviter d'avoir les bornes de l'IC dépendantes deθ

(35)

IC - Espérance d'une variable normale : σ connu

σ connu SoitX1, ...,Xn un échantillon de loiN(µ,σ2). - PrenonsX¯n=1n

n

i=1

Xi comme estimateur de µ.

- On utilise le fait que n( ¯Xσn−µ) est une statistique libre pour µ, de loi N (0,1).

- L'intervalle de probabilité deX¯n à 1α est :

−uα

2

n( ¯Xn−µ)

σ uα

2

µ−uα 2

σ

n X¯n µ+uα 2

σ n uα

2 est telle queφ(uα

2) =P(N(0,1)uα

2) =1α2. d'où l'intervalle de conance :

¯ xnuα

2

σ

n µ x¯n+uα 2

σ n - Application numérique : si(1α) =0,95, on auα

2 =1,96. L'intervalle de conance de niveau 95%pour µ est

xn1,96

n σ; ¯xn+1,96 n σ]

Chapitre 2 : Vraisemblance et Estimation ponctuelle 42 / 52

(36)

IC - Espérance d'une variable normale : σ inconnu

On utilise le fait queTn−1=

n( ¯Xn−µ)

Sn suit une loi de Student à(n1) degrés de liberté.

L'intervalle de probabilité pourTn−1 :

−t(n−1),α

2

n( ¯Xnµ)

Sn t(n−1),α 2

d'où l'intervalle de conance :

¯

xnt(n−1),α 2

s

nµx¯n+t(n−1),α 2

s n

Remarque Si la dénitionSn2=1nni=1(XiX¯n)2alors l'intervalle de conance devient :

¯

xn−t(n−1),α 2

s

n1µx¯n+t(n−1),α 2

s

n1 Exemple 3.3 On prend, par exempleα=0,05, etn=25, on a t(n−1),α

2 =2,064 et l'intervalle de conance de niveau de conance 95%pour µ est :

¯

xn2,064

25 s25,x¯n+2,064

25 s25

Remarque Le TCL a pour conséquence que les intervalles précédents sont valables pour estimer d'une loi quelconque quandChapitre 2 : Vraisemblance et Estimation ponctuellenest assez grand. 43 / 52

(37)

IC - Variance d'une variable normale

µconnu soitUˆn2=1nni=1(Xiµ)2. on utilise le fait que nσUˆ22n suit une loi de χn2 comme somme dencarrés de N(0,1)indépendantes.

Soitk1 etk2, les bornes de l'intervalle de probabilité d'unχn2: P(k1nUˆn2

σ2 k2) =1α d'où l'intervalle de conance :

nuˆ2n

k2 σ2nuˆ2n k1 µ inconnu On utiliseSn2=n−11

n

i=1

(XiX¯n)2, et on sait que (n−σ12)Sn2 suit une loiχn−2 1, soitb1etb2 les bornes de l'intervalle de probabilité :

P(b1(n1)Sn2

σ2 b2) =1α d'où l'intervalle de conance :

(n1)sn2

b2 σ2(n1sn2 b1

Chapitre 2 : Vraisemblance et Estimation ponctuelle 44 / 52

(38)

Intervalle de Conance : Exemple

Exemple 3.4 SoitX1, ...,Xn un échantillon de loi uniformeU([0,θ]). La vraisemblance associé à l'échantillon est dénie par

Ln(x,θ) = Πni=11

θ1[0](xi)

Déterminons l'EMV :Ln(x)est maximum enθ ssiΠni=11[0[(xi) =1.

Autrement dit∀i=1, ...,n θxi, donc, sup

1≤i≤n

xiθ.D'où l'EMV : θˆn= sup

1≤i≤n

Xi

Cherchons une statistique libre pourθ (à partir deθˆn). D'abord calculons la loi deθˆn,∀x[0,θ],

Fθˆn(x) = P( ˆθnx)

= (x θ)n Vérions queTn=θˆn

θ est une statistique libre pourθ. En eet,∀x[0,1], on a

FTn(x) = P(Tnx) =P( ˆθnθx)

= xn(bien indépendant deθ)

Chapitre 2 : Vraisemblance et Estimation ponctuelle 45 / 52

(39)

Intervalle de Conance : Exemple

IC Méthode 1: Déterminons un ϕ1( ˆθn)etϕ2( ˆθn)telle que P

ϕ1( ˆθn)θϕ2( ˆθn)

=1α (1)

A partir de(1), il faut construire autour deθ, l'estimateurTn P

1 ϕ2( ˆθn) 1

θ 1 ϕ1( ˆθn)

= 1α P

θˆn

ϕ2( ˆθn)Tn θˆn

ϕ1( ˆθn)

!

= 1α

Comme on connait la loi de la statistique libreTn, on cherche donc un a := θˆn

ϕ2( ˆθn) etb := θˆn

ϕ1( ˆθn) tels que

P(aTnb) = 1α FTn(b)−FTn(a) = 1α bnan = 1α

Il y a une innité deaetbpossibles. On choisita etbtels que l'intervalle [a,b]soit le plus court possible. Soitb=1 et donca=α1n.

D'où θˆn

ϕ2( ˆθn) =α1n et 1= θˆn

ϕ1( ˆθn)

Chapitre 2 : Vraisemblance et Estimation ponctuelle 46 / 52

(40)

Intervalle de Conance : Exemple

Soitϕ1( ˆθn) = ˆθn et ϕ1( ˆθn) =α1nθˆn Nous avons donc obtenu un intervalle

de conance : h

θˆn;α1nθˆn

i

IC Méthode 2: On peut partir directement deTn, et l'on cherche unaet btel que

P(aTnb) = 1α FTn(b)−FTn(a) = 1α bnan = 1α

On choisit lesaetbtels que [a,b]soit l'intervalle le plus court possible.

Puis on remonte le raisonnement pour arriver à un intervalle de conance (voir exemple sur les espérances/variances normales).

(41)

2.3. Intervalle de Conance Asymptotique

Chapitre 2 : Vraisemblance et Estimation ponctuelle 49 / 52

(42)

Intervalle de Conance Asymptotique

Méthode Modèle régulier.

- On construit l'intervalle asymptotique en utilisant l'estimateur du maximum de vraisemblanceθˆn deθ.

- On sait queθˆn est asymtotiquement normal, i.e. :

n( ˆθnθ)−→loi

n→∞N(0, 1 I1(θ)).

- Autrement dit :

pnI1)( ˆθnθ)loi

n→∞−→N (0,1).

On obtient : P

−uα

2

q

nI1( ˆθn)( ˆθn−θ)uα 2

= 1−α d'oùl'intervalle de conance asymptotique :

θˆn uα 2

q

nI1( ˆθn)

,θˆn+ uα 2

q

nI1( ˆθn)

.

(43)

Intervalle de Conance Asymptotique : Exemple

Remarque On a mentionné l'EMV car il est asymptotiquement normal, donc il converge en loi vers une loi connue (ici la loi normale).

Exemple 3.5 SoitX1, ...,Xn un échantillon de loi uniformeU([0,θ]). L'Estimateur de Maximum de Vraisemblance :θˆn= sup

1≤i≤n

Xi. SoitTn:=n

1θˆn

θ

,Tn est une statistique asymptÙtiquement libre pour θ, en eet ;

FTn(x) = P(Tnx)

= P

θˆnθ(1x n)n

= 1(1x n)n et lim

n→∞FTn(x) =1−e−x. Donc,TnT, oùT suit une loi exponentielle Exp(1).

Chapitre 2 : Vraisemblance et Estimation ponctuelle 51 / 52

(44)

Intervalle de Conance Asymptotique : Exemple

On cherche un intervalle de la forme[ ˆθn;b] tel que pour unα donné on ait P( ˆθnθb) =1α.

P( ˆθnθb) = P 0Tnn 1θˆn b

!!

n→∞ FT n(1θˆn

b )

!

=1α d'oùb= θˆn

11nFT1(1−α) = θˆn

11nlogα On a donc

IC=

"

θˆn; θˆn

11nlogα

#

Références

Documents relatifs

Attention : On peut traduire la propriété 6 en disant qu'on change le sens d'une inégalité en multipliant par un même nombre négatif les deux membres de cette inégalité3.

[r]

On construit cette fois deux demi- disques de diam` etres respectifs [AM ] et [M B] dans le demi plan sup´ erieur d´ efini par la droite (AB).. On s’int´ eresse alors au

On parle de probabilités dépendantes ou conditionnelles lorsque la réalisation d’un évènement dépend de la réalisation d’un

Définition (Identité) On appelle matrice identité de taille (ou d’ordre) n la matrice carrée d’ordre n, notée I n , dont les éléments de la diagonale principale sont tous égaux

Définition (Égalité) Deux matrices A et B sont égales si elles ont les mêmes dimensions et si leurs coefficients sont égaux position par position (a ij = b ij ).. Exemple

● La première matrice de ce type, appelée 1PAM (&#34; Percent Accepted Mutations &#34;) donne la probabilité qu' 1 substitution soit acceptée pour 100 acides aminés.. ●

Théorème de Pitman-Koopman : Si le modèle est homogène (le support ne dépend pas du paramètre) et est tel que pour une taille d’échantillon n assez grand, il existe une