• Aucun résultat trouvé

Cadre général avec ou sans symétrie : la borne inférieure 1−α 1+α pour la probabilité de recouvre-

Probabilité de recouvrement fréquentiste pour une classe

3.1 Cadre général avec ou sans symétrie : la borne inférieure 1−α 1+α pour la probabilité de recouvre-

ment fréquentiste

Les intervalles de crédibilité bayésiens de la forme [l(x), u(x)] où P (l(x) ≤ τ(θ) ≤

u(x)|x) = 1 − α, peuvent être décrits de façon alternative, et équivalente, par l'en-

semble complémentaire [0, l(x)) ∪ (u(x), ∞) et la sélection de probabilités α − α(x) et α(x) respectivement sur ses deux parties disjointes, avec α(x) ∈ [0, α]. Lorsque la densité a posteriori de τ(θ) est absolument continue par rapport à la mesure de Le- besgue sur R+, le choix α(x) conduit à un choix unique de [l(x), u(x)], et vice-versa.

Nous désignerons cette fonction α(·) par fonction de distribution.

Dénition 12. Pour une loi a priori π donné pour θ et une crédibilité 1 − α, la fonction de distribution α(·) : Rp → [0, α] est une fonction telle que, pour tout x,

Pπ(τ(θ) ≥ u(x)|x) = α(x), Pπ(τ(θ) ≤ l(x)|x) = α − α(x), et [l(x), u(x)] est un

intervalle de crédibilité bayésien pour τ(θ).

Voici maintenant un présupposé et une Proposition qui jouent un rôle important dans le développement de cette section.

Hypothèse A. Soit un modèle X|θ ∼ f(x, θ) et une fonction paramétrique τ(θ) : Rp → R telle que τ(θ) ≥ 0. On suppose qu'il existe un pivot linéaire T (X, θ) = a1(X)−τ(θ)

a2(X) (où a2(·) > 0) tel que −T (X, θ)|θ a fonction de répartition G. De plus, on

suppose qu'il existe une loi a priori π telle que :

T (X, θ)|x =dT (X, θ)|θ, ∀θ, x, (3.1)

c'est-à-dire que la distribution du pivot T (X, θ) pour un θ donné, qui est indépen- dante de θ, est la même que la distribution a posteriori T (X, θ) |x pour n'importe quelle valeur de x ∈ X.

Une telle mesure a priori est la mesure de Haar invariante à droite ( voir [3]). Voici une illustration.

Exemple 11. Soient X ∼ fθ(·) où fθ(·) est une famille de position avec T (X, θ) =

X − θ et π(θ) = 1. On a bien que la densité de T (X, θ) = X − θ|θ est donnée

par fθ(x) = f0(x − θ) et aussi la densité a posteriori π(θ|x) =

fθ(x)π(θ) Θfθ(x)π(θ)dθ = f0(x − θ) Θf0(x − θ)dθ = f0(x − θ).

Remarque 3. Selon l'Hypothèse A et du fait que −T (x, θ) = −a1(x)−τ(θ)

a2(x) ∼ G, la

fonction de répartition a posteriori de τ(θ), sous πH(θ) = 1, est :

PπH(τ(θ) ≤ y|x) = G(

y− a1(x) a2(x) ).

Maintenant, sous la troncature π0(θ) = πH(θ)I[0,∞)(τ(θ)), on peut exprimer la dis-

tribution a posteriori de τ(θ) en fonction de πH et G. En eet, on a :

Pπ0(τ(θ) ≥ y|x) = PπH(τ(θ) ≥ y|x) PπH(τ(θ) ≥ 0|x) = 1 − G( y−a1(x) a2(x) ) 1 − G(−a1(x) a2(x)) . (3.2)

Remarque 4. Selon la Dénition12, un intervalle bayésien pour τ(θ), de crédibilité 1 − α associé à la loi a priori π0, peut être généré par une fonction de distribution α(·) : Rp → [0, α], telle que I

π0(·)(X) = [l(X), u(X)] avec Pπ(τ(θ) ≥ u(x)|x) = α(x).

Le Lemme1 nous donne, sous l'Hypothèse A, les bornes l(x) et u(x) pour l'intervalle bayésien Iπ0(·).

Lemme 1. Pour la loi a priori π0(θ) = π(θ)I[0,∞)(τ(θ)) et fonction de distribution α(·), les bornes de Iπ0,α(·)(x) sont données par :

(·)(x) = a1(x) + a2(x)G−1{G(−t(x)) + (α − α(x))(1 − G(−t(x)))}

et

uα(·)(x) = a1(x) + a2(x)G−1{1 − α(x)(1 − G(−t(x)))}, avec t(x) = aa12(x)(x).

Démonstration. Avec la fonction de survie Pπ0(τ(θ) ≥ y|x) =

1−G(y−a1(x)a2(x) ) 1−G(−t(x)) , en (3.2), on obtient, pour β ∈ (0, 1) : 0(τ(θ) ≥ y|x) = β ⇐⇒ 1 − G( y− a1(x) a2(x) ) = β − βG(−t(x)) ⇐⇒ y = a1(x) + a2(x)G−1{1 − β + βG(−t(x))} ,

et le résultat tient avec les choix β = α(x) et β = 1 − (α − α(x)) pour les bornes u(x) et l(x) respectivement.

Exemple 12. L'intervalle de conance bayésien HPD Iπ0,αHP D(·) est généré par le

choix αHP D(x) = arg minα(x)(uπ0,α(·)(x) − lπ0,α(·)(x)), où α(·) ∈ [0, α] minimise la

longueur de l'intervalle de crédibilité bayésien Iπ0,α(·)(x) pour tout x.

en 0 sont données par les bornes lHP D(x) = max  0, a1(x) + a2(x)G−1(1 2 − 1 − α 2 G(t(x))) et uHP D(x) = a1(x) + a2(x)min  G−1(1 − αG(t(x))), G−1(1 2+ 1 − α 2 G(t(x))) .

En faisant la correspondance avec la forme générale du Lemme 1 et par la symétrie

G(t(x)) = 1− G(−t(x)), on obtient pour t(x) ≤ G−1(1+α1 ) : G−1(1 − α(x)(1 − G(−t(x)))) = G−1(1 − α(1 − G(−t(x)))) ⇔ α(x) = α, et 1 − α(x)(1 − G(−t(x))) = 12+ 1 − α 2 G(t(x))⇔ α(x) = α 2 + G(−t(x)) 2(1 − G(−t(x))). Alors, la fonction de distribution correspondante à l'intervalle HPDest égale à :

min  α,α 2 + G(−t(x)) 2(1 − G(−t(x))) , avec α(x) = α ssi t(x) ≤ −G−1( α

1+α)(= G−1(1+α1 ) car g0 est symétrique).

Dénition 13. Soient 1 − α ∈ (0, 1), une loi a priori π0 et une fonction de dis-

tribution α(·). On dénit la sous-classe d'intervalles bayésiens C pour τ(θ) comme suit :

C = 

0,α(·) : α(x) = α pour tout x avec t(x) ≤ −G−1(

α

1 + α) = t0

.

Le prochain théorème nous donne une borne inférieure de la probabilité de recouvre- ment pour la sous-classe C ainsi que la probabilité de recouvrement lorsque θ est sur la frontière de l'espace paramétrique.

Théorème 3. Soit Iπ0,α(·) un intervalle de crédibilité bayésien de la sous-classe C.

Pour la probabilité de recouvrement fréquentiste Cα(·)(θ) = Pθ(Iπ0,α(·)(X)  τ(θ)), on

a, sous l'Hypothèse A, que : (a) C(θ) = 1

1+α pour tout θ tel que τ(θ) = 0 ;

(b) C(θ) > 1−α

1+α pour tout θ tel que τ(θ) ≥ 0 aussitôt que α(x) satisfait, pour tout

x, (1 − α)G(−t(x)) + α2 1+α 1 − G(−t(x)) ≤ α(x) ≤ α (1 + α)(1 − G(−t(x))). (3.3) (c) limτ(θ)→∞Cα(·)(θ) = 1 − α, avec limt(x)→∞α(x) existe et a2(X) = 1.

Démonstration. (a) On observe, quand τ(θ) = 0, que −t(X) = −a1(X)

a2(X) a pour

fonction de répartition G. Alors, pour tout θ tel que τ(θ) = 0, on a : Pθ(Iπ0,α(·)(X)  θ) = Pθ(α(X) = α) = Pθ(t(X) ≤ t0) = 1 −

α

1 + α = 1 1 + α. (b) Pour θ tel que τ(θ) ≥ 0, l'intervalle

I1(X) = [l1(X), u1(X)] =max0, a1(x) + a2(x)G−1(αα+1), a1(x) + a2(x)G−1(α+11 )

a la même probabilité de recouvrement fréquentiste que l'intervalle I∗

1(X) = [a1(x) + a2(x)G−1(αα+1), a1(x) + a2(x)G−1(α+11 )] et cette probabilité est égale à :

Pθ(G−1(αα+1) ≤ τ(θ)−aa2(x)1(x) ≤ G−1(α1+1)) = G(G−1(α+11 )) − G(G−1(αα+1)) = 1−α1+α. On

note, de (3.3) et du Lemme 1, que uα(·)(x) ≥ a1(x) + a2(x)G−1(1 − α

α+1) = u1(x) et

lα(·)(x) ≤ a1(x) + a2(x)G−1(G(−t(x)) + α(1 − G(−t(x))) − (1 − α)G(−t(x)) − α

2

1+α) = a1(x) + a2(x)G−1(αα+1) = l1(x). Alors, la condition (3.3) sur α(·) implique que 0,α(·) ⊇ I1. Puisque l'inclusion est stricte avec une probabilité supérieure à 0 pour

tout θ, le résultat s'ensuit.

(c) Comme T (X, θ) = a1(X)−τ(θ)

a2(X) = a1(X) − τ(θ) est un pivot, on a alors que

t(x) = a1(x) → ∞ et G(−t(X)) converge en probabilité vers 0 quand τ(θ) → ∞, ce

G−1(1 − limt(x)→∞α(x)). On a donc : Pθ(lα(·)(x) ≤ τ(θ) ≤ uα(·)(x)) = Pθ(lα(·)(x) − a1(X) ≤ −T (X, θ) ≤ uα(·)(x) − a1(X)) lim τ(θ)→∞Cα(·)(θ) = τ(θ)→∞lim Pθ(lα(·)(x) − a1(X) ≤ −T (X, θ) ≤ uα(·)(x) − a1(X)) = Pθ(G−1(α − lim t(x)→∞α(x))≤ −T (X, θ) ≤ G −1(1 − lim t(x)→∞α(x))) = G(G−1(1 − lim t(x)→∞α(x))))− G(G −1(α − lim t(x)→∞α(x))) = 1 − lim t(x)→∞α(x)− α + limt(x)→∞α(x) = 1− α.

Maintenant, dans le contexte du Théorème 3, on peut dénir plusieurs fonctions de distributions α(x) correspondantes aux intervalles de crédibilité bayésien de la sous- classe C pour τ(θ).

Dénition 14. (i) L'intervalle bayésien à ailes égales sous G, Iπ0´eg(·)(X) est

donné par la fonction de distribution

α´eg(x) = min  α,α 2 + G(−t(x)) 2(1 − G(−t(x))) .

La terminologie "ailes égales" ne signie pas α(x) = α

2 (ce qui est les ailes

égales sous la densité a posteriori de τ(θ) ), mais elle plutôt se reporte au choix des quantiles d'ailes égales sous G ;

(ii) L'intervalle bayésien Iπ0,αmax(·)(X) est donné par la fonction de distribution

αmax(x) = min  α, α (1 + α)(1 − G(−t(x))) ;

(iii) L'intervalle bayésien Iπ0,αmin(·)(X) est donné par la fonction de distribution

αmin(x) = min  α,(1 − α)G(−t(x)) + α2 1+α 1 − G(−t(x)) ;

(iv) L'intervalle bayésien Iπ0,αopt(·)(X), de longueur minimale parmi tous les inter-

valles bayésiens de la classe C, est donné par la fonction de distribution

αopt(x) = arg min α(x)

(uπ0,α(·)(x) − lπ0,α(·)(x)), avec α(x) ∈ [αmin(x), αmax(x)].

Losrque αHP D(x) ∈ [αmin(x), αmax(x)], cet intervalle coïncide avec l'intervalle

0,HP D.

Les intervalles correspondantes aux choix (i), (ii) et (iii) ci-dessus sont donnés en (3.4), (3.5) et (3.6).

Corollaire 3. Sous l'Hypothèse A, l'intervalle Iπ0,αeg´ (·)(X), de crédibilité 1 − α, a

une probabilité de recouvrement minimale C(θ) supérieure à 1−α

1+α pour tout θ tel que τ (θ)≥ 0.

Démonstration. Il sut que le choix α´eg(·) satisfasse la condition (3.3) pour tout

x tel que t(x) ≥ t0. En eet, on a : α´eg(x)(1 − G(−t(x))) = α 2 + 1 − α 2 G(−t(x)) ≤ α 2 + 1 − α 2 G(−t0) = α 1 + α, et α´eg(x)(1 − G(−t(x))) − (1 − α)G(−t(x)) − α 2 1 + α = α(1− α) 2(1 + α) − 1 − α 2 G(−t(x)) α(12(1 + α) −− α) 1 − α2 G(−t0) = 0.

Remarque 5. De façon analogue, les autres choix à la Dénition 14 satisfont la condition (3.3) et ont 1−α

1+α comme borne inférieure pour la probabilité de recouvrement

Le choix α´eg(·) est simple, attrayant et correspond à la procédure HPD sous la sy-

métrie de la densité du pivot T (X, θ). Le choix αmax(·) maximise la probabilité a

posteriori P (τ(θ) ≥ u(x)|x) et pousse Iπ0(·) vers 0, tandis que le choix αmin(·) mi-

nimise la probabilité a posteriori P (τ(θ) ≤ l(x)|x) et éloigne Iπ0,α(·) de 0. Le choix

αopt(·) donne le plus court intervalle parmi la sous-classe C mais ce choix dépend de

la paramétrisation. Dans les prochains exemples, on va illustrer le fait que la borne

1−α

1+α s'applique à chacun des choix, que l'intervalle Iπ0,αmax(·) a la meilleure probabilité

de recouvrement, que l'intervalle Iπ0´eg(·) a une longueur et une probabilité recouvre-

ment près de celles des intervalles Iπ0,αopt(·) et Iπ0,αHP D(·). Enn, l'intervalle Iπ0,αmin(·)

semble avoir la plus grande longueur parmi la sous-classe C et sa probabilité de re- couvrement semble ne pas excéder 1

1+α.

3.1.1 Exemples

Dans cette section, nous illustrons la théorie de la section précédente par des exemples et diverses applications. L'Hypothèse A est satisfaite pour tous les exemples ci- dessous avec des familles soient de position, d'échelle, ou de position-échelle. Ces derniers nous aideront à appliquer adéquatement le Lemme 1, le Théorème 3 et le Corollaire 3. Pour tous les cas, le calcul numérique est nécessaire an de détermi- ner les intervalles de crédibilité bayésien de la sous-classe C et les probabilités de recouvrement associées aux tels intervalles. Le calcul de Cα(·)(θ) est fait à l'aide de

la formule pour la probabilité de recouvrement du Corollaire 8 à la Section 3.2. Exemple 13. (Famille de position) (a) Soit X ∼ fθ(·) = f0(x − θ) la famille des

distributions où fθ(·) est une famille de position avec T (X, θ) = X − θ, τ(θ) = θ,

bayésiens, de la sous-classe C, Iπ0,α(·)(X), de crédibilité 1 − α, ont une probabilité de

recouvrement minimale C(θ) supérieure à 1−α

1+α pour θ ≥ 0 et à l'aide des transforma-

tions X → X − a et X → X + a, on peut réduire les cas θ ≥ a et θ ≤ a au cas θ ≥ 0. (b) Les résultats en (a) sont applicables pour le cas de plusieurs observations en conditionnant sur une statistique invariante maximale V . En eet, supposons que

X = (X1, . . . , Xn) ∼ f0(x1−θ, . . . , xn−θ), où les Xi ne sont pas nécessairement indé-

pendamment distribuées. La statistique V = (X2−X1, . . . , Xn−X1) est une statistique

invariante maximale. Pour une valeur donnée v de V , on peut trouver un intervalle

0,α(·,v)(X1, v) comme dans le Lemme 1 avec G ≡ Gv qui est la fonction de réparti-

tion du pivot X1−θ sachant V = v, et la fonction de distribution α(x, v) satisfaisant

les conditions du Théorème 3 et du fait que la distribution conjointe de (X1 − θ, V ) est indépendante de θ. On peut appliquer le Théorème 3 à la probabilité de recouvre- ment fréquentiste conditionnelle C(θ, v) = Pθ(Iπ0(·,v)(X1, v)  τ(θ)|V = v) > 1−α1+α

pour tout θ ≥ 0. Puisque c'est vrai pour tout v, alors la probabilité de recouvrement non conditionnelle C(θ) de l'intervalle Bayésien Iπ0(·,·)(X, V ) va dépasser la borne

1−α

1+α pour tout θ ≥ 0. Voir Marchand et Strawderman [3] pour un exemple détaillé.

(c) Soient X = (X1, . . . , Xp) ∼ f0(x1 − θ1, . . . , xp− θp), τ(θ) =

p

i=1aiθi, πH(θ) =

IRp(θ), π0(τ(θ)) = I[0,∞)(θ), T (X, θ) = ( p

i=1aiXi) − τ(θ). Ici, les Xi ont des pa-

ramètres θi qui dièrent, mais c'est la combinaison linéaire

iaiθi qui est bornée

inférieurement telle que pour le cas θ1− θ2 ≥ 0.

Remarque 6. En lien avec la partie (c) ci-dessus, les résultats ne s'appliquent pas en général pour estimer τ(θ) = p

i=1aiθi avec

ibi θi ≥ 0. Par exemple, les résultats

ne s'appliquent pas pour estimer θ1 sous la contrainte θ1− θ2 ≥ 0.

Exemple 14. (Famille d'échelle) (a) Soit X ∼ 1

θf1( x

θ)I[0,∞)(x) avec θ ≥ a > 0,

On peut trouver un intervalle bayésien pour τ(θ) à partir d'un intervalle bayésien de θ. On peut appliquer le Théorème 3 et le Corollaire 3 sur un échantillon X = (X1, . . . , Xn) ∼ θ1nf1(xθ1, . . . ,xθn)

!

iI[0,∞)(xi) en conditionnant sur la statistique in-

variante maximale V = (X1 Xn, . . . , Xn−1 Xn ) comme à l'exemple 13. (b) Soient X = (X1, . . . , Xp) ∼ ( ! i θ1i)f1( x1 θ1, . . . , xp θp), τ(θ) = p i=1ailog(θi), πH(θ) = !

1iI[0,∞)(θi), π0(θ) = πH(θ)I[0,∞)(τ(θ)). Par exemple, si p = 2, a1 = 1 et a2 = −1,

la théorie s'applique pour estimer le rapport θ2

θ1 ≥ 1 des deux paramètres d'échelle.

Exemple 15. (Famille de position-échelle) (a)Soit (X1, X2) ∼ θ122f2( x1−θ1 θ2 , x2 θ2), τ (θ) = θ1 ≥ 0, T (X, θ) = X1−θ1 X2 , πH(θ) = θ12I[0,∞)(θ2)I(−∞,∞)(θ1), π0(θ) = θ12I[0,∞)(θ2)I(0,∞)(θ1).

(b) Soient Xi ∼ind N (μ, σ), i = 1, . . . , n, θ = (μ, σ), τ(θ) = μ + ησ ≥ 0 avec η ≥ 0,

πH(θ) = θ12I[0,∞)(θ2)I(−∞,∞)(θ1), π0(μ, σ) = σ1I[0,∞)(σ)I(0,∞)(μ + ησ), la densité du

pivot T (X, θ) = X¯−μ−ησ

S , avec S2 =



i(Xi− ¯X)2

n−1 , est la loi Student décentrée avec n−1

degrés de liberté (voir [1]). Le Théorème3s'applique pour estimer les quantiles μ+ησ et nous avons une classe d'intervalles bayésiens avec probabilité de recouvrement su- périeure à 1−α

1+α.

(c) De la partie (a) ou (b) avec η = 0, on déduit une classe d'intervalles bayésiens pour estimer la moyenne μ sous la contrainte μ ≥ 0 avec probabilité de recouvrement supérieure à 1−α

1+α. Ce résultat dans ce cadre spécique fut démontré par Zhang et

Woodroofe [6].

Exemple 16. (a) Considérons X ∼ Gamma(r, θ) avec r connu et la contrainte

θ ≥ 1. On note que la variable aléatoire Xθ est un pivot d'une loi Gamma(r, 1) tel

que décrit à l'Exemple 14. Considérons le pivot linéaire T (X, θ) = log(X

r) − log(θ)

(a1(x) = log(Xr), a2(x) = 1 et τ(θ) = log(θ)). On a que les fonctions de densité et

de répartition de −T (X, θ) sont respectivement données par (voir aussi Bosa[7] et Lmoudden[8]) :

(a) g(t) = rr

Γ(r)e−r(t+e

−t)

;

(b) G(t) = 1−F (re−t), avec F (·) étant la fonction de répartition d'une loi Gamma(r,1) ;

(c) t0 = −G−1(1+αα ) ≈ 0.613 (avec α = 0.05 et r = 5).

La loi a priori utilisée est π0(θ) = 1θI(0,∞)(log(θ)). L'intervalle HPD de crédibilité

1−α = 0.95 est un choixplausible mais il n'y a pas de résultat théorique pour la borne inférieure 1−α

1+α. Mais on peut avoir d'autres intervalles bayésiens de la classe étudiée

ci-dessus ayant des probabilité de recouvrement supérieure à 1−α

1+α. En appliquant le

Lemme 1 avec les choix α´eg, αmax et αmin (Dénition 14), on obtient les diérents

intervalles bayésiens suivants avec t(x) = log(x r) : 0´eg(·)(x) = ⎧ ⎨ ⎩ ´eg(x)(x) = t(x) + G−1( α 2 + 1−α2 G(−t(x))) uαeg´ (x)(x) = t(x) + G−1(1 −α 2 1−α2 G(−t(x))), (3.4) 0,αmax(·)(x) = ⎧ ⎨ ⎩ lαmax(x)(x) = t(x) + G−1( α2 1+α + (1 − α)G(−t(x))) uαmax(x)(x) = t(x) + G−1(1+α1 ), (3.5) 0,αmin(·)(x) = ⎧ ⎨ ⎩ lαmin(x)(x) = t(x) + G−1( α 1+α) uαmin(x)(x) = t(x) + G−1(1 − α2 1+α − (1 − α)G(−t(x))). (3.6) Cas r = 1

Si on prend r = 1, on obtient le modèle Exp(θ) avec θ ≥ 1. Alors le pivot X

θ ∼ Exp(1)

et P (X

θ ≥ t) = e−t. Donc le pivot linéaire T (X, θ) = log(X) − log(θ) et la fonction

de répartition et de répartition inverse du −T (X, θ) sont données par : (i) G(t) = P (−log(X θ) ≤ t) = P ( X θ ≥ e−t) = e−e −t ; (ii) G−1(t) = −log(−log(t)).

L'intervalle à ailes égales sous G est donné par : 0,αeg´ (·)(x) = ⎧ ⎨ ⎩ lαeg´ (x)(x) = log(x) − log(−log( α 2 + 1−α2 e−x)) uαeg´ (x)(x) = log(x) − log(−log(1 − α 2 1−α2 e−x)), (3.7)

Figure 3.1  Les fonctions de distribution α(·) pour le modèle Gamma(5,θ), θ ≥ 1, et 1-α=0.95.

Cas r = 5

La Figure 3.1 présente les diérents choix cités ci-dessus pour le cas où r = 5. On note que le choix αHP D(·) n'est pas dans la sous-classe C. Alors,ce choix ne

satisfait pas la condition (3.3) du Théorème 3 mais on va voir à la Figure 3.3 que la probabilité de recouvrement correspondante à ce choix excède la borne minimale 1−α

Les choix αHP D(·) et αopt(·) n'ont pas de forme close. On peut les trouver par le calcul

numérique. On note que ces deux choix coïncident sauf pour x ∈ (0.613, 0.715).

Figure 3.2  Intervalles bayésiens pour le modèle Gamma(5,θ), θ ≥ 1, 1-α=0.95. La Figure3.2 (A) présente les diérents intervalles bayésiens du paramètre θ en fonc- tion de l'observation x avec les choix α´eg(x), αmax(x) et αmin(x) cités ci-dessus pour

le cas où r = 5. Il est à noter que ces intervalles Iπ0,α(·)(x) = [elπ0,α(·)(x), euπ0,α(·)(x)]

ont été construits à l'aide des intervalles bayésiens de log(θ) donnés par (3.4), (3.5) et (3.6) cités ci-dessus pour le cas où r = 5. Par exemple, pour x = 11 on a Iπ0,αeg´ (·)(11) ≈ [1.12, 6.32], Iπ0,αmax(·)(11) ≈ [1.01, 5.66] et Iπ0,αmin(·)(11) ≈

[1.19, 7.54]. La Figure 3.2 (B) illustre le rapport des longueurs des intervalles bayé- siens Iπ0,αHP D(·)(x) et Iπ0´eg(·)(x). On note que l'intervalle Iπ0,αeg´ (·)(x) a une longueur

semblable à celles des intervalles IHP D et Iopt. Enn, les fonctions lα(·)(x) et uα(·)(x)

paraissent croissantes en t(x), x ∈ R. Ceci sera en eet démontré au Lemme 7ainsi que pour les pivots avec des densités log-concaves.

Figure 3.3  Les probabilités de recouvrement associées aux intervalles bayésiens pour le modèle Gamma(5,θ), θ ≥ 1 et 1-α=0.95.

La Figure3.3 présente les probabilités de recouvrement associées auxchoixα(·) cités ci-dessus. À la Figure 3.3 (A), on note que la probabilité de recouvrement associée au choix αmax(·) est la meilleure parmi les autres choixet Cαmax(·)(θ) ≥ 1 − α = 0.95

pour tout τ(θ) ≥ 0, tandis que la probabilité de recouvrement associée au choix αmin(·)

est le moins bon choixparmi les autres choixet Cαmin(·)(θ) ≤ 1+α1 pour tout τ(θ) ≥ 0.

αopt(·) se rapprochent sauf quand τ(θ) = 0. En eet, on a CαHP D(·)(0) ≈ 0.975 et

Cαopt(·)(0) = 1+α1 ≈ 0.952. Enn, la probabilité de recouvrement de Iα´eg se rapproche

aussi de celle pour IαHP D et Iαopt. De plus, il semble que le minimum de Cα´eg borné

par 1 −3α

2 , ainsi que pour CHP D et Copt, ce qu'on va établir à la Section 3.2 pour ce

cas et plus généralement pour le cas où la densité du pivot T (X, θ) est log-concave. (b) Avec une analyse semblable, comme le cas Gamme cité ci-dessus, on obtient des résultats similaires pour un modèle Weibull avec densité f(x) = r

θ( x θ)

r−1e−(xθ)r avec r

connu et la contrainte θ ≥ 1.

Exemple 17. Soit X ∼ F isher(r, s) de paramètre d'échelle θ et de densité 1

θf1( x θ),

où f1 est la densité de F isher(r, s). On suppose que r et s sont connus et on

s'intéresse à estimer θ sous la contrainte θ ≥ 1 dont la loi a priori utilisée est

π0(θ) = 1θI(0,∞)(log(θ)). Cette situation paraît de façon naturelle pour des problèmes

en analyse de variance à eets aléatoires (voir Zhang et Woodroofe [5]). En suivant la même démarche de l'Exemple 16, on prend le pivot linéaire T (X, θ) = log(X) −

log(θ)(a1(X) = log(X), a2(X) = 1 et τ(θ) = log(θ)) dont les fonctions de densité

et de répartition de −T (X, θ) sont respectivement données par g(t) = e−tf

1(e−t), G(t) = 1− F1(e−t), avec F1(·) étant la fonction de répartition d'une loi Fisher(r,s)

et t0 = −G−1(1+αα ) ≈ 1.199 (avec α = 0.05, r = 4 et s = 12). Zhang et Woodroofe

[5] ont étudié l'intervalle HPD pour θ, pour la même loi a priori et pour le même modèle. Pour plus de détails, voir Bosa [11].

La Figure 3.4 présente les diérents choix α(·) de la Dénition 14 avec le choix

αHP D(·). Comme dans le cas d'une loi Gamma, on note que le choix αHP D(·) n'est

pas dans la sous-classe C mais que sa probabilité de recouvrement excède néanmoins

1−α

1+α (voir Figure 3.6).

Figure 3.4  Les fonctions de distribution α(·) pour le modèle Fisher(4,12), θ ≥ 1, et 1-α=0.95.

s = 12 et 1 − α = 0.95 associés aux choix α´eg(·), αmax(·) et αmin(·) et La Figure

3.5 (B) illustre les intervalles bayésiens associés aux choix α´eg(·), αHP D(·) et αopt(·).

Comme pour le cas Gamma étudié ci-dessus, on note que les intervalles IHP D, Iopt

et I´eg se rapprochent.

Maintenant, la Figure 3.6 (A) illustre la probabilité de recouvrement de Iα´eg, Iαmax

et Iαmin, tandis que La Figure 3.6 (B) illustre la probabilité de recouvrement de

´eg, IαHP D et Iαopt. Comme pour l'Exemple 16, on note que les probabilités de re-

couvrements de IαHP D et Iαopt se rapprochent sauf quand τ(θ) = 0 ( en eet, on a

CαHP D(·)(0) ≈ 0.973 et Cαopt(·)(0) = 1+α1 ≈ 0.952). La probabilité de recouvrement de

Figure 3.5  Intervalles bayésiens pour le modèle Fisher(4,12)et 1-α=0.95. est la meilleure parmi les autres intervalles, tandis que la probabilité de recouvrement de Iαmin est nettement moins élevée.

Exemple 18. Pour X ∼ N(θ, 1), θ ≥ 0, 1 − α = 0.90, on a t0 = −Φ−1(1+αα ) =

Φ( 1

1+α) ≈ 1.335. Alors, en appliquant le Lemme 1 avec les choix α´eg, αmax et αmin,

on obtient les diérents intervalles bayésiens suivants :

0´eg(·)(x) = ⎧ ⎨ ⎩ ´eg(x)(x) = x + Φ−1( α 2 +1−α2 Φ(−x)) uα´eg(x)(x) = x + Φ−1(1 −α 2 1−α2 Φ(−x)), 0,αmax(·)(x) = ⎧ ⎨ ⎩ lαmax(x)(x) = x + Φ−1( α2 1+α + (1 − α)Φ(−x)) uαmax(x)(x) = x + Φ−1(1+α1 ),

Figure 3.6  Les probabilités de recouvrement associées aux intervalles bayésiens pour le modèle Fisher(4,12), θ ≥ 1 et 1-α=0.95. 0,αmin(·)(x) = ⎧ ⎨ ⎩ lαmin(x)(x) = x + Φ−1( α 1+α) uαmin(x)(x) = x + Φ−1(1 − α2 1+α − (1 − α)Φ(−x)).

Ici le pivot X − θ ∼ N(0, 1) a une densité symétrique et les résultats des sections 2.1 et 3.1 s'appliquent.

La Figure 3.7 présente diérents choix α(·) pour α = 0.10. Avec la symétrie de la densité du pivot T (X, θ),on note que les choix α´eg(x) et αopt(x) coïncident ici. La

Figure 3.7  Les fonctions de distributions α(·) pour le modèle N(θ, 1), θ ≥ 0, et 1-α=0.90.

ci-dessus. On note que les longueurs des intervalle Iαmax et Iαmin sont égales. Au

prochain lemme, on va voir que ce résultat est vrai pour toutes les densités symé- triques.

Lemme 2. Sous l'Hypothèse A avec G

symétrique, on a que les intervalles bayésiens de la sous-classe C associés aux choix αmax(x) et αmin(x) ont des longueurs égales.

Figure 3.8  Intervalles bayésiens pour le modèle N(θ, 1), θ ≥ 0, et 1-α=0.90. et α·(x) sont respectivement données par :

0,αmax(·)(x) = ⎧ ⎨ ⎩ lαmax(x)(x) = t(x) + G−1( α2 1+α + (1 − α)G(−t(x))) uαmax(x)(x) = t(x) + G−1(1+α1 ), et 0,αmin(·)(x) = ⎧ ⎨ ⎩ lαmin(x)(x) = t(x) + G−1( α 1+α) uαmin(x)(x) = t(x) + G−1(1 − α 2 1+α − (1 − α)G(−t(x))). Par la symétrie de G

on obtient : uαmax(x)(x) − lαmax(x)(x) = G−1( 1 1 + α) − G−1( α2 1 + α+ (1 − α)G(−t(x))) = −G−1( α 1 + α) + G−1(1 − ( α2 1 + α+ (1 − α)G(−t(x)))) = uαmin(x)(x) − lαmin(x)(x).

Figure 3.9  Les probabilités de recouvrement associées aux intervalles bayésiens pour le modèle N(θ, 1), θ ≥ 0 et 1-α=0.90.

La Figure3.9 présente les probabilités de recouvrement associées aux choix α(·) cités ci-dessus. Alors que les intervalles bayésiens associés aux choix αmax(·) et αmin(·)

ont des longueurs égales, leurs probabilités de recouvrement sont complètement dif- férentes. En eet, Cαmax(θ) ≥ 1 − α pour tout τ(θ) ≥ 0 mais Cαmin(θ) ≤ 1+α1 pour

tout θ ≥ 0. On remarque aussi que Cα´eg(·)(θ) > 1 −3α2 = 0.85 pour tout θ ≥ 0.

Exemple 19. (a) Soit X ∼ P areto(1, γ), où la densité de X est γ

+1I[1,∞)(x) avec

la contrainte γ ∈ [1, γ0]. On sait que γ0 log(X) ∼ Exp(θ) avec θ = γ0

γ ≥ 1. Donc,

on peut trouver un intervalle bayésien pour γ à partir d'un intervalle bayésien de

θ. En eet, de l'Exemple 16, l'intervalle bayésiens à ailes égales de θ est [l1(x) = exp(lα´eg(x)(x)), u1(x) = exp(uα´eg(x)(x))] avec lαeg´ (x)(·) et uα´eg(x)(·) sont donnés par

(3.7). Alors, l'intervalle bayésien à ailes égales de γ est I

π0,αeg´ (·)(x) = " γ0 u1(x), γ0 l1(x) # qui a la même probabilité de recouvrement de θ car on a

PIπ 0´eg(·)(x)  γ  = P $" γ0 u1(x), γ0 l1(x) #  γ % = P  [l1(x), u1(x)]  γ0 γ  = P ([l1(x), u1(x)]  θ) .

(b) Pour Xi ∼ind P areto(1, γ), i = 1, . . . , n avec γ ∈ [1, γ0], on procède de façon

pareille avec la statistique exhaustive γ0 ilog(Xi) de loi Gamma(n, θ) avec θ =

γ0 γ ≥ 1.

Exemple 20. Soient Xi ∼ind U (0, θ), i = 1, . . . , n. On s'intéresse à estimer le

paramètre d'échelle θ lorsque θ ≥ 1. La statistique Y = log(maxXi) est exhaustive

de loi Exp(θ

,n1) (densité ne−n(y−θ)I,∞)(y)) avec θ = log(θ). Donc, le Théorème

3, le Lemme1et le Corollaire 3sont applicables et on obtient une classe d'intervalles bayésiens pour θ avec une probabilité de recouvrement excède la borne 1−α

1+α. Voir aussi

3.2 Cadre général avec ou sans symétrie : la borne

Documents relatifs