• Aucun résultat trouvé

Échantillonnage d’importance avec rééchantillonnage

Présentons maintenant la méthode de rééchantillonnage multinomial appliquée à la suite de la technique d’échantillonnage d’importance normalisé vue en section 1.3.2. Cette application successive constitue la procédure SIR (Sampling Importance Resampling). L’objectif de cette procédure est d’obtenir des points tirés approximativement (en un sens que nous préciserons) suivant π, et de répondre ainsi au premier point soulevé en début de section 1.3.

1.4.1 Mécanisme

En plus des propriétés rappelées en section 1.3.2, remarquons que le jeu de points pondérés produit par le mécanisme NIS fournit implicitement une approximation aléatoire discrète de la densité π : b πNIS,N(x) = N X i=1 wiδ˜xi(x). (1.38)

Ainsi, tirer un échantillon x suivant bπNIS,N revient à tirer un indice l suivant la loi discrète Pr(l|{˜xi}N

i=1) = wl, puis à poser x = ˜xl parmi la collection {˜xi}Ni=1. Nous pouvons réécrire

b

ΘNIS,N(q) = E

b

πNIS,N[ϕ(x)], ∀ϕ. (1.39)

On s’attend donc à ce que pour N élevé, (ré)échantillonner selonbπNIS,Nproduise des échantillons tirés approximativement suivant π : c’est le principe du mécanisme SIR de Rubin [86, §2], [31], [93], [16, §9.2].

Plus exactement, ce mécanisme revient à tirer comme explicité en section 1.3.2 N échan- tillons ˜xi i.i.d. suivant q, puis à tirer MN (cette notation dénote le fait que MN peut éventuel- lement dépendre du nombre N de tirages échantillonnés) échantillons xi i.i.d suivant πbNIS,N en (1.38), ce qui correspond à un rééchantillonnage multinomial. Cette opération de rééchan- tillonnage multinomial est usuellement effectuée en pratique par la méthode de la fonction de répartition inverse. L’algorithme1explicite cette procédure de rééchantillonnage précédée d’une étape d’IS normalisé, ce qui constitue le mécanisme SIR.

1.4. Échantillonnage d’importance avec rééchantillonnage 31

Algorithme 1 L’algorithme SIR Entrées : La densité d’importance q ;

Sorties : Les tirages rééchantillonnés {xi}MNi=1; IS normalisé

pour 1 ≤ i ≤ N faire

Tirage des échantillons intermédiaires : ˜xi∼ q(x) ; Pondération des échantillons intermédiaires : wiπ(˜q(˜xxii)),

PN

i=1wi= 1 ;

fin pour

Rééchantillonnage pour 1 ≤ i ≤ MN faire

Obtention des échantillons finaux : li∼ Pr(l|{˜xj}N

j=1) = wl, puis poser xi= ˜xl i

. fin pour

1.4.2 Propriétés des particules rééchantillonnées

1.4.2.1 Analyse asymptotique

Considérons x une variable produite par l’algorithme1SIR à partir de la collection pondérée {wi, ˜xi}N

i=1. Montrons alors que x converge en loi vers π lorsque N → ∞ [93] [86]. Pour toute

fonction bornée ϕ, on a E[ϕ(x)|{˜xi}Ni=1] = N P i=1 πu(˜xi) q(˜xi)ϕ(˜xi) N P j=1 πu(˜xj) q(˜xj) = bΘNIS,N; (1.40)

Comme ϕ est supposée bornée on peut alors prendre l’espérance de E[ϕ(x)|{˜xi}N

i=1] pour en

déduire E[ϕ(x)] −→

N →∞Θ par un théorème de convergence dominée :

lim N →∞E[E[ϕ(x)|{˜x i}N i=1]] = E  lim N →∞E[ϕ(x)|{˜x i}N i=1]  (1.40) = E  lim N →∞Θb NIS,N  (1.28) = E[Θ] = Θ, (1.41) ce qui confirme bien que la loi marginale d’un tirage rééchantillonné xi tend vers π lorsque N → ∞. La technique de Rubin peut donc être considérée comme un mécanisme d’échan- tillonnage à deux étapes qui transforme des échantillons tirés suivant q en des échantillons approximativement tirés suivant π, d’un point de vue asymptotique.

Par le même argument on peut également confirmer l’indépendance asymptotique de deux tirages quelconques x1 et x2 produits par le mécanisme SIR à partir du support commun

{wi, ˜xi}N

i=1, en montrant pour deux fonctions bornées ϕ et ψ que E[ϕ(x1)ψ(x2)] −→

32 Chapitre 1. Introduction aux méthodes de Monte Carlo

=R ϕ(x)π(x)dx R ψ(x)π(x)dx. En effet, on a à nouveau [16, §9.2.1]

E[ϕ(x1)ψ(x2)] = E[E[ϕ(x1)ψ(x2)|{˜xi}Ni=1]]

= E[E[ϕ(x1)|{˜xi}Ni=1]E[ψ(x2)|{˜xi}Ni=1]] −→

N →∞E[Θ(ϕ)Θ(ψ)] = Θ(ϕ)Θ(ψ).

(1.42)

Une autre manière d’étudier les propriétés du rééchantillonnage est par l’intermédiaire de l’estimateur de Θ basé sur la collection non-pondérée de points {(MN1 , xi)}MNi=1 :

b ΘSIR,MN = 1 MN MN X i=1 ϕ(xi), (1.43)

pour lequel on dispose du TCL suivant [16, §9] [19] :

Théorème 4 (TCL pour l’estimateur SIR). Soit N → ∞, soit MN une suite non- décroissante telle que MN → ∞, et soit lim

N →∞ N MN

= α ≥ 0 (éventuellement ∞). Alors sous de faibles hypothèses si α < 1 alorsN ( bΘSIR,MN − Θ)→ NL  0, αvarπ(ϕ(x)) + Eq  π2(x) q2(x)(ϕ(x) − Θ) 2  ; (1.44) si α ≥ 1 alors pMN( bΘSIR,MN − Θ) L → N  0, varπ(ϕ(x)) + α−1Eq  π2(x) q2(x)(ϕ(x) − Θ) 2  . (1.45)

Remarque 2. Les résultats (1.44) et (1.45) peuvent se condenser en une unique équation considérant l’une ou l’autre des vitesses de convergence, √N :

si α ≥ 0 et α 6= ∞ alorsN ( bΘSIR,MN − Θ)→ NL  0, αvarπ(ϕ(x)) + Eq π 2(x) q2(x)(ϕ(x) − Θ) 2  , (1.46) ou √MN : si α > 0 alors pMN( bΘSIR,MN − Θ) L → N  0, varπ(ϕ(x)) + α−1Eq  π2(x) q2(x)(ϕ(x) − Θ) 2  . (1.47)

Cependant, la séparation de ces deux vitesses de convergence selon que α est supérieur ou inférieur à 1 dans le théorème 4 peut mener à l’interprétation intuitive suivante : asymptoti- quement parlant, c’est le nombre d’opérations de tirage le plus petit en termes du coefficient α - soit de tirages intermédiaires issus de la technique NIS, soit de rééchantillonnages - qui impose le comportement de l’estimateur bΘSIR,MN final et donc sa qualité en termes de vitesse

1.4. Échantillonnage d’importance avec rééchantillonnage 33

(non-asymptotique) plus faible que celle de l’estimateur bΘNIS,N utilisant N échantillons.

En effet, plus précisément, quel que soit α ≥ 0 le terme de variance asymptotique de bΘSIR,MN

correspond à MN1 varπ(ϕ(x)) +N1Eq

h

π2(x)

q2(x)(ϕ(x) − Θ)2

i

avec deux vitesses de convergence en jeu. • Lorsque N  MN (donc α → ∞) c’est le terme en varπ(ϕ(x)) qui est limitant alors que le terme propre à l’estimateur bΘNIS,N est effectivement négligeable, c’est-à-dire que l’estimateur bΘSIR,MN exhibe asymptotiquement le même comportement qu’un estimateur

Monte Carlo brut déduit directement de MN échantillons tirés suivant la loi cible π. Ce-

pendant, même si varπ(ϕ(x)) < Eq

h

π2(x)

q2(x)(ϕ(x) − Θ)2

i

(c’est-à-dire si la loi q est « mal » choisie), cela n’implique pas que l’estimateur bΘSIR,MN soit plus performant que l’estima-

teur bΘNIS,N. En effet celui-ci présente une vitesse de convergence beaucoup plus grande

puisque N  MN.

• D’autre part si N  MN (donc α → 0) le terme Eqhπq22(x)(x)(ϕ(x) − Θ)2

i

est limitant et le comportement de bΘSIR,MN ne fait donc que se rapprocher de celui de bΘNIS,N.

1.4.2.2 Analyse non-asymptotique

Plus généralement, non-asymptotiquement et lorsque l’on conditionne par les tirages inter- médiaires {˜xi}N

i=1, la formule de décomposition de variance appliquée à bΘSIR,MN donne direc-

tement [16, Section 7.1.2] :

var( bΘSIR,MN) = var(E[ bΘSIR,MN|{˜xi}N

i=1]) + E[var( bΘSIR,MN|{˜xi}Ni=1)]

= var( bΘNIS,N) + E[( bΘSIR,MN − bΘNIS,N)2] (1.48)

ce qui assure la supériorité de l’estimateur bΘNIS,N sur l’estimateur bΘSIR,MN en termes de va-

riance.

Remarque 3. Par ailleurs, à partir de (1.40) on a immédiatement

E[ bΘSIR,MN] = E[ bΘNIS,N], (1.49)

ce qui implique que les biais de ces deux estimateurs sont égaux. On a donc également une décomposition de l’erreur quadratique moyenne de bΘSIR,MN :

E[( bΘSIR,MN − Θ)2] = E[( bΘNIS,N − Θ)2] + E[( bΘSIR,MN − bΘNIS,N)2]. (1.50)

Néanmoins, malgré cette détérioration locale de la variance, la procédure de rééchantillon- nage prendra tout son intérêt lors de l’adaptation séquentielle de l’échantillonnage d’importance, à laquelle nous nous intéressons en section2.2, en raison du phénomène de dégénérescence des

34 Chapitre 1. Introduction aux méthodes de Monte Carlo

poids rencontré par ce mécanisme IS lorsqu’il devient séquentiel.

1.4.3 Procédés alternatifs de rééchantillonnage

Plusieurs techniques alternatives au rééchantillonnage multinomial ont été proposées et ana- lysées [20] [59] [33] ; leur but est de réduire ou contrôler le terme de variance additionnel que l’estimateur bΘSIR,MN introduit en (1.48) par rapport à l’estimateur bΘNIS,N, tout en conser-

vant le même biais. On rencontre principalement les procédures de rééchantillonnage stratifié, systématique et résiduel :

• le rééchantillonnage stratifié est quasiment équivalent au rééchantillonnage multinomial, la différence étant que les tirages uniformes ui ∼ U ([0, 1]) sont cette fois tirés comme ui ∼ U ([i−1

N , i

N]), pour tout i ∈ {1 . . . N } ;

• le rééchantillonnage systématique suit la même idée mais à partir d’un unique tirage u ∼ U ([0,N1]) en posant alors ui = i−1

N + u ;

• le rééchantillonnage résiduel consiste à calculer la partie entière Ii

N de N ×wiet à transfor-

mer la particule intermédiaire correspondante ˜xi en une particule rééchantillonnée donc pondérée uniformément. Ensuite, cette particule rééchantillonnée est dupliquée INi fois pour tout i ∈ {1 . . . N }. Ceci produit une collection dePN

i=1INi ≤ N particules finales, et

si cette inégalité est stricte, alors afin d’obtenir N particules finales au total un rééchan- tillonnage multinomial (ou stratifié) est effectué pour sélectionner N −PN

i=1INi particules

finales à partir de la collection {˜xi}N

i=1avec des poids modifiés { ¯wi ∝ wiIi

N N}Ni=1.

Des améliorations de ces mêmes techniques sont proposées en [59] mais dépassent le cadre de cette thèse.

Afin de compléter ce chapitre d’introduction aux méthodes de Monte Carlo, nous allons maintenant présenter brièvement le principe des méthodes de Monte Carlo par Chaînes de Markov.