R EVUE DE STATISTIQUE APPLIQUÉE
C. D ECOUX
Estimation de modèles de semi-chaînes de Markov cachées par échantillonnage de Gibbs
Revue de statistique appliquée, tome 45, n
o2 (1997), p. 71-88
<http://www.numdam.org/item?id=RSA_1997__45_2_71_0>
© Société française de statistique, 1997, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une in- fraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
ESTIMATION DE MODÈLES DE SEMI-CHAÎNES
DE MARKOV CACHÉES
PAR ÉCHANTILLONNAGE DE GIBBS
C. Decoux
Université de Rouen, UFR des Sciences,
Dépt.
de Math., URA CNRS 1378.E-mail :
Claire.Decoux@univ-rouen.fr
RÉSUMÉ
Robert et al. (1993) ont
proposé
une méthoded’approximation
des estimateurs deBayes
dans le cas de modèles de Markov cachés. Nous étendons ce travail au cas des modèles de semi-chaînes de Markov cachées, nous
présentons
lesapproximations bayésiennes
obtenuespar
échantillonnage
de Gibbs dans le cas demélanges
de lois normales et nous évaluons lesperformances
de ces estimations. Nous illustrons notre méthode sur des données de sommeil des nourrissons.Classification AMS (1991) : 60J10, 62F15, 62M05.
Mots-clés :
Dépendance
markovienne, données manquantes,échantillonnage
de Gibbs, théorèmeergodique.
ABSTRACT
Robert and al. (1993)
proposed
a method whichapproximates Bayes
estimators in hidden Markov chains models. We extend this method to the case of hidden semi-Markov chains. Wegive Bayesian approximations
obtained via Gibbssampling
for mixtures of Gaussian distributions. We evaluate theperformances
of these estimations and illustrate our method with newbomsleep
records.Keywords :
Markoviandependency, missing
data, Gibbssampling, ergodic
theorem.1. Introduction
L’intérêt des modèles de Markov cachés
(HMM,
Hidden MarkovModels)
estd’étendre la modélisation par
mélange
i.i.d. à desphénomènes
dedépendance.
Onpeut également prolonger
les modèles HMM aux semi-chaînes de Markov cachéescomme dans Guedon et Cocozza-Thivent
(1990)
pour la reconnaissance de laparole
ou comme dans Celeux et Clairambault
(1992)
pour la modélisation du sommeil desnourrissons,
afin d’affiner lareprésentation
de cesphénomènes
en autorisant desplages
decomportement
nonhomogènes.
Rappelons
que pour un modèle demélange usuel,
les observations sontindépendantes
et de densité :où les densités
!(.Iç) appartiennent
à une familleparamétrée donnée, généralement exponentielle.
L’extension des modèles de Markov cachéssupprime l’hypothèse d’indépendance
entre les observations d’un échantillon de(1),
pour laremplacer
par une structure de
dépendance
markovienne. Plusformellement,
on associe àchaque observation y2
de(1)
un indicateur de donnéemanquante z2 qui représente
lacomposante
àpartir
delaquelle
l’observation yi estgénérée,
soit yi|zi
= k ~f(y|03BEk) pour k ~{1,..., r}.
Dans le cas desHMM, l’hypothèse
faite surles zi
est que la suite(zn)
est une chaîne deMarkov, prenant
ses valeurs dans{1,..., r},
de matricede transition
Q = (qlm),
où qlm =P(zi
=m|zi-1
=l),
et que, conditionnellementaux zi, les yi sont
indépendants
deloi f ).
La suite des z2, en décrivant la suite des allocations de chacune des observations
aux différentes
composantes
dumodèle,
met àjour
despaquets
pourlesquels
lesallocations sont
identiques.
Plusprécisément,
des observations consécutivespeuvent
être allouées à une mêmecomposante pendant
untemps
donné. Il semble alors asseznaturel et réaliste de penser que ces
temps puissent
êtregérés
defaçon
aléatoire.Le modèle de semi-chaîne de Markov cachée étend le modèle de chaîne de Markov cachée en introduisant des
temps
deséjour
aléatoires danschaque
état. Cestemps
deséjour
Tp =Tp - Tp-1
sontrégis
par une loigéométrique
deparamètre
À. Le modèlecomplété
est alors formé des(Tp), (ZTp), (Yt),
où(ZTp)
est une chaîne de Markov de matrice de transition P =(pij)
avec pii = 0pour tout
i,
donc dediagonale
nulle au contraire des modèles de Markov cachés. On remarque aussi que si lestemps
deséjour
suivent une loi dePoisson,
on retombe dans le cas markovien.Le
problème
inférentiel est d’estimer lesparamètres 03BEj
des lois desobservations,
lesparamètres
pij de la matrice de transition de la chaîne de Markov ainsi que leparamètre 03BB
de la loi destemps
deséjours
entre deux sauts consécutifs. On notera03B8 = {03BEk,k=1,...,r;P;03BB}.
L’approche bayésienne
de ceproblème
consiste à calculer les moyennes aposteriori
desparamètres.
Ce calcul conduit à uneintégrale
nonexplicite
et entraînealors des
problèmes d’implémentation.
On a alors recours à des méthodes de simulation paréchantillonnage
de Gibbs. Cetteméthode,
basée sur des chaînes deMarkov,
met àprofit
l’existence d’une loi stationnaire pour traiter deproblèmes
desimulation
complexes (Gelfand
etSmith, 1990).
Elle propose lagénération
d’unechaîne de Markov
(03B8(m), z(m))
de distribution stationnaire la loi d’intérêt 7r, fondantl’approximation
desquantités
d’intérêt sur un théorèmeergodique (voir Tiemey 1991, 1994).
Comme dans le cas desmélanges, plusieurs paramétrisations
de(1)
sont
possibles
et conduisent à desperformances
différentes del’échantillonnage
deGibbs. On considère dans cet article un modèle de
mélange
de r lois normalesN(03BEk,03C3k), puis
unereparamétrisation
de ce modèleinspirée
parMengersen
etRobert
(1995).
Dans les deux cas, nous exhibons des estimateursbayésiens
par lestechniques d’échantillonnage
de Gibbs. Dans une dernièrepartie,
nous illustronsles
performances
de nostechniques.
Unpremier exemple
est uneimplémentation
sur un
jeu
de donnéessimulées, qui permet
de valider nos résultats. La deuxièmeimplémentation
estopérée
sur deuxjeux
d’observationsqui
décrivent les intervalles entre battementscardiaques
d’un nourrisson et la variabilité à hautefréquence
extraitede ce même
signal. L’objectif
est de reconnaître les différents stades du sommeil dunourrisson,
etplus
exactement les stades de sommeil calme entre deuxpériodes
desommeil
agité.
Ces données ont été traitées par Celeux et Clairambault(1992)
enutilisant un modèle de Markov caché et un
algorithme
EM à la Gibbs(une
versionstochastique
deEM).
2. Estimation
bayésienne
2.1.
Écriture
standardOn considère un
mélange
issu de r lois normalesN(03BEk, 03C3k2), k = 1,...,
r.Pour une semi-chaîne de Markov à r
composantes,
on noteKn
=max{p; Tp n}
lenombre
(non observé)
de sauts effectués par la chaîne(latente)
des affectations(Zt),
n étant le nombre d’observations. La vraisemblance associée est
où les conditions de sommation sur
les ti
sontOn
impose
sansperte
degénéralité
que zto =1,
c’est-à-dire que l’on supposeY0 ~ N(03BE1,03C312).
Notons de
plus
quece
qui implique
Les lois a
priori
retenues sur lesparamètres (03BEk,
03C3k,P, 03BB)
sont unproduit
de lois de Dirichlet
D(03B1k1,...,03B1kr)
sur leslignes
Pk de la matrice P et une loiconjuguée’sur
lesparamètres 03BEk,
03C3k.N’ayant
pas d’information apriori disponible
surle
paramètre À,
on suppose comme loi apriori
sur ceparamètre
une loi bêta Be(03B3, 0), qui
conduit alors à un calcul aisé de la loi aposteriori
conditionnelle. Même avec ceslois
conjuguées (Robert, 1992)
la densité aposteriori
n’est pasexplicite,
cequi
renddélicat le calcul des estimateurs
bayésiens.
2.2.
Implémentation
par GibbsL’échantillonnage
de Gibbs lève cette difficulté(Gelfand
etSmith, 1990;
Soubiran et
al., 1991; Robert, 1992).
Il est fondé sur lagénération
itérative etsuccessive des lois conditionnelles associées à la loi d’intérêt 7r. La
génération
desvariables aléatoires est totalement circulaire : en démarrant avec une valeur initiale
03B8(0)
desparamètres, l’algorithme
est itéré de la manière suivante : Générer àl’étape
m :A
chaque
pas, lagénération
des v.a. est conditionnelle aux autres valeurs simulées. On note quelorsque
lesparamètres 03B8i
sontindépendants
conditionnellementaux autres
paramètres, l’échantillonnage
de Gibbs estéquivalent
àl’algorithme
d’accroissement de données de Tanner et
Wong (1987).
Pour le modèle considéré la densité conditionnelle a
posteriori 03C0(03B8|y, z) = 03C0(03BE, P, 03BB|y,z)
estplus simple,
car elle évite les sommationsimportantes
sur lesvaleurs de
Kn, des ti
et zT. On a en effetPar
conséquent,
pour Pk =(pk,l)l~k, la
distribution conditionnelle de Pk estsoit
où
Pour les
paramètres 03BEk
de loiconjuguée a priori N(03BCk, k),
où
Pour les
paramètres O"k -2
de loiconjuguée
apriori Ga(03B4k, 03BDk),
il vientoù
nk étant le nombre d’affectations à la kième
composante
dumélange. Enfin,
pour leparamètre 03BB
la densité conditionnelle aposteriori
estsoit
Considérons maintenant la
génération
des donnéesmanquantes qui
nous
permettra
d’accéder aux valeurs desKn,
r et des états ZT. Soit la fonction hdéfinie,
pour(k, l)
E{1,..., r}2,
parLes distributions conditionnelles
des z2
parrapport
auxy, 03B8
et auxautres
pour 0
i, j
n, sont données comme dans Robert et al.(1993)
paret
et la
génération des zi
fournit les valeurs deK,,, (T1,...,TKn)
et des états(ZT, 1... 1 ZTK,,,, ) -
Comme dans le cas des
mélanges,
un des défauts de cetteapproche
est deréclamer
l’emploi
de loisconjuguées
propres, donc laspécification d’hyperparamètres
03BCl, Vk, .... L’alternative considérée dans le
paragraphe
2.3 évite enpartie
ceproblème.
2.3. Une
reparamétrisation
On considère une
reparamétrisation
du modèleprécédent :
lemélange
est issude r lois normales
N(03BC, )
etAf (M
+Te2, 03C3i),
avec i =1,...,
r - 1. Cetteparamétrisation
crée un lien apriori
entre lescomposantes
du modèle carchaque composante
contribue à l’estimationde 03BC
et T. La moyenne M etl’écart-type
T dela
première composante
du modèle sontpris
comme lesparamètres
deposition
etd’échelle du
modèle,
tandis que les autrescomposantes représentent
uneperturbation
de
(p, T).
Considérons par
exemple
unmélange
à troiscomposantes.
Onpeut
alorsprendre
pour loi apriori
sur lesparamètres (03BC,
T,01,
al,02, 03C32)
les lois suivantes(voir Mengersen
etRobert, 1995) :
sur(J.l,T)
la loiimpropre 03C0(03BC,) = T-1,
sur()i
une distribution normaleAf (0,,Ei)
oùl’hyperparamètre
Ei est assezgrand.
Ensymétrisant
un apriori
uniforme sur ai, c’est-à-dire que03C3i ~ u
ouoi U,
on
prend 7r (oj) = 1 2(II(03C3i~[0,1]) + 03C3i-2II(03C3i>1)).
Pour le modèleconsidéré,
lesparamètres
à estimer sontDans ce cas :
Comme
précédemment,
on utilise les lois conditionnelles pour mettre en oeuvrel’échantillonnage
de Gibbs. On noteraet
~|a,
l’ensemble desparamètres privé
duparamètre
a.Les lois conditionnelles sont alors les suivantes :
et la distribution de
72 est
obtenue enintégrant
la loijointe
aposteriori
sur les03B8i,
Les lois a
posteriori
conditionnelles sur 03BB et leslignes
Pk sont données par(3)
et
(2).
2.4. Contrôle de convergence
L’échantillonnage
de Gibbsproduit
par construction une chaîne de Markov(03B8(n), z(n))
de loi stationnaire03C0(03B8, z 1 y).
Les densités conditionnelles aposteriori
étant
positives,
la chaîne est 03C0-irréductible etapériodique d’unique
mesure invariante7r
(Tiemey, 1994).
La chaîne(0, z)
est doncergodique.
Ce résultat entraînel’appli-
cation du théorème
ergodique,
c’est-à-dire queE7r[h(O)ly]
=Je h(03B8)03C0(03B8|y)
dOpeut
êtreapproché
par la moyenneSous certaines
conditions,
onpeut
aussiapprocher E03C0[h(03B8)|y]
par la quan- tité suivant uneprocédure appelée
Rao-Blackwellisation(Gelfand
etSmith, 1990).
Cetteprocédure produit
engénéral
des estimateurs deplus petite
variance que les estimateursempiriques (voir Liu, Wong
etKong, 1994).
En
fait,
le modèle de semi-chaîne de Markov cachée n’offre pas de différencesignificative
avec le modèle de Markov caché pour la validationthéorique
del’échantillonnage
de Gibbs. La chaîne(z(m»)
est une chaîne de Markovirréductible, apériodique
et à espace d’étatsfini {1,..., r},
donc uniformémentergodique
etgéométriquement ~-mélangeante.
Bien que(03B8(m))
ne soit pas une chaîne deMarkov,
nous pouvons transférer
quelques propriétés
de(z(m)),
laplus simple
des deuxchaînes,
à laséquence (03B8(m)),
par leprincipe
de dualité(voir
Diebolt etRobert, 1994).
Ainsi la convergence
géométrique
uniforme de la chaîne(03B8(n))
se déduit de la convergencegéométrique
de la chaîne(z(n)).
D’autrepart,
la chaîne(03B8(n))
est aussi~-mélangeante.
Cette dernièrepropriété
estimportante
car ellegarantit
le théorème de la limitecentrale,
etpermet
donc un contrôle de la vitesse de convergence de la moyenne(12)
versE03C0[h(03B8)|y] (Geyer, 1991).
Dans de nombreux cas, la moyenne
empirique
et sa version Rao-Blackwellisée sont similaires dès lespremières
estimations et nepeuvent
alors servir à contrôler la convergence. Yuet Mykland (1994)
ontproposé
une évaluationgraphique
du contrôle de convergence fondée sur lareprésentation graphique
des différencespartielles
suivantes :
Plus la chaîne est fortement
mélangeante, plus
legraphe
des sommes est bruitéet concentré autour de zéro. Les chaînes faiblement
mélangeantes
conduisent aucontraire à des
graphes réguliers
avec delongues
excursions évitant zéro. Trèsempirique,
cette méthode fournit un indicateurqualitatif
demélangeance rapide,
mais
peut
échouerlorsque
desrégions
del’espace
des états sontplus
lentementmélangeantes
que d’autres.Raftery
et Lewis(1992)
ontproposé
une évaluationquantitative
du contrôle de convergence fondée sur une chaîne de Markovz(t)
à deux états déduite de la chaîne desB(t)
parz(t)
=II03B8(t)03B80
où03B80
est une valeur arbitraire choisie. Ensupposant
que la suitez(t)
ait une structuremarkovienne,
ilsproposent
une évaluation du nombre d’itérations nécessairesto
pour atteindre la stationnarité et du nombre total d’itérations Tqui
assure la convergence, en se basant sur lapseudo-matrice
de transition de la chaînez(t),
Ils déterminent ainsi la taille d’ initialisation
to
paret
suggèrent
d’utiliser une taille d’échantillon T au moinségale
àoù les 3
paramètres
é, S et r doivent être choisis en fonction dudegré
deprécision
voulu. Cette méthode est souvent utilisée en
pratique
car sonimplémentation
estaisée.
Cependant,
ellepeut
aussi conduire à un fauxdiagnostic
de convergence. Enparticulier,
si les éléments de la matrice de transition de la chaînez(t)
ne sont paspréalablement
correctementestimés,
la méthodeperd
alors sa validité(voir Robert, 1996).
3. Illustrations 3.1. Simulations
On illustre le
comportement
de la méthode sur 100 observations simulées issues d’unmélange
de 3 lois normalesV(l, 1), N( 2 1)
et.V(6,1),
avec unparamètre
deloi
géométrique
A = 0.2 et une matrice de transitionUn
histogramme
des données simulées estreprésenté
enfigure
3.1 avec savéritable densité
marginale.
Dans un
premier temps,
on effectue 50000 itérations afin d’évaluer la convergence del’algorithme.
Les lois a
priori
sur03BE1, 03BE2
et03BE3
sont des lois normalesN(1, 1 2), N(7 2, 1 2),
etN(6, 1 2)
et leparamètre 03BB
suit une loi bêta deparamètres 03B2
= 0.2et 03B3
= 0.8(les hyperparamètres
étant choisis afin que la moyenne de la loi bêta soitégale
à0.2).
Les résultats des estimations sont rassemblés dans le tableau 3.1. Dans les deux
cas on remarque une bonne
adéquation
des estimateurs.Les états étant connus, on
peut
comparer affectations réelles et modes des affectations simulées. Lafigure
3.2 illustre cettecomparaison
en montrant l’efficacité de la méthodepuisque
seules les63ième
et92ième
observations se trouvent mal affectées. Toutes les observations issues descomposantes
1 et 2 sont correctementaffectées,
et seules 96% des observations de la troisièmecomposante
le sont. Lepoids
de la troisième
composante
est donc sous estimé.FIGURE 3.1
Échantillon
des 100 observations simulées avecla densité
marginale correspondante
TABLEAU 3.1
Moyenne empirique (emp)
et estimateur de Rao-Blackwell(RB)
des
paramètres
du modèle. Les pireprésentent
lesprobabilités
simulées et estimées d’allocation à
chaque
étatUn
premier
contrôle de convergences’opère
par lareprésentation
des moyennes successives des différentsparamètres.
Comme le montre lafigure 3.3,
les différentes courbesprésentent
une fortestabilité, qui indique
que les 50000 itérations ne sont pas toutes nécessaires. On notera lapetitesse
de l’échelle sur ces deuxfigures.
Ainsi la bonne
mélangeance
del’algorithme
sur seulement les 10000premières
itérations est illustrée par la
figure 3.4, puisque
le critère de Yu etMykland (1994) présente
unaspect
suffisammentchaotique.
On
applique
la méthode deRaftery
et Lewis(1992)
pour leparamètre 03BB
avecles
paramètres
deprécision 03B5
=0.01, s
=0.95,
et avec une taille d’échantillon de 50000. Unepremière
évaluation nous donne les valeurs de 7y, p,to
et T suivantes : 77 =0.009,
p = 0.0004 et(to; T)
=(491; 3767).
Une réévaluation desparamètres
Tl et p
après
les T itérations donne sensiblement les mêmes résultats. Ces résultats sont satisfaisants pour le modèlecomplexe
considéré et pour leparamètre
À. SachantFIGURE 3.2
Chaînes des
affectations
réelles et estiméesFIGURE 3.3
Sommes cumulées pour deux estimateurs. Les traits
pleins représentent
les sommes cumulées des estimateurs
empiriques,
les traits enpointillés,
les sommes cumulées des estimateurs de Rao-Blackwell
(50000 itérations)
que le T estimé pour le
paramètre
À est le maximum des T dechaque paramètre,
cesrésultats se révèlent être insuffisants dans le cas du contrôle du
paramètre ç 1.
Reprenant
brièvement l’étude de ces données simulées pour lareparamétrisation
et 50000 itérations de
l’algorithme,
les résultats sont fournis par le tableau 3.2.Contrairement au cas
précédent
où les lois apriori
étaient calées sur les véritablesvaleurs,
lareparamétrisation
ne demande pas d’initialisation apriori.
Bien queplus éloignés
des vraies valeurs ces résultats sont néanmoins très satisfaisants.On voit
également
sur lafigure
3.5 que les affectations sontgénéralement respectées.
Respectivement, 97%,
95% et 93% des observations issues descomposantes 1,
2 et 3 sont correctement affectées(ce qui correspond globalement
à 5 observations malallouées).
Ici encore, lepoids
de la troisièmecomposante
est sous estimé.L’effet du choix de E est sans
grande importance puisque
des simulations avec E = 0.5 ou E = 0.1 donnent sensiblement les mêmes résultats(les graphes
deconvergences sont
identiques
à ceux de lafigure
3.3 et donc omis dans cedocument).
FIGURE 3.4
Contrôle de convergence par la méthode de Yu et
Mykland (1994)
TABLEAU 3.2
Moyenne empirique (emp)
et estimateur de Rao-Blackwell(RB)
des
paramètres
du modèle pour ~ = 1FIGURE 3.5
Chaîne des
affectations
réelles et simuléesOn voit sur la
figure
3.6 que lamélangeance
est en revanche moinsrapide
que pour les lois apriori
informatives.Le contrôle binaire de
Raftery
et Lewis(1992)
donnent des tailles d’échantillonto
et Tplus importantes
que dans le casprécédent. Ainsi,
pour leparamètre À (03B5
=0.01,
s =0.95),
on a :(~,
p,t0, T) = (0.01; 0.009; 401; 5356),
et uneréévaluation des
paramètres
1] et p donne à nouveau sensiblement les mêmes résultats.FIGURE 3.6
Contrôle de convergence par la méthode de Yu et
Mykland (1994)
Dans un
premier temps,
nous avions considéré unmélange
moinsimbriqué,
c’est-à-dire un
mélange
à 3composantes
nettementséparées (les
modes des distri- butionssous-jacentes
aumélange
se détachant distinctement del’histogramme
desdonnées).
La méthoded’échantillonnage
n’avait évidemment aucun mal à reconnaître lescomposantes.
Les résultats des estimations étaient alors meilleurs dans le cas infor-matif,
et similaires dans le cas de lareparamétrisation.
La méthode reste efficace dansun cas de
composantes plus imbriquées,
commepeuvent
entémoigner
les résultatsprésentés.
Sommeil des nourrissons
On propose une modélisation par semi-chaînes de Markov cachées sur des
signaux d’origine biologique.
La variabilité durythme cardiaque
est un indicateurde l’état du
système
nerveux autonome,qui
est utilisé encardiologie (surveillance
des
sujets
àrisque
de mort subiteaprès
un infarctus dumyocarde
parexemple).
Lesystème
nerveux autonome est subdivisé en deuxbranches,
une branchesympathique,
cardioaccélératrice c’est-à-dire
responsable
des fluctuations de bassefréquence
durythme cardiaque,
et une brancheparasympathique,
cardiomodératrice c’est-à-dire àl’origine
de la variabilité de hautefréquence.
En sommeilcalme,
l’état dusystème
nerveux autonome est à
prédominance parasympathique,
et il est àprédominance sympathique
en sommeilagité.
Les données que l’on considère sont constituées de deux séries d’observations issues d’un mêmesujet (Celeux
etClairambault, 1992).
La
première
série(MSN1) représente
les intervalles entre les battementscardiaques
du
nourrisson,
la seconde série(MSN2)
est la variabilité à hautefréquence
dusignal précédent.
Lafigure
3.7 est lareprésentation
des deux séries brutes normalisées.Ces tracés
présentent
unepériode
de sommeil calme encadrée par deuxpériodes
desommeil
agité.
On cherche à reconnaître les deux stades du sommeil.Pour deux états
cachés,
la matrice de transition est entièrement connuepuisque
FIGURE 3.7
Représentation
des séries ethistogrammes
durythme cardiaque
MSNI(en haut),
et de la variabilité à haute
fréquence
MSN2(en bas)
Ne
disposant
pas d’information apriori
sur les diversparamètres
dumodèle,
la seuleapproche possible
est l’estimationaprès reparamétrisation.
Les résultats desestimations,
pour 10000 itérations et avec ~ =1,
sont rassemblés dans les tableaux 3.3 et 3.4.TABLEAU 3.3
Moyenne empirique (emp)
et estimateur de Rao-Blackwell(RB)
pour MSNILes
histogrammes
des données MSNI et MSN2 sontreprésentés
enfigure
3.8avec leur densité estimée. Ces
graphiques supposent
une bonneadéquation
du modéleà l’ensemble des données
considéré,
ainsi que des estimations satisfaisantes desparamètres.
TABLEAU 3.4
Moyenne empirique (emp)
et estimateur de Rao-Blackwell(RB)
pour MSN2FIGURE 3.8
Échantillons
MSNI et MSN2 avec leur densitémarginale correspondante
FIGURE 3.9
Contrôle de convergence par la méthode de Yu et
Mykland (1994)
pour MSNI Les indicateurs de Yu etMykland (1994)
sont iciplus négatifs qu’en §
3.1(voir figure 3.9).
La
figure
3.10 décrit les affectations lesplus fréquentes
pour les deuxjeux
de données. On
peut
noter des différences à la marge et une relative cohérencesur les
plages
centrales. Par contre, la différence est notable en cequi
concerne lesproportions
d’allocation àchaque état,
p = 0.28(MSN1)
contre p = 0.43(MSN2)
pour la
première composante,
etindique qu’une analyse jointe
des deux flux serait souhaitable. Si l’on se réfère aux résultats de G. Celeux et J. Clairambault(1992),
lafigure
3.10 montre une forte similitude à leur tentative d’identification parl’algorithme
EM à la Gibbs d’une variable cachée contrôlant le
rythme cardiaque
dans les cas MSN 1et MSN2.
FIGURE 3.10
Chaîne des
affectations
simulées pour MSNI et MSN2Le contrôle binaire de
Raftery
et Lewis(1992)
nous donne dans ce cas, pour leparamètre 03BB
et pour les mêmes valeursprécédentes
de c et s :(yy,
p,t0, T)MSN1 = (0.04; 0.001; 3907; 24457),
et(~,
p,to, T)MSN2
=(0.01; 0.004; 431; 2779).
Dans ce dernier
exemple, malgré
une relative faiblesse de la vitesse de convergence del’algorithme (car
étant dans un cas noninformatif),
les résultats satisfaisants des estimations desparamètres
et des variablescachées, permettant
ainsi de reconnaître les deux stades du sommeil chez lenourrisson, appuient
l’utilisation de cette méthoded’approximation
dans les cas de semi-chaînes de Markov cachées.Remerciements : Ce travail a pu être effectué
grâce
au financement d’une bourse MRE. Je remercie sincèrement Christian Robert de m’avoirsuggéré
l’idée dece
travail,
sadisponibilité
et ses nombreux conseils ont été deprécieux
atouts. Lesnombreuses discussions menées avec Anne
Philippe
ont aussilargement
contribué à la rédaction de cet article.Références
Cocozza-Thivent
C.,
Guedon Y.(1990). Explicit
state occupancymodelling by
hiddensemi-Markov models :
application
of Derin’s scheme.Computer Speech
andLanguage 4,
167-192.Celeux
G.,
Clairambault J.(1992).
Estimation des chaînes de Markov cachées : méthodes etproblèmes.
Journéesthématiques
du CNRS(22-23
sept1992), Approches
Markoviennes ensignal
etimages.
Diebolt
J.,
Robert C.P.(1994).
Estimation of finite distributionsthrough Bayesian sampling.
J.Royal
Statist. Soc.(Ser. B) 56,
363-375.Gelfand
A.,
Smith A.F.M.(1990). Sampling
basedapproaches
tocalculating marginal
densities. J. Amer. Statist. Assoc.
85,
398-409.Geyer
C.J.(1992).
Practical Monte-Carlo Markov chains. Stat. Science7,
473-511.Liu
J.S., Wong W.H., Kong
A.(1994).
Covariance structure of the Gibbssampler
withapplications
to thecomparison
of estimators andsampling
schemes. Biometrika81, 1,
24-40.Mengersen K.L.,
Robert C.P.(1995). Reparametrisation
issues in mixturemodelling
and their
bearings
on the Gibbssampler. Rapport technique
CREST9538, Insee,
ParisRaftery A.E.,
Lewis S.M.(1992).
How many iterations in the Gibbssampler?
Bayesian
Statistics4,
763-773.Robert C.P.
(1992). L’Analyse Statistique Bayésienne. Economica,
Paris.Robert
C.P.,
CeleuxG.,
Diebolt J.(1993). Bayesian
estimation of hidden Markov chains : a stochasticimplementation.
Statistics andProbability
Letters16,
77-83.
Robert C.P.
(1996).
Méthodes de Simulation enStatistique. Economica,
Paris(à paraître).
Soubiran
C.,
CeleuxG.,
DieboltJ.,
Robert C.P.(1991). Analyse
demélanges gaussiens
pour de
petits
échantillons :Application
à lacinématique
stellaire. Rev. Stat.Appl.
XXXIX3, 17-36.
Tanner
M., Wong W. (1987).
The calculationof posterior
distributions. J. Amer. Statist.Assoc.
82,
528-550.Tierney
L.(1991).
Markov chains forexploring posterior
distributions.Computer
Sciences : Proc. 23d
Symp. Interface,
563-570.Tierney
L.(1994).
Markov chains forexploring posterior
distributions. Ann.of Stat.
22, 4, 1701-1762.
Yu