HAL Id: hal-00831300
https://hal.inria.fr/hal-00831300
Submitted on 6 Jun 2013
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of
sci-entific research documents, whether they are
pub-lished or not. The documents may come from
teaching and research institutions in France or
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
Cadre bayésien markovien pour l’estimation de la HRF
et la détection des activations en IRM fonctionnel
Alexandre Janon
To cite this version:
Alexandre Janon. Cadre bayésien markovien pour l’estimation de la HRF et la détection des
activa-tions en IRM fonctionnel. Traitement du signal et de l’image [eess.SP]. 2009. �hal-00831300�
la HRF et la déte tion des a tivations en IRM
fon tionnel.
Rapportdu stage de Master re her he 2ème année Mathématiques appliquéesee tué à l'INRIARhne-Alpesetau G.I.N. (Grenoble Institut
1 Introdu tion 3
1.1 Résumé . . . 3
1.2 Présentation des équipesd'a ueil . . . 3
1.3 Présentation de l'imageriepar résonan e magnétique . . . 4
1.4 Problèmes posés par letraitement des données IRMf . . . 6
1.4.1 Quantité de données àtraiter . . . 6
1.4.2 Bruit . . . 6
1.4.3 Faiblesse de l'eet BOLD . . . 7
1.4.4 Filtragedu signal . . . 7
2 Analyse des signaux en IRMf 9 2.1 Modélisationdu signal (GLM) . . . 9
2.2 Contrastes entre onditions. . . 10
2.3 Appro he standard par tests . . . 10
2.4 Lissage spatial . . . 11
2.5 Appro he bayésienne . . . 12
2.5.1 Champs de Markov . . . 13
2.5.2 Inféren e . . . 14
2.6 Modélisationet estimation de la HRF . . . 16
3 Première appro he : modèle Gamma-Gamma-Gaussien et ICM 19 3.1 Modélisationbayésienne . . . 19
3.2 Estimationdes paramètres . . . 22
3.3 Inféren e ICM . . . 23 3.3.1 Algorithmed'inféren e . . . 23 3.3.2 Mise àjour de
h
. . . 23 3.3.3 Mise àjour dea
. . . 25 3.3.4 Mise àjour dez
. . . 27 3.3.5 Initialisation. . . 27 3.3.6 Algorithmenal . . . 29 3.4 Simulationde données . . . 29 3.5 Evaluation de l'appro he . . . 30 3.5.1 Evaluation de l'estimation/déte tion . . . 30 3.5.2 Evaluation de l'estimation de la HRF . . . 36variationnel 47
4.1 Loia posteriori des
z
. . . 474.2 Loia posteriori des
a
. . . 504.3 Comparaisonde onditions . . . 51
4.3.1 Contraste . . . 51
4.3.2 Divergen e KL . . . 51
4.4 Estimationde
h
. . . 514.5 Estimationde
β
1
. . . 535 Troisième appro he : modèle auto-gaussien 53 6 Con lusion et perspe tives 54 6.1 Con lusion . . . 54
6.2 Extensions possibles . . . 54
6.2.1 Meilleure prise en ompte du bruit . . . 54
6.2.2 Estimationde laHRF par zones . . . 54
A Première implémentation 57 A.1 Des ription . . . 57
A.2 Format de hier de design . . . 58
A.2.1 Paramètres . . . 58
A.2.2 Conditions . . . 59
A.2.3 Exemples de hier de design . . . 59
1.1 Résumé
Dans e mémoire,nous présentons d'abord brièvement l'imageriepar
ré-sonan emagnétiquefon tionnelle,etnousdégageonslesdi ultésposéespar letraitementstatistiqueautomatisédesimagesobtenuespar ettete hnique.
Puis nous présentons quelques unes des méthodes existantes, se basant sur
un modèle xe de la HRF, pour un tel traitement. La ontribution de e mémoire onsiste en la proposition d'une méthode bayésienne pour estimer
la HRF et prendre en ompte la orrélation spatiale des a tivations via un
modèle markovien. Après la des ription de ette méthode, nous l'évaluons sur des données simuléesetréelles,etnous terminonsen présentant desaxes
possiblesd'extension.
1.2 Présentation des équipes d'a ueil
Cestage dere her he s'estdérouléauseinde deux équipesde re her he :
l'équipe MISTIS, dépendant de l'INRIA Rhne-Alpes, dont l'obje tif
est de développer des méthodes statistiquesadaptées à l'étudede phé-nomènes, de modèles et de données omplexes, ave pour orientations
appli ativesprivilégiéesle traitement d'imageset de données spatiales
dans les domaines biomédi aux et industriels; l'appro he de l'équipe est basée sur l'introdu tion de la notionde stru ture dans lesmodèles
et dans les données; les thèmes de re her he sont les suivants : les
modèles de mélange, les modèles markoviens, et les méthodes semi et non-paramétriques.
l'équipe 5 (Neuro-imagerie Fon tionnelleet Métabolique) de l'Institut
des Neuros ien es de Grenoble, qui s'intéresse aux appli ations bio-médi ales in vivo de la résonan e magnétique nu léaire (RMN). Les
travaux, ee tués tant sur l'homme que sur petit animal (rat, souris),
visent audéveloppement,àl'évaluationetàl'exploitationdu potentiel en neuros ien es liniques, biologiques et ognitives de l'ensemble des
méthodes de neuroimageriepar RMN. Les travaux ont été développés
autourde troisthèmesdere her he:lami ro-vas ularisation érébrale, le métabolisme érébral et l'IRM fon tionnelle (IRMf) des a tivations
tique
L'IRM (imagerie par résonan e magnétique) est une te hnique non
in-vasive permettant d'obtenir une image en trois dimensions d'une partie du
orps. Elleest basée sur lamesurede laréponse de lazone étudiéeà l'appli- ation d'un hamp magnétique de forteintensité (a tuellement entre 2 et 4
T),ladistin tionentredeuxmilieuxdiérentsétantfondéesurleursréponses
diérentes.
Cette te hnique peut être utilisée pour produire une vue 3D du erveau
oùsontdistinguésmatièregrise,matièreblan heetliquide éphalo-ra hidien,
ave unerésolutiondel'ordredumillimètre;onparlealorsd'IRManatomique érébrale. Voiren Figure1 pour un exemple d'image obtenue.
Une autre appli ation de l'IRM, plus ré ente, est la mesure de l'a tivité
du erveau au ours du temps. Elle se base sur la diéren e de réponse magnétique entre une molé uled'hémoglobineoxygénée etune désoxygénée.
Lorsqu'unneuroneesta tivé,l'auxsanguinautourde eneuroneaugmente,
e qui se traduit par l'augmentation de la on entration en hémoglobine oxygénée et don par une modi ation du signal IRM observé. Ce prin ipe
se nomme eet BOLD (pour blood-oxygen-level-dependent)et est à la base
de l'IRM fon tionnelle (en abrégé IRMf). En IRMf, les a quisitions sont répétées au ours du temps; la durée entre deux a quisitions étant le temps
de répétition (TR), de l'ordre de deux à trois se ondes; voir Figure 2. An
d'avoirunrapportsignal-sur-bruitsusant,unerésolutionspatialedel'ordre de 3millimètresest utilisée.
La on eptiond'uneexpérien ed'IRMf onsisteàdénirdiérentes
ondi-tions qui sont répétées su essivement. Ces onditions sont la réalisationde diérentestâ hes motri esou ognitives(bougerlesdoigtsde lamaindroite,
omparaison d'objets...) ouen oreune ondition nulle(de ontrle).Par
exemple, lorsd'uneexpérien e sur lavisiondes ouleurs, onpeutalternerla présentation d'une image en niveaux de gris ( ondition A), la présentation
d'une image en ouleurs ( ondition B) ou une ondition C de repos
( ondi-tionnulle).Chaque onditionpeutêtreprésentéeplusieursfoisau oursd'une session, etdurantun tempsplus ou moinslong; par exemple la ondition A
peut être présentée pendant 5 se ondes, puis la B pendant 3 se ondes, la C
pendant 10 se ondes, ensuite la B pendant 7 se ondes, et . La des ription des intervallesdetempsdurantlesquels haque onditionesta tive onstitue
le design de l'expérien e.
L'analyse fon tionnelle des données issues de l'expérien e onsiste alors en la déterminationdes zones du erveau a tivées lorsde ha une des
ondi-Fig. 2: Les données IRMf sont en quatre dimensions : la zone étudiée est
dé oupée en petits ubes (d'environ 3 millimètres de té) appelés voxels; en haque voxel on dispose d'un dé ours temporel (à droite) représentant
ouleurs, on peut vouloir déterminer les zones impliquées dans la vision en général ( onditions A et B ontre ondition C) ou les zones a tives dans la
vision des ouleurs ( ondition A ontre B).
Ces expérien es permettent d'améliorerla ompréhension du fon tionne-mentdu erveau; ellesont égalementdes appli ations liniques,tellesquela
délimitation des aires visuelles ou motri es pour préparer une intervention
hirurgi ale.
1.4 Problèmesposés parletraitement desdonnées IRMf
1.4.1 Quantité de données à traiter
De part leur nature quadri-dimensionnelle, les données re ueillies lors
d'une expérien e d'IRMf sont relativement volumineuses. A titre d'exemple
réaliste, onsidéronsune sessionde 360 se ondes omportantune a quisition toutes les3 se ondes, etune zone d'a quisition étantun pavé de dimensions
20 m, 20 m et 10 m, ainsi qu'une résolution spatiale de 3 millimètres;si
l'on suppose que lesmesures sontsto kées sous formede oat (2 o tets),les données àtraiter, pour un seul sujet, ont une taillede
360
× 200 × 200 × 100
3
× 3 × 3 × 3
× 2 ≈ 34
Mo.Cettetailleestàmultiplierparlenombredesujets,uneétude ognitiveétant
rarement menée sur un seul sujet.
L'importan e du volume des données impose l'utilisation de te hniques spé iques pour ee tuer letraitementdes données.
1.4.2 Bruit
Le signal re ueilli en IRM est bruité de manière importante, les sour es
de bruit in luant:
lebruitgénéréparlama hine(bruitthermique,manqued'homogénéité de l'aimantproduisantle hamp magnétique...);
le bruit physiologique,dû auxartefa ts ardio-respiratoires;
lebruit ognitif,dûauxsour esde distra tiondupatientdurant l'expérien e (stimuliindésirables,endormissement du patient...);
A signaler également, même s'ils ne sont pas à lasser dans les bruits ,
lesartefa tsgénérés parlespré-traitementsappliquéssur lesdonnéesbrutes, tels que:sli e orre tion ( orre tiondu faitquelesdiérentes oupesnesont
L'auxsanguinproduitunevariationdusignalIRMmesurémais elle- i
est relativement faible (de l'ordre de 1 à 2%) par rapport ausignal mesuré
aurepos(sansauxsanguin).End'autrestermeslaprésen edemolé ules d'oxyhémoglobine dûe à une a tivation spé ique ontribue peu au signal
observé.
1.4.4 Filtrage du signal
Lors de l'a tivation d'un neurone,le débitsanguinne passepas
brusque-ment du niveau zéro au niveau maximal, mais augmente progressivement; un délai d'environ 5 à 6 se ondes est né essaire pour qu'il atteigne le
ni-veau maximal. De même, lors d'une désa tivation, le débit met un temps
importantà redes endre auniveau de repos.
Dans un voxel a tivé par une ondition donnée, lesignal BOLD attendu
est don la onvolutiondelafon tionindi atri edela onditionave unltre
appeléfon tion de réponse hémodynamique (HRF).
La fon tion de réponse hémodynamique n'est pas onnue; de plus elle
varie selon les individus, et suivant la zone du erveau, au sein d'un même
individu. Cependant elle reste toujours, pour un sujet adulte et en bonne santé, relativementpro he de laHRF anoniqueprésentée enFigure3.Pour
des sujets très jeunes oupathologiques (par exemple les patients ayant subi
un a ident vas ulaire érébral, ou eux sourantd'épilepsie), lafon tion de réponse hémodynamique peut être assez éloignée de ette HRF anonique.
Pour plus de généralités sur les signaux IRMf, on pourra se reporter à
0
0.2
0.4
0.6
0.8
1
0
10
20
30
40
50
60
(a)Fon tion indi atri ed'une onditionexpérimentale.
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0
5
10
15
20
25
30
(b)Fon tionderéponsehémodynamique.
( )SignalBOLDattendudansunezonea tivéepar ette ondi-tion.
2.1 Modélisation du signal (GLM)
Le signal IRM mesuré est modélisé par une olle tion de ve teurs
y
i
=
(y
i1
, . . . , y
iT
)
,i = 1, . . . , J
(oùJ
est le nombre de voxels omposant l'imagetraitée et
T
la durée de l'expérien e), vériant l'équation suivante, appeléeGLM pour GeneralLinear Model :
∀i = 1, . . . , J y
i
=
M
X
m=1
a
im
(x
m
⋆ h) + n
i
1
+ ǫ
i
(1) où :l'indi e
m
désigne une des onditions expérimentales, etM
désigne le nombre de es onditions;le réel
a
im
est leniveau de réponse du voxeli
àla onditionm
;leve teur
x
m
est leve teurbinaireindi ateur des instantsoùla ondi-tionm
est a tivée (onsets) :x
m,t
= 1
si 'est le as à l'instantt
, etx
m,t
= 0
sinon;leve teur
h
est un é hantillonagede lafon tionde réponse hémodyna-mique, de sortequela onvolutionx
m
⋆ h
ontiennelaréponse atten-dueillustréeenFigure3;ilestànoterquelapérioded'é hantillonage deh
peut être inférieure au temps de répétition TR, an d'améliorer le alagedes onsets qui ne sont pas for émentdes multiplesdu TR;le ve teur
1
est leve teur de dimensionT
ne ontenantque des 1,n
i
1
représente don la omposante ontinue du signal, qui n'est dûeà au une des onditions prévues dans l'expérien e; ertains modèles
in luent de la même manière des omposantes basses fréquen es (drifts) dûes aux mouvements lents du patient, aux artefa ts
ardio-vas ulaires, àla respiration, ainsi qu'aux dérivesde l'appareil
d'a qui-sition ( f. [14℄, hapitre 2,4.3).
le ve teur
ǫ
i
est leve teur des résidus; le modèle le plus simple (bruit blan gaussien) suppose(ǫ
i
)
i=1,...,J
indépendants, suivant une loinor-male
N (0, σ
2
I
T
)
(oùI
T
désigne la matri e identitéT
× T
); ette hy-pothèse, peu réaliste, est souvent rempla ée par elle d'une olle tion(ǫ
i
)
i=1,...,T
de séries hronologiques indépendantes suivant ha une un modèle AR(1)gaussien ( f [26℄).L'équation 1peut s'interpréter omme une régression linéairemultiple :
où
y
i
estlavariableexpliquéeetlamatri eX
,supposéedepleinrang(M +1
), la matri edes variablesexpli atives :X =
(x
1
⋆ h)
| (x
2
⋆ h)
| . . . | 1
et
ea
i
est le ve teur ontenant les paramètresea
i
=
a
i1
a
i2
. . .a
im
n
i
Lorsque
X
est onnue, es paramètres peuvent être estimés par la méthode des moindres arrés :b
ea
i
= (X
T
X)
−1
X
T
y
i
b
σ
2
=
P
i
y
i
− X b
ea
i
2
T
− (M + 1) − 1
2.2 Contrastes entre onditions
La déterminationdes zones a tivées par une ondition expérimentale en
omparaison d'une autre sefait en al ulant pour haque voxel l'eet
b
γ
i
= c
T
a
b
i
où
a
i
= (a
i1
, . . . , a
im
)
T
et
c
est le ve teur des ontrastes, qui indique les onditions expérimentales que l'on veut omparer. Par exemple si l'onsou-haite omparerleszonesa tivéesparla ondition1parrapportàla ondition 3, on prendra
c = (1, 0,
−1)
;pour omparer la ondition 1 ave lamoyenne des onditions 2et 3,on hoisirac = (
−1, 0.5, 0.5)
.2.3 Appro he standard par tests
Une fois l'eet
γ
b
i
al ulé (phase d'estimation), il reste à déterminer si elui- ieststatistiquementsigni atifounon(phasede déte tion).Pour elaon utilise un test statistique, visant à omparer l'hypothèse nullele voxel
t
-statistique:t
j
=
b
γ
i
bσ
p
c
T
(X
T
X)
−1
c
qui,sous l'hypothèsenulle, suituneloide Student à
M + 1
degrésde libertés ( f. [6℄, hapitre7).Les statistiques
t
j
étant al ulées pour haque voxel, on obtient une SPM (statisti al parameter map) qui donne le niveau de signi ativité du ontraste mesuré dans haque voxel.Il fautalors hoisir une valeur seuilen dessousde laquelle un voxel est onsidéré omme non signi atif.
Le hoix de ette valeur seuil est rendu di ile par le fait que des tests multiples sont ee tués. En eet supposons que nous utilisions sur haque
voxel un test possédant un risque de première espè e (faux-positif)
α
; si nous ee tuons e testn
fois le nombre moyen de faux-positifs déte tés serade
nα
. Par exemple supposonsα = 0.05
etn = 10
4
(nombre réaliste de
voxels dansune image),ily aura en moyenne 50faux-positifsdéte tés. Pour
résoudre eproblème,une orre tionpossibleestla orre tiondeBonferroni, qui né essite d'utiliser un test ave un risque de première espè e
α/n
pour obtenirunniveaude risqueglobalmajoréparα
, ettebornepouvantêtre atteintedans le as oùlestests sont indépendants.Cette orre tion est trop onservative dans le as qui nous intéresse ar les tests sont loin d'êtreindépendants : lesa tivations ontlieu dans des zones ontigües de plusieurs
voxels, et lerésultat d'un test sur un voxel est très orréléave les résultats destestssurlesvoxelsvoisins.Pourtenir omptede ettedépendan e,ondoit
abandonnerlestestsvoxelparvoxelet onsidérerlaSPMdanssonensemble,
en la modélisant omme un hamp gaussien (gaussian random eld, GRF); f. [6℄, hapitre14.
Pour plus de généralités sur l'appro he GLM, on pourra se reporter à
l'ouvrage [13℄.
2.4 Lissage spatial
Préalablement à l'estimation des paramètres dans l'équation 1, on
ap-pliquegénéralementunlissagede l'image,and'augmenterlerapport signal-sur-bruit (SNR), auprix d'une détériorationde la résolution spatiale.
Uneméthode de lissage lassique est la onvolutionave une gaussienne;
ependant ils existe d'autres lissages dits adaptatifs, qui tiennent mieux ompte des ontours de l'image, tels que l'algorithme PS
Parrapportàl'appro he lassiqueévoquée i-dessus, uneappro he
bayé-sienne présente lesavantages suivants:
une gestion élégante des in ertitudes : en parti ulier une analyse bayésienne donne une distribution a posteriori qui possède une
inter-prétation intuitive (à omparer ave l'interprétation plus déli ate des
niveaux de risques dans lestests et des intervalles de onan e en sta-tistique lassique);
un adrethéoriquebienadaptépourintégrerdes onnaissan es apriori
(par exemple anato-fon tionnelles) on ernant le signalà traiter, amé-liorantla pré isiondes résultats fournis;
des méthodes de hoixde modèles (Bayes fa tor).
Pourplus d'informationssur l'apportdesméthodesbayésiennes en IRMf,on pourra onsulter [24℄.
Dans une appro he bayésienne, on onsidère les paramètres
Θ = (θ
i
)
i
omme des variables aléatoires, dont onspé ie la loip(Θ)
, qui modélise la onnaissan esur lesparamètresquel'onaavantd'observerlesdonnées, d'oùson nom de loi apriori. On spé ie également une vraisemblan e
p((y
k
)
k
|Θ)
qui modélise le omportementdes données une fois les paramètres onnus.L'inféren e bayésienne onsiste à al uler (ou, tout au moins, onnaître
ertaines ara téristiques, ommele(s)mode(s),lamoyenne,lavarian e,...)
la distribution a posteriori
p(Θ
|(y
k
)
k
)
, qui dé rit la onnaissan e que l'on a sur lesparamètresune foisque l'onaobservélesdonnées. Cettedistributionest donnée par larègle de Bayes:
p(Θ
|(y
k
)
k
) =
p((y
k
)
k
|Θ)p(Θ)
p((y
k
)
k
)
=
R
p((y
k
)
k
|Θ)p(Θ)
p((y
k
)
k
|(θ
i
)
i
)d((θ
i
)
i
)
(2)Un modèle purement bayésien onsidère tous les paramètres omme des
va-riables aléatoireset leur donne une loia priori, mais un modèle peut tout à
fait ontinuer à traiter ertains paramètres omme de vrais paramètres, sans leur donnerde loisa priori. Ces derniers paramètres sont alors estimés
de manière lassique, par exemple par maximum de vraisemblan e.
Un in onvénient des méthodes bayésiennes est que l'intégrale gurant dans (2)est souventin al ulableanalytiquement,etun al ulnumérique
ap-pro hé est souventinfaisable, omptetenude ladimensionde etteintégrale
(quiest égale auxnombrede paramètres). Laloia posteriori est dans e as onnue à une onstante multipli ative près, et il faut alors avoir re ours à
Lesignalmesuré en IRMfest très orréléspatialement,puisque leszones
a tivées s'étendent sur plusieurs voxels. Tenir ompte de ette dépendan e
spatialepermetd'améliorer onsidérablementladéte tion etl'estimationdes a tivations. Dans ette partie, nous dé rivons une manière de tenir ompte
de ladépendan e spatiale entre les voxels.
Champs de Markov et lois de Gibbs. Soit
V
un ensemble (ni) depoints appelés sites. On se donne un graphe
G
non orienté, sans bou le, dont lessommets sont leséléments deV
.Pour un sitev
∈ V
,on noteN (v)
l'ensembledes voisins dev
, 'est àdirel'ensembledes sitesreliés àv
par une arête deG
. CommeG
n'apas de bou le,un sommetne peut être sonpropre voisin.Une olle tion
(Z
v
)
v∈V
de variables aléatoires est un hamp de Markov surG
sila loi onditionnelledeZ
v
sa hantZ
v
′
pourv
′
6= v
est égale à la loi
onditionnelle de
Z
v
sa hantZ
v
′
pourv
′
∈ N (v)
. Le graphe
G
donne donl'informationsur lesintera tions possibles entre lesvariables
(Z
v
)
.Uneloi de Gibbs sur
G
est une loidontla densitése fa torisesuivantles liques deG
,i.e. une loidont ladensitép
est de la forme:p(z
1
, . . . , z
|V |
)
∝
Y
C∈C(G)
V
C
(z
v
; v
∈ C)
(3)oùonanoté
C(G)
l'ensembledes liques deG
, une lique étantun ensemble maximal de sites deux à deux voisins. Lesfon tionsV
C
sontappelées poten-tiels de Gibbs.Ilest fa ilede vérier quesi
(Z
v
)
v
suit uneloide GibbssurG
,alors 'est un hamp de Markov surG
. Laré iproqueest égalementvraie, si ladensité de laloide(Z
v
)
v
est stri tementpositive(théorèmede Hammersley-Cliord, f. [3℄, [1℄).Modèle de Potts Un exemple important de loi de Gibbs est donné par
le modèle de Potts dans lequel toutes les liques sont d'ordre2 etoù haque
variablepeut prendre un nombre ni de valeurs appelées lasses et oùpour haque lique
C =
{v, v
′
}
, supposée d'ordreau plus égal à 2, lepotentiel de
Gibbs est donnépar
V
C
(z
v
, z
v
′
) = exp(
−2βδ(z
v
, z
v
′
))
(4) soit en orep((z
v
)
v
)
∝ exp
−β
X
v
X
v
′
∈N (v)
δ(z
v
, z
v
′
)
(5)où
δ
désigne le omplémentaire du symbole de Krone ker :δ(x, y) = 0
six = y
etδ(x, y) = 1
sinon, etβ > 0
est un oe ient rendant ompte de lafor edesintera tionsentrelesdiérentssites.Dans emodèle,deuxvariables
voisines ontune probabilitéd'êtreégales d'autantplus importanteque
β
est grand.Modèle auto-gaussien Un autre exemple de loi de Gibbs, toujours ave
des liques d'ordre 2, mais ave ette fois- i des variables ontinues, est le
modèle auto-gaussien, oùlaloi onjointedes
(Z
v
)
v
est :p((z
v
)
v
)
∝ exp
−β
X
v
X
v
′
∈N (v)
(z
v
− z
v
′
)
2
(6)Le oe ient
β > 0
est toujours un oe ient traduisant la for ede l'inter-a tion entre deux variablesvoisines.Modélisation de l'intera tion spatiale entre les voxels. Lors du
traitement bayésien d'uneimage IRMf,un modèle de Potts peut être utilisé
omme a priori régularisantde lamanièresuivante: lessommetsdu graphe
dedépendan esontlesvoxelseux-mêmes,les lassessont{a tivé,nona tivé} etlesvoisinsd'unvoxelsontses6voisinsausensphysique(enhaut,enbas,à
gau he, àdroite,en avant,en arrière).L'équation(5)rendalorsbien ompte
du fait que siun voxel est a tivé (resp.non a tivé), alorsses voisins ont une probabilité importanted'être a tivés (resp. non a tivés). Ce modèle permet
don d'ee tuersimultanémentla lassi ationdesvoxelsetlarégularisation
spatiale. Nousutilisons e modèle dans nos deux premières appro hes. Notre troisième appro he ne lassie pas les voxels, mais impose une
régularisation spatiale dire tement au travers du prior auto-gaussien utilisé
sur les niveaux de réponse
a
im
, ave le même graphe de dépenden e que i-dessus.2.5.2 Inféren e
Dans ettepartienousprésentonsquelques méthodesd'inféren eutilisées
pour obtenirdes informationssur une loi a posteriori
Θ
|y
(Θ
est l'ensemble desparamètresety
sontlesdonnéesobservées),dontladensitéest onnue seulementàune onstantemultipli ativeprès,ainsiquedé ritdanslase tionMonte-Carlo onsistent en la simulation d'un é hantillon de la loi a poste-riori, puis du al ul des ara téristiques de ette loi (moyenne, varian e,
histogramme...) à partir de l'é hantillon simulé.
L'algorithme utilisé pour la simulation de l'é hantillon est l'algorithme de Metropolis-Hastings ( f. [7℄), dont l'é hantillonnage de Gibbs est un as
parti ulier. Cet algorithme onstruit, à partir de la donnée d'une loi dont
la densité est onnue à une onstante près, une haîne de Markov dont la distribution stationnaire est laloi à simuler.
Les méthodes de Monte-Carlo donnent de bonnes approximations, sont
bien justiées théoriquement et donnent a ès à toutes les ara téristiques des loismais demandent des tempsde al ul généralementassez longs.
Iterated Conditional Modes (ICM) L'algorithme ICM ( f. [2℄) peut
êtreutilisépourdéterminerlemoded'uneloijointe
p(x
1
, x
2
, . . . , x
n
)
quin'est pasmaximisabledire tement,maisdontleslois onditionnellesp(x
i
|x
j
, i
6= j)
le sont.Leprin ipede l'algorithme est le suivant :
Initialiser
x
1
, . . . , x
n
;Tant quenon onvergé faire : Pour
i
entre 1etn
faire :Mettreà jour
x
i
selonx
i
← arg max
e
x
i
p(
x
e
i
|x
j
, j
6= i)
; L'algorithmeICMestplusrapidequelaméthodeMCMCmaisilnedonne pasa èsàtoutel'informationsurlaloiaposteriori;deplusilestseulementonvergent vers un maximumlo alde lavraisemblan e(lavraisemblan e ne
faisant qu'augmenter à haque étape), et est don assez sensible à l'initiali-sation de l'algorithme.
Notre première appro he utilise ette méthode d'inféren e.
Appro hes variationnelles,variational EM Dansune appro he
varia-tionnelle, la loi a posteriori
p(Θ
|y)
est approximée par une autre loiq(Θ)
; plus pré isément nous imposons laformede laloiq
, ette loidépendant de paramètresquisontdéterminésen her hantàminimiserladivergen e deKullba k-Leibler
KL = E
q
ln
q(Θ)
p(Θ
|y)
,
quiestunemanièrede quantierladistan eentre lesdeuxlois
q
etp(.
|y)
. L'appro he EM variationnelle ( f. [11℄ ou [22℄), basée sur une versionpermettant d'obtenir à la fois une approximation de la loi des paramètres a posteriori, et d'estimer les paramètres non bayésiens par maximum de
vrai-semblan e.
Les méthodes EM variationnelles sont déjà utilisées dans ertaines ap-pro hes de traitement des données issues d'IRM fon tionnelles ( f. [18℄).
Nousutiliseronsuneméthodevariationnelledansnotrese ondeappro he.
2.6 Modélisation et estimation de la HRF
Dansl'appro he lassique présentée plushaut, lafon tionHRFest posée
omme un a priori xe, la déte tion et l'estimation des a tivations étant
menées ommesitouslessujetsavaientlamêmeHRFdanstouteslesparties du erveau.
Il existe plusieurs formules analytiques modélisant une HRF ayant un sens physiologique. Nous donnerons omme exemple la diéren e de deux
gamma:
h(t) =
t
d
1
a
1
exp
−
t
− d
1
b
1
− c
t
d
2
a
2
exp
−
t
− d
2
b
2
ave
t
le temps exprimé en se ondes. Les valeurs anoniques données aux paramètres sont les suivantes ( f. [20℄)a
1
= 6
,a
2
= 12
,b
1
= b
2
= 0.9
,d
i
= a
i
b
i
pouri = 1, 2
etc = 0.35
. Voiren Figure 4pour une représentationde ette fon tion.
On peut égalementvouloir estimerlaHRF du sujetà partirdes mesures
ee tuées et l'utiliser pour la déte tion/estimation des a tivations. Pour un sujet sain, ette estimation supplémentaire permet d'espérer raner la
déte tion des a tivations;pour un sujettrès jeune ouatteintd'une maladie,
ette estimation est né essaire sil'on veut traiterl'image, omptetenude la forme très diérente de la HRF hez es sujets.
Des appro hes paramétriques d'estimationde la HRFont été proposées,
ave estimation des paramètres par maximum de vraisemblan e (ou maxi-mum a posteriori) ( f. [25℄); il existe également des appro hes
semi-para-métriques, où la fon tion HRF est dé rite omme une ombinaison linéaire
(ave d'éventuelles ontraintes sur les oe ients pour que la HRF estimée fasse sens physiologiquement)de fon tionsde base; ennonpeut également
faireune estimationnon-paramétrique.Dans e as, pouraméliorer
l'estima-tion de laHRF
h
onpeut intégrerdeux onnaissan es a priori ( f.[15℄) : la fon tionh
vérieh(0) = 0
et queh(D) = 0
pourD
de l'ordre de 25à 30se ondes 1
;
1
la fon tion
h
est àvariationslisses, 'est-à-dire que sa dérivée se onde a une normeL
2
petite.
A noter également que lors de l'estimation de la HRF un problème
d'iden-tiabilité se pose : en eet, dans le modèle linéaire (1), si on multiplie la
fon tion
h
par un fa teur onstantk
6= 0
et que l'on divise les niveaux de réponsea
parlemêmefa teurk
,onobtientdeux valeursdesvariablesà esti-mer quimaximisentlavraisemblan edu modèle(ou ladensitéa posteriori).On peut résoudre e problème en normalisant
h
, soiten imposant||h||
2
= 1
, e quidevrait rendre leproblème bien posé ( f. [15℄), ausigne de
h
près; ou en ore en xant le maximum de|h|
à 1.0
50
100
150
200
250
300
t (0.1 s)
Gaussien et ICM
Nous avons hoisi de partir du modèle présenté dans [15℄. Nous nous
proposons de modier e modèle en enlevant leshyperparamètresbayésiens,
et d'utiliserà lapla e un hamp de Markov an de modéliser ladépendan e spatialeentrelesvoxels.Lesauteursdumodèleoriginalutilisentuneméthode
de type MCMC pour ee tuer l'inféren e, e qui donne des temps de al ul
assez longs.Nousutilisonsun algorithmedetypeICMande disposerd'une méthode de traitement plus rapide.
Cetteappro he aétéétudiéeindépendammentde l'arti le[23℄, ette
der-nièreappro heutilisantplus depriorsetsaméthode d'inféren eétanten ore
un MCMC.
3.1 Modélisation bayésienne
Nousreprenons les notations de l'équation (1):
y
i
=
M
X
m=1
a
im
(X
m
h) + n
i
1
+ ǫ
i
, i = 1, . . . , J
(7)où
X
m
désigne l'appli ationlinéaireh
7→ x
m
⋆ h
.Pour omprendrelaformede ette matri e
X
m
,voi il'exemple(peu réa-liste) d'un expérien e de 6 se ondes, ave un TR de 2 se ondes; supposons que le temps de retour à zéro deh
soit de 3 se ondes, et que nous é han-tillonions la fon tion de réponse hémodynamique toutes les 0.5 se ondes;apparaîssantpour
t = 0
sett = 4
s. La matri eX
m
est alors égale à:X
m
=
1 0 0 0 0 0
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 1 0 0
0 0 0 0 1 0
0 0 0 0 0 1
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0 0 0 0
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 1 0 0
0 0 0 0 1 0
0 0 0 0 0 1
La matri e
X
m
est don formée d'une su ession blo s identitéquand la ondition est a tiveou nulsinon.Nousfaisonsl'hypothèsed'unbruitblan gaussien:les
(ǫ
i
)
i
sont indépen-dants et suivent une loi normale entrée, de matri e de varian e/ ovarian eσ
2
e
I
T
,de sorte quey
i
|a
i
, h
suit une loinormale,de moyenneM
X
m=1
a
im
(X
m
h) + n
i
1
et de varian eσ
2
e
I
T
.Noussupposonsdon onnues lesmatri es
X
m
(rentrées parl'utilisateur) et lesobservationsy
i
. Sont à estimerh
,a
im
,n
i
etσ
2
e
. On introduit une étiquettez
im
dénie ommesuit :z
im
=
+1
si le voxeli
est a tivédans la onditionm
−1
si le voxeli
est désa tivé dans la onditionm
0
si le voxeli
est neutredans la onditionm
Ces étiquettes ne sont pas dire tement observées ( e sont don des
don-nées manquantes), elles sont introduitesarti iellement,an de modéliser le
Pour haque
m
, lesvariables(a
im
)
i
sont supposées former une famillede variables indépendantes onditionnellement aux(z
im
)
i
et pour haquei
, la famille(a
im
)
m
estunefamilledev.a.indépendantes,demêmeque(z
im
)
m
(on supposedon qu'iln'yapasd'inuen eentre deux onditionsexpérimentalesdiérentes).
Lavraisemblan e omplète du modèle à estimers'é rit
p(y, a, h, z) = p(y
|a, h)p(a|z)p(h)p(z)
soit, ompte tenudes hypothèses d'indépendan e formulées plus haut :
p(y, a, h, z) =
Y
i
p(y
i
|a
i
, h)
Y
m
p(a
im
|z
im
)
!
× p(h) ×
Y
m
p((z
·m
))
Dé rivons maintenant ha un des termes de ette fa torisation. Dans le
premiermodèlequenousproposons (modèleGamma-Gamma-Gaussien),
la variable
a
im
sa hantz
im
est supposée suivre une des lois:a
im
|z
im
∼
Gamma(α
1m
, β
1m
)
siz
im
= 1
OppGamma(α
−1m
, β
−1m
)
siz
im
=
−1
Normale(0, σ
2
0m
)
siz
im
= 0
où Gamma
(α, β)
est une loi de densitég
α
,
β
(x) =
β
α
Γ(α)
x
α−1
e
−βx
1
R
+
etoùune variable
X
estditesuivre uneloiOppGamma(α, β)
si−X
suit une loi Gamma(α, β)
.Laloi a priori sur les
(z
im
)
i
est elle d'un modèle de Potts ( f 2.5.1) sur l'ensemble des voxels :p((z
im
)
i
)
∝ exp
−β
1
J
X
i=1
X
j∈N (i)
δ(z
im
− z
jm
)
où
β
1
> 0
est un oe ient à dénir par l'utilisateur; la famille(z
im
)
m
estsupposée indépendante quelque soit
i
. Nousavons donM
modèlesde Potts (un par ondition expérimentale) que nous supposons indépendants.L'estimationdelafon tionderéponsehémodynamique
h
estnon paramé-trique; ependantlaloia priori surh
tient omptedu faitque ettefon tion est à variations lisses, i.e. sa dérivée se onde n'est pas trop grande en valeurabsolue, on hoisit ainsi ( ommedans [15℄) :p(h)
∝ exp −β
2
h
T
Sh
ave
S = D
T
2
D
2
etD
2
lamatri ede l'appli ationquiàunve teurasso ieses diéren es nies se ondes :D
2
=
0
0
0
0
· · · 0
1
−2
1
0
· · · 0
0
1
−2 1
· · · 0
0
0
. . . . . . . . . . . .0
0
· · ·
1
−2 1
0
0
· · ·
0
0
0
de sorte que la loi a priori sur
h
assure la ontrainte de variations lisses en rendant improbable lesh
ayant une norme de la dérivée se onde im-portante;β
2
est un se ond oe ient xé par l'utilisateur, qui détermine l'importan edonnée à ette ontrainte.Les ontraintes
h(0) = h(D) = 0
et de normalisation (||h||
2
ℓ
2
= 1
) seront assurées de manière forte lorsde l'estimationdeh
( f. i-après).3.2 Estimation des paramètres
Lemodèle dé rit pré édemment omprend plusieurs paramètres,estimés de manière lassique (sans loia priori):
n
i
estestimédemanièreà equelesrésidusǫ
i
aientunemoyennenulle; soit:b
n
i
=
1
T
T
X
t=1
y
it
−
M
X
m=1
a
im
(X
m
h)
t
!
σ
2
e
est estimée par maximum de vraisemblan e:b
σ
2
e
=
1
T
× J
J
X
j=1
T
X
t=1
(y
it
− b
n
i
)
2
(nousn'appliquonspasde orre tiondubiais ar elle- iestnégligeable
ompte tenu des ordresde grandeurs de
T
etJ
).σ
2
0m
également :d
σ
2
0m
=
1
N
0
X
i|z
im
=0
a
2
im
où
N
0
=
Card{i|z
im
= 0
}
.Les paramètres
α
±1m
etβ
±1m
sont estimés en utilisant lesestimateurs de Thompour uneloiGamma( f.[10℄),quis'exprimentainsi,pour uné hantillon de moyenne arithmétique
m
a
et de moyenne géométriquem
g
:
α
′
=
1
4R
1 +
r
1 +
4
3
R
!
b
α
= α
′
+ κ
b
β
=
α
b
µ
aveR = ln(m
a
)
− ln(m
g
)
etκ =
0
siα
′
< 0.9
0.0092 +
α
′
− 1
24
− 96α
′
sinon. 3.3 Inféren e ICM 3.3.1 Algorithme d'inféren eNous utilisons des itérations ICM, la mise à jour d'un paramètre
θ
∈
{a, h, z}
sefaisantenmaximisant(lelogarithmede)p(θ
|y,
autresparamètres)
et en itérantsur leparamètre
θ
àmettre àjour.3.3.2 Mise à jour de
h
Leve teur
h
est hoisi de façonà maximiserln(p(h
|y, a))
;or:ln p(h
|y, a) =
Cste+
−1
2σ
2
e
X
i
y
i
−
X
m
a
im
X
m
!
h
− n
i
1
2
− β
2
h
T
Sh
=
Cste+
−1
2σ
2
e
X
i
||c
i
− M
i
h
||
2
!
− β
2
h
T
Sh
aveM
i
=
P
m
a
im
X
m
c
i
= y
i
− n
i
1
= ǫ
i
+ M
i
h
On a:X
i
||c
i
− M
i
h
||
2
=
Cste+ h
T
X
i
M
i
T
M
i
!
h
− 2h
T
X
i
M
i
T
c
i
ln p(h
|y, a) =
Cste+
−1
2σ
2
e
h
T
X
i
M
i
T
M
i
!
h +
1
σ
2
e
h
T
X
i
M
i
T
c
i
− β
2
h
T
Sh
=
Cste+ h
T
"
−1
2σ
2
e
X
i
M
i
T
M
i
− β
2
S
#
h + h
T
"
1
σ
2
e
X
i
M
i
T
c
i
#
=
Cste+ h
T
Qh + h
T
v
en posant:(
Q =
2σ
−1
2
e
P
i
M
i
T
M
i
− β
2
S
, matri esymétrique dénie négativev
=
1
σ
2
e
P
i
M
i
T
c
i
Nousvoulonsdon maximiser
h
T
Qh+h
T
v
parrapportà
h
,sousles ontraintesh
1
= e
T
1
h = 0
(le symboleT
désignant la transposée) et
h
D
= e
T
D
h = 0
. Lethéorème des multipli ateursde Lagrange donneune ondition né essaire, à savoir l'existen e de réels
µ
etν
tels que2Qh + v + µe
1
+ νe
D
= 0
(8)En faisantle produit s alairede l'équation(8)ave leve teur
e
1
ontrouve:2e
T
1
Qh + e
T
1
v + µ = 0
(9)soit
µ =
−(2e
T
1
Qh + e
T
1
v)
(10)De même, en faisantle produit s alairede (8) ave
e
D
ontrouve :ν =
−(2e
T
D
Qh + e
T
D
v)
(11)Les équations(linéaires)nous donnantla mise àjour de
h
sont don :
h
1
= 0
h
D
= 0
2Qh + v
− (2e
T
1
Qh + e
T
1
v)e
1
− (2e
T
D
Qh + e
T
D
v)e
D
= 0
(12)
Une fois
h
al ulé en résolvant e système linéaire, il est lissé à l'aide d'un ltre gaussien. Plus pré isémenth
est rempla é parGh
, oùG
est la matri e dénie par :G
i,j
= exp
(i
− j)
2
BW
où
BW > 0
est un paramètre qui ontrle la largeur de la gaussienne utilisée pour ltrer; plusBW
est grand,plus le lissage est important.Enn
h
est normalisé, 'est à dire qu'ilest rempla é 2par
1
||h||
ℓ
2
h.
Nousavons onstaté qu'en estimant
h
de ettemanière,nous obtenons quel-quefoisl'opposéde laHRFréelle; 'estuneetdûauproblèmed'identiabi-litéquenousavonsmentionnéen2.6.Pourrégler eproblème,nous al ulons
la valeur moyenne de
h
; si elle- i est négative 'est que nous avons trouvé l'opposé de laHRF réelleeth
est alors rempla é par−h
.3.3.3 Mise à jour de
a
Pour maximiser
p(a
|z, h, y)
, il sut, par indépendan e des(a
im
)
m
, de maximiserp(a
i
|z, h, y)
pour haquei
xé.Or
ln(p(a
i
|z, h, y) =
Cste+ ln(p(a
i
|z
i
)) + ln(p(y
i
|a
i
, h))
=
Cste+
−1
2σ
2
e
c
i
−
M
X
m=1
a
im
X
m
h
2
+
X
m/z
im
=1
(α
1m
− 1) ln a
im
− β
1m
a
im
+
X
m/z
im
=−1
(α
−1m
− 1) ln(−a
im
) + β
−1m
a
im
+
X
m/z
im
=0
−1
2σ
2
0m
a
2
im
avec
i
= y
i
− n
i
1
Avantde dériver
ln(p(a
i
|z
i
, h, y
i
))
par rapportàa
im
ee tuons un al ul pré-2La ontrainte
h
T
h = 1
peut également s'intégrer dans les ontraintes du problème d'optimisation,mais ela onduitàunsystèmenonlinéaire.
c
i
−
X
m
a
im
X
m
h
2
=
||c
i
||
2
− 2
X
m
a
im
< X
m
h, c
i
> +
X
m
a
im
X
m
h
2
=
Cste− 2
X
m
a
im
< X
m
h, c
i
> +
X
m
a
2
im
||X
m
h
||
2
+
X
m
X
n6=m
a
im
a
in
< X
m
h, X
n
h >
La ondition du premier ordre pour un extremum de
ln p(a
i
|z
i
, h, y
i
)
s'é rit don :0 =
1
σ
2
e
< X
m
h, c
i
>
−
1
σ
2
e
a
im
||X
m
h
||
2
−
1
σ
2
e
X
n6=m
a
in
< X
m
h, X
n
h > +T
im
aveT
im
=
α
1m
− 1
a
im
− β
1m
siz
im
= 1
α
−1m
− 1
a
im
+ β
−1m
siz
im
=
−1
−
1
σ
2
0m
a
im
siz
im
= 0
et e quelque soitm = 1, . . . , M
.La onditiondupremierordresereformuledon souslaformed'une
équa-tion
Φ(a
i
) = 0
aveΦ :
R
M
→ R
M
. Cette équation ve torielle non linéaire
peutserésoudrenumériquementave laméthode deNewton;pourappliquer
ette méthode nousdevons al ulerlamatri eja obienne de l'appli ation
Φ
. Les oe ientsd
mn
de ette matri es'é rivent :d
mm
=
∂Φ
m
∂a
im
=
−
1
σ
2
e
||X
m
h
||
2
+
−
α
1m
a
2
− 1
im
siz
im
= 1
−
α
−1m
− 1
a
2
im
siz
im
=
−1
−
σ
1
2
0m
siz
im
= 0
et, sim
6= n
:d
mn
=
∂Φ
m
∂a
in
=
−
1
σ
2
e
< X
m
h, X
n
h >
3.3.4 Mise à jour de
z
Lamise à jour de
z
im
se fait en orepar ICM :z
im
= arg max
g
z
im
∈{±1,0}
ln p
z
f
im
|a, (z
jm
)
j∈N (i)
soit :z
im
= arg max
g
z
im
∈{±1,0}
ln (p(a
im
| f
z
im
))
− β
1
X
j∈N (i)
δ(
z
f
im
, z
jm
)
(13)L'argmax est al ulé en al ulant la fon tion obje tif pour les trois valeurs
possibles de
z
f
im
et en onservant la valeur donnant la plus grande valeur à l'obje tif.Nousretrouvons laremarque faitedans [2℄, partie 3, àsavoirque
l'équa-tion (13) réalise un ompromis entre d'une part l'adaptation aux données (pour lepremier terme), etd'autre part, l'homogénéitéspatiale de la
lassi- ationgéréepar lese ondterme.Pour
β
1
= 0
onretrouveune lassi ation sans au une homogénéité imposée a priori; lorsqueβ
1
→ +∞
on retrouve un vote àla majorité des voisins.3.3.5 Initialisation
Pour initialiser la lassi ation, nous al ulons, pour haque voxel
i
et haque onditionexpérimentalem
,le oe ientde orrélation linéaireentrey
i
etX
m
h
. Un voxel dont le dé ours temporel a une orrélation aveX
m
h
supérieureàun ertainseuils > 0
sera lassé ommea tivé,unvoxeldont la orrélationest inférieureà−s
sera lassé ommedésa tivé,etenn un voxelave une orrélationentre−s
ets
sera lassé ommeneutre.Leseuils
peut êtrespé iédire tementpar l'utilisateur,ou al uléautomatiquement omme une fra tion (dénissable par l'utilisateur) du plus grand (resp. duplus petit) oe ient de orrélation, pour haque ondition expérimentale.
Nous obtenons également des valeurs initiales pour les niveaux de réponse
a
im
ommesuit.Soit un voxel
i
et une onditionn
; partant de l'équation de base du modèley
i
=
M
X
m=1
a
im
(X
m
h) + n
i
1
+ ǫ
i
, i = 1, . . . , J
prenons la ovarian eave
X
n
h
,nous obtenonsCov(y
i
, X
n
h) =
X
m
nales
A
i
=
a
i1
. . .a
iM
vérie don l'équation
M
i
A
i
= C
i
en notant
C
i
le ve teur des ovarian esC
i
=
Cov(y
i
, X
1
h)
. . .Cov(y
i
, X
M
h)
etM
i
lamatri e de varian e- ovarian eM
i
=
Var(X
1
h)
Cov(X
1
h, X
2
h)
· · ·
Cov(X
1
h, X
M
h)
Cov(X
2
h, X
1
h)
Var(X
2
h)
· · ·
Cov(X
2
h, X
M
h)
. . . . . . . . . . . .
Cov(X
M
h, X
1
h)
· · ·
Cov(X
M
h, X
M −1
h)
Var(X
M
h)
De mêmele ve teurdes orrélations
A
′
i
=
Corr(y
i
, X
1
h)
. . .Corr(y
i
, X
M
h)
vérieM
i
′
A
′
i
= C
i
′
aveC
i
′
=
Corr(y
i
, X
1
h)
. . .Corr(y
i
, X
M
h)
etM
i
′
=
1
Corr(X
1
h, X
2
h)
· · ·
Corr(X
1
h, X
M
h)
Corr(X
2
h, X
1
h)
1
· · ·
Corr(X
2
h, X
M
h)
. . . . . . . . . . . .Corr(X
M
h, X
1
h)
· · ·
Corr(X
M
h, X
M −1
h)
1
Notons que pour mener les al uls de ette phase, nous initialisons la
Lesdiérentes étapesde mise à joursont alors en haînéesainsi :
Initialisation(
a
,z
,σ
e
,n
); Tant quenon onvergen e faire :Miseà jour de
h
;Miseà jour des résidus (
σ
e
etn
); Miseà jour desz
;Siau moins un
z
a été hangé : Miseà jourdesa
;Miseà jourdes
α
±1m
,β
±1m
etσ
0m
;La onvergen e est dé larée lorsque, entre deux passages su essifs dans labou le "Tantque", au un
z
n'a étémodié etlanormeL
2
de ladiéren e
entre lafon tion
h
pré édenteetlafon tionh
mise àjourest inférieureà un ertain seuil.3.4 Simulation de données
And'évaluernotreappro hedetraitementd'images,nousdevonsd'abord simuler des imagesIRMf réalistes.
Ladonnéedematri esdedesign
X
1
, . . . , X
M
asso iéesàM
onditions ex-périmentalesainsi que d'uneHRFh
fournit lessignauxX
1
h, X
2
h, . . . , X
M
h
. Onsedonneégalementdeux olle tions(
A(1), . . . , A(M))
et(
D(1), . . . , D(M))
d'ensembles de voxels, l'ensembleA(m)
(resp.D(m)
) ontenant l'ensemble des voxels a tivés (resp. désa tivés) par la onditionm
. Les autres voxels sont onsidérés omme neutres.Lesignal dans le voxel
i
est donné pary
i
= c
X
m∈A(m)
X
m
h
− c
X
m∈D(m)
X
m
h + b1 + ǫ
i
où
b
estunréel,c
unréelpositif,et(ǫ
i
)
i
estunesuitedevariablesaléatoires ve toriellesindépendantesoùǫ
i
estun pro essusAR(1)gaussien; 'estàdire que quelque soiti
,ǫ
i,1
= σe
i,1
ǫ
i,2
= ρǫ
i,1
+ σe
i,2
ǫ
i,3
= ρǫ
i,2
+ σe
i,3
. . . . . .
ave les
(e
i,t
)
i,t
tous indépendants etsuivant uneloinormale entrée réduite. Le oe ientρ
∈ [0; 1[
est le oe ient d'auto orrélation du bruit; dans les appli ations typiques de l'IRMfsa valeur varie entre 0 et 0.4( f. [26℄, p.5).
Le oe ient
c
est xé à 1000, la valeur deσ
(é art-type du bruit) est alorsadaptée pourpres rire lerapportsignalsurbruit.Ce rapportsignalsurbruit est al uléainsi ( f. [21℄) :
SNR =
1000µ
σ
où
µ
est la moyenne du signal utile :µ =
1
MT
M
X
m=1
||X
m
h
||
ℓ
2
.
L'expression de
σ
en fon tion deSNR
est don :σ =
1000µ
SNR
.
Les valeurs de
SNR
sont généralement omprises entre 0.1 et4.0( f. [27℄).3.5 Evaluation de l'appro he
3.5.1 Evaluation de l'estimation/déte tion
Dans un premier temps, nous ne testons que l'estimation/déte tion des
a tivations ou des désa tivations. Nous simulons don des données à partir
de laHRF anonique,etnousforçonsleprogrammeàne pasestimerde HRF mais à utiliser laHRF anoniquetout aulong du traitement.
Commeparadigmeexpérimental,nous utilisonsdeux onditions qui s'al-ternent toutesles15se ondes, trois fois ha une. LeTRest xéà1se onde.
L'image, formée de 6 oupes ontigües formant un total de 900 voxels,
omporte deux zones parallélépipédiques : une de 12 voxels a tivés dans la ondition 1, désa tivés dans la ondition 2; et une se onde de 8 voxels
désa tivés dans la ondition 1 et a tivés dans la ondition 2. Les images
montréess'intéressentuniquementàla ondition1(l'autreétantsymétrique). Comme nous pouvons le voir sur la Figure 5, le SNR a bien entendu
une grandeimportan e dans la qualité de l'estimation obtenue. La Figure6
montre quele oe ientde orrélation
ρ
n'a pas unegrande importan esur la re onstru tion de l'image.Au niveau du paramètre de régularisation spatiale
β
1
, nous voyons sur la Figure 7que plusβ
1
est grand, plus notre estimateur re her he des blo sontigus d'a tivation; par ontre si
β
1
est trop fort, la méthode perd en sensibilité de déte tion des petites a tivations. Par exemple, dans l'image (e), (pourβ
2
= 5
) le groupe des 8 voxels désa tivés n'est plus déte té; par ontre les12voxels a tivés sonttoujours bien déte tés.Enn,laFigure8montrequenotreméthodede lassi ationpara priori markovien donne de biens meilleurs résultats que la te hnique de seuillage
sur les oe ients de orrélation,utilisée pour initialiserl'algorithme
(b) Niveaux de réponses estimés pour SNR=0.1.
( ) Voxels a tivés estimés pour SNR=0.1.
(d) Niveaux de réponses estimés pour SNR=0.02.
(e) Voxels a tivés estimés pour SNR=0.02.
(f) Niveaux de réponses estimés pour SNR=0.01.
(g) Voxels a tivés estimés pour SNR=0.01.
(b)
ρ = 0.2
( )
ρ = 0.4
(d)
ρ = 0.6
(b)
β
1
= 0
.5
( )
β
1
= 1
(d)
β
1
= 2
(e)
β
1
= 5
(b)Seuillage surles oe ientsde orrélation (seuil=0.5
×
leplusgrand oe ient de orré-lation)( )EstimationparICM(
β
1
= 2
)Fig. 8: Comparaison des lassi ations voxels a tivés/désa tivés
Pour tester notre méthode d'estimation de la HRF sur des données
fai-sant sens physiologiquement, nous simulons des données générées à partir
de la onvolution ave une HRF dont le retour à zéro après la stimulation est anormalement lente; ette forme de HRF a été observée hez les rats
épileptiques ( f.[4℄, Figure3 (B)).
Uneformuledonnantune telle HRFest la suivante(voirFigure9) :
h(t) =
−0.694t
2
+ 8.33t
si
t < 6
−10.54 ln t + 43.88
sit
≥ 6
Pourtenir omptede etteréponsehémodynamiquepluslente,nous hoi-sissonsd'estimerlaHRFsuruneduréede 60se ondes(aulieude28se ondes
habituellement).Toutes lessimulationsde ette se tionontété ee tuées en
xant
β
1
= 1
.SNR élevé Nousvoulonsd'abordtesterle omportementdenotre estima-tionde laHRFpourun niveaudebruittrèsfaible.Pour elanous hoisissons
SNR = 2
. Nous utilisons le même paradigme expérimental qu'à la se tionpré édente, à savoiralternan e toutes les15 se ondes de deux onditions. LaHRF estiméeest visible en Figure10.
Ce résultat, peu satisfaisant ompte tenu du niveau de bruit très faible,
est dû au paradigme expérimental qui ne tient pas ompte de la lenteur de ladé roissan e de laréponse hémodynamique.Eneet, sinous hangeonsle
rhythme d'alternan e des deux onditions, à savoir que nous alternons trois fois ha une deux onditions toutes les60se ondes, nous obtenons
l'estima-tion visible en Figure11.
L'estimationest ette fois- itrès orre te.
SNR faible En onservant leparadigme lent,nous ee tuons d'autres
0
0.05
0.1
0.15
0.2
0.25
0.3
0
10
20
30
40
50
60
temps (s)
-0.05
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0
10
20
30
40
50
60
Fig. 10: HRF estimée pour SNR=2,
β
2
= 0
, au un lissage gaussien et un paradigme expérimentalrapide.0
0.05
0.1
0.15
0.2
0.25
0.3
0
10
20
30
40
50
60
Fig. 11: HRF estimée pour SNR=2,
β
2
= 0
, au un lissage gaussien et un paradigme expérimentallent.(b) Image re onstruite ave estimation de la HRF.
( ) Image re onstruite sans estimation de la HRF.
Fig. 12: Inuen e de l'estimation de la HRF sur l'estimation des
0
0.05
0.1
0.15
0.2
0.25
0.3
0
10
20
30
40
50
60
temps (s)
(a)HRForiginale.-0.05
0
0.05
0.1
0.15
0.2
0.25
0.3
0
10
20
30
40
50
60
(b) HRFestimée sanslissagegaussien.
0
0.05
0.1
0.15
0.2
0.25
0.3
0
10
20
30
40
50
60
( ) HRF estimée ave lissage gaussien (
BW = 10
)0
0.05
0.1
0.15
0.2
0.25
0.3
0
10
20
30
40
50
60
(d) HRF estimée ave lissage gaussien (