• Aucun résultat trouvé

Cestage dereherhe s'estdérouléauseinde deux équipesde reherhe :

l'équipe MISTIS, dépendant de l'INRIA Rhne-Alpes, dont l'objetif

est de développer des méthodes statistiquesadaptées à l'étudede

phé-nomènes, de modèles et de données omplexes, ave pour orientations

appliativesprivilégiéesle traitement d'imageset de données spatiales

dans les domaines biomédiaux et industriels; l'approhe de l'équipe

est basée sur l'introdution de la notionde struture dans lesmodèles

et dans les données; les thèmes de reherhe sont les suivants : les

modèles de mélange, les modèles markoviens, et les méthodes semi et

non-paramétriques.

l'équipe 5 (Neuro-imagerie Fontionnelleet Métabolique) de l'Institut

des Neurosienes de Grenoble, qui s'intéresse aux appliations

bio-médiales in vivo de la résonane magnétique nuléaire (RMN). Les

travaux, eetués tant sur l'homme que sur petit animal (rat, souris),

visent audéveloppement,àl'évaluationetàl'exploitationdu potentiel

en neurosienes liniques, biologiques et ognitives de l'ensemble des

méthodes de neuroimageriepar RMN. Les travaux ont été développés

autourde troisthèmesdereherhe:lamiro-vasularisationérébrale,

le métabolisme érébral et l'IRM fontionnelle (IRMf) des ativations

érébrales.

tique

L'IRM (imagerie par résonane magnétique) est une tehnique non

in-vasive permettant d'obtenir une image en trois dimensions d'une partie du

orps. Elleest basée sur lamesurede laréponse de lazone étudiéeà

l'appli-ation d'un hamp magnétique de forteintensité (atuellement entre 2 et 4

T),ladistintionentredeuxmilieuxdiérentsétantfondéesurleursréponses

diérentes.

Cette tehnique peut être utilisée pour produire une vue 3D du erveau

oùsontdistinguésmatièregrise,matièreblanheetliquideéphalo-rahidien,

aveunerésolutiondel'ordredumillimètre;onparlealorsd'IRManatomique

érébrale. Voiren Figure1 pour un exemple d'image obtenue.

Une autre appliation de l'IRM, plus réente, est la mesure de l'ativité

du erveau au ours du temps. Elle se base sur la diérene de réponse

magnétique entre une moléuled'hémoglobineoxygénée etune désoxygénée.

Lorsqu'unneuroneestativé,l'auxsanguinautourdeeneuroneaugmente,

e qui se traduit par l'augmentation de la onentration en hémoglobine

oxygénée et don par une modiation du signal IRM observé. Ce prinipe

se nomme eet BOLD (pour blood-oxygen-level-dependent)et est à la base

de l'IRM fontionnelle (en abrégé IRMf). En IRMf, les aquisitions sont

répétées au ours du temps; la durée entre deux aquisitions étant le temps

de répétition (TR), de l'ordre de deux à trois seondes; voir Figure 2. An

d'avoirunrapportsignal-sur-bruitsusant,unerésolutionspatialedel'ordre

de 3millimètresest utilisée.

Laoneptiond'uneexpériened'IRMfonsisteàdénirdiérentes

ondi-tions qui sont répétées suessivement. Ces onditions sont la réalisationde

diérentestâhes motriesouognitives(bougerlesdoigtsde lamaindroite,

omparaison d'objets...) ouenoreune ondition nulle(de ontrle).Par

exemple, lorsd'uneexpériene sur lavisiondes ouleurs, onpeutalternerla

présentation d'une image en niveaux de gris (ondition A), la présentation

d'une image en ouleurs (ondition B) ou une ondition C de repos

(ondi-tionnulle).Chaqueonditionpeutêtreprésentéeplusieursfoisauoursd'une

session, etdurantun tempsplus ou moinslong; par exemple laondition A

peut être présentée pendant 5 seondes, puis la B pendant 3 seondes, la C

pendant 10 seondes, ensuite la B pendant 7 seondes, et. La desription

des intervallesdetempsdurantlesquelshaque onditionestativeonstitue

le design de l'expériene.

L'analyse fontionnelle des données issues de l'expériene onsiste alors

en la déterminationdes zones du erveau ativées lorsde haune des

dié-rentesonditions,etlaomparaisondesativationsorrespondantaux

ondi-Fig. 2: Les données IRMf sont en quatre dimensions : la zone étudiée est

déoupée en petits ubes (d'environ 3 millimètres de té) appelés voxels;

en haque voxel on dispose d'un déours temporel (à droite) représentant

l'évolutiondu signal BOLD mesuréau oursdu temps.

ouleurs, on peut vouloir déterminer les zones impliquées dans la vision en

général (onditions A et B ontre ondition C) ou les zones atives dans la

vision des ouleurs (ondition A ontre B).

Ces expérienes permettent d'améliorerla ompréhension du

fontionne-mentdu erveau; ellesont égalementdes appliationsliniques,tellesquela

délimitation des aires visuelles ou motries pour préparer une intervention

hirurgiale.

1.4 Problèmesposés parletraitement desdonnées IRMf

1.4.1 Quantité de données à traiter

De part leur nature quadri-dimensionnelle, les données reueillies lors

d'une expériene d'IRMf sont relativement volumineuses. A titre d'exemple

réaliste,onsidéronsune sessionde 360 seondes omportantune aquisition

toutes les3 seondes, etune zone d'aquisition étantun pavé de dimensions

20 m, 20m et 10 m, ainsi qu'une résolution spatiale de 3 millimètres;si

l'on suppose que lesmesures sontstokées sous formede oat (2 otets),les

données àtraiter, pour un seul sujet, ont une taillede

360 × 200 × 200 × 100

3 × 3 × 3 × 3 × 2 ≈ 34

Mo.

Cettetailleestàmultiplierparlenombredesujets,uneétudeognitiveétant

rarement menée sur un seul sujet.

L'importane du volume des données impose l'utilisation de tehniques

spéiques pour eetuer letraitementdes données.

1.4.2 Bruit

Le signal reueilli en IRM est bruité de manière importante, les soures

de bruit inluant:

lebruitgénéréparlamahine(bruitthermique,manqued'homogénéité

de l'aimantproduisantle hamp magnétique...);

le bruit physiologique,dû auxartefats ardio-respiratoires;

lebruitognitif,dûauxsouresde distrationdupatientdurant

l'expériene (stimuliindésirables,endormissement du patient...);

A signaler également, même s'ils ne sont pas à lasser dans les bruits ,

lesartefatsgénérés parlespré-traitementsappliquéssur lesdonnéesbrutes,

tels que:slieorretion (orretiondu faitquelesdiérentesoupesnesont

pas aquisesaumêmemoment)oulaorretiondes mouvementsdu patient.

L'auxsanguinproduitunevariationdusignalIRMmesurémaiselle-i

est relativement faible (de l'ordre de 1 à 2%) par rapport ausignal mesuré

aurepos(sansauxsanguin).End'autrestermeslaprésenedemoléules

d'oxyhémoglobine dûe à une ativation spéique ontribue peu au signal

observé.

1.4.4 Filtrage du signal

Lors de l'ativation d'un neurone,le débitsanguinne passepas

brusque-ment du niveau zéro au niveau maximal, mais augmente progressivement;

un délai d'environ 5 à 6 seondes est néessaire pour qu'il atteigne le

ni-veau maximal. De même, lors d'une désativation, le débit met un temps

importantà redesendre auniveau de repos.

Dans un voxel ativé par une ondition donnée, lesignal BOLD attendu

est donlaonvolutiondelafontionindiatriedelaonditionaveunltre

appeléfontion de réponse hémodynamique (HRF).

La fontion de réponse hémodynamique n'est pas onnue; de plus elle

varie selon les individus, et suivant la zone du erveau, au sein d'un même

individu. Cependant elle reste toujours, pour un sujet adulte et en bonne

santé, relativementprohe de laHRFanoniqueprésentée enFigure3.Pour

des sujets très jeunes oupathologiques (par exemple les patients ayant subi

un aident vasulaireérébral, oueux sourantd'épilepsie), lafontion de

réponse hémodynamique peut être assez éloignée de ette HRFanonique.

Pour plus de généralités sur les signaux IRMf, on pourra se reporter à

l'ouvrage [13℄.

0 0.2 0.4 0.6 0.8 1

0 10 20 30 40 50 60

(a)Fontion indiatried'uneonditionexpérimentale.

-0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6

0 5 10 15 20 25 30

(b)Fontionderéponsehémodynamique.

()SignalBOLDattendudansunezoneativéeparette

ondi-tion.

Fig. 3

2.1 Modélisation du signal (GLM)

Le signal IRM mesuré est modélisé par une olletion de veteurs

y i = (y i1 , . . . , y iT )

,

i = 1, . . . , J

(où

J

est le nombre de voxels omposant l'image

traitée et

T

la durée de l'expériene), vériant l'équation suivante, appelée GLM pour GeneralLinear Model :

∀ i = 1, . . . , J y i = X M m=1

a im (x m ⋆ h) + n i 1 + ǫ i

(1)

où :

l'indie

m

désigne une des onditions expérimentales, et

M

désigne le

nombre de es onditions;

le réel

a im

est leniveau de réponse du voxel

i

àla ondition

m

;

leveteur

x m

est leveteurbinaireindiateur des instantsla

ondi-tion

m

est ativée (onsets) :

x m,t = 1

si 'est le as à l'instant

t

, et

x m,t = 0

sinon;

leveteur

h

est un éhantillonagede lafontionde réponse hémodyna-mique, de sortequelaonvolution

x m ⋆ h

ontiennelaréponse

atten-dueillustréeenFigure3;ilestànoterquelapérioded'éhantillonage

de

h

peut être inférieure au temps de répétition TR, an d'améliorer le alagedes onsets qui ne sont pas forémentdes multiplesdu TR;

le veteur

1

est leveteur de dimension

T

ne ontenantque des 1,

n i 1

représente don la omposante ontinue du signal, qui n'est dûe

à auune des onditions prévues dans l'expériene; ertains modèles

inluent de la même manière des omposantes basses fréquenes

(drifts) dûes aux mouvements lents du patient, aux artefats

ardio-vasulaires, àla respiration, ainsi qu'aux dérivesde l'appareil

d'aqui-sition (f. [14℄, hapitre 2,Ÿ4.3).

le veteur

ǫ i

est leveteur des résidus; le modèle le plus simple (bruit

blan gaussien) suppose

(ǫ i ) i=1,...,J

indépendants, suivant une loi nor-male

N (0, σ 2 I T )

(où

I T

désigne la matrie identité

T × T

); ette

hy-pothèse, peu réaliste, est souvent remplaée par elle d'une olletion

(ǫ i ) i=1,...,T

de séries hronologiques indépendantes suivant haune un modèle AR(1)gaussien (f [26℄).

L'équation 1peut s'interpréter omme une régression linéairemultiple :

y i = X e a i + ǫ i

y i

estlavariableexpliquéeetlamatrie

X

,supposéedepleinrang(

M +1

),

la matriedes variablesexpliatives :

X =

et

e a i

est le veteur ontenant les paramètres

e a i =

Lorsque

X

est onnue, es paramètres peuvent être estimés par la méthode

des moindres arrés :

e a b i = (X T X) −1 X T y i

2.2 Contrastes entre onditions

La déterminationdes zones ativées par une ondition expérimentale en

omparaison d'une autre sefait en alulant pour haque voxel l'eet

b

γ i = c T a b i

a i = (a i1 , . . . , a im ) T

et

c

est le veteur des ontrastes, qui indique les

onditions expérimentales que l'on veut omparer. Par exemple si l'on

sou-haiteomparerleszonesativéesparlaondition1parrapportàlaondition

3, on prendra

c = (1, 0, − 1)

;pour omparer la ondition 1 ave lamoyenne

des onditions 2et 3,on hoisira

c = ( − 1, 0.5, 0.5)

.

2.3 Approhe standard par tests

Une fois l'eet

γ b i

alulé (phase d'estimation), il reste à déterminer si elui-ieststatistiquementsigniatifounon(phasede détetion).Pourela

on utilise un test statistique, visant à omparer l'hypothèse nullele voxel

n'est pas ativé ontre l'hypothèse levoxel est ativé.

t

-statistique:

t j = γ b i b

σ p

c T (X T X) −1 c

qui,sous l'hypothèsenulle, suituneloide Student à

M + 1

degrésde libertés

(f. [6℄, hapitre7).

Les statistiques

t j

étant alulées pour haque voxel, on obtient une

SPM (statistial parameter map) qui donne le niveau de signiativité

du ontraste mesuré dans haque voxel.Il fautalors hoisir une valeur seuil

en dessousde laquelle un voxel est onsidéré omme non signiatif.

Le hoix de ette valeur seuil est rendu diile par le fait que des tests

multiples sont eetués. En eet supposons que nous utilisions sur haque

voxel un test possédant un risque de première espèe (faux-positif)

α

; si

nous eetuons e test

n

fois le nombre moyen de faux-positifs détetés sera de

. Par exemple supposons

α = 0.05

et

n = 10 4

(nombre réaliste de

voxels dansune image),ily aura en moyenne 50faux-positifsdétetés. Pour

résoudre eproblème,uneorretionpossibleestlaorretiondeBonferroni,

qui néessite d'utiliser un test ave un risque de première espèe

α/n

pour

obtenirunniveaude risqueglobalmajorépar

α

,ettebornepouvantêtre

atteintedans leas oùlestests sont indépendants.Cette orretion est trop

onservative dans le as qui nous intéresse ar les tests sont loin d'être

indépendants : lesativations ontlieu dans des zones ontigües de plusieurs

voxels, et lerésultat d'un test sur un voxel est très orréléave les résultats

destestssurlesvoxelsvoisins.Pourteniromptedeettedépendane,ondoit

abandonnerlestestsvoxelparvoxeletonsidérerlaSPMdanssonensemble,

en la modélisant omme un hamp gaussien (gaussian random eld, GRF);

f. [6℄, hapitre14.

Pour plus de généralités sur l'approhe GLM, on pourra se reporter à

l'ouvrage [13℄.

2.4 Lissage spatial

Préalablement à l'estimation des paramètres dans l'équation 1, on

ap-pliquegénéralementunlissagede l'image,and'augmenterlerapport

signal-sur-bruit (SNR), auprix d'une détériorationde la résolution spatiale.

Uneméthode de lissagelassique est laonvolutionave une gaussienne;

ependant ils existe d'autres lissages dits adaptatifs, qui tiennent mieux

ompte des ontours de l'image, tels que l'algorithme PS

(propagation-sé-paration), f. [20℄ et [19℄.

Parrapportàl'approhe lassiqueévoquée i-dessus, uneapprohe

bayé-sienne présente lesavantages suivants:

une gestion élégante des inertitudes : en partiulier une analyse

bayésienne donne une distribution a posteriori qui possède une

inter-prétation intuitive (à omparer ave l'interprétation plus déliate des

niveaux de risques dans lestests et des intervalles de onane en

sta-tistique lassique);

unadrethéoriquebienadaptépourintégrerdesonnaissanes apriori

(par exemple anato-fontionnelles)onernant le signalà traiter,

amé-liorantla préisiondes résultats fournis;

des méthodes de hoixde modèles (Bayes fator).

Pourplus d'informationssur l'apportdesméthodesbayésiennes en IRMf,on

pourraonsulter [24℄.

Dans une approhe bayésienne, on onsidère les paramètres

Θ = (θ i ) i

omme des variables aléatoires, dont onspéie la loi

p(Θ)

, qui modélise la

onnaissanesur lesparamètresquel'onaavantd'observerlesdonnées, d'où

son nom de loi apriori. On spéie également une vraisemblane

p((y k ) k | Θ)

qui modélise leomportementdes données une fois les paramètresonnus.

L'inférene bayésienne onsiste à aluler (ou, tout au moins, onnaître

ertainesaratéristiques,ommele(s)mode(s),lamoyenne,lavariane,...)

la distribution a posteriori

p(Θ | (y k ) k )

, qui dérit la onnaissane que l'on a

sur lesparamètresune foisque l'onaobservélesdonnées. Cettedistribution

est donnée par larègle de Bayes:

p(Θ | (y k ) k ) = p((y k ) k | Θ)p(Θ)

p((y k ) k ) = p((y k ) k | Θ)p(Θ)

R p((y k ) k | (θ i ) i )d((θ i ) i )

(2)

Un modèle purement bayésien onsidère tous les paramètres omme des

va-riables aléatoireset leur donne une loia priori, mais un modèle peut tout à

fait ontinuer à traiter ertains paramètres omme de vrais paramètres,

sans leur donnerde loisa priori. Ces derniers paramètres sont alors estimés

de manièrelassique, par exemple par maximum de vraisemblane.

Un inonvénient des méthodes bayésiennes est que l'intégrale gurant

dans (2)est souventinalulableanalytiquement,etun alulnumérique

ap-prohé est souventinfaisable,omptetenude ladimensionde etteintégrale

(quiest égale auxnombrede paramètres). Laloia posteriori est dans e as

onnue à une onstante multipliative près, et il faut alors avoir reours à

des méthodes partiulières, dont ertaines seront déritesen setion2.5.2.

Lesignalmesuré en IRMfest très orréléspatialement,puisque leszones

ativées s'étendent sur plusieurs voxels. Tenir ompte de ette dépendane

spatialepermetd'amélioreronsidérablementladétetion etl'estimationdes

ativations. Dans ette partie, nous dérivons une manière de tenir ompte

de ladépendane spatiale entre les voxels.

Champs de Markov et lois de Gibbs. Soit

V

un ensemble (ni) de

points appelés sites. On se donne un graphe

G

non orienté, sans boule,

dont lessommets sont leséléments de

V

.Pour un site

v ∈ V

,on note

N (v)

l'ensembledes voisins de

v

,'est àdirel'ensembledes sitesreliés à

v

par une

arête de

G

. Comme

G

n'apas de boule,un sommetne peut être sonpropre

voisin.

Une olletion

(Z v ) v∈V

de variables aléatoires est un hamp de Markov

sur

G

sila loionditionnellede

Z v

sahant

Z v

pour

v 6 = v

est égale à la loi

onditionnelle de

Z v

sahant

Z v

pour

v ∈ N (v)

. Le graphe

G

donne don

l'informationsur lesinterations possibles entre lesvariables

(Z v )

.

Uneloi de Gibbs sur

G

est une loidontla densitése fatorisesuivantles

liques de

G

,i.e. une loidont ladensité

p

est de la forme:

p(z 1 , . . . , z |V | ) ∝ Y

C∈C(G)

V C (z v ; v ∈ C)

(3)

oùonanoté

C (G)

l'ensembledes liques de

G

, unelique étantun ensemble

maximal de sites deux à deux voisins. Lesfontions

V C

sontappelées

poten-tiels de Gibbs.

Ilest failede vérier quesi

(Z v ) v

suit uneloide Gibbssur

G

,alors 'est

un hamp de Markov sur

G

. Laréiproqueest égalementvraie, si ladensité

de laloide

(Z v ) v

est stritementpositive(théorèmede Hammersley-Cliord, f. [3℄, [1℄).

Modèle de Potts Un exemple important de loi de Gibbs est donné par

le modèle de Potts dans lequel toutes lesliques sont d'ordre2 etoù haque

variablepeut prendre un nombre ni de valeurs appelées lasses et oùpour

haque lique

C = { v, v }

, supposée d'ordreau plus égal à 2, lepotentiel de

Gibbs est donnépar

V C (z v , z v ) = exp( − 2βδ(z v , z v ))

(4)

δ

désigne le omplémentaire du symbole de Kroneker :

δ(x, y) = 0

si

x = y

et

δ(x, y) = 1

sinon, et

β > 0

est un oeient rendant ompte de la

foredesinterationsentrelesdiérentssites.Dansemodèle,deuxvariables

voisines ontune probabilitéd'êtreégales d'autantplus importanteque

β

est

grand.

Modèle auto-gaussien Un autre exemple de loi de Gibbs, toujours ave

des liques d'ordre 2, mais ave ette fois-i des variables ontinues, est le

modèle auto-gaussien, oùlaloi onjointedes

(Z v ) v

est :

p((z v ) v ) ∝ exp

 − β X

v

X

v ∈N (v)

(z v − z v ) 2

(6)

Le oeient

β > 0

est toujours un oeient traduisant la forede

l'inter-ation entre deux variablesvoisines.

Modélisation de l'interation spatiale entre les voxels. Lors du

traitement bayésien d'uneimage IRMf,un modèle de Potts peut être utilisé

omme a priori régularisantde lamanièresuivante: lessommetsdu graphe

dedépendanesontlesvoxelseux-mêmes,leslassessont{ativé,nonativé}

etlesvoisinsd'unvoxelsontses6voisinsausensphysique(enhaut,enbas,à

gauhe, àdroite,en avant,en arrière).L'équation(5)rendalorsbienompte

du fait que siun voxel est ativé (resp.non ativé), alorsses voisins ont une

probabilité importanted'être ativés (resp. non ativés). Ce modèle permet

dond'eetuersimultanémentlalassiationdesvoxelsetlarégularisation

spatiale. Nousutilisons e modèle dans nos deux premières approhes.

Notre troisième approhe ne lassie pas les voxels, mais impose une

régularisation spatiale diretement au travers du prior auto-gaussien utilisé

sur les niveaux de réponse

a im

, ave le même graphe de dépendene que

i-dessus.

2.5.2 Inférene

Dansettepartienousprésentonsquelques méthodesd'inféreneutilisées

pour obtenirdes informationssur une loi a posteriori

Θ | y

(

Θ

est l'ensemble

desparamètreset

y

sontlesdonnéesobservées),dontladensitéestonnue seulementàuneonstantemultipliativeprès,ainsiquedéritdanslasetion

2.5.

Monte-Carlo onsistent en la simulation d'un éhantillon de la loi a

poste-riori, puis du alul des aratéristiques de ette loi (moyenne, variane,

histogramme...) à partir de l'éhantillon simulé.

L'algorithme utilisé pour la simulation de l'éhantillon est l'algorithme

de Metropolis-Hastings (f. [7℄), dont l'éhantillonnage de Gibbs est un as

partiulier. Cet algorithme onstruit, à partir de la donnée d'une loi dont

la densité est onnue à une onstante près, une haîne de Markov dont la

distribution stationnaire est laloi à simuler.

Les méthodes de Monte-Carlo donnent de bonnes approximations, sont

bien justiées théoriquement et donnent aès à toutes les aratéristiques

des loismais demandent des tempsde alul généralementassez longs.

Iterated Conditional Modes (ICM) L'algorithme ICM (f. [2℄) peut

êtreutilisépourdéterminerlemoded'uneloijointe

p(x 1 , x 2 , . . . , x n )

quin'est

pasmaximisablediretement,maisdontlesloisonditionnelles

p(x i | x j , i 6 = j)

le sont.

Leprinipede l'algorithme est le suivant :

Initialiser

x 1 , . . . , x n

;

Tant quenon onvergé faire :

Pour

i

entre 1et

n

faire :

Mettreà jour

x i

selon

x i ← arg max e x i p( x e i | x j , j 6 = i)

;

L'algorithmeICMestplusrapidequelaméthodeMCMCmaisilnedonne

pasaèsàtoutel'informationsurlaloiaposteriori;deplusilestseulement

onvergent vers un maximumloalde lavraisemblane(lavraisemblane ne

faisant qu'augmenter à haque étape), et est don assez sensible à

l'initiali-sation de l'algorithme.

Notre première approhe utilise ette méthode d'inférene.

Approhes variationnelles,variational EM Dansune approhe

varia-tionnelle, la loi a posteriori

p(Θ | y)

est approximée par une autre loi

q(Θ)

;

plus préisément nous imposons laformede laloi

q

, ette loidépendant

de paramètresquisontdéterminésenherhantàminimiserladivergene de

Kullbak-Leibler

KL = E q

ln q(Θ) p(Θ | y)

,

quiestunemanièrede quantierladistaneentre lesdeuxlois

q

et

p(. | y)

.

L'approhe EM variationnelle (f. [11℄ ou [22℄), basée sur une version

fontionnellede l'algorithmeEM,appliquee prinipeen remplaçantlaloia

permettant d'obtenir à la fois une approximation de la loi des paramètres a

posteriori, et d'estimer les paramètres non bayésiens par maximum de

posteriori, et d'estimer les paramètres non bayésiens par maximum de

Documents relatifs