• Aucun résultat trouvé

L’application pr´esent´ee au paragraphe pr´ec´edent montre l’influence des pa-ram`etres d’interaction sur le r´esultat final. Dans cette partie, nous regardons le probl`eme suivant : une structure est form´ee par des objets en interaction que nous supposons gouvern´es par un processus ponctuel marqu´e. Nous

sou-0 20 40 60 80 100 120

Figure 7.3 – R´esultats obtenus pour les trois catalogues : A (en haut), B (au milieu) et C (en bas). A gauche, le ”meilleur” r´esultat est superpos´e aux donn´ees. A droite on a superpos´e tous les r´esultats obtenus avec les jeux de param`etres du Tableau 7.1. Le premier jeu de param`etres est repr´esent´e en rouge, le second en bleu et le troisi`eme en vert.

haitons estimer les param`etres d’interaction entre objets.

Nous pr´esentons ici les r´esultat obtenus sur l’estimation des param`etres d’in-teraction du mod`ele Candy [T3, T7].

Le domaine d’observation est une partie compacteW ⊂R2 de volume stric-tement positif 0< ν(W) <∞. Un segment est un objet de centre w dans W et de caract´eristiques m = (l, θ), longueur et orientation, dans l’espace de probabilit´e M = [lmin, lmax]×[0, π). La distribution des marques νM est la loi uniforme surM. Soit x={(w1, m1), . . . ,(wn, mn)} une configuration finie de segments. Le mod`ele Candy est d´efini par la densit´e de probabilit´e par rapport `a la mesure de r´ef´erence poissonienne (2.4)

p(x) = p(∅)Qn

i=1exph

li−lmax

lmax

i

× γ0n0(x)γ1n1(x)γ2n2(x)γrnr(x)γono(x) (7.10) o`up(∅) est la constante de normalisation, et o`uγ2, γ1, γ0 >0 etγr, γo ∈(0,1) sont les param`etres d’interaction du mod`ele. Les statistiques exhaustives du mod`ele n2(x), n1(x), n0(x), nr(x), no(x) sont respectivement le nombre de segments connect´es aux deux extr´emit´es, le nombre de segments connect´es

`

a une seule extr´emit´e, le nombre de segments non connect´es, le nombre de paires de segments en r´epulsion et le nombre de paires de segments non align´es. Tous les d´etails concernant la d´efinition des interactions et les pro-pri´et´es du mod`ele Candy se trouvent dans [T7].

Pour ce probl`eme d’estimation, on suppose les param`etres lmin, lmax, ra et τ connus. Cette hypoth`ese peut ˆetre d´ebattue, car l’estimation des pa-ram`etres de port´ee des interactions est un probl`eme encore ouvert. Dans ce contexte cependant, il n’est pas d´eraisonnable d’imaginer ces param`etres estim´es par des techniques de statistique exploratoire ou bien d’analyse d’image [90, 141, 180].

Les mod`eles Candy et Bisous, comme la plupart des mod`eles avec lesquels nous avons travaill´e, font partie de la famille exponentielle (6.2). La dy-namique de simulation de ces mod`eles est construite `a partir d’une chaˆıne de Markov irr´eductible, Harris r´ecurrente et ergodique g´eom´etrique. Par cons´equent, le cadre d’estimation de param`etres par maximum de vraisem-blance peut ˆetre appliqu´e.

Ecrivons la densit´e de probabilit´e (7.10) sous la forme p(x|θ) = expht(x), θih(x)

Z(θ)

o`ut(x) est le vecteur de statistiques canoniques exhaustives t(x) = (n2(x), n1(x), n0(x), nr(x), no(x)), θle vecteur de param`etres

θ= (logγ2,logγ1,logγ0,logγr,logγo)T eth(x) =Qn

i=1exph

li−lmax

lmax

i.

La proc´edure de maximisation n´ecessite les valeurs observ´ees det(x) et une valeur initiale de θ0. La logvraisemblance ´etant convexe, l’optimisation est en principe ind´ependante des conditions initiales. De plus, la simulation du mod`ele se fait `a l’aide d’une chaˆıne de Markov qui poss`ede de bonnes pro-pri´et´es de convergence. En cons´equence, les approximations Monte Carlo approchent tr`es bien les valeurs th´eoriques et un th´eor`eme de la limite cen-trale permet d’´evaluer les erreurs d’estimation. Cependant, les ´evaluations num´eriques par ´echantillonnage pond´er´e de la logvraisemblance et du gra-dient ne sont pas num´eriquement stables. En effet, ces calculs passent par l’´evaluation d’expressions du type

expht(X), θk−θk+1i.

Si la distance entre la nouvelle et l’ancienne valeur des param`etres est trop grande, alors les valeurs num´eriques de (7.2) peuvent exploser.

La solution `a ce probl`eme est de r´e´echantillonner le mod`ele. En it´erant cette proc´edure, on peut arriver suffisamment pr`es de l’estimateur du maxi-mum de vraisemblance et alors le calculer par une m´ethode directe ou de type Newton-Raphson. La m´ethode it´erative que nous pr´esentons est une m´ethode de gradient `a pas optimal [57, T3, 179, T7].

Algorithme 12 M´ethode it´erative avec gradient `a pas optimal pour l’ap-proximation du MLE

1. Initialiser θ1 et k= 1.

2. G´en´erer m ´echantillons de la loip(x|θk) et calculer ∇lmk).

3. Pour chaque composante des param`etresi={1, . . . ,5}et chaque com-posante du gradient △i, calculer les intervalles Iki = [θki −α△i, θik+ α△i], α >0´etant un param`etre scalaire de pr´ecision.

4. Maximiser la logvraisemblance dans chaque intervalleIki par la m´ethode de la section dor´ee pour obtenir une nouvelle valeur θk+1.

5. Si k θk+1−ωk k> τ1, alors poser k =k+ 1 et aller au pas 2; τ1 est une valeur seuil pr´efix´ee.

Valeurs initiales M´ethode du gradient Monte Carlo MLE logγ0i =−9.5 \

logγ00 =−8.37 log\γ0n =−8.32 logγ1i =−4.0 log\γs0 =−2.74 log\γ1n =−2.73

logγ2i = 1.5 \

logγd0 = 2.46 log\γ2n= 2.47 logγoi =−3.5 log\γo0 =−2.13 log\γon =−2.17 logγri =−3.5 log\γr0 =−2.42 log\γrn =−2.42

Table7.2 – Estimation des param`etres pour les donn´ees de la Figure 7.4.

Ecart-type asymptotique Ecart-type Monte Carlo

0.51 0.002

0.23 0.003

0.17 0.001

0.30 0.002

0.31 0.005

Table7.3 – Erreurs d’estimation.

6. Sik ∇lmk+1)− ∇lmk)k> τ2, alors poserk=k+ 1 et aller au pas 3, sinon arrˆeter l’algorithme ;τ2 est une valeur seuil pr´efix´ee.

La Figure 7.4 montre une r´ealisation du mod`ele Candy, ses param`etres d’interaction et les valeurs observ´ees des statistiques exhaustives. L’Algo-rithme 12 a ´et´e impl´ement´e en prenant comme donn´ees les statistiques ob-serv´ees de la Figure 7.4 et comme param`etres initiauxθ1ceux du Tableau 7.2 (premi`ere colonne). L’algorithme a tourn´e pendant 1000 it´erations et il a uti-lis´e α = 10−3, τ1 = 3.0 et τ2 = 10−6. Le r´esultat obtenu est le vecteur de param`etres θ0 qui figure dans la colonne du milieu du Tableau 7.2. La log-vraisemblance ln(θ) a ´et´e calcul´ee `a partir des n= 2×104 simulations du mod`ele Candy selon la loi p(x|θ0). Des profils de la logvraisemblance sont montr´es Figure 7.5. Le maximum de ln(θ) est affich´e en troisi`eme colonne du Tableau 7.2.

L’´ecart-type asymptotique de l’estimateur du maximum de vraisemblance par rapport aux param`etres du mod`ele (inconnus en pratique) et l’erreur standard Monte-Carlo de l’approximation du maximum de vraisemblance par rapport au vrai maximum de vraisemblance sont donn´es au Tableau 7.3.

0 50 100 150 200 250

050100150200250

Param`etres du mod`ele logγ0 =−8.5

logγ1 =−3 logγ2 = 2.5 logγo=−2.5 logγr=−2.5

Statistiques exhaustives n0 = 4

n1 = 34 n2 = 63 no = 12 nr = 9

Figure7.4 – R´ealisation du mod`ele Candy (en haut), ses param`etres d’in-teraction (tableau au milieu) et les valeurs observ´ees des statistiques exhaus-tives (tableau du bas).

−11 −10.5 −10 −9.5 −9 −8.5 −8 −7.5 −7

Figure 7.5 – Approximation Monte Carlo de la logvraisemblance en fonc-tion des composantes individuelles, les autres composantes de logˆγ0 ´etant fix´ees.

7.3 Approche bay´ esienne pour la d´ etection des