• Aucun résultat trouvé

Les processus de Gibbs, également appelés de Markov, sont des processus dans lesquels les points ne sont pas indépendants, contrairement aux deux cas précé- dents. Ils peuvent être définis de façon globale, rigoureuse mais peu intuitive, ou de façon locale, plus simple à comprendre. Nous présentons ici la définition glo- bale de Møller et Waagepetersen (2004 chap. 6) et celle, locale, de Tomppo (1986), utilisée par Goreaud (2000), puis une synthèse.

Définition globale

Fonction de densité d’un processus par rapport à un autre

Soit 𝐹 ∈ 𝑁𝑓, un ensemble de semis de points localement fini, et deux processus

ponctuels Ξ1 et Ξ2. Ξ2 est dit absolument continu par rapport à Ξ1 si et seulement

si 𝑃(𝑋1 ∈ 𝐹) = 0 ⟹ 𝑃(𝑋2 ∈ 𝐹) = 0, c'est-à-dire que tout tirage possible de Ξ2 l’est

aussi pour Ξ1. Cette définition est équivalente (Møller et Waagepetersen, 2004,

3.2.4) à l’existence d’une fonction de densité de Ξ2 par rapport à Ξ1, notée 𝑓, telle

que

𝑃(𝑋2 ∈ 𝐹) = 𝔼�𝟏(𝑋1 ∈ 𝐹)𝑓(𝑋1)� (106)

Une fonction de densité permet de définir un processus ponctuel à partir d’un autre (plus simple) à la seule condition qu’il soit absolument continu par rapport à ce dernier.

Densité par rapport à un processus de Poisson

Nous nous intéresserons à des processus définis par une densité chargeant le processus de Poisson standard (c'est-à-dire d’intensité 1) sur 𝐴. Dans la majorité des cas, la fonction de densité ne sera connue que proportionnellement à une constante, appelée constante de normalisation, qui sera incalculable. Cette fonc- tion sera notée ℎ, ℎ ∝ 𝑓.

Voisinage

Une relation de voisinage est une relation entre deux points, réflexive et symé- trique, notée ∼ : 𝑥 ∼ 𝑥, si 𝑥1 ∼ 𝑥2 alors 𝑥2 ∼ 𝑥1. L’ensemble des voisins de 𝑥 consti-

Le voisinage le plus couramment utilisé par la suite sera l’ensemble des points situés à une distance inférieure à une valeur 𝑅 choisie.

Processus de Markov

Un processus ponctuel est dit Markovien s’il a une densité (par rapport au pro- cessus de Poisson standard) et si cette densité ne dépend que du voisinage de chaque point.

Intensité conditionnelle de Papangelou

L’intensité conditionnelle de Papangelou pour un processus ponctuel Ξ de densité 𝑓 est

𝜆∗(𝑋, 𝑥) = 𝑓(𝑋 ∪ {𝑥})

𝑓(𝑋) (107)

où 𝑋 ∈ 𝑁𝑓 et 𝑥 ∈ 𝐴\𝑋, et 𝑓(𝑋) > 0 ; 𝜆∗(𝑋, 𝑥) = 0 si 𝑓(𝑋) = 0.

𝜆∗ est le rapport des densité du processus quand on ajoute un point à un semis

existant. 𝜆∗ présente l’avantage sur 𝑓 d’éliminer la constante de normalisation,

c’est pourquoi son usage sera central par la suite. Si 𝜆∗(𝑋

1, 𝑥) ≤ 𝜆∗(𝑋2, 𝑥) pour tout 𝑋1 ⊂ 𝑋2, le processus est est dit attractif , il est dit répulsif dans le cas contraire.

Fonctions d’interaction

Dans de nombreux cas intéressants, la fonction de densité peut être écrite comme un produit de fonctions d’interaction. On note 𝜙𝑛 les fonctions dites d’interactions

entre les n-uplets de points telles que : 𝑓(𝑋) ∝ � 𝜙1(𝑥) 𝑥∈𝑋 � 𝜙2(𝑥1, 𝑥2) 𝑥1,𝑥2∈𝑋 … � 𝜙𝑛(𝑥1, … , 𝑥𝑛) 𝑥1,…,𝑥𝑛∈𝑋 (108)

Généralement, on se limite aux interactions entre paires de points : seules 𝜙1 et

𝜙2 sont différentes de 1. La relation de proportionnalité est due à la constante de

normalisation. On peut également noter les fonctions 𝜙 sans indice : 𝑓(𝑋) ∝ � 𝜙(𝑍)

𝑍⊆𝑋 (109)

Un processus est markovien si et seulement si 𝜙(𝑍) = 1 dès que deux points de 𝑍 ne sont pas voisins (c’est-à-dire le plus souvent : sont distants de plus de 𝑅).

Pour éliminer la constante de normalisation, on utilise l’intensité conditionnelle de Papangelou : 𝜆∗(𝑋, 𝑥) = � 𝜙(𝑍 ∪ {𝑥}) 𝑍⊆𝑋 (110) où 𝑋 ∈ 𝑁𝑓 et 𝑥 ∈ 𝐴\𝑋. Définition locale

Un semis de points est défini par son cardinal, fixé, 𝑛(𝑋𝐴) et une fonction

d’interaction entre les paires de points, appelée le potentiel de paire :

𝑢�𝑥𝑖, 𝑥𝑗� = 𝑢��𝑥𝑖 − 𝑥𝑗�� = 𝑢(𝑟) (111)

Le potentiel de paire ne dépend que de la distance entre 𝑥𝑖 et 𝑥𝑗. L’énergie totale

du modèle est la somme de tous les potentiels de paires : 𝑈(𝑋) = � � 𝑢��𝑥𝑖 − 𝑥𝑗�� 𝑛(𝑋𝐴) 𝑗=𝑖+1 𝑛(𝑋𝐴)−1 𝑖=1 (112)

L’idée est qu’il est possible de trouver des configurations de points minimisant l’énergie totale, en partant d’un semis de points quelconque respectant seulement 𝑛(𝑋𝐴) (par exemple tiré dans un processus binomial). Chaque point peut être dé-

placé aléatoirement et l’énergie totale ensuite recalculée : si elle a diminué, le nouveau point est conservé, sinon on revient à l’état précédent.

Le choix de la forme du potentiel de paire définit le comportement du modèle (Figure 45) :

Au-delà d’un seuil 𝑅, 𝑢(𝑟) = 0. Seuls les points voisins interagissent.

𝑢(𝑟) = ∞ pour 𝑟 ≤ 𝑅 interdit l’existence de paires de points à distance infé- rieure au seuil choisi 𝑅 (processus hard-core).

𝑢(𝑟) = 𝛽, 𝛽 ∈ ℝ+ pour 𝑟 ≤ 𝑅 crée une répulsion entre les points voisins. Au

final, le semis de point est régulier.

𝑢(𝑟) = 𝛽, 𝛽 ∈ ℝ pour 𝑟 ≤ 𝑅 crée une attraction entre les points voisins.

Sans précaution, tous les points vont se superposer.

La fonction 𝑢(𝑟) peut prendre diverses valeurs qui changent à plusieurs reprises, définissant plusieurs seuils 𝑅.

Figure 45 : Simulations de semis de points dans un processus de Gibbs.

Trois semis de points (en haut) obtenus par trois fonctions différentes 𝒖(𝒓) - notées 𝒇(𝒓) en bas : (i) un semis de points régulier, (ii) un semis attractif à courte distance, puis répulsif, (iii) un semis constitué d’agrégats

régulièrement répartis. La figure est extraite de Goreaud (2000), fig. 113c, p. 42.

Illian et al. (2008) définissent, pour le semis de points 𝑋𝐴 (tiré aléatoirement mais

dont le nombre de points est fixé), la fonction de densité de localisation :

𝑓′(𝑋), 𝑋 = �𝑥1, 𝑥2, … , 𝑥𝑛(𝑋𝐴)� (113)

Pour un processus de Gibbs à nombre de points fixé :

𝑓′(𝑋) = 𝑒− ∑𝑛�𝑋𝐴�−1𝑖=1 ∑𝑛�𝑋𝐴�𝑗=𝑖+1𝑢��𝑥𝑖−𝑥𝑗��𝐾 (114)

𝐾 est une constante de normalisation qui assure que 𝑓′(𝑋) est bien une densité de probabilité. La constante est presque toujours impossible à calculer.

Ces fonctions ont leur origine en physique statistique. Le semis de point optimal minimise l’entropie ∫ … ∫ 𝑓′(𝑋)ln𝑓′(𝑋)𝑑𝑥𝐴 𝐴 1… 𝑑𝑥𝑛(𝑋𝐴) pour une énergie totale

donnée ∫ … ∫ 𝑈(𝑋)𝑓′(𝑋)𝑑𝑥𝐴 𝐴 1… 𝑑𝑥𝑛(𝑋𝐴).

Synthèse

La fonction d’interaction 𝜙2 et la fonction de potentiel de paire sont deux formes

𝜙2��𝑥𝑖− 𝑥𝑗�� = e−𝑢��𝑥𝑖−𝑥𝑗�� (115)

Aux constantes de normalisation près, la fonction de densité par rapport au pro- cessus de Poisson et la fonction de densité de localisation sont identiques : 𝑓 ∝ 𝑓′, à la seule condition que seules les interactions d’ordre 2 interviennent.

Les deux approches sont donc à peu près équivalentes. Les principales différences sont :

• L’approche locale a été construite à partir de la physique statistique, pour un nombre de points fixés dans une zone d’étude 𝐴. Les processus sont gé- néralement appelés processus de Gibbs finis, à nombre de points fixe. Son algorithme de simulation, y compris dans Illian et al. (2008), est probléma- tique.

• L’approche globale a été construite à partir de la théorie des processus ponctuels, pour un nombre de points variable dans ℝ2. Les processus sont

plutôt appelés processus de Markov. Ils ne sont pas généralement, pas con- ditionnés au nombre de points ; en pratique l’espérance de leur nombre de points n’est pas connue, ce qui limite leur usage. Enfin, ils ont souvent des fonctions d’interaction d’ordre différent de 2 différentes de 1 : 𝜙1 = 𝛽, où 𝛽

est une constante, pour les processus de Strauss ci-dessous par exemple.

Le processus de Strauss

Le processus de Strauss est le plus simple des processus de Markov. Il est défini par :

𝜙1 = 𝛽

𝜙2�𝑥𝑖, 𝑥𝑗� = 𝜙2��𝑥𝑖− 𝑥𝑗�� = 𝜙2(𝑟) = γ𝟏(𝑟≤𝑅) (116)

𝛽 est une constante positive. La fonction d’interaction n’est définie qu’entre paires de points. Elle vaut 𝛾, 𝛾 ∈ [0; 1], si les deux points sont voisins (leur dis- tance 𝑟 ≤ 𝑅), 1 sinon (on pose 00 = 1 pour le cas particulier 𝛾 = 0).

𝛾 ne peut pas être supérieur à 1, sinon l’attractivité du processus amènerait tous les points à se superposer. Si 𝛾 = 1, le processus est un Poisson homogène. Si 0 < 𝛾 < 1, le processus est répulsif et on obtient une distribution régulière de points. Si 𝛾 = 0, aucune paire de point ne peut se trouver à une distance infé- rieure à 𝑅. Le processus est dit hard-core.

𝑓(𝑋) ∝ 𝛽 𝑛(𝑋)𝛾 𝑛�𝑏(𝑥,𝑟)� (117)

Au final, il n’est pas simple de prédire le nombre de points obtenu même ap- proximativement à partir des paramètres. Le processus de Strauss conditionnel (au nombre de points 𝑛(𝑋) = 𝑁) est en revanche simple à utiliser :

𝑓(𝑋) ∝ 𝛾 𝑛�𝑏(𝑥,𝑟)� (118)

Il s’agit d’un processus de Gibbs vu plus haut.

Le processus de Strauss multi-étages

Plusieurs seuils 𝑅𝑘 peuvent être utilisés pour définir plusieurs niveaux

d’interactions dépendant de la distance. Soit 𝑛(𝑅) le nombre de seuils, et on pose 𝑅0 = 0 et 00 = 1. Un processus de Strauss multi-étages est défini par :

𝜙2�𝑥𝑖, 𝑥𝑗� = � 𝛾𝑘𝟏(𝑅𝑘−1<𝑟≤𝑅𝑘) 𝑛(𝑅)

𝑘=1

(119)

À chaque intervalle de distances :

𝛾𝑘 = 0 interdit la présence de paires de points éloignés de 𝑅𝑘−1< 𝑟 ≤ 𝑅𝑘. Si 𝛾1 = 0, aucune paire de points distante de moins de 𝑅1 n’est possible : on

parle de processus hard-core.

0 < 𝛾𝑘 < 1 défavorise les paires de points entre 𝑅𝑘−1 et 𝑅𝑘. • 𝛾𝑘 = 1 n’a pas d’effet.

𝛾𝑘 > 1 favorise les paires de points entre 𝑅𝑘−1 et 𝑅𝑘.

On peut facilement rapprocher ces processus de ceux de la Figure 45, en conver- tissant les interactions en potentiels de paires : 𝑢(𝑟) = −ln (𝛾𝑘) et en fixant le

nombre de points.

Simulation

Les méthodes de simulations diffèrent entre les trois grandes familles de proces- sus. Celle des processus de Markov est la plus complexe puisque les points ne sont pas tirés indépendamment.

Pour permettre la mise en œuvre des outils présentés, leur implémentation dans R (Ihaka et Gentleman, 1996) sera systématiquement présentée si elle existe, notamment dans le module Spatstat (Baddeley et Turner, 2005).