• Aucun résultat trouvé

Matériel et méthode

2. Modélisation du processus ponctuels marqués

Les processus ponctuels décrivent des distributions de points dans l’espace, ils sont construits sur des contraintes définies préalablement et dont le plus simple est le processus de Poisson qui traduit la notion d’uniformité dans l’espace en suivant une loi de Poisson [5]. Si le processus impose des contraintes d’interaction entre les points de voisinage, il est dit Markovien [6]. Les processus ponctuels marqués sont des processus d’objets ayant une position et une marque géométrique [6]. Ils sont définis par leur densité par rapport à une mesure de Poisson de référence, la densité du processus peut s’exprimer sous forme énergétique1

zexp[−U (x)], où U (x) représente l’énergie du processus de Gibbs [5] et Z

une constante de normalisation.

La répartition aléatoire des observations dans l’espace engendre la constitution des régions à concentration élevée ; ces régions sont les modes de classes recherchées. Les modes de classes sont des nuages de points de différentes formes, caractérisés par une densité élevée (Figure 1) et sont composés des observations prototypes. L’objectif de ce travail est l’extraction des prototypes des classes à partir des distributions multidimen- sionnelles. Vu que nous sommes dans un cadre non supervisé et que nous traitons des

d’objets qui prennent tout leur sens dans notre problématique : les objets sont censés se placer dans les régions à forte concentration de données en concordant des contraintes d’interaction, nous espérons que l’intersection des objets épouse les modes des classes recherchés. De ce fait, nous sommes face à deux champs :

– Le champ des observations Y : il correspond à l’ensemble multidimensionnel des données observées, Yj = [y1,j, ..., yq,j, ..., yQ,j] où j est la dimension, j = 1, .., n, ...N

et Q est le nombre d’observations.

– Le champ des configurations X : une configuration x correspond à l’ensemble des objets composant le processus qui sont des hyper-sphères représentées par des centres yq,n

et un rayon r qui définit le voisinage de l’objet. Nous recherchons la configuration x ∈ X optimale et nous notons l’hypersphère hs(yq,n; r) ∈ x/yq,n∈ Y ; r ∈ [rmin, rmax].

Figure 1. Données brutes Figure 2. Configuration initiale

2.1. Adaptation des processus ponctuels d’objets pour le problème

de détection des modes de classes

La création d’un processus d’objets est liée à la définition de sa densité qui est expri- mée par une fonction d’énergie. L’énergie du processus est la somme de l’énergie d’at- tache aux données Udataet de l’énergie d’interaction Uinter.

U (x|θ) = Udata(x, θ) + Uinter(x, θ) [1]

où U(x|θ) est l’énergie de la configuration x en fonction du vecteur de paramètres θ. 1) Énergie d’attache aux données : L’énergie d’attache aux données est modélisée par le modèle détecteur [7] comme suit :

Udata(x, θ) = −

X

hs∈x

V (hs) [2]

où V (hs) est la fonction de potentiel associée à l’hypersphère hs(yq,n; r), le poten-

tiel d’une hypersphère tient compte des critères locaux. V (hs) la fonction de potentiel de l’objet hs aura une valeur qui favorise l’acceptation des objets bien positionnés. Un objet est dit bien positionné s’il couvre au moins nmin observations et sa densité est su-

périeur à dmin. Si l’objet est mal positionné, V (hs) aura une valeur qui réduit les chances

2) Énergie d’interaction : nous proposons de modéliser l’énergie d’interaction par : Uinter(x|θ) = σ(hs) + |c(x)| log γ − nbr(x) log β [3]

σ(hs) est le terme de répulsion entre deux objet, il empêche le recouvrement en pénalisant les cas de recouvrement et les cas qui ressemblent au recouvrement, |c(x)| est le nombre de composantes connexes, ce terme favorise la création des composantes connexes dans une région de forte concentration des données en fonction de la variance du champ observable et nbr(x) est le nombre d’objets dans la configuration x. γetβ sont des paramètres régulateurs qui vont équilibrer la création des objets par rapport à la création des composantes connexes.

2.2. Algorithme de détection de modes de classes

L’algorithme consiste à employer un processus d’objets et de les manipuler de sorte qu’ils se localisent dans les régions que nous souhaitons extraire. Il se déroule en deux étapes :

–> Initialisation : La première étape de l’algorithme consiste à générer un ensemble initial d’objets qui doit couvrir toutes les observations disponibles (Figure 2). L’algo- rithme crée des objets de rayon = rmax et tire leurs centres du champ d’observations.

Tant qu’il y a des observations qui ne sont pas couvertes par un objet, l’algorithme conti- nue la génération d’objets. Et donc le nombre des observations est supérieur ou égal aux nombres des objets.

–> Simulation : La deuxième étape est la simulation du processus d’objets, nous avons adapté la méthode de Metropolis-Hastings-Green [8]. Cette méthode considère un noyau de proposition de plusieurs mouvements et calcule un rapport dit, rapport de Hastings qui aide l’algorithme à accepter ou à refuser le mouvement, elle considère les mouvements naissance et mort. Nous avons ajouté deux mouvements, le déplacement et le changement de marque. Cette méthode s’adapte parfaitement avec notre problématique, car elle ne se limite pas qu’à la naissance et la mort, mais elle permet d’ajouter d’autres mouvements, c’est aussi un processus de naissance avec rejets, ce qui permet de cesser la croissance des objets, favorisant ainsi une stabilisation de l’algorithme.

Le tableau suivant résume les quatre noyaux de proposition et le rapport d’acceptation de chacun :

Mouvement Probabilité Rapport de Hastings

Naissance p1× pb ppdb f(`x) f(x) v(x) nbr(x)+1 Mort p1× pd ppbd f(`x) f(x) nbr(x) v(x) déplacement/changement de marque p2 f(`f(x)x)

Tableau 1. Les noyaux de proposition et rapports de Hastings correspondants Où pbest la probabilité de naissance, pd= 1 − pbest la probabilité de mort, f(x) est

la fonction de potentiel de la configuration x, nbr(x) est le nombre d’objets et v(x) est la mesure de l’espace des objets.

La simulation se déroule en répétant les étapes suivantes, tant que le nombre d’objets et l’énergie du processus ne se sont pas stabilisés :

L’algorithme commence par faire un tirage aléatoire pour décider le mouvement (nais- sance, mort, déplacement et changement de marque).

aléatoirement du champ des observations ; d’un rayon qui sera aussi choisi aléatoirement dans l’intervalle [rmin, rmax]. La nouvelle configuration sera ˜x = x ∪ hs

- Mort : La mort nécessite un tirage aléatoire d’un objet hs de la configuration x. La nouvelle configuration sera ˜x = x\hs

- Déplacement : Le déplacement nécessite un tirage aléatoire d’un objet hs de la confi- guration x, un choix aléatoire d’un centre du champ des observations et le rayon reste inchangé.

- Changement de marque : Le changement d’échelle de l’objet hs qui est tiré aléatoi- rement de la configuration x, nécessite un tirage aléatoire de la nouvelle valeur du rayon dans l’intervalle [rmin, rmax].

Après la simulation d’un mouvement, l’algorithme calcule la fonction énergétique de la nouvelle configuration U(˜x|θ) en évaluant son énergie d’attache aux données et son énergie d’interaction.

À ce moment l’algorithme décide d’accepter ou de refuser le mouvement, pour cela, il calcule le rapport de Hasting (Tableau 1) et tire une valeur aléatoire, si cette dernière est inférieure à α(α = min{1, R}), le mouvement est accordé et xi= ˜x sinon le mouvement

est refusé et nous gardons l’ancienne configuration (x(i−1)).

L’optimisation est une étape indispensable pour la minimisation de l’énergie du pro- cessus d’objets, nous proposons d’utiliser la méthode du recuit simulé[8], qui permet d’explorer divers minima locaux et propose un schéma de descente logarithmique en at- tachant une température décroissante T au processus pour assurer la convergence. Par conséquent la fonction de potentiel devient f(˜x) = f(˜x)Ti1. où T

i est la température du

système à l’itération i.

À la fin de l’algorithme, les objets se localisent sur les régions de forte concentra- tion de données (Figures 3 et 4), l’intersection des objets constitue les modes de classes recherchées.

Figure 3. Configuration à l’itéra- tion 500.

Figure 4. Configuration à l’itéra- tion 10000 (finale).

2.3. Ajustement des paramètres du modèle

Le paramètre le plus important et celui qui influence la réponse de l’algorithme est sans doute l’échelle des objets. Qui prend sa valeur dans l’intervalle [rmin,rmax], nous

couvre au moins deux observations. rmaxdépend de la taille des données, du degré de dis-

persion des données et de la dimension de l’espace de données. Il a une grande influence sur le nombre de classes et par conséquent sur la classification des données.

Vu son importance, nous utilisons une heuristique employée dans [3] [9] qui consiste à passer par une phase d’apprentissage, afin de trouver la meilleure valeur de rmax, nous

exécutons l’algorithme pour différentes valeurs de rmaxet nous prenons la valeur médiane

de l’intervalle qui assure une stabilité dans le nombre de modes détectés (Figure 5).

Figure 5. Évolution du nombre de modes de classes détectés en fonction du rayon.