• Aucun résultat trouvé

Champ aléatoire sous hypothèse de Markov

2.4 Recours à la donnée réelle

3.1.4 Champ aléatoire sous hypothèse de Markov

L’hypothèse de Markov présente les champs aléatoires sous l’angle du voisinage. Elle réduit la complexité en postulant que la valeur d’un champ aléatoire pour un point donné ne dépend que des valeurs du champ pour un voisinage de ce point d’où Dl P R, @~g1PG , P`Hp~g1q|Hp~g1´ ~g2q, ~g2‰ 0G˘“ P`Hp~g1q|Hp~g1´ ~g2q, 0 ď ||~g1´ ~g2||2ď l˘. Les dépendances au sein d’un champ aléatoire s’en trouve donc d’autant plus relaxées que l sera petit6. L’hypothèse de champs stationnaires évoquée dans le cas des champs gaussiens est également appliquée au champ de Markov. Ainsi, là où les champs gaussiens stationnaires isotropes sont entièrement définis par une moyenne et une fonction de covariance, les champs markoviens stationnaires sont caractérisés par la probabilité d’observer certains voisinages.

Cette approche est utilisée en géophysique pour simuler les propriétés du sol. Elle est aussi très largement exploitée dans le domaine de l’infographie où elle permet par exemple de synthétiser des textures donnant l’impression qu’un objet est en bois, en pierre, etc. Dans le cadre de la simulation opérationnelle, donner l’impression que les signaux sont issus d’un véritable matériau composite est un point important, aussi la Section 3.2 s’intéressera-t-elle à l’application des champs aléatoires de Markov au CND par ultrasons. Les recherches bibliographiques menées dans ce cadre sont présentées ci-après. Elles montrent comment de tels champs peuvent être synthétisés. De façon générale, la synthèse s’appuie systématiquement sur un ensemble de réalisations connues du champ à partir desquelles le comportement des voisinages est modélisé. La diversité des techniques se trouve plutôt dans la manière d’extraire les informations de voisinage à partir de ces réalisations, dîtes réalisations de référence7. L’étude de ces différentes stratégies est un point de départ pour les modèles ultrasonores proposés en Section 3.2.3 et en Section 3.3.

3.1.4.1. Chaîne de Markov

Il existe un objet mathématique particulièrement utile pour modéliser le comportement des voisinages au sein d’un champ aléatoire : la chaîne de Markov. Pour simplifier l’analyse, la chaîne considérée sera unidimensionnelle. Il est supposé qu’au moins une réalisation du champ aléatoire à étudier est disponible [153] :

— ré-organiser la réalisation connue du champ en une chaîne unidimensionnelle. Il s’agit de réduire le champ aléatoire à une seule dimension par concaténation. Par exemple, pour un champ bi-dimensionnel, les lignes de pixels sont mises bout à bout. Les valeurs de la chaîne ainsi formée par les réalisations des `Hp~giq˘

0ăiďn mis côte à côte sont appelées des états si. On notera ns le nombre de valeurs différentes prises par un état (le champ n’est donc pas traité comme un champ aléatoire parfaitement continu mais un champ à valeurs discrètes). — établir la matrice de Markov nsˆ ns dont chaque coefficient représente la probabilité de

sauter d’un état si à un état sj.

— synthétiser le champ. A partir d’un état initial aléatoire, chaque état suivant est déterminé par un tirage respectant les probabilités de passage établies dans la matrice de Markov. De proche en proche, un champ aléatoire est ainsi synthétisé à partir de la seule connaissance du comportement de son voisinage immédiat en une dimension. Pour capturer les voisinages selon plusieurs directions, des techniques à plusieurs chaînes ont été développées.

Certains travaux étendent la notion de voisinage plus loin que les premiers voisins. Le modèle d’auto-regression utilise notamment cette approche [154] et la combine avec l’hypothèse de Gauss. Le champ de Gauss-Markov résultant se synthétise ainsi :

— ré-organiser la réalisation connue du champ en une chaîne unidimensionnelle comme précé-demment ;

— supposer que l’on puisse exprimer la valeur du champ en une position ~gi comme la com-binaison linéaire des valeurs du champ prises dans un voisinage V~gi, à savoir Hp~giq “ ř

~l

jPV~gi

0ăjăCardpV~giq

λjHp~ljq ` θi avec θi une variable aléatoire gaussienne.

6. Un l nul impose une indépendance de toutes les variables aléatoires du champ et en fait donc un champ aléatoire indépendant.

7. La réalisation de référence n’est pas nécessairement complète, il existe notamment des travaux cherchant à étudier des champs aléatoires tri-dimensionnels à partir de réalisations de référence seulement disponibles sur un plan [152].

— calculer les paramètres λj optimaux par la technique des moindres carrés et évaluer le com-portement de θi;

— synthétiser le champ. A partir d’un état initial, chaque état suivant est déterminé en appli-quant la relation définie ci-avant.

L’état initial peut être de différentes natures [153]. Pour obtenir des champs aléatoires cohérents avec la réalisation de référence, il faut utiliser un nombre suffisamment grand de voisins, aboutissant à des calculs parfois très longs.

3.1.4.2. Technique d’Efros et Leung

La technique développée par Efros et Leung [155] a démontré de très bonnes capacités à extraire des informations de voisinage, étant même citée en 2006 comme « l’état de l’art de la synthèse de texture » [156]. La technique a été développée pour des champs aléatoires bi-dimensionnels dont les réalisations sont des images. Au moins une image du champ étudié est disponible :

— initialiser la génération en choisissant aléatoirement un germe de synthèse parmi les pixels de l’image disponible. Le germe est généralement constitué d’un carré de 3 ˆ 3 pixels. — compléter le germe initial en sélectionnant itérativement les valeurs des pixels adjacents

inconnus. Les itérations se font en spirale autour du germe ; le voisinage du pixel Hp~giq est défini comme un carré de 3ˆ3 pixels centré sur la position ~gi. Pour estimer la valeur inconnue Hp~giq:

— rechercher l’ensemble des voisinages qui ressemblent, dans l’image connue, au voisinage constaté autour de la position considérée ~gi. La ressemblance est estimée par le calcul d’une distance entre deux voisinages ; en-dessous d’un certain seuil, les voisinages sont considérés comme ressemblant. La distance choisie est une différence quadratique nor-malisée et pondérée par un noyau gaussien qui donne une importance plus forte aux premiers voisins.

— établir un histogramme de toutes les valeurs centrales des voisinages précédemment sélectionnés ;

— tirer la valeur de Hp~giqà partir de l’histogramme.

Il faut noter qu’avec un voisinage carré, les pixels inconnus n’ont pas nécessairement un voisinage entièrement caractérisé. Dans ce cas, seuls les pixels déjà synthétisés sont pris en compte. Avec un choix judicieux de la taille du voisinage, la méthode donne d’excellents résultats dans la plupart des cas.

La technique initiale connaît néanmoins quelques difficultés notamment « sa tendance pour cer-taines textures [i.e. champ aléatoire bi-dimensionnel] à glisser dans une mauvaise zone de recherche et à synthétiser n’importe quoi, ou à se coincer dans une zone de l’image connue et à produire des copies conformes à l’original » [155]. Ce comportement est favorisée par la taille variable du voisinage imposée dans l’algorithme de base : le nombre de pixels connus dans un voisinage carré avec une itération en spirale n’est pas constant. Une nouvelle forme de voisinage couplée à des itérations en ligne est donc proposée par Wei et al. [157] pour pallier le problème.

Le choix de la taille du voisinage est aussi un point crucial. Il doit être sélectionné judicieusement en fonction des motifs existants dans les réalisations disponibles du champ aléatoire étudié. Pour contourner la difficulté, la synthèse peut se faire en combinant plusieurs échelles grâce à une représentation des images en pyramide multi-résolution [158]. L’image est décomposée en plusieurs niveaux de détails grâce à des compressions successives. Par exemple, la pyramide gaussienne consiste à compresser par sous-échantillonnage d’un facteur deux à chaque niveau de la pyramide. La méthode de synthèse peut alors être appliquée pour chaque niveau avant de recomposer l’image, Wei et Levoy [157] élargissent ainsi les possibilités de la méthode.

Enfin, cette méthode souffre de longs temps de calcul, notamment à cause de ceux requis par la phase de recherche des voisinages pixel par pixel. Différentes techniques d’optimisation de la recherche de premiers voisins permettent d’apporter une première solution : arbres kd [159] ou encore quantification de vecteurs [157]. Un autre constat permet de gagner en temps de calcul : lors de la simulation du champ, tous les pixels déjà synthétisés sont issus d’une analyse de voisinage, ainsi les nouvelles recherches peuvent s’appuyer sur ces pixels déjà traités [160]. La combinaison de ces approches a notamment permis des diminutions notables des temps de synthèse [161] :

passage de 8 066 minutes à 157 minutes avec l’algorithme de k-cohérence à partir d’une image de 128 ˆ 128pixels. Pour gagner encore en rapidité, à la place de travailler avec des pixels uniques, l’algorithme peut s’appliquer directement sur des groupes de pixels. Dans ce cas, il faut traiter le cas des superpositions :

— superposition par masquage des groupe les plus anciens par les nouveaux (et utilisation de groupes aux formes irrégulières pour ne pas attirer l’attention) [162] ;

— fusion par moyenne pondérée des groupes aux niveaux des frontières (risque de flou) [163] ; — déformation des groupes pour mettre leurs caractéristiques principales en concordance avec

leurs voisins [164][165] ;

— découpage des groupes pour optimiser la transition d’un à l’autre [166][167].

Les méthodes évoquées ici sont principalement issues de l’infographie, cependant, une technique similaire à celle d’Efros et Leung a vu le jour dans le domaine géostatistique [168]. Elle prend alors le nom de Statistique Multi-Point (SMP). Ce nom s’oppose à la statistique à deux points qui correspond à l’hypothèse de Gauss8. Lorsque des structures géologiques complexes doivent être estimées, l’approche SMP est plus performante. Il faut noter que dans ce domaine, les champs étudiés sont souvent non continus : il s’agit simplement de comprendre la répartition spatiale d’un nombre fini de faciès géologiques. L’estimation des voisinages s’en trouve simplifié puisque le champ aléatoire ne prend que quelques valeurs discrètes. Les différentes améliorations apportées à la méthode montrent un parallèle évident avec les travaux en infographie [169] :

— introduction de grilles multiples pour s’affranchir des problèmes de taille de voisinage ; — modification du trajet suivi par la synthèse itérative en fonction des structures à générer ; — correction du résultat de synthèse a posteriori pour éliminer les valeurs aberrantes ;

— conditionnement de la synthèse pour contraindre le champ à prendre une valeur donnée en un point donné ;

— passage d’une synthèse itérative par points à une synthèse itérative par groupement de points. L’extension de la méthode aux champs continus devient alors possible ;

— utilisation d’une réalisation de référence bi-dimensionnelle pour synthétiser des champs aléa-toires tri-dimensionnels, puis extension à l’utilisation d’une référence tri-dimensionnelle.

3.1.4.3. Optimisation globale

Les méthodes présentées ci-avant exploitent une approche itérative, le champ aléatoire est estimé point après point, voire groupe de points après groupe de points. Certaines techniques cherchent à traiter le problème de façon globale : la synthèse du champ aléatoire est initialisée par une réalisation approchée puis elle est corrigée par une optimisation globale permettant d’imposer les caractéristiques voulues. Le critère à optimiser doit traduire les contraintes de voisinage tout en étant peu coûteux à calculer. Kwatra et al. [170] proposent par exemple de minimiser une somme de distances. Ces distances sont calculées pour chaque point du champ à synthétiser et se définissent comme la plus petite distance euclidienne entre le voisinage du point considéré et les voisinages présents dans la réalisation de référence. Dans leur étude, la phase d’optimisation s’inspire de l’algorithme espérance-maximisation [171]. Il arrive que la phase d’optimisation se bloque dans un minimum local, aboutissant alors à une correction incomplète du champ synthétisé, caractérisé par des structures floutées ou décalées. L’approche de k-cohérence précédemment évoquée permet de limiter ce type d’effet [172].

Cette approche présente l’avantage de traiter les propriétés du champ de façon globale, per-mettant ainsi de corriger à plusieurs reprises un même point pour rendre le champ plus proche de la référence. Par contre, l’optimisation demande de très grandes ressources en calcul et certaines implémentations s’appuient sur des GPU [173].

8. En effet, un champ gaussien est caractérisé par sa fonction de covariance et cette fonction décrit le compor-tement de couples de points.