• Aucun résultat trouvé

sienne et variationnelle que nous avons étudiée et l’approche « fréquentiste » en segmentation d’images, si on accepte l’idée que la méthode a contrario évalue la fréquence d’apparition de lignes de niveau d’une certaine longueur dans l’image. On peut remarquer que ces deux ap-proches visent à sélectionner une sous-collection de lignes de niveau de l’image issue de l’analyse de la distribution empirique de l’image.

2.4 Conclusion et perspectives

La mise en œuvre de méthodes bayésiennes et variationnelles peut s’avérer délicate en raison de la charge calculatoire nécessaire pour mener la minimisation globale des énergies non-convexes, même en dimension 2. Ces considérations nous ont conduit à proposer des fonctionnelles (terme d’attache aux données et régularisation) plus simples que les modèles habituellement préconisés, pour lesquelles les solutions minimisantes peuvent être confinées dans un domaine facilement explorable. Elles se déclinent par le choix de termes de régularisation contrôlant surtout l’aire des objets et le nombre d’objets à construire, adjoints à un terme d’attache aux données, ne reposant pas nécessairement sur un modèle de bruit blanc gaussien. Pour justifier l’emploi de ces termes d’énergie, on peut faire valoir que les courbes (ou surfaces) qui minimisent les fonctionnelles sous-jacentes se superposent à des lignes (ou surfaces) de niveau de l’imagef, en nombre restreint et inconnu. Ces lignes (ou surfaces) de niveau, qui ont acquis un statut d’objet principal surtout en imagerie 2D et en morphologie mathématique, sont équivalentes aux frontières des composantes connexes des ensembles de niveau de l’image f, caractérisés par l’histogramme def. Une image est ainsi décrite par une « mosaïque stochastique » de composantes connexes des ensembles de niveau de l’image, sans prise en compte de phénomènes d’occultation des objets. Cette description a permis d’unifier certaines notions de morphologie mathématique et de sélection automatique des seuils pour la segmentation. Il semble possible de poursuivre sur cette dynamique et de chercher à lisser des lignes de niveau selon d’autres mécanismes ou de s’intéresser aux ensembles de niveau d’une distribution de probabilité qui se déduirait d’attributs calculés sur l’image, par exemple en s’inspirant des travaux récents de Brox & Cremers (2009).

Les résultats que nous avons présentés sont originaux dans le sens où la plupart des résul-tats théoriques mettent en évidence l’existence d’un minimum global de la fonctionnelle étudiée, sans pour autant proposer toujours une méthode algorithmique rapide pour le déterminer. Ce fut moins le cas ces cinq dernières années ou nous avons assisté à une quantité de méthodes de segmentation (markovienne ou variationnelle) pour lesquelles de nombreux algorithmes d’optimi-sation ont été proposés. Ce travail s’inscrit aussi dans un projet plus général de reconnaissance de forme, au sein duquel la question de savoir « quels critères optimiser » est devenue centrale. On peut considérer que la théorie des champs aléatoires conditionnels (CRF) ou champs aléatoires discriminants (DRF) (Kumar & Hebert 2006) permet aujourd’hui de mieux décrire les relations entre les modèles d’images et les observations. Une philosophie très différente de ce cadre de modélisation consiste justement à ne pas recourir à une description des composants de la scène. Le « principe d’Helmotz » (Desolneux, Moisan & Morel 2000, Desolneux et al. 2001) permet d’extraire des éléments significatifs permettant un compréhension de la scène. Le segmentation de l’image par sélection de lignes de niveau significatives (au sens de la longueur et du contraste) est possible selon ce principe.

CHAPITRE 3

Approches non-paramétriques pour l’analyse d’images

3.1 Myopie, redondance et modèles d’images

Q

uelques approches en analyse d’images ont récemment été popularisées en raison de leur sim-plicité de mise en œuvre et compte tenu de l’amélioration spectaculaire des performances

des ordinateurs. Il y a 10 ans, certains algorithmes auraient paru fantaisistes car peu économes en termes de calculs et en mémoire. Un exemple assez frappant est celui de la synthèse de textures proposée par Efros & Leung (1999), un algorithme qui a surclassé les approches paramétriques complexes issues d’une représentation par ondelettes ou inspirées des champs de Markov. La simplicité de cet algorithme est très surprenante et repose sur l’idée élémentaire de « recopier » un motif de texture sans chercher à modéliser son contenu. Les modèles paramétriques statis-tiques capables de capter la variabilité observée sur un échantillon d’images sont bien moins efficaces que la procédure de « copier-coller » préconisée par Efros et Leung. Entre-temps, cet algorithme initial a reçu quelques améliorations (Criminisi, Pérez & Toyama 2004) et la stratégie pour synthétiser une image, apparemment empirique, a été justifiée dans un cadre plus formel d’estimation statistique (Levina & Bickel 2006). Un autre exemple très significatif est celui du débruitage d’images, un problème classique que nous avons évoqué dans le chapitre précédent. Dans un contexte très visité, Buades, Coll & Morel (2005) ont proposé de réduire le bruit dans une image en exploitant la redondance d’information captée par les motifs locaux qui la com-posent. L’algorithme de mise en œuvre des « moyennes non-locales » revient principalement à sélectionner dans toute l’image les motifs les plus similaires au motif de référence ; chaque pixel restauré coïncide ainsi avec la moyenne pondérée (par une distance entre motifs) des observa-tions prises dans toute l’image. D’une manière générale, le bruit que l’on cherche à éliminer est supposé additif. En définitive, les deux algorithmes que nous venons d’évoquer ont pour carac-téristique commune d’être moins « myopes » que leurs prédécesseurs. L’information n’est plus seulement analysée au niveau d’un pixel et de ses « quatre plus proches voisins » mais au-delà.

Le contexte spatial semble mieux capté par des motifs, et une modélisation paramétrique n’est plus indispensable. En définitive, si le débruitage ou la restauration d’images n’est pas encore un problème résolu, ceci est en partie dû à la nature des signaux-images qui contiennent de nom-breux « objets » structurés et isolés, parfois apparentés à du bruit et donc difficiles à éliminer. Une voie plus récente en analyse d’images consiste à élaborer des approches non-paramétriques, guidées par les données, afin de décrire l’ensemble des régularités et géométries observées dans les images. Dans certains domaines scientifiques où l’imagerie est un outil d’investigation (e.g. biologie cellulaire), il est même recommandé de ne pas modéliser trop précisément l’image pour exhiber des informations peu attendues.

D’une manière générale, les méthodes d’analyse d’images les plus performantes sont géné-ralement non-linéaires et peuvent s’appuyer sur la minimisation d’une fonctionnelle d’énergie, requérant un équilibrage des différents termes qui la composent. Ceci limite souvent leur usage et les paramètres sont finalement assez difficiles à comprendre pour un utilisateur occasionnel. Une méthode avec un ou deux paramètres serait acceptable si ceux-ci pouvaient être clairement ou au moins intuitivement compris. Sur le plan pratique, comment peut-on limiter le nombre de paramètres pour rendre l’algorithme acceptable ? Exprimés sous la forme de « p-value », ces paramètres sont probablement à la portée de tous, mais peut-on l’exprimer ainsi à chaque fois ? Dans un cadre bayésien, la gestion de ce problème est très présente à l’esprit. Une approche assez coûteuse consiste ainsi à « calibrer » les paramètres (Azencott 1987, Chalmond 2000), par exemple en fonction d’un critère et d’une base d’images d’apprentissage (Younes 2000), ce qui n’est pas toujours simple à réaliser. Pourtant, l’objectif essentiel est bien de proposer un algorithme efficace pour le problème posé, avec une faible intervention de l’opérateur si possible. Enfin, caractériser la performance ou la fiabilité d’une solution produite par un algorithme d’analyse d’images reste encore un problème ouvert. Seules les méthodes de simulation de Monte-Carlo (Geman & Geman 1984) permettent réellement cela. Ces dernières années, nous avons abordé ce sujet mais pas de manière aussi frontale. Nous nous sommes intéressés à la performance des estimateurs exprimée par une mesure de risque ainsi qu’au niveau de confiance des solutions calculées. L’idée n’est plus seulement d’optimiser un critère afin de déterminer une solution telle que proposée dans le chapitre précédent, mais également de mesurer la fiabilité de cette solution en tout point de l’image, si possible.

Dans ce chapitre, nous abordons ces différentes problématiques et nous traitons les cas de la détection de changements temporels dans une paire d’images et du débruitage/restauration d’images.