• Aucun résultat trouvé

Dans ce chapitre, nous avons introduit le concept de fonctions nivelées. Il s’agit de l’ensemble des fonctions qui peuvent se décomposer à l’aide d’une somme sur des ensembles de niveaux. Nous avons proposé un algorithme de minimisation exacte pour ces fonctions.

Nous rappelons que le graphe que nous construisons (sous-section2.2.4) pour effectuer la minimisation, présente des spécificités intéressantes : le chemin de la source à la racine vaut 2. De plus, puisque la propriété de monotonie doit être vérifiée, cela signifie que des contraintes

(a) Image binaire originale avec différentes tailles de carré : 4,5, 6 et 8 (de gauche à droite).

(b) Image binaire restaurée avec des conditions aux bords positives.

(c) Image binaire restaurée avec des conditions aux bords négatives.

(a’) Image originale avec les mêmes tailles de carré que (a) et les niveaux gris 40 et 220.

(b’) Image restaurée avec des conditions aux bords fixées à 220.

(c’) Image restaurée avec des conditions aux bords fixées à 40.

F. 2.15 – Configurations d’énergie minimale obtenue par recuit simulé. Température initiale T0 =16 avec une décroissance géométrique de 0.98, β = 1.5 (4-connexité).

existent sur les coupures minimales possibles ; autrement dit, nous pouvons réduire a priori l’ensemble des coupures minimales possibles. Nous avons utilisé un algorithme de coupure minimale qui fonctionne dans le cas d’un graphe quelconque. Il serait intéressant de proposer un algorithme de coupure minimale spécifique au graphe que nous avons construit. Nous conjecturons qu’un tel algorithme serait plus rapide que ceux disponibles et qui fonctionnent dans le cas général. Remarquons que des algorithmes de coupures minimales de faible complexité on été présentés dans le cas où le graphe est planaire ou si les arcs ont tous une capacité unitaire (13;112;114;175). Nous avons laissé ce travail pour le futur.

Il est facile de voir que les fonctions nivelées ne contiennent pas les énergies dont le terme de régularisation est quadratique. Dans le chapitre suivant, nous introduisons une nouvelle classe d’énergie, différente des énergies nivelées, qui contient toutes les énergies dont les termes de régularisation sont convexes.

Champs de Markov avec des

régularisations convexes : propriétés et

minimisation exacte

Nous poursuivons l’approche menée dans le chapitre précédent. Cette fois-ci, au lieu de représenter le terme de régularisation avec une seule somme sur les niveaux, nous en auto- risons deux, ce qui permet de représenter toutes les fonctions de deux variables à l’aide de variables binaires. Avant de présenter cette approche, nous introduisons quelques définitions et propriétés de fonctions convexes discrètes (132) dans la parite3.1. Dans la partie3.2nous effectuons la décomposition des termes de régularisation avec une double somme. Nous pro- posons également dans cette partie un algorithme de minimisation exacte quand ces termes de régularisation sont des fonctions convexes. Dans (95), Ishikawa présente un algorithme qui résout le même problème. Comme pour les fonctions nivelées, aucune hypothèse n’est nécessaire sur les termes d’attache aux données. Nous utiliserons un algorithme sensible- ment similaire à celui pour les fonctions nivelées (exposé dans le chapitre précédent), et qui repose donc sur l’utilisation de coupures minimales. La construction de notre graphe est différente de celle d’Ishikawa (95). Ensuite, nous supposons dans la partie3.3que les termes d’attaches aux données et ceux de régularisation sont également des fonctions convexes. Nous exhibons un algorithme qui fournit un minimiseur global. Cet algorithme est itératif et chaque étape repose encore une fois sur l’utilisation de coupures minimales. Nous propo- sons également une version rapide de cet algorithme en utilisant des procédés de "scaling". Quelques résultats numériques pour la restauration d’image sont présentés pour les champs de Markov convexes. A notre connaissance ces résultats et algorithmes sont nouveaux.

Nos travaux sur les champs de Markov avec des régularisations convexes et des termes d’attache aux données quelconques sont acceptés à la revue Journal of Mathematical Imaging and Vision(58).

3.1 Quelques propriétés des fonctions convexes discrètes

Dans ce chapitre nous présentons quelques résultats simples de convexité discrète. Une fonction discrète unidimensionnelle f est une fonction de support A ⊂ ZZ et qui prend ses

valeurs dans IR, i.e, f : A ⊂ ZZ → IR. Nous nous restreignons au cas des fonctions unidimen- sionnelles discrètes. Elles suffisent pour notre étude car les fonctions discrètes de plusieurs variables que nous étudierons dans la suite de ce chapitre, sont des sommes de fonctions unidimensionnelles. Nous renvoyons le lecteur au livre de Murota (132) pour une étude très complète et poussée des différents types de convexité discrète pour des fonctions à plusieurs variables.

Nous donnons maintenant la définition de convexité pour une fonction discrète en consi- dérant la positivité de la dérivée seconde.

Définition 3.1 Soit une fonction discrète unidimensionnelle f : ZZ 7→ IR. Cette fonction est dite convexe si et seulement si l’inégalité suivante est vérifiée

∀x 2 f (x) ≤ f (x − 1) + f (x + 1) . (3.1) Nous proposons d’autres caractérisations de la convexité d’une fonction discrète unidi- mensionnelle. Celles-ci seront très utiles par la suite.

Proposition 3.1 Soit une fonction discrète unidimensionnelle f : ZZ 7→ IR. Les trois propositions suivantes sont équivalentes :

a) ∀x 2 f (x) ≤ f (x − 1) + f (x + 1) .

b) ∀x ∀y > x f (x + 1) − f (x) ≤ f (y) − f (y − 1) .

c) ∀x ∀y ≥ x ∀d ≥ 0 d ≤ (y − x) f(x) + f (y) ≥ f (x + d) + f (y − d) . Preuve : Nous traitons les différents cas possibles.

• Cas a) ⇒ b) . Puisque y > x il existe K > 0 tel que y = x + k. Nous avons donc :

k−1 X l=1 2 f (x + l) ≤ k−1 X l=1 f(x + l + 1) + f (x + l − 1) . (3.2)

Nous séparons en deux la somme de la partie droite, cela donne :

k−1 X l=1 2 f (x + l) = k−1 X l=1 f(x + l + 1) + k−1 X l=1 f(x + l − 1) .

Nous effectuons le changement de variable l ← l + 1 pour la somme de gauche et l ← l − 1 sur la somme de droite, on obtient :

k−1 X l=1 2 f (x + l) = k X l=2 f(x + l) + k−2 X l=0 f(x + l) .

Nous développons les termes précédents, ce qui donne :

k X l=2 f(x + l) + k−2 X l=0 f(x + l) = f (x) + f (x + 1) + f (x + k − 1) + f (x + k) + k−2 X l=2 2 f (x + l) . (3.3)

En limitant le parcours des sommes de 2 à k − 2, on obtient pour la somme de gauche de l’équation (3.2) : k−1 X l=1 2 f (x + l) = 2 f (x + 1) + 2 f (x + k − 1) + k−2 X l=2 2 f (x + l) ,

En injectant cette égalité et celle donnée par (3.3) dans l’inégalité (3.2) on obtient : 2 f (x + 1) + 2 f (x + k − 1) ≤ f (x + k) + f (x + k − 1) + f (x) + f (x + 1) , ce qui termine la preuve du premier cas.

• Cas b) ⇒ c) . Nous séparons la preuve en deux cas. Le premier correspond au cas où nous avons x ≤ x + d ≤ y − d ≤ y, et le second au cas x ≤ y − d ≤ x + d ≤ y.

Cas 1 :Supposons que x + d − 1 ≤ y − d + 1 . Nous avons donc en appliquant b) ∀k ∈ ~0, d − 1 f(x + k + 1) − f (x + k) ≤ f (y − k) − f (y − k − 1) . En sommant sur ~0, d − 1, nous obtenons :

d−1 X k=0 f(x + k + 1) − f (x + k) ≤ d−1 X k=0 f(y − k) − f (y − k − 1) , ce qui est équivalent à :

f(x + d) − f (x) ≤ f (y) + f (y − d) . Ceci sert de conclusion au premier cas.

Cas 2 :Nous supposons que nous avons x + d − 1 ≥ y − d + 1 . Nous avons donc 2d ≥ y − x − 2, c’est-à-dire d ≥ y−x2 − 1. Remarquons qu’il existe D tel que x + D = y − d. De plus nous avons

D ≤ y−x2 . Nous pouvons donc appliquer c) avec k ∈ ~0, D−1 puisque dans ce cas y−k > x+k :

∀k ∈ ~0, D − 1 f(x + k + 1) − f (x + k) ≤ f (y − k) − f (y − k − 1) . En sommant sur ~0, D − 1 et en simplifiant on obtient :

f(x + D) − f (y − D) ≤ f (x) + f (y) . Puisque x + D = y − d on obtient :

f(y − d) − f (x + d) ≤ f (y) + f (y − d) . Ceci conclut le cas b) ⇒ c) .

• Cas c) ⇒ a) .

Soit x ∈ ZZ . D’après c), on a pour x = y et d = 1

f(x − 1) + f (x + 1) ≥ f (x) + f (x) .

Ceci conclut la preuve. 

Ces différentes formulations de la convexité d’une fonction sont utilisées dans les deux parties suivantes.

3.2 Champs de Markov avec des a priori convexes