• Aucun résultat trouvé

3.3 Champs de Markov convexes

3.3.1 Théorème de proximité du minimiseur

Nous montrons tout d’abord un lemme qui nous sera utile par la suite. Il généralise la no- tion de convexité discrète unidimensionnelle aux champs de Markov convexes. Auparavant nous définissons la notation suivante : D = {−1, 0, 1}|S|.

Lemme 3.1 Soient u et ˆu deux images. Soit une image δ ∈ D définie de la manière suivante : ∀s ∈ S δs=sign( ˆus− us) .

L’inégalité suivante est vraie :

E(u|v) + E( ˆu|v) ≥ E(u + δ|v) + E( ˆu − δ|v) . (3.16) Preuve : Nous montrons tout d’abord que l’inégalité est vraie pour les termes d’attache aux données fspuis pour les termes de régularisation.

• termes d’attache au données. Si δs≥ 0 alors nous avons l’inégalité suivante en appliquant

le résultat de la proposition3.1-(c) à chaque site s :

fs(us, vs) + fs( ˆus, vs) ≥ f (us+δs, vs) + f ( ˆus− δs, vs) ,

• termes de régularisation. Soient Xst= us− ut , Yst = ˆus− ˆut et Dst =δs− δt . Supposons

que Xst ≤ Yst. Nous avons alors Xst ≤ Xst+Dst ≤ Yst . En appliquant la proposition3.1-(c),

nous avons alors pour chaque terme de régularisation gst:

gst(Xst) + gst(Yst) ≥ gst(Xst+Dst) + gst(Yst− Dst) .

Le cas Xst> Ystse traite de manière identique. Ceci conclut donc la preuve.  Nous introduisons maintenant une norme kuk∞pour une image u de la manière suivante :

||u||∞=max

s∈S |us| . (3.17)

Autrement dit, la norme k.k∞correspond au maximum des valeurs absolues sur les pixels.

Cette norme donne un sens à la notion de voisinage entre deux images. Deux images u et v seront dites voisines l’une de l’autre si et seulement si ku − vk∞=1 .

Nous présentons maintenant un théorème qui précise le lien entre un minimum local (la localité étant définie par le voisinage entre deux images au sens ci-dessus) et un minimum global. Comme pour les fonctions convexes continues (20), cette proposition énonce que si un minimum est local alors c’est un minimum global.

Proposition 3.6 Soit u une image telle que

E(u|v) > minu E(u|v) . Il existe ˆu un minimiseur global de E(·|v) et δ ∈ D tels que

E(u|v) > E(u + δ|v) , et de plus nous avons

k(u + δ) − ˆuk∞=ku − ˆuk∞− 1 .

Preuve : Soit M l’ensemble des minimiseurs de E(·|v). Parmi tous les minimiseurs qui sont les plus proches de u au sens de k · k∞, nous en prenons un, noté ˆu :

ˆu ∈ argmin

˜u∈M ku − ˜uk∞

. (3.18)

Définissons δ de la manière suivante :

∀s δs=sign( ˆus− us) .

Nous avons bien kδk∞ =1 et k(u + δ) − ˆuk∞= ku − ˆuk∞− 1 . Nous pouvons donc appliquer

le résultat du lemme3.1(équation3.16) avec u, ˆu et δ. Nous obtenons

E(u|v) − E(u + δ|v) ≥ E( ˆu − δ|v) − E( ˆu|v) . (3.19) Or E( ˆu − δ|v) − E( ˆu|v) ≥ 0 puisque ˆu est un minimiseur global de E(·|v). Nous injectons cette inégalité dans l’inégalité (3.19) et on obtient donc :

Il nous faut maintenant prouver que cette dernière inégalité est stricte. Supposons nous ayons E( ˆu − δ|v) = E( ˆu|v) ,

alors nous avons une contradiction avec le choix de ˆu donné par l’équation (3.18). En effet, nous aurions ( ˆu − δ) ∈ M et k( ˆu − δ) − uk∞=k ˆu − u − δk < k ˆu − uk∞ . Ceci conclut la preuve. 

Cette proposition énonce donc que si une image u n’est pas un minimiseur global, alors il existe une descente locale qui permet de faire décroître l’énergie. D’autre part, il précise également que cette descente conduit à une image dont la distance à un minimiseur global est toujours réduite de 1 (au sens de k.k∞). Remarquons que Murota (132) donne un théorème

équivalent au précédent pour des fonctions discrètes bien plus générales que le cas que nous étudions. Dans (14) Bioucas et al. montre également qu’un minimiseur local est global, mais ils ne présentent pas de propriété qui montre qu’on se rapproche toujours d’un minimiseur. Dans le contexte des images radars, ces auteurs proposent une méthode pour effectuer le déroulement de phase. Cette méthode repose sur la minimisation d’une énergie convexe.

Cependant, cette dernière proposition ne précise pas le procédé de calcul pour calculer la descente (car la définition de la descente nécessite la connaissance d’un minimiseur). Nous présentons maintenant une proposition qui permettra de trouver la bonne direction de descente. Avant de donner cette proposition nous introduisons l’ensemble des images à une distance au plus n d’une image u noté In(u) :

In(u) = {u′|us≤ u′s} .

Nous rappelons également la notation D = {−1, 0, 1}|S|qui correspond à l’espace des descentes

locales.

Proposition 3.7 Soit u une image. Soit ˆu un minimiseur global de E(·|v) sur In(u). Alors il existe

une image u⋆ minimiseur global de E(·|v) sur I

n+1(u) telle que

k ˆu − u⋆k∞≤ 1 .

En d’autre termes, cela signifie que u⋆est atteignable à partir de ˆu par descente locale, où l’espace des

descentes locales est donnée par D.

Preuve : Soit Mn+1l’ensemble des minimiseurs de E(·|v) sur In+1. Parmi tous ces minimiseurs,

nous en prenons un qui soit le plus proche de ˆu au sens de k · k∞, et que nous notons u⋆:

u⋆∈ argmin ˜u∈Mn+1

ku − ˆuk∞ . (3.20)

Pour prouver cette proposition nous raisonnons par l’absurde. Nous supposons donc l’inégalité suivante :

k ˆu − u⋆− k > 1 . (3.21)

D’après le lemme3.1(équation3.16) appliqué avec ˆu et u⋆et δ définit ainsi

∀s δs=sign(u⋆− ˆu) ,

nous avons :

E( ˆu) − E(u⋆

Or E( ˆu + δ) − E(u⋆) > 0. En effet, nous avons E( ˆu + δ) − E(u) ≥ 0 car uest minimiseur global.

Si E( ˆu + δ) = E(u⋆) alors cela contredirait l’hypothèse (3.21) puisqu’on aurait ku− ˆuk ∞ =

k ˆu + δ − ˆuk∞=1. Nous avons donc

E( ˆu) > E(u⋆

− δ) . Or (u⋆− δ) ∈ I

n. En effet,

– Si u⋆

s =(n + 1) alors δs =sg(n + 1 − us) = 1 puisque |us| ≥ n, et donc |u⋆s − delta| ≥ n. Le

cas u⋆

s =−(n + 1) se traite de manière similaire.

– Si u⋆

s =nalors δs=sg(n − us) ≥ 0 puisque |us| ≥ n , et donc |u⋆s − δ| ≥ n. Le cas u⋆s =−n

se traite de manière similaire. – Si |u⋆

s| < n alors |u⋆s − delta| ≥ n puisque |δs| ≤ 1.

Ceci contredit donc le fait que ˆu soit un minimiseur global de E(·|v). Par conséquent, l’inéga- lité donnée par l’équation (3.21) est fausse. Ceci conclut la preuve.  Récemment, Kolmogorov a prouvé de manière indépendante ce théorème dans (108). En revanche, sa preuve repose sur la sous-modularité du champs de Markov convexe. Notre preuve ne requiert pas cette hypothèse. Cette dernière proposition est à la base de notre algorithme de minimisation. En effet, étant donné une image initiale u, on trouve par descente de plus grande pente un minimiseur global de E(·|v) restreint à I1(u). En recalculant une

descente de plus grande pente à partir de ce minimiseur on obtient un nouveau minimiseur global pour E(·|v) restreint à I2(u). En itérant ce processus on obtient un minimiseur global

de E(·|v). Il nous reste maintenant à savoir calculer une descente de plus grande pente locale. C’est l’objet de la sous-section suivante.