• Aucun résultat trouvé

Comme on vient de le mentionner, une façon commode de résoudre un problème d’op- timisation sous contraintes consiste à le "transformer" en un problème d’optimisation sans contraintes. Ce dernier type de problème est en général mieux maîtrisé et plus simple à résoudre.

Nous présentons brièvement quatre de ces approches : 1- l’explicitation de la contrainte

2- la pénalisation quadratique de la contrainte, 3- la pénalisation `1 de la contrainte, 4-

le Lagrangien augmenté.

3.2.1 Explicitation de la contrainte

L’explicitation de la contrainte consiste à utiliser un nouveau critère d’optimisation qui satisfait la contrainte de façon intrinsèque. La minimisation sans contraintes d’un tel critère est mathématiquement équivalente à la minimisation du problème sous contrainte original.

Une telle stratégie est envisageable en TMO. Comme on a vu, l’équation (2.12) permet d’exprimer le champ diffusé mesuré en fonction du contraste seulement. En utilisant cette formulation on peut développer un critère où (3.2) est implicitement respectée.

Ce critère n’est nul autre que fBIDdonné par l’équation (2.17b).

C’est donc dire que les méthodes BID peuvent être interprétées comme des méthodes utilisant l’explicitation de la contrainte. L’algorithme de minimisation coordonnées par coordonnées présenté dans [Carfantan et al. (1997)] appartient aussi à cette famille.

Toutefois, comme on l’a dit au chapitre précédent, les méthodes BID ont des coûts de calcul par itérations qui peuvent être prohibitifs. D’autre part, des méthodes utili- sant des algorithmes de minimisation plus simples que celui utilisé par BID (tels que des algorithmes de premier ordre, présentés à la section 3.4) nécessiteraient aussi des

coûts de calcul importants puisque la simple évaluation du gradient ∇xfBIDnécessite

l’inversion d’un système [Franchois et Pichot (1997)].

Dans une certaine mesure, l’algorithme présenté dans [Carfantan et al. (1997)] échappe à ce constat. Néanmoins, le coût de calcul pour la mise à jour de l’ensemble des pixels

est d’ordre O(n3) ce qui, comme on verra dans la suite de ce travail, est relativement

élevé.

3.2.2 Pénalisation quadratique

Comme son nom l’indique, l’idée de la pénalisation quadratique consiste à ajouter au critère f un terme qui pénalise de façon quadratique l’erreur commise sur la contrainte. En d’autres mots, cette approche consiste à remplacer le problème d’optimisation sous contraintes : ˆ v = argmin v f (v) (3.3) sous contraintes : c(v) = 0

avec c(v) = (c1, . . . , cP)t (où ·treprésente l’opération transposée), par :

ˆ

v = argmin

v

f (v) + λkc(v)k2 (3.4)

où λ est un facteur de poids (ou paramètre de pénalisation).

Les solutions de (3.3) et (3.4) ne sont les mêmes que lorsque λ → ∞ [Nocedal et Wright (1999)] ce qui, évidemment, est un peu gênant. Une approche classique pour contourner, d’une certaine façon, cette difficulté consiste à résoudre à plusieurs re- prises le problème (3.4) en augmentant à chaque fois la valeur de λ et en utilisant la solution obtenue à l’itération précédente pour initialiser le problème à l’itération cou- rante. L’algorithme est stoppé lorsque la solution se stabilise, i.e. lorsque les solutions obtenues pour deux (ou plusieurs) λ consécutifs sont à peu près les mêmes.

Cette stratégie peut par contre être compliquée par une autre caractéristique propre au problème (3.4) ; en effet le conditionnement de celui-ci se dégrade rapidement lorsque λ augmente [Nocedal et Wright (1999)]. En d’autre mots, plus λ est grand, plus (3.4) est difficile à résoudre. Malgré ces désavantages, la pénalisation quadratique de la contrainte demeure une approche relativement populaire dû principalement au

fait qu’elle est souvent très simple à mettre en œuvre.

3.2.3 Pénalisation `1

La pénalisation `1ressemble beaucoup à la pénalisation quadratique, à cette différence

près que le terme ajouté au critère f pénalise la norme `1 de l’erreur commise sur la

contrainte : ˆ v = argmin v f (v) + λ P X p=1 |cp(v)| (3.5)

L’avantage de cette approche est que la solution de (3.5) est mathématiquement la

même que celle de (3.3) ∀λ > λmin (notons toutefois que λmin est a priori inconnu).

Par contre, le critère à minimiser est non continûment différentiable, ce qui complique l’optimisation. C’est probablement une des raisons pour lesquelles, à notre connais- sance, aucune approche de ce type n’a encore été proposée en TMO.

3.2.4 Lagrangien augmenté

Le Lagrangien augmenté, enfin, permet de résoudre de façon exacte le problème (3.3) tout en étant basé sur un critère continûment différentiable. Il est constitué du Lagran- gien du problème auquel on ajoute un terme de pénalisation quadratique de l’erreur commise sur la contrainte :

ˆ v = argmin v f (v) − µtc(v) + 1 2λkc(v)k 2 (3.6)

Dans cette dernière équation, le vecteur µ représente les multiplicateurs de Lagrange. Ceux-ci sont inconnus et doivent être estimés. L’algorithme du Lagrangien augmenté consiste donc à résoudre (3.6) à plusieurs reprises en mettant à jour les valeurs de λ

et de µ avant chaque nouvelle résolution (par exemple en choisissant µk+1 = µk+

λkc(vk) et λk+1 = Γλkavec Γ > 0 [Nocedal et Wright (1999)]). Ce genre d’approche

a été implanté avec succès en TMO dans [Carfantan (1996)].

3.2.5 Approche de la méthode CSI

De façon stricte, la méthode CSI et ses variantes, présentées ci-après, ne correspondent à aucune des quatre approches précédentes. Comme nous l’avons mentionné, et comme il en sera question tout au long de cette thèse, le problème de TMO est très lourd à

résoudre. Pour obtenir une solution rapidement, il faut donc utiliser des algorithmes très efficaces, quitte à négliger quelque peu la qualité de la solution.

Ainsi, l’absence de méthodes rapides permettant de minimiser fBID ou de résoudre

(3.5) disqualifie pour le moment les approches par explicitation de la contrainte et par

pénalisation `1. D’autre part, les méthodes de pénalisation quadratique et du lagrangien

augmenté demandent la résolution séquentielle de plusieurs sous-problèmes d’optimi- sation (avec ajustement des différents paramètres entre chaque étape). Or, même si ces sous-problèmes peuvent être stoppés avec la convergence, ce genre de stratégie allonge l’ensemble du processus.

Ainsi, les méthodes CSI se rabattent plutôt sur une approche de type pénalisation qua- dratique où le critère n’est minimisé qu’une seule fois. Cette version tronquée de l’al- gorithme de pénalisation quadratique est utilisée de façon relativement fréquente dans différents domaines. Par contre, une telle approche est non robuste en ce sens que la qualité de la solution dépend directement du choix du paramètre λ. Nous consacrons donc une partie de notre étude à l’analyse de la proposition faite par la CSI relativement à ce paramètre ainsi qu’aux différentes alternatives qui peuvent être envisagées.

Documents relatifs