• Aucun résultat trouvé

Acc´el´eration algorithmique pour des probl`emes de grande taille

On consid`ere, `a pr´esent, le cas de l’application de cet algorithme `a la r´esolution conjointe de plusieurs probl`emes donn´es sous la forme

yp= Kxp+ ep, (∀ p = 1, . . . , P.) (3.15)

Ce mod`ele lin´eaire apparaˆıt en imagerie hyperspectrale o `u yp ∈ RM correspond au spectre as-

soci´e au p-`eme pixel de l’image dans M bandes spectrales, K ∈ RM×N une matrice dont les

colonnes contiennent des spectres caract´eristiques des constituants de la zone observ´ee et xp le

vecteur des inconnues qui sont les abondances des constituants dans la surface associ´ee au pixel d’indice p.

Sous l’hypoth`ese d’un bruit de mesure additif gaussien blanc et de moyenne nulle, le crit`ere F (·) s’exprime par F (X) = 1 2 P X p=1 kyp− Kxpk22 = 1 2kY − KXk 2 F, (3.16)

o `u k · kF repr´esente la norme de Frobenius et les matrices Y ∈ RM×P, X ∈ RN×P r´esultent

de la concat´enation de tous les vecteurs{yp} et {xp}. Il est ´egalement possible d’opter pour une

r´esolution r´egularis´ee en ajoutant un crit`ere de p´enalisation R(X), pond´er´e par un param`etre de r´egularisation β,

F (X) = 1

2kY − KXk

2

F + βR(X). (3.17)

Soit l’op´erateur m = vect Mqui correspond `a la transformation de la matrice M en un vec- teur m dans l’ordre lexicographique ainsi qu’une solution initiale X(1)satisfaisant les contraintes d’´egalit´es. Le probl`eme d’optimisation sous contraintes (3.2) associ´e au mod`ele (3.15) s’exprime de fac¸on ´equivalente sous la forme :

min

a∈R(N −1)PΦ(a), (3.18)

o `u le crit`ere Φ(·) se d´eduit de F (·) par Φ(a) = F (X(1)+ ZA), a = vect(A) et t = vect(C(1)). La

matrice T est ´egale `a IN⊗ Z o `u ⊗ est le produit de Kronecker et IP est la matrice identit´e de taille

P× P .

3.2.1 Structure du syst`eme primal-dual

Le co ˆut de calcul de l’algorithme PDIP est fortement d´ependant du co ˆut de calcul de la direc- tion primale, qui fait appel `a la r´esolution du syst`eme d’´equations (3.7). Afin de r´eduire le temps de calcul dans le cas de probl`emes de grande taille, il est judicieux d’all´eger la complexit´e de cette ´etape en tirant profit de la structure de la matrice Hk. Ainsi, des versions acc´el´er´ees de l’algo-

3.2. ACC ´EL ´ERATION ALGORITHMIQUE POUR DES PROBL `EMES DE GRANDE TAILLE 49

d’acc´el´eration algorithmique rentre dans le cadre des m´ethodes de point int´erieurs dites inexactes, dont l’analyse de convergence est fournie dans [Armand 12].

Pour cela, il faut distinguer le cas de crit`eres sans p´enalisation de ceux avec p´enalisation. 1. Dans le cas d’un crit`ere des moindres carr´es non-p´enalis´es, la matrice Hk est une matrice

bloc-diagonale contenant P blocs distincts, carr´es de taille (N − 1) × (N − 1). L’inverse de cette matrice s’obtient simplement en calculant l’inverse de chacun des blocs,

Hk= Bdiag(Zt(KtK+ Dp,k)Z), (∀ p = 1, . . . , P ), (3.19)

o `u Dp,kest une matrice diagonale de taille N×N [Chouzenoux 14]. Cette structure a comme

cons´equence que la r´esolution du syst`eme primal se simplifie en la r´esolution de P syst`emes ind´ependants de taille (N− 1) × (N − 1).

2. Dans le cas d’une p´enalisation donn´ee sous une forme s´eparable

R(X) =

P

X

p=1

ϕ(xp), (3.20)

avec ϕ(·) est une fonction de pond´eration diff´erentiable et strictement convexe, la matrice Hksera toujours bloc-diagonale et peut ˆetre invers´ee simplement,

Hk= Bdiag Zt(KtK+ Dp,k+ β Diag( ¨ϕ(Zap,k))Z. (3.21)

3. Dans le cas d’un crit`ere de r´egularisation spatiale

R(X) =

P

X

p=1

ϕ([∇X]p), (3.22)

o `u ∇ ∈ RQ×N est une matrice de diff´erentiation qui va introduire des d´ependances entre

pixels voisins. Il s’en suit que

Hk= Bdiag(Zt(KtK+ Dp,k)Z) + β(∇⊗ Z)tDiag( ¨ϕ((∇⊗ Z)ak))(∇⊗ Z), (3.23)

o `u ¨ϕ(·) est la d´eriv´ee seconde de ϕ(·). Dans ce cas, l’introduction de l’op´erateur ∇ a comme cons´equence que la matrice Hkne sera plus bloc-diagonale. La r´esolution exact du syst`eme

primal (3.7) va n´ecessiter un co ˆut de calcul ou m´emoire tr`es important.

3.2.2 R´esolution tronqu´ee du syst`eme primal [Moussaoui 12,Chouzenoux 13b]

Une premi`ere version acc´el´er´ee de l’algorithme PDIP consiste `a tronquer la r´esolution du syst`eme primal (3.7). Plus pr´ecis´ement, la direction primale dak est obtenue en appliquant J it´erations

50 3.2. ACC ´EL ´ERATION ALGORITHMIQUE POUR DES PROBL `EMES DE GRANDE TAILLE

d’un algorithme it´eratif de r´esolution du syst`eme lin´eaire Hkd =−gk. L’algorithme utilis´e est le

gradient biconjugu´e [Van der Vorst 92] auquel on incorpore une strat´egie de pr´econditionnement bas´ee sur une d´ecomposition LU incompl`ete de Hk. Le nombre de sous-it´erations J est contr ˆol´e

par un seuil sur la valeur de la norme du r´esidu

krJk 6 µkkr0k , (3.24)

o `u rJ est la valeur du r´esidu du syst`eme (3.7) et µk est le param`etre de perturbation des condi-

tions de KKT. Ce crit`ere d’arrˆet est inspir´e de ceux propos´es dans [Armand 12] o `u l’on peut trou- ver ´egalement d’autres crit`eres d’arrˆet. Cette approche de r´esolution approch´ee du syst`eme pri- mal pr´esente une similarit´e avec l’approche qui consiste `a employer une algorithme de Newton tronqu´e [Dembo 83] pour la r´esolution du syst`eme primal-dual (3.5). L’analyse de convergence de l’algorithme primal-dual inexact est r´ealis´ee dans [Armand 12].

3.2.3 R´esolution du syst`eme primal par majoration-minimisation [Legendre 14]

L’´equation (3.7) est ´equivalente `a la r´esolution du probl`eme d’optimisation

Trouver dk

tel que dk= arg min d∈R(N −1)P

f (d) =−gt

kd+ 12dtHkd. (3.25)

La proposition consiste `a utiliser une approche MM [Hunter 04] en s’appuyant sur une approxi- mation majorante quadratique. Ainsi, l’approximation tangente en djk ∈ R(N −1)P est donn´ee sous la forme hj(d, djk) = f (djk) + 1 2(d− d j k)t(Bk− Hk)(d− djk), (3.26)

o `u B est une matrice sym´etrique semi-d´efinie positive choisie de telle sorte `a respecter la condition de majoration de la fonction f (·) par hj(·). Une valeur possible de Bk, obtenue par la technique de

majoration par maximum de courbure, est fournie dans [Legendre 14]. La minimisation de hj(·)

conduit `a la r´ecurrence MM suivante,          d0k= 0, dj+1k = djk− B−1k (gk+ Hkd j k), pour j = 1, . . . , J, dak= dJ k, (3.27)