• Aucun résultat trouvé

IV.4 Algorithmes semi-quadratiques

IV.4.7 Approximation quadratique majorante

Le principe des algorithmes SQ consiste `a substituer un probl`eme plus simple au probl`eme initial de la minimisation du crit`ere p´enalis´e. Ce type d’approche s’appuie sur la connaissance de la structure analytique du crit`ere p´enalis´e. Les algorithmes SQ ont ´et´e initialement intro- duits dans [Geman et Reynolds, 1992; Geman et Yang, 1995] comme minimiseur d’un crit`ere ´equivalent augment´e K(x, b) du crit`ere p´enalis´e J (x). Cette approche fait intervenir des va- riables auxiliaires b en sus des variables x. L’int´erˆet du crit`ere ´equivalent augment´e ´etant que ce nouveau probl`eme peut ˆetre r´esolu de mani`ere analytique, contrairement au probl`eme initial. Dans cette section nous montrons qu’on peut interpr´eter les algorithmes SQ comme mini- miseur d’un crit`ere de substitution plus g´en´erique que le crit`ere ´equivalent augment´eK(x, b). Dans [Chan et Mulet,1999] il est montr´e que l’algorithme GR peut ˆetre analys´e comme un algo- rithme minimisant un crit`ere de substitution quadratique. Un tel r´esultat est aussi obtenu pour l’algorithme GY [Allain et al., 2006]. Cette approche par crit`ere de substitution quadratique est d’une part plus g´en´erique que l’utilisation du crit`ere ´equivalent augment´eK(x, b). D’autre part, on la trouve dans les publications [Weiszfeld, 1937; Voss et Eckhardt, 1980] et [Huber,

1981] (dans le cadre de la r´egression robuste) qui sont ant´erieures `a [Geman et Reynolds,1992;

Geman et Yang,1995].

Les approximations quadratiques majorantes existantes dans la litt´erature sont d´efinies pour les crit`eres p´enalis´es, non g´en´eralis´es. Notre contribution dans cette partie consiste `a montrer qu’il est possible d’´etendre la construction de telles approximations quadratiques majorantes aux crit`eres p´enalis´es g´en´eralis´es. L’int´erˆet de ces approximations quadratiques majorantes ne r´eside pas seulement dans une nouvelle interpr´etation des algorithmes SQ. Nous verrons par la suite qu’ils permettront d’´etablir les r´esultats de convergence des deux prochains chapitres.

[A] Pr´eliminaires

Nous commen¸cons par d´efinir la notion d’approximation quadratique ainsi que celle d’op´e- rateur `a spectre uniform´ement positif born´e.

D´efinition IV.4.2. Soit J : R

N 7→

R un crit`ere C

1. On d´efinit l’approximation quadratique de J en x par ˆ JA(x+, x) =J (x) + (x+− x)t∇J (x) + (x+− x)tA(x) (x+− x)/2 (IV.28) o`u A :R N 7→ R

N ×N est un op´erateur d´efini positif. D´efinition IV.4.3. Un op´erateur d´efini positif A :R

N 7→

R

N ×N est dit `a spectre uniform´e- ment positif born´e s’il existe ν1, ν2 ∈Ravec ν2 ≥ ν1 > 0 tels que

ν1kvk2≤ vtA(u)v≤ ν2kvk2, ∀u, v ∈R

N. (IV.29)

[B] R´esultats pour les crit`eres p´enalis´es

Cette partie r´ecapitule certains r´esultats pr´esent´es dans [Allain et al., 2006] qui restent valides lorsque l’hypoth`ese φ convexe et coercive est relax´ee en φ coercive. Nous commen¸cons `a montrer que les op´erateurs d´efinis `a partir des matrice normales SQ sont `a spectre uniform´ement positif born´e.

Lemme IV.4.2. Supposons que l’Hypoth`ese 1 (resp. Hypoth`ese 2) est satisfaite. Supposons aussi que les matrices H et V sont telles que

Minimisation des crit`eres p´enalis´es

Alors l’op´erateur A := {Aa

GY} avec 0 < a < ˆa (resp. A := {AGR(.)}) est `a spectre uniform´ement positif born´e.

Preuve. D’apr`es (IV.30), la preuve est imm´ediate pour A :={Aa

GY} avec 0 < a, car AaGY est alors une matrice sym´etrique d´efinie positive.

D’apr`es [Allain et al., 2006, Prop. 8], A := {AGR(.)} est aussi `a spectre uniform´ement positif born´e.

Le Lemme suivant ´etablit que les matrices normales issues des constructions de GY et de GR induisent des approximations quadratiques majorantes pour le crit`ere p´enalis´e d´efini par (IV.12) page62.

Lemme IV.4.3. Soit J le crit`ere p´enalis´e d´efini par (IV.12). Supposons que l’Hypoth`ese 1

(resp. Hypoth`ese 2) est satisfaite.

Alors ˆJA est une approximation quadratique majorante du crit`ere J : ˆ

JA(x+, x)≥ J (x+), ∀x, x+∈R

N (IV.31)

o`u A :={AaGY} avec 0 < a < ˆa (resp. A := {AGR(.)}).

Preuve. D’apr`es [Allain et al., 2006, Prop. 1], le caract`ere majorant de l’approximation qua- dratique ˆJA est v´erifi´e avec A := {AaGY} pour 0 < a < ˆa (resp. A := {AGR(.)}). Notons que dans [Allain et al.,2006, Prop. 1 et Prop. 8], l’hypoth`ese φ convexe peut ˆetre relax´ee en φ coercive.

Ces approximations quadratiques majorantes permettent de donner une nouvelle interpr´eta- tion des algorithmes SQ. Consid´erons la version relax´ee de la m´ethode de Weiszfeld [Weiszfeld,

1937; Voss et Eckhardt,1980] d´efinie par le sch´ema it´eratif suivant

xk+1 = xk+ θ (ˆxk+1− xk) (IV.32)

o`u θ est une constante et avec ˆ xk+1= arg min x ˆ JA(x, xk) ˆ xk+1= xk− A(xk)−1∇J (xk) (IV.33)

car ˆJA(., xk) est la quadratique d´efinie par (IV.28) page67. Ainsi, la structure des algorithmes SQ sous la forme (IV.22)-(IV.23) page 66 est la mˆeme que celle du sch´ema it´eratif (IV.32)- (IV.33). Les algorithmes SQ peuvent donc ˆetre interpr´et´es comme r´esultant de minimisations successives d’approximations quadratiques majorantes.

[C] R´esultats pour les crit`eres p´enalis´es g´en´eralis´es

Dans [Chan et Mulet,1999, Sec. 3], le terme de p´enalisation suivant est consid´er´e

Ψ(x) = C X c=1 ψ(|Vcx|β) (IV.34) avec |u|β = q β +kuk2 et Vc ∈R 2×N.

En remarquant que ψ(|Vcx|β) = φ(kuk) o`u φ(t) = ψ( p

β + t2), ce terme de p´enalisation (IV.34) s’identifie au terme de p´enalisation g´en´eralis´e (IV.2), page54 pour ωc = 0 et P = 2.

IV.4 Algorithmes semi-quadratiques

Dans [Chan et Mulet, 1999, Sec. 4], une approximation quadratique majorante issue de la matrice normale de GR g´en´eralis´ee pour P = 2 est consid´er´ee. Dans cette section, nous proposons d’abord de g´en´eraliser ce r´esultat au cas P N

et sous des hypoth`eses moins restrictives (sans la convexit´e de φ ni le caract`ere C2). Par contre, `a notre connaissance, il n’existe pas dans la litt´erature d’approximation quadratique majorante issue de la matrice normale de GY pour les crit`eres p´enalis´es g´en´eralis´es. Nous montrons ´egalement dans cette section qu’il est possible d’obtenir naturellement une telle construction.

Consid´erons le crit`ere g´en´eralis´e (IV.1) avec la p´enalisation (IV.2). Il nous faut d’abord d´e- finir les constructions SQ g´en´eralis´ees associ´ees au crit`ere p´enalis´e g´en´eralis´e. Soit V la matrice d´efinie par (IV.3). En utilisant la matrice V, il est possible d’obtenir des g´en´eralisations na- turelles des matrices normales SQ. Pour la construction de GY on obtient la mˆeme structure matricielle (IV.26) que pour un crit`ere p´enalis´e non g´en´eralis´e

AaGY = 2HtH+ VtV/a. (IV.35)

La diff´erence reposant sur le fait que la matrice V est de taille CP× N dans le cas d’un crit`ere p´enalis´e g´en´eralis´e alors qu’elle est de taille C× N dans le cas non g´en´eralis´e.

Dans [Chan et Mulet,1999], la matrice suivante est consid´er´ee : C(x) = 2HtH+ VtL(x)V L(x) = Diag (( ψ′(|Vcx|β) |Vcx|β I2 ) c ) (IV.36) En utilisant φ(t) = ψ(pβ + t2), on a φ′(t) = p t β + t2ψ ′(pβ + t2) d’o`u φ′(kVcxk) kVcxk = ψ ′(|V cx|β) |Vcx|β .

Ainsi, (IV.36) correspond `a une g´en´eralisation de la matrice normale de GR pour P = 2. Nous proposons donc la structure suivante pour la matrice normale de GR g´en´eralis´ee

AGR(x) = 2HtH+ VtL(x)V L(x) = Diag  φ′(ck) kδck Ip  c  (IV.37) δc = Vcx− ωc.

Lorsque P = 1 on retrouve bien la matrice normale de GR (IV.24) page66 non g´en´eralis´ee. Par la suite, lorsqu’on parlera de constructions SQ on fera r´ef´erence au cas g´en´eralis´e.

Il est imm´ediat d’´etablir que le Lemme IV.4.2 page67 qui ´etablit le caract`ere spectre uni- form´ement positif born´e s’applique aussi aux op´erateurs SQ g´en´eralis´es. A pr´esent, on ´etablit le caract`ere majorant des approximations quadratiques d´efinies `a partir des op´erateurs SQ g´e- n´eralis´es. Dans le cas de l’op´erateur de GR g´en´eralis´e la d´emonstration du r´esultat est une adaptation assez directe de celle de [Chan et Mulet, 1999].

Lemme IV.4.4. Soit J le crit`ere p´enalis´e g´en´eralis´e d´efini par (IV.1). Supposons que l’Hypo- th`ese 2 est satisfaite.

Alors ˆJAGR est une approximation quadratique majorante du crit`ere J : ˆ

JAGR(x

+, x)≥ J (x+), ∀x, x+

R

BIBLIOGRAPHIE

Preuve. Voir AnnexeB.1.2, page 143.

Dans le cas de l’op´erateur de GY g´en´eralis´e la d´emonstration du caract`ere majorant de l’ap- proximation quadratique associ´ee fait appel au caract`ere gradient Lipschitz du crit`ere φ(k.k) :

R

N 7→

Ret non pas seulement de la fonction φ. C’est l’objet du prochain Lemme.

Lemme IV.4.5. Supposons que l’Hypoth`ese 1 est satisfaite. Alors φ(k.k) :R

N 7→

R est L-LC

1avec L = 1/ˆa. Preuve. Voir AnnexeB.1.3, page 144.

Lemme IV.4.6. Soit J le crit`ere p´enalis´e g´en´eralis´e d´efini par (IV.1). Supposons que l’Hypo- th`ese 1 est satisfaite.

Alors ˆJAGY est une approximation quadratique majorante du crit`ere J : ˆ JAa GY(x +, x)≥ J (x+), ∀x, x+ R N avec 0 < a < ˆa.

Preuve. La d´emonstration est similaire `a celle de [Allain et al., 2006, Appendix A] pour un crit`ere p´enalis´e non g´en´eralis´e. Dans le cas du crit`ere p´enalis´e g´en´eralis´e, d’apr`es le LemmeIV.4.5

on peut utiliser le Lemme de descente [Bertsekas, 1999, Prop. A.24] pour φ(k.k).

IV.5

Conclusion

On a vu que les algorithmes semi-quadratiques sont sp´ecifiquement adapt´es pour la minimi- sation des crit`eres p´enalis´es. Ils tirent leur force de la prise en compte de la structure analytique du crit`ere `a minimiser, contrairement `a des approches d’optimisation g´en´eralistes. Ils souffrent malheureusement d’un probl`eme crucial. Comme nous l’exposons au chapitre suivant, ils sont g´en´eralement trop coˆuteux pour des probl`emes de grande taille, tels que ceux couramment ren- contr´es en image. Ce constat nous am`ene `a ´etudier deux familles d’algorithmes, contenant des ingr´edients semi-quadratiques, permettant de s’affranchir des limitations de taille. Ce sera le sujet des deux prochains chapitres.

Bibliographie

[Allain, 2002] M. Allain. Approche p´enalis´ee en tomographie h´elico¨ıdale. Application `a la conception d’une proth`ese personnalis´ee du genou. Co-supervised PhD thesis, Universit´e de Paris-Sud, Orsay, France / Ecole Polytechnique de Montr´eal, QC, Canada, Dec. 2002.

[Allain et al., 2006] M. Allain, J. Idier et Y. Goussard. On global and local convergence of half-quadratic algorithms. IEEE Trans. Image Processing, 15 (5) : 1130–1142, May 2006. [Aubert et Vese, 1997] G. Aubert et L. Vese. A variational method in image recovery. SIAM J. Num. Anal., 34 (5) : 1948–1979, Oct. 1997.

[Bertsekas, 1999] D. P. Bertsekas. Nonlinear programming. Athena Scientific, Belmont, MA, 2nd edition, 1999.

[Blake et Zisserman, 1987] A. Blake et A. Zisserman. Visual reconstruction. The MIT Press, Cambridge, MA, 1987.

BIBLIOGRAPHIE

[Bouman et Sauer, 1996] C. A. Bouman et K. D. Sauer. A unified approach to statistical tomography using coordinate descent optimization. IEEE Trans. Image Processing, 5 (3) : 480–492, Mar. 1996.

[Champagnat et Idier, 2004] F. Champagnat et J. Idier. A connection between half-quadratic criteria and EM algorithms. IEEE Signal Processing Letters, 11 (9) : 709–712, Sep. 2004. [Chan et Mulet, 1999] T. F. Chan et P. Mulet. On the convergence of the lagged diffusivity fixed point method in total variation image restoration. SIAM J. Num. Anal., 36 (2) : 354–367, 1999.

[Charbonnier et al., 1994] P. Charbonnier, L. Blanc-F´eraud, G. Aubert et M. Barlaud. Two deterministic half-quadratic regularization algorithms for computed imaging. In Proc. IEEE ICIP, volume 2, pages 168–172, Austin, TX, Nov. 1994.

[Charbonnier et al., 1997] P. Charbonnier, L. Blanc-F´eraud, G. Aubert et M. Barlaud. Deter- ministic edge-preserving regularization in computed imaging. IEEE Trans. Image Processing, 6 (2) : 298–311, Feb. 1997.

[Ciuciu et Idier, 2002] P. Ciuciu et J. Idier. A half-quadratic block-coordinate descent method for spectral estimation. Signal Processing, 82 (7) : 941–959, July 2002.

[Delaney et Bresler, 1998] A. H. Delaney et Y. Bresler. Globally convergent edge-preserving regularized reconstruction : an application to limited-angle tomography. IEEE Trans. Image Processing, 7 (2) : 204–221, Feb. 1998.

[Erdogan et Fessler, 1999] H. Erdogan et J. Fessler. Monotonic algorithms for transmission tomography. IEEE Trans. Medical Imaging, 18 (9) : 801–814, Sep. 1999.

[Geman et Reynolds, 1992] D. Geman et G. Reynolds. Constrained restoration and the recovery of discontinuities. IEEE Trans. Pattern Anal. Mach. Intell., 14 (3) : 367–383, Mar. 1992. [Geman et Yang, 1995] D. Geman et C. Yang. Nonlinear image recovery with half-quadratic regularization. IEEE Trans. Image Processing, 4 (7) : 932–946, July 1995.

[Geman et Geman, 1984] S. Geman et D. Geman. Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Trans. Pattern Anal. Mach. Intell., PAMI-6 (6) : 721–741, Nov. 1984.

[Hestenes et Stiefel, 1952] M. R. Hestenes et E. Stiefel. Methods of conjugate gradients for solving linear system. J. Res. Nat. Bur. Stand., 49 : 409–436, 1952.

[Huber, 1981] P. J. Huber. Robust Statistics. John Wiley, New York, NY, 1981.

[Idier, 2001] J. Idier. Convex half-quadratic criteria and interacting auxiliary variables for image restoration. IEEE Trans. Image Processing, 10 (7) : 1001–1009, July 2001.

[Kaufman, 1993] L. Kaufman. Maximum likelihood, least squares, and penalized least squares for PET. IEEE Trans. Medical Imaging, 12 : 200–214, June 1993.

[Lange et al., 2000] K. Lange, D. R. Hunter et I. Yang. Optimization transfer using surrogate objective functions (with discussion). J. Comput. Graph. Statist., 9 (1) : 1–20, Mar. 2000. [Mackens et Voss, 2000] W. Mackens et H. Voss. Computing the minimum eigenvalue of a symmetric positive definite toeplitz matrix by newton type methods. SIAM J. Sci. Comput., 21 : 1650–1656, 2000.

[Nikolova, 1999] M. Nikolova. Markovian reconstruction using a GNC approach. IEEE Trans. Image Processing, 8 (9) : 1204–1220, Sep. 1999.

[Nikolova et al., 1998] M. Nikolova, J. Idier et A. Mohammad-Djafari. Inversion of large-support ill-posed linear operators using a piecewise Gaussian MRF. IEEE Trans. Image Processing, 7 (4) : 571–585, Apr. 1998.

BIBLIOGRAPHIE

[Nikolova et Ng, 2005] M. Nikolova et M. Ng. Analysis of half-quadratic minimization methods for signal and image recovery. SIAM J. Sci. Comput., 27 : 937–966, 2005.

[Nocedal et Wright, 1999] J. Nocedal et S. J. Wright. Numerical optimization. Springer Texts in Operations Research. Springer-Verlag, New York, NY, 1999.

[Rockafellar, 1970] R. T. Rockafellar. Convex Analysis. Princeton Univ. Press, 1970.

[Tseng et Bertsekas, 1987] P. Tseng et D. P. Bertsekas. Relaxation methods for problems with strictly convex separable costs and linear constraints. Mathematical Programming, 38 : 303–321, 1987.

[Voss et Eckhardt, 1980] H. Voss et U. Eckhardt. Linear Convergence of Generalized Weiszfeld’s Method. Computing, 25 : 243–251, 1980.

[Weiszfeld, 1937] E. Weiszfeld. Sur le point pour lequel la somme des distances de n points donn´es est minimum. Tˆohoku Mathematical Journal, 43 : 355–386, 1937.

Chapitre V

ALGORITHMES SEMI-QUADRATIQUES APPROCH´ES

V.1 Difficult´es de l’inversion des matrices semi-quadratiques V.2 Inversion approch´ee des matrices semi-quadratiques

V.2.1 Algorithme du gradient conjugu´e lin´eaire V.2.2 Famille d’algorithmes SQ+GCP

V.3 Convergence des algorithmes SQ+GCP V.4 Conclusion

Nous avons vu dans le chapitre pr´ec´edent que les algorithmes semi-quadratiques de GR et de GY sont des algorithmes s´eduisants `a plusieurs titres pour minimiser les crit`eres p´enalis´es. Ce sont des algorithmes `a la fois simples et adapt´es puisqu’ils mettent `a profit la connaissance analytique des crit`eres p´enalis´es `a minimiser. En somme, ils semblent presque ˆetre parfaits pour minimiser de tels crit`eres. N´eanmoins, la simplicit´e structurelle des algorithmes de GR et de GY cache une complexit´e calculatoire importante pour les probl`emes de grande taille. Ceci d´ecoule de la n´ecessit´e de r´esoudre `a chaque it´eration une ´equation normale faisant intervenir une matrice normale semi-quadratique dont la taille est directement reli´ee au nombre d’inconnues. En pratique, la r´esolution exacte de cette ´equation normale est g´en´eralement une op´eration tr`es coˆuteuse pour les probl`emes de grande taille. Le temps de calcul par it´eration des algorithmes de GR et de GY est alors tr`es important, ce qui finit par contre-balancer le bon taux de convergence de ces algorithmes en terme de nombres d’it´erations. On ne peut donc g´en´eralement pas mettre en œuvre les algorithmes de GR et de GY tels quels pour des probl`emes de grande taille.

Face `a ce constat, il a ´et´e propos´e d’approcher les algorithmes de GR et de GY sous une forme dont le coˆut d’impl´ementation est bien plus faible. L’inconv´enient de ces formes approch´ees est que les r´esultats de convergence valables pour les formes exactes de GR et de GY ne s’appliquent plus aux formes approch´ees, jusqu’`a pr´esent. Il n’existe pas, `a notre connaissance, de preuve de convergence des formes approch´ees de GR et de GY. La contribution de ce chapitre consiste pr´ecis´ement `a ´etablir la convergence de certaines formes d’approximation de GY et de GR, qui ont d´ej`a ´et´e propos´ees et utilis´ees en pratique dans la communaut´e du traitement de l’image.

Algorithmes semi-quadratiques approch´es

V.1

Difficult´es de l’inversion des matrices semi-quadratiques

On rappelle que la mise en œuvre des algorithmes it´eratifs semi-quadratiques (SQ) de GR et de GY fait intervenir `a chaque it´eration k la r´esolution du syst`eme lin´eaire suivant afin de d´eterminer la direction de descente courante dk :

dk = −A(xk)−1∇J (xk) (V.1)

o`u A(xk) est une matrice d´efinie positive et correspond soit `a la matrice normale constante de GY (A(xk) = AaGY d´efinie par (IV.26) page 66), soit `a la matrice normale de GR (Ak = AGR(xk) d´efinie par (IV.24) page 66). Notons que la complexit´e de la r´esolution du syst`eme lin´eaire (V.1) est toujours sup´erieure `a O(N ), sauf pour certains cas triviaux.

La r´esolution du syst`eme lin´eaire (V.1) est de loin l’op´eration la plus coˆuteuse de la mise en œuvre des algorithmes de GR et de GY. En effet, la mise `a jour de l’it´er´ee xk :

xk+1= xk+ θdk

o`u le pas θ constant, est de complexit´e O(N ) qui est n´egligeable devant celle li´ee `a la r´esolution du syst`eme lin´eaire (V.1). Ainsi, toute la complexit´e des algorithmes de GR et de GY est port´ee par cette r´esolution. Il est donc crucial d’investir sur le probl`eme de r´esolution du syst`eme lin´eaire (V.1) d´efinissant la direction de descente courante des algorithmes de GR et de GY. Dans cette section, on se propose de faire un tour d’horizon des m´ethodes et des situations permettant de r´esoudre le syst`eme lin´eaire (V.1) de mani`ere exacte. On montre que le coˆut de cette r´esolution exacte est en g´en´eral trop important. Dans la section suivante, on recherche une m´ethode it´erative permettant de r´esoudre (V.1) de mani`ere approch´ee, en beaucoup moins de N it´erations (N est trop grand dans le cas des images).

Plusieurs m´ethodes classiques d’analyse num´erique on ´et´e envisag´ees pour la r´esolution exacte du syst`eme lin´eaire (V.1), telles que la m´ethode du pivot de Gauss et celle de la d´e- composition de Cholesky [Nikolova et Ng,2005]. Le lecteur trouvera par exemple dans [Golub et Van Loan, 1996] le d´etail de ces m´ethodes classiques. La complexit´e de ces m´ethodes de r´esolution du syst`eme lin´eaire (V.1) est compar´ee dans [Nikolova et Ng, 2005, Sec. 4.3] pour les algorithmes de GR et de GY. La m´ethode du pivot de Gauss a pour complexit´e O(N3). Si cette m´ethode peut ˆetre envisag´ee lorsque la taille du probl`eme est peu importante, elle devient vite d’un coˆut prohibitif dans le cas d’un probl`eme de grande taille. La m´ethode du pivot de Gauss n’est donc pas envisageable en pratique pour r´esoudre les syst`emes lin´eaires induits par les algorithmes de GR et de GY lorsqu’un probl`eme de grande taille est `a traiter.

Une distinction nette est ´etablie dans [Nikolova et Ng,2005] entre les algorithmes de GY et de GR. En effet, la matrice normale de GR d´epend de l’it´er´ee courante xkcontrairement `a la matrice normale de GY qui est constante. Ainsi, une m´ethode de r´esolution du syst`eme lin´eaire (V.1) s’appuyant sur un pr´etraitement de la matrice normale, telle que la d´ecomposition de Cholesky, peut ˆetre envisag´ee pour l’algorithme de GY. Le pr´etraitement de la d´ecomposition de Cholesky, qui consiste en la factorisation en matrices triangulaires, a pour complexit´e O(N3) dans le cas o`u la matrice normale est pleine. Il s’agit de la mˆeme complexit´e que pour la m´ethode du pivot de Gauss. Par contre, la r´esolution du syst`eme triangulaire ainsi obtenu a pour complexit´e O(N2). La matrice normale de GY ´etant constante, ce pr´etraitement n’est `a faire qu’une seule fois et reste valide pour toutes les it´erations. Le coˆut global de ce pr´etraitement est donc `a diviser par le nombre d’it´erations totales. Par contre, la matrice normale de GR n’´etant pas constante, un tel pr´etraitement n’est pas envisageable car il serait `a effectuer `a chaque it´eration.

On peut aussi tirer parti de la structure induite par certains probl`emes sur la matrice de GY. Lorsque la matrice d’observation H pr´esente une structure de type Toeplitz ou Toeplitz par blocs Toeplitz, par exemple dans le cadre d’un probl`eme de d´econvolution, elle peut ˆetre, sous