• Aucun résultat trouvé

Calcul de l’´equation de mise `a jour des coefficients (5.23)

5.4 D´eveloppement de nouveaux algorithmes

5.6.3 Calcul de l’´equation de mise `a jour des coefficients (5.23)

BOMP

D´eveloppons le probl`eme d’estimation (5.22) :

ˆ

x=argmax

x

logp(y,x, ˆs

(n)

). (5.22)

=argmax

x

1

2σ

2

kyD

sˆ(n)

x

sˆ(n)

k

2 2

1

2σ

2x

x

Tˆs(n)

x

sˆ(n),

=argmax

x

1

2x

T ˆ s(n)

D

Tsˆ(n)

D

sˆ(n)

+σ

2

σ

2x

I

ksˆ(n)k0

x

sˆ(n)

+x

Tsˆ(n)

D

sTˆ(n)

y.

La fonction objectif ´etant strictement concave, l’optimum peut ˆetre obtenu en

d´erivant par rapport `ax

sˆ(n)

et ´egalisant l’expression obtenue `a 0 :

D

Tsˆ(n)

D

ˆs(n)

+ σ

2

σ

x2

I

ksˆ(n)k0

ˆ

x

(sˆn(n))

+D

Tˆs(n)

y=0, (5.49)

soit l’expression (5.23),

ˆ

x

(sˆn(n))

=D

Tsˆ(n)

D

ˆs(n)

+σ

2

σ

x2

I

kˆs(n)k0

−1

D

Tˆs(n)

y. (5.23)

Conclusion

Les travaux r´ealis´es pendant cette th`ese ont permis de creuser des voies et,

peut-ˆetre, d’en inspirer d’autres. Ce dernier chapitre synth´etise les

contribu-tions de cette th`ese, et pour chacune, d´efinit quelques axes de recherche qu’il

semble pertinent d’explorer dans le cadre de travaux futurs.

Durant ces trois ans, nous nous sommes int´eress´es `a l’utilisation de

d´ecompositions parcimonieuses dans les sch´emas de compression. Notre

´etude nous a amen´es `a consid´erer des mod`eles probabilistes, ces mod`eles

per-mettant l’emploi de m´ethodes d’estimation Bay´esiennes.

Transformations adaptatives

Le chapitre 3 s’est pench´e plus particuli`erement sur le lien entre

parcimo-nie et codage par transformation. Une ´etude des co ˆuts de codage des

coeffi-cients transform´es puis quantifi´es montrent que si la redondance du

diction-naire utilis´e dans la transformation peut ˆetre int´eressante du point de vue de

l’approximation du signal `a compresser, le co ˆut de codage des coefficients

cor-respondant peut ˆetre r´edhibitoire. L’id´ee de structuration du dictionnaire est

alors introduite et envisag´ee sous la forme d’un ensemble de bases. Dans ce

contexte, un sch´ema de compression est propos´e, optimisant la transform´ee

appliqu´ee sur l’image dans le domaine spatial, par une adaptation du

sup-port via un bintree, et dans le domaine transform´e, par la s´election de bases

locales parmi des ensembles finis. Deux cas sont alors ´etudi´es : dans l’un, les

ensembles de bases locales sont pr´ed´efinis (nous consid´erons des DCT

direc-tionnelles de Zeng et Fu [122]), dans l’autre, il s’agit d’ensembles appris avec

l’algorithme de Sezeret al.[96]. Dans ces deux cas, des comparaisons de

per-formances en termes de d´ebit vsdistorsion sont r´ealis´ees entre les sch´emas

propos´es et les standards de compression JPEG et JPEG2000.

Partant d’une analyse approfondie de l’algorithme de Sezer, une extension

154 Conclusion

probabiliste est ensuite d´evelopp´ee, sur la base d’un algorithme EM. Nous

montrons que les bases apprises avec ce nouvel algorithme am´eliorent la

parcimonie des d´ecompositions par rapport `a celles apprises par

l’algo-rithme de Sezer. En revanche, elles ne r´esolvent pas une faiblesse mise en

´evidence d´ej`a dans l’algorithme de Sezer : les atomes des d´ecompositions

parcimonieuses sont choisis “uniform´ement” de sorte qu’un regroupement

des coefficients non nuls est difficile et inefficace dans le codage RLE des

indices des coefficients non nuls.

Perspectives

Dans de futurs travaux, il serait int´eressant de s’interroger sur l’optimisation

du nombre de bases apprises. Ici, nous avons propos´e des ensembles de 7

bases, en raison de l’initialisation de l’algorithme d’apprentissage par les

DCT directionnelles. Mais rien ne prouve que, dans le contexte des sch´emas

de compression consid´er´es, ce nombre de bases conduise aux meilleures

performances en termes de d´ebitvsdistorsion.

Pr´ediction et parcimonie

Le chapitre 4 s’int´eresse au codage pr´edictif, toujours d’un point de vue

parcimonieux. Un nouvel algorithme de pr´ediction est ´elabor´e, reposant sur

un m´elange de d´ecompositions parcimonieuses. Pour ce faire, on consid`ere

un mod`ele probabiliste similaire `a celui utilis´e dans le chapitre pr´ec´edent,

pour le d´eveloppement d’un nouvel algorithme d’apprentissage de bases.

L’algorithme consid´er´e ici se propose alors de r´esoudre un probl`eme

d’es-timation MMSE approch´e. Ses performances sont ´evalu´ees en termes de

d´ebit vs distorsion sur un sch´ema de codage simple, reposant sur une

seg-mentation de l’image en blocs de taille fixe et utilisant un ensemble de DCT

directionnelles. Par ailleurs, on consid´ere deux crit`eres d’optimisation de la

pr´ediction diff´erents. L’algorithme est compar´e `a des m´ethodes de pr´ediction

existantes, deux bas´ees ´egalement sur des d´ecompositions parcimonieuses et

une reprenant le principe de la pr´ediction intra utilis´ee dans le standard de

compression vid´eo H.264. Nous montrons que l’algorithme propos´e pr´esente

un bon comportement g´en´eral, dans la limite des images test´ees. Afin de

valider totalement la pertinence de notre algorithme, il serait int´eressant,

dans des travaux futurs, d’envisager son int´egration dans un codeur vid´eo

complet de type H.264.

Conclusion 155

Perspectives

Dans [118], Yu et al. proposent un algorithme de d´ebruitage bas´e sur des

approximations parcimonieuses. Le d´ebruitage est r´ealis´e sur un d´ecoupage

de l’image en blocs de taille fixe et chaque bloc d´ebruit´e est estim´e par son

approximation parcimonieuse dans une base choisie dans un ensemble appris

sur l’image bruit´ee. L’apprentissage des bases est r´ealis´e par des analyses

en composantes principales (PCA). S’inspirant de leurs travaux, nous

pou-vons envisager un nouvel algorithme de d´ebruitage. Notre contribution

serait double. D’abord, il pourrait ˆetre int´eressant de remplacer les PCA

par l’algorithme d’apprentissage propos´e dans le chapitre pr´ec´edent. En

effet, de mˆeme que dans l’algorithme propos´e par Sezeret al., les PCA sont

calcul´ees sur des ensembles de blocs de l’image et non sur l’image enti`ere ;

l’algorithme propos´e dans le chapitre pr´ec´edent permettrait une prise en

compte de l’ensemble de l’image dans l’apprentissage de toutes les bases, via

des calculs de probabilit´es a posteriori. Ensuite, l’algorithme de pr´ediction

propos´e dans ce chapitre pourrait ˆetre utilis´e en lieu et place de la s´election

d’unebase d’approximation. L’estimation de chaque bloc ne serait alors plus

son approximation parcimonieuse dansunebase parmi un ensemble possible,

mais la somme pond´er´eedes approximations parcimonieuses dans toutes les

bases.

Algorithmes gloutons Bay´esiens

Enfin, le dernier chapitre de contributions revient sur les observations

faites dans le chapitre 3 concernant l’“uniformisation” de la s´election des

atomes utilis´es dans les d´ecompositions parcimonieuses. Ici, on s’int´eresse en

particulier `a l’´etude d’un mod`ele Bernoulli-Gaussien : celui-ci permet en effet,

via des param`etres de Bernoulli diff´erents, la prise en compte d’une certaine

hi´erarchisation des atomes. L’utilisation de ce mod`ele dans la d´erivation

d’algorithmes de recherche de d´ecompositions parcimonieuses est ´etudi´ee,

on montre ainsi l’´equivalence d’un probl`eme d’estimation MAP bas´e sur

ce mod`ele avec un des probl`emes de d´ecompositions parcimonieuses

stan-dard. Plusieurs algorithmes sont alors propos´es, rappelant les algorithmes

de poursuite de la litt´erature. Leurs performances en reconstruction sont

compar´ees sur des donn´ees synth´etiques g´en´er´ees selon diff´erents mod`eles.

Pour simplifier, on ne consid`ere ici que le cas o `u les param`etres de Bernoulli

156 Conclusion

sont ´egaux. Les r´esultats obtenus, ´evalu´es en termes de taux de d´etection

manqu´eevsSNR, sont encourageants et montrent un bon comportement de

certains d’entre eux.

Perspectives

Compte tenu des motivations qui nous ont conduits `a consid´erer un mod`ele

Bernoulli-Gaussien, une perspective de ce travail serait la conception d’un

algorithme d’apprentissage de dictionnaires bas´e sur ce mˆeme mod`ele.

Consid´erant d’abord des param`etres de Bernoulli ´egaux, il faudrait ensuite se

pencher sur une hi´erarchisation des atomes. Il peut s’agir dans un premier

temps de param`etres de Bernoulli diff´erents (on force a priori une certaine

s´election des atomes) ou suivant une certaine loi de probabilit´es (Zhou et

al.envisagent dans [124] une loi Beta permettant le recours `a des m´ethodes

d’approximation variationnelles Bay´esiennes). Dans un deuxi`eme temps,

on peut envisager des mod`eles plus complexes, liant le choix d’un atome `a

un autre par des probabilit´es conditionnelles. Ces travaux vont dans le sens

d’une parcimonie plus structur´ee. Et en effet, compte tenu des r´esultats de

cette th`ese et de r´ecentes contributions de la litt´erature ([118]), cet axe de

recherche semble particuli`erement prometteur.

Bibliographie

[1] M. Aharon, M. Elad, and A. Bruckstein. K-svd : An algorithm for

desi-gning overcomplete dictionaries for sparse representation. IEEE Trans.

On Signal Processing, 54(11) :4311–4322, November 2006.

[2] N. Ahmed, T. Natarajan, and K. R. Rao. Discrete cosine transform.IEEE

Trans. On Computers, C-23 :90–93, January 1974.

[3] R. G. Baraniuk, V. Cevher, M. F. Duarte, and C. Hegde. Model-based

compressive sensing. To appear in IEEE Trans. On Information Theory,

2010.

[4] D. Baron, S. Sarvotham, and R. G. Baraniuk. Bayesian

compres-sive sensing via belief propagation. Technical report, available at

http ://arxiv.org : 0812.4627v2.pdf, June 2009.

[5] J. O. Berger. Statistical decision theory and Bayesian analysis.

Springer-Verlag, 2nd edition, 1985.

[6] J. M. Bernardo and A. F. M. Smith. Bayesian Theory. Wiley & Sons Ltd.,

1994.

[7] G. Bjontegaard. Calculation of average psnr differences between

rd-curves. InVCEG-M33, 2001.

[8] T. Blumensath and M. E. Davies. Iterative thresholding for sparse

ap-proximations. Journal of Fourier Analysis and Applications, 14(5-6) :629–

654, December 2008.

[9] J. Bobin, J.-L. Starck, J. M. Fadili, Y. Moudden, and D. L. Donoho.

Morphological component analysis : An adaptive thresholding strategy.

IEEE Trans. On Image Processing, 16(11) :2675–2681, 2007.

[10] E. J. Cand`es and D. L. Donoho. Curvelets : A surprisingly effective

nona-daptive representation for objects with edges. Technical report, Stanford

University CA, Dept. of Statistics, 2000.

158 Bibliographie

[11] G. Casella and C. P. Robert. Monte Carlo Statistical Methods.

Springer-Verlag New York, LLC, 2nd edition, 2004.

[12] V. Chappelier and C. Guillemot. Oriented wavelet transform for

image compression and denoising. IEEE Trans. On Image Processing,

15(10) :2892–2903, October 2006.

[13] C.-T. Chen. Adaptive transform coding via quadtree-based variable

blocksize dct. InProc. IEEE Int’l Conference on Acoustics, Speech and Signal

Processing (ICASSP), 23-26 May 1989.

[14] S. Chen, S. A. Billings, and W. Luo. Orthogonal least squares methods

and their application to non-linear system identification. Int’l Journal of

Control, 50(5) :1873–1896, 1989.

[15] S. S. Chen and D. L. Donoho. Basis pursuit. InProc. Asilomar Conference

on Signals, Systems, and Computers, volume 1, pages 41–44, 1994.

[16] S. S. Chen, D. L. Donoho, and M. A. Saunders. Atomic decomposition

by basis pursuit. SIAM Journal on Scientific Computing, 20 :33–61, 1998.

[17] R. R. Coifman, Y. Meyer, and M. V. Wickerhauser. Wavelet analysis and

signal processing. Wavelets and their applications, 1992.

[18] P. L. Combettes and J.-C. Pesquet. A proximal decomposition

me-thod for solving convex variational inverse problems. Inverse problems,

24(6) :1–31, 2008.

[19] C. Couvreur and Y. Bresler. On the optimality of the backward greedy

algorithm for the subset selection problem.SIAM Journal on Matrix

Ana-lysis and Applications, 21(3) :797–808, February 2000.

[20] T. M. Cover and J. A. Thomas. Elements of Information Theory. Wiley

Series in Telecommunications, 1991.

[21] C. Dai, O. D. Escoda, X. Yin, L. Peng, and C. Gomila. Geometry-adaptive

bloc partitioning for intra prediction in image and video coding. InProc.

IEEE Int’l Conference on Image Processing (ICIP), volume 6, pages VI – 85

– VI – 88, 2007.

[22] W. Dai and O. Milenkovic. Subspace pursuit for compressive sensing

signal reconstruction. IEEE Trans. On Information Theory, 55(5) :2230–

2249, May 2009.

[23] Y. Dai, Q. Zhang, A. Tourapis, and C.-C. J. Kuo. Efficient block-based

intra prediction for image coding with 2d geometrical manipulations.

InProc. IEEE Int’l Conference on Image Processing (ICIP), San Diego, CA,

2008.

Bibliographie 159

[24] I. Daubechies, M. Defrise, and C. DeMol. An iterative thresholding

al-gorithm for linear inverse problems with a sparsity constraint.

Commu-nications on pure and applied mathematics, 57(11) :1413–1457, 2004.

[25] A. P. Dempster, N. M. Laird, and D. B. Rubin. Maximum likelihood

from incomplete data via the em algorithm.Journal of the Royal Statistical

Society. Series B (Methodological), 39 :1–38, 1977.

[26] M. N. Do and M. Vetterli. Contourlets : a directional multiresolution

image representation. InProc. IEEE Int’l Conference on Image Processing

(ICIP), volume 1, pages 357–360, 2002.

[27] D. L. Donoho. De-noising by soft-thresholding.IEEE Trans. On

Informa-tion Theory, 41(3) :613–627, May 1995.

[28] D. L. Donoho and M. Elad. Optimally sparse representation in general

(nonorthogonal) dictionaries via`

1

minimization. Proc. Nat. Acad. Sci.,

100(5) :2197–2202, March 2003.

[29] D. L. Donoho and I. Johnstone. Ideal spatial adaptation by wavelet

shrinkage. Biometrika, 81 :425–455, 1993.

[30] D. L. Donoho, Y. Tsaig, I. Drori, and J.-L. Starck. Sparse solution of

un-derdetermined linear equations by stagewise orthogonal matching

pur-suit. Technical report, Stanford University, March 2006.

[31] M. Elad, J.-L. Starck, P. Querre, and D. L. Donoho. Simultaneous cartoon

and texture image inpainting using morphological component analysis

(mca). Journal on Applied and Computational Harmonic Analysis (ACHA),

19 :340–358, November 2005.

[32] M. Elad and I. Yavneh. A plurality of sparse representations is

bet-ter than the sparsest one alone. IEEE Trans. On Information Theory,

55(10) :4701–4714, October 2009.

[33] Y. C. Eldar, P. Kuppinger, and H. Bolcskei. Compressed sensing of

block-sparse signals : uncertainty relations and efficient recovery. Submitted

to IEEE Trans. On Signal Processing, 2010.

[34] Y. C. Eldar and M. Mishali. Robust recovery of signals from a structured

union of subspaces. IEEE Trans. On Information Theory, 55(11) :5302–

5316, November 2009.

[35] K. Engan, S. O. Aase, and J. H. Husoy. Method of optimal directions for

frame design. In IEEE Computer Society, editor,Proc. IEEE Int’l

Confe-rence on Acoustics, Speech and Signal Processing (ICASSP), volume 5, pages

2443–2446, 1999.

160 Bibliographie

[36] H. Everett. Generalized lagrange multiplier method for solving

problems of optimum allocation of resources. Operations Research,

11(3) :399–417, May-June 1963.

[37] M. J. Fadili and J.-L. Starck. An em algorithm for sparse

representation-based image inpainting. InProc. IEEE Int’l Conference on Image Processing

(ICIP), volume 2, pages II – 61–4, September 2005.

[38] A. C. Faul and M. E. Tipping. Analysis of sparse bayesian learning.

Advances in Neural Information Processing Systems, 14 :383–389, 2002.

[39] J.-J. Fuchs. Detection and estimation of superimposed signals. InProc.

IEEE Int’l Conference on Acoustics, Speech and Signal Processing (ICASSP),

volume 3, pages 1649 – 1652, 1998.

[40] J.-J. Fuchs. On the application of the global matched filter to doa

esti-mation with uniform circular arrays. IEEE Trans. On Signal Processing,

49(4) :702–709, 2001.

[41] A. Gersho and R.M. Gray. Vector Quantization and Signal Compression.

Kluwer Academic Publishers, 1991.

[42] H. Gish and J.N. Pierce. Asymptotically efficient quantizing.IEEE Trans.

On Informatio Theory, 14(5) :676–683, September 1968.

[43] R. Gribonval and M. Nielsen. Sparse representations in unions of bases.

IEEE Trans. On Information Theory, 49(12) :3320–3325, December 2003.

[44] R. Gribonval and P. Vandergheynst. On the exponential convergence

of matching pursuits in quasi-incoherent dictionaries. IEEE Trans. On

Information Theory, 52(1) :255–261, 2006.

[45] W. I. Grosky and R. Jain. Optimal quadtrees for image segments. IEEE

Trans. On Pattern Analysis and Machine Intelligence, PAMI-5(1) :77–83,

Ja-nuary 1983.

[46] O. G. Guleryuz. Nonlinear approximation based image recovery using

adaptive sparse reconstructions and iterated denoising : Part i - theory.

IEEE Trans. On Image Processing, 15 :555–571, 2004.

[47] O. G. Guleryuz. Nonlinear approximation based image recovery using

adaptive sparse reconstructions and iterated denoising : Part ii -

adap-tive algorithms.IEEE Trans. On Image Processing, 15 :555–571, 2004.

[48] D. Haugland. A bidirectional greedy heuristic for the subspace selection

Bibliographie 161

[49] L. He and L. Carin. Exploiting structure in wavelet-based bayesian

com-pressive sensing.IEEE Trans. On Signal Processing, 57(9) :3488–3497,

Sep-tember 2009.

[50] M. Helsingius, P. Kuosmanen, and J. Astola. Image compression using

multiple transforms. Signal Processing. Image communication, 15(6) :513–

529, 2000.

[51] D. A. Huffman. A method for the construction of minimum redundancy

codes. Proc. Institute of Radio Engineers (IRE), 40(9) :1098–1101,

Septem-ber 1952.

[52] R. M. Figueras i Ventura, L. Granai, and P. Vandergheynst. R-d

ana-lysis of adaptive edge representations. In Proc. IEEE Int’l Workshop on

Multimedia Signal Processing (MMSP), pages 130–133, December 2002.

[53] R. M. Figueras i Ventura, P. Vandergheynst, and P. Frossard. Low rate

and scalable image coding with redundant representations. Technical

report, TR-ITS-03.02, June 2003.

[54] L. K. Jones. On a conjecture of huber concerning the convergence of

projection pursuit regression.Annals of statistics, 15(2) :880–882, 1987.

[55] N. G. Kingsbury and T. H. Reeves. Overcomplete image coding using

iterative projection-based noise shaping. InProc. IEEE Int’l Conference

on Image Processing (ICIP), volume 3, pages 597–600, 2002.

[56] J. J. Kormylo and J. M. Mendel. Maximum likelihood detection and

estimation of bernoulli-gaussian processes. IEEE Trans. On Information

Theory, IT-28(3) :482488, May 1982.

[57] H. P. Kramer and M. V. Mathews. A linear coding for transmitting a

set of correlated signals. IRE Trans. On Information Theory, IT-23 :41–46,

September 1956.

[58] K. Kreutz-Delgado and B. D. Rao. Focuss-based dictionary learning

al-gorithms. InProc. SPIE, volume 4119 : ”Wavelet Applications in Signal

and Image Processing VIII, July-August 2000.

[59] F. R. Kschischang, B. J. Frey, and H.-A. Loeliger. Factor graphs and the

sum-product algorithm. IEEE Trans. On Information Theory, 47(2) :498–

519, February 2001.

[60] E. G. Larsson and Y. Selen. Linear regression with a sparse parameter

vector.IEEE Trans. On Signal Processing, 55(2) :451–460, January 2007.

[61] E. LePennec and S. Mallat. Sparse geometric image representations with

162 Bibliographie

[62] S. Lesage, R. Gribonval, F. Bimbot, and L. Benaroya. Learning unions

of orthonormal bases with thresholded singular value decomposition.

InProc. IEEE Int’l Conference on Acoustics, Speech and Signal Processing

(ICASSP), volume 5, pages v293–v296, 18-23 March 2005.

[63] M. S. Lewicki and T. J. Sejnowski. Learning overcomplete

representa-tions. Neural Comp., 12 :337–365, 2000.

[64] S. P. Lloyd. Least squares quantization in pcm. Technical report, Bell

Laboratories, 1957.

[65] Y. Lou, A. Bertozzi, and S. Soatto. Direct sparse deblurring. Technical

report, CAM-UCLA, 2009.

[66] D. J. C. MacKay. Bayesian interpolation. Neural Computation, 4(3) :415–

447, May 1992.

[67] S. Mallat. A theory for multiresolution signal decomposition : the

wave-let representation. IEEE Trans. On Pattern Analysis Machine Intelligence,

11(7) :674–693, July 1989.

[68] S. Mallat.A Wavelet Tour of Signal Processing - The Sparse Way. Academic

Press, third edition, December 2008.

[69] S. Mallat and F. Falzon. Analysis of low bit rate image transform coding.

IEEE Trans. On Signal Processing, 46(4) :1027–1042, April 1998.

[70] S. Mallat and G. Yu. Super-resolution with mixing sparse estimators.

Submitted to IEEE Trans. On Image Processing, 2009.

[71] S. Mallat and Z. Zhang. Matching pursuits with time-frequency

dictio-naries. IEEE Trans. On Signal Processing, 41(12) :3397–3415, December

1993.

[72] M. W. Marcellin, M. Gormish, A. Bilgin, and M. Boliek. An overview of

jpeg2000. InProc. Data Compression Conference, pages 523–541, Snowbird,

March 2000.

[73] A. Martin, J.-J. Fuchs, C. Guillemot, and D. Thoreau. Sparse

representa-tions for image prediction. InProc. European Signal Processing Conference

(EUSIPCO), Poznan, Poland., September 2007.

[74] A. Martin, J.-J. Fuchs, C. Guillemot, and D. Thoreau. Atomic

decom-position dedicated to avc and spatial svc prediction. InProc. IEEE Int’l

Conference on Image Processing (ICIP), pages 2492 – 2495, October 2008.

[75] S. Matsuo, S. Takamura, K. Kamikura, and Y. Yashima. Extension of

Bibliographie 163

[76] J. Max. Quantizing for minimum distortion. IEEE Trans. On Information

Theory, 6(1) :7–12, March 1960.

[77] J. M. Mendel.Optimal Seismic Deconvolution. Academic Press, 1983.

[78] F. G. Meyer. Image compression with adaptive local cosines : A

compa-rative study.IEEE Trans. On Image Processing, 11(6) :616–629, June 2002.

[79] J. L. Murray and K. Kreutz-Delgado. An improved focuss-based

lear-ning algorithm for solving sparse linear inverse problems. InProc.

Asi-lomar Conf. On Signals, Systems and Computers, volume 1, pages 347 – 351,

2001.

[80] D. Needell and J. A. Tropp. Cosamp : iterative signal recovery from

incomplete and inaccurate samples.Applied and Computational Harmonic

Analysis, 26(3) :301–321, May 2009.

[81] B. A. Olshausen and D. J. Field. Sparse coding with an overcomplete

basis set : a strategy employed by v1 ?Vision Research, 37(23) :3311–3325,

1997.

[82] A. Ortega and K. Ramchandran. Rate-distortion methods for image and

video compression. IEEE Signal Processing Magazine, 15(6) :23–50,

No-vember 1998.

[83] F. O’Sullivan. A statistical perspective on ill-posed inverse problems.

Statistical science, 1(4) :502–518, 1986.

[84] Y. C. Pati, R. Rezaiifar, Y. C. Pati R. Rezaiifar, and P. S. Krishnaprasad.

Orthogonal matching pursuit : Recursive function approximation with

applications to wavelet decomposition. InProc. Asilomar Conference on

Signals, Systems, and Computers, pages 40–44, 1993.

[85] R. Penrose. A generalized inverse for matrices. Proc. of the Cambridge

Philosophical Society, 51 :406–413, July 1955.

[86] L. Peotta, L. Granai, and P. Vandergheynst. Very low bit rate image

co-ding using redundant dictionaries. InProc. SPIE, volume 5207

”Wave-lets : applications in signal and image processing”, pages 228–239, San

Diego, CA, November 2003.

[87] K. Ramchandran and M. Vetterli. Best wavelet packet bases in a

rate-distortion sense. IEEE Trans. On Image Processing, 2(2) :160–175, April

1993.

[88] G. Rath and C. Guillemot. A complementary matching pursuit

al-gorithm for sparse approximation. In Proc. European Signal Processing

164 Bibliographie

[89] G. Rath and C. Guillemot. Sparse approximation with an orthogonal

complementary matching pursuit algorithm. InProc. IEEE Int’l

Confe-rence on Acoustics, Speech, and Signal Processing (ICASSP), pages 3325 –

3328, 2009.

[90] L. Rebollo-Neira and D. Lowe. Optimized orthogonal matching pursuit

approach.IEEE Signal Processing Letters, 9(4) :137–140, April 2002.

[91] I. E. G. Richardson. H.264 and MPEG-4 Video Compression. British

Li-brary, 2003.

[92] J. Rissanen. Generalized kraft inequality and arithmetic coding. IBM

Journal of research and development, 20(3) :198–203, May 1976.

[93] A. Robert, I. Amonou, and B. Pesquet-Popescu. Improving intra mode

coding in h.264/avc through bloc oriented transforms. InProc. IEEE

Int’l Workshop on Multimedia Signal Processing (MMSP), pages 382–386,

2006.

[94] S. Sardy, A. G. Bruce, and P. Tseng. Block coordinate relaxation methods

for nonparametric signal denoising with wavelet dictionaries.Journal of

computational and graphical statistics, 9 :361–379, 2000.

[95] P. Schniter, L. C. Potter, and J. Ziniel. Fast bayesian matching pursuit. In

Proc. Workshop on Information Theory and Applications (ITA), pages 326 –

333, La Jolla, CA, January 2008.

[96] O. G. Sezer, O. Harmanci, and O. G. Guleryuz. Sparse orthonormal

transforms for image compression. InProc. IEEE Int’l Conference on Image

Processing (ICIP), San Diego, CA., October 2008.

[97] C. A. Shaffer, R. Juvvadi, and L. S. Health. Generalized comparison

of quadtree and bintree storage requirements. Image Vision Computing,

11(7) :402–412, 1993.

[98] K. S. Shanmugam. Comments on “discrete cosine transform”. IEEE

Trans. On Computers, C-24 :759, July 1975.

[99] C. E. Shannon. A mathematical theory of communication. Bell System

Technical Journal, 27 :379–423 and 623–656, July and October 1948.

Documents relatifs