5.4 D´eveloppement de nouveaux algorithmes
5.6.3 Calcul de l’´equation de mise `a jour des coefficients (5.23)
BOMP
D´eveloppons le probl`eme d’estimation (5.22) :
ˆ
x=argmax
xlogp(y,x, ˆs
(n)). (5.22)
=argmax
x− 1
2σ
2ky−D
sˆ(n)x
sˆ(n)k
2 2− 1
2σ
2xx
Tˆs(n)x
sˆ(n),=argmax
x−1
2x
T ˆ s(n)D
Tsˆ(n)D
sˆ(n)+σ
2σ
2xI
ksˆ(n)k0x
sˆ(n)+x
Tsˆ(n)D
sTˆ(n)y.
La fonction objectif ´etant strictement concave, l’optimum peut ˆetre obtenu en
d´erivant par rapport `ax
sˆ(n)et ´egalisant l’expression obtenue `a 0 :
−
D
Tsˆ(n)D
ˆs(n)+ σ
2σ
x2I
ksˆ(n)k0ˆ
x
(sˆn(n))+D
Tˆs(n)y=0, (5.49)
soit l’expression (5.23),
ˆ
x
(sˆn(n))=D
Tsˆ(n)D
ˆs(n)+σ
2σ
x2I
kˆs(n)k0 −1D
Tˆs(n)y. (5.23)
Conclusion
Les travaux r´ealis´es pendant cette th`ese ont permis de creuser des voies et,
peut-ˆetre, d’en inspirer d’autres. Ce dernier chapitre synth´etise les
contribu-tions de cette th`ese, et pour chacune, d´efinit quelques axes de recherche qu’il
semble pertinent d’explorer dans le cadre de travaux futurs.
Durant ces trois ans, nous nous sommes int´eress´es `a l’utilisation de
d´ecompositions parcimonieuses dans les sch´emas de compression. Notre
´etude nous a amen´es `a consid´erer des mod`eles probabilistes, ces mod`eles
per-mettant l’emploi de m´ethodes d’estimation Bay´esiennes.
Transformations adaptatives
Le chapitre 3 s’est pench´e plus particuli`erement sur le lien entre
parcimo-nie et codage par transformation. Une ´etude des co ˆuts de codage des
coeffi-cients transform´es puis quantifi´es montrent que si la redondance du
diction-naire utilis´e dans la transformation peut ˆetre int´eressante du point de vue de
l’approximation du signal `a compresser, le co ˆut de codage des coefficients
cor-respondant peut ˆetre r´edhibitoire. L’id´ee de structuration du dictionnaire est
alors introduite et envisag´ee sous la forme d’un ensemble de bases. Dans ce
contexte, un sch´ema de compression est propos´e, optimisant la transform´ee
appliqu´ee sur l’image dans le domaine spatial, par une adaptation du
sup-port via un bintree, et dans le domaine transform´e, par la s´election de bases
locales parmi des ensembles finis. Deux cas sont alors ´etudi´es : dans l’un, les
ensembles de bases locales sont pr´ed´efinis (nous consid´erons des DCT
direc-tionnelles de Zeng et Fu [122]), dans l’autre, il s’agit d’ensembles appris avec
l’algorithme de Sezeret al.[96]. Dans ces deux cas, des comparaisons de
per-formances en termes de d´ebit vsdistorsion sont r´ealis´ees entre les sch´emas
propos´es et les standards de compression JPEG et JPEG2000.
Partant d’une analyse approfondie de l’algorithme de Sezer, une extension
154 Conclusion
probabiliste est ensuite d´evelopp´ee, sur la base d’un algorithme EM. Nous
montrons que les bases apprises avec ce nouvel algorithme am´eliorent la
parcimonie des d´ecompositions par rapport `a celles apprises par
l’algo-rithme de Sezer. En revanche, elles ne r´esolvent pas une faiblesse mise en
´evidence d´ej`a dans l’algorithme de Sezer : les atomes des d´ecompositions
parcimonieuses sont choisis “uniform´ement” de sorte qu’un regroupement
des coefficients non nuls est difficile et inefficace dans le codage RLE des
indices des coefficients non nuls.
Perspectives
Dans de futurs travaux, il serait int´eressant de s’interroger sur l’optimisation
du nombre de bases apprises. Ici, nous avons propos´e des ensembles de 7
bases, en raison de l’initialisation de l’algorithme d’apprentissage par les
DCT directionnelles. Mais rien ne prouve que, dans le contexte des sch´emas
de compression consid´er´es, ce nombre de bases conduise aux meilleures
performances en termes de d´ebitvsdistorsion.
Pr´ediction et parcimonie
Le chapitre 4 s’int´eresse au codage pr´edictif, toujours d’un point de vue
parcimonieux. Un nouvel algorithme de pr´ediction est ´elabor´e, reposant sur
un m´elange de d´ecompositions parcimonieuses. Pour ce faire, on consid`ere
un mod`ele probabiliste similaire `a celui utilis´e dans le chapitre pr´ec´edent,
pour le d´eveloppement d’un nouvel algorithme d’apprentissage de bases.
L’algorithme consid´er´e ici se propose alors de r´esoudre un probl`eme
d’es-timation MMSE approch´e. Ses performances sont ´evalu´ees en termes de
d´ebit vs distorsion sur un sch´ema de codage simple, reposant sur une
seg-mentation de l’image en blocs de taille fixe et utilisant un ensemble de DCT
directionnelles. Par ailleurs, on consid´ere deux crit`eres d’optimisation de la
pr´ediction diff´erents. L’algorithme est compar´e `a des m´ethodes de pr´ediction
existantes, deux bas´ees ´egalement sur des d´ecompositions parcimonieuses et
une reprenant le principe de la pr´ediction intra utilis´ee dans le standard de
compression vid´eo H.264. Nous montrons que l’algorithme propos´e pr´esente
un bon comportement g´en´eral, dans la limite des images test´ees. Afin de
valider totalement la pertinence de notre algorithme, il serait int´eressant,
dans des travaux futurs, d’envisager son int´egration dans un codeur vid´eo
complet de type H.264.
Conclusion 155
Perspectives
Dans [118], Yu et al. proposent un algorithme de d´ebruitage bas´e sur des
approximations parcimonieuses. Le d´ebruitage est r´ealis´e sur un d´ecoupage
de l’image en blocs de taille fixe et chaque bloc d´ebruit´e est estim´e par son
approximation parcimonieuse dans une base choisie dans un ensemble appris
sur l’image bruit´ee. L’apprentissage des bases est r´ealis´e par des analyses
en composantes principales (PCA). S’inspirant de leurs travaux, nous
pou-vons envisager un nouvel algorithme de d´ebruitage. Notre contribution
serait double. D’abord, il pourrait ˆetre int´eressant de remplacer les PCA
par l’algorithme d’apprentissage propos´e dans le chapitre pr´ec´edent. En
effet, de mˆeme que dans l’algorithme propos´e par Sezeret al., les PCA sont
calcul´ees sur des ensembles de blocs de l’image et non sur l’image enti`ere ;
l’algorithme propos´e dans le chapitre pr´ec´edent permettrait une prise en
compte de l’ensemble de l’image dans l’apprentissage de toutes les bases, via
des calculs de probabilit´es a posteriori. Ensuite, l’algorithme de pr´ediction
propos´e dans ce chapitre pourrait ˆetre utilis´e en lieu et place de la s´election
d’unebase d’approximation. L’estimation de chaque bloc ne serait alors plus
son approximation parcimonieuse dansunebase parmi un ensemble possible,
mais la somme pond´er´eedes approximations parcimonieuses dans toutes les
bases.
Algorithmes gloutons Bay´esiens
Enfin, le dernier chapitre de contributions revient sur les observations
faites dans le chapitre 3 concernant l’“uniformisation” de la s´election des
atomes utilis´es dans les d´ecompositions parcimonieuses. Ici, on s’int´eresse en
particulier `a l’´etude d’un mod`ele Bernoulli-Gaussien : celui-ci permet en effet,
via des param`etres de Bernoulli diff´erents, la prise en compte d’une certaine
hi´erarchisation des atomes. L’utilisation de ce mod`ele dans la d´erivation
d’algorithmes de recherche de d´ecompositions parcimonieuses est ´etudi´ee,
on montre ainsi l’´equivalence d’un probl`eme d’estimation MAP bas´e sur
ce mod`ele avec un des probl`emes de d´ecompositions parcimonieuses
stan-dard. Plusieurs algorithmes sont alors propos´es, rappelant les algorithmes
de poursuite de la litt´erature. Leurs performances en reconstruction sont
compar´ees sur des donn´ees synth´etiques g´en´er´ees selon diff´erents mod`eles.
Pour simplifier, on ne consid`ere ici que le cas o `u les param`etres de Bernoulli
156 Conclusion
sont ´egaux. Les r´esultats obtenus, ´evalu´es en termes de taux de d´etection
manqu´eevsSNR, sont encourageants et montrent un bon comportement de
certains d’entre eux.
Perspectives
Compte tenu des motivations qui nous ont conduits `a consid´erer un mod`ele
Bernoulli-Gaussien, une perspective de ce travail serait la conception d’un
algorithme d’apprentissage de dictionnaires bas´e sur ce mˆeme mod`ele.
Consid´erant d’abord des param`etres de Bernoulli ´egaux, il faudrait ensuite se
pencher sur une hi´erarchisation des atomes. Il peut s’agir dans un premier
temps de param`etres de Bernoulli diff´erents (on force a priori une certaine
s´election des atomes) ou suivant une certaine loi de probabilit´es (Zhou et
al.envisagent dans [124] une loi Beta permettant le recours `a des m´ethodes
d’approximation variationnelles Bay´esiennes). Dans un deuxi`eme temps,
on peut envisager des mod`eles plus complexes, liant le choix d’un atome `a
un autre par des probabilit´es conditionnelles. Ces travaux vont dans le sens
d’une parcimonie plus structur´ee. Et en effet, compte tenu des r´esultats de
cette th`ese et de r´ecentes contributions de la litt´erature ([118]), cet axe de
recherche semble particuli`erement prometteur.
Bibliographie
[1] M. Aharon, M. Elad, and A. Bruckstein. K-svd : An algorithm for
desi-gning overcomplete dictionaries for sparse representation. IEEE Trans.
On Signal Processing, 54(11) :4311–4322, November 2006.
[2] N. Ahmed, T. Natarajan, and K. R. Rao. Discrete cosine transform.IEEE
Trans. On Computers, C-23 :90–93, January 1974.
[3] R. G. Baraniuk, V. Cevher, M. F. Duarte, and C. Hegde. Model-based
compressive sensing. To appear in IEEE Trans. On Information Theory,
2010.
[4] D. Baron, S. Sarvotham, and R. G. Baraniuk. Bayesian
compres-sive sensing via belief propagation. Technical report, available at
http ://arxiv.org : 0812.4627v2.pdf, June 2009.
[5] J. O. Berger. Statistical decision theory and Bayesian analysis.
Springer-Verlag, 2nd edition, 1985.
[6] J. M. Bernardo and A. F. M. Smith. Bayesian Theory. Wiley & Sons Ltd.,
1994.
[7] G. Bjontegaard. Calculation of average psnr differences between
rd-curves. InVCEG-M33, 2001.
[8] T. Blumensath and M. E. Davies. Iterative thresholding for sparse
ap-proximations. Journal of Fourier Analysis and Applications, 14(5-6) :629–
654, December 2008.
[9] J. Bobin, J.-L. Starck, J. M. Fadili, Y. Moudden, and D. L. Donoho.
Morphological component analysis : An adaptive thresholding strategy.
IEEE Trans. On Image Processing, 16(11) :2675–2681, 2007.
[10] E. J. Cand`es and D. L. Donoho. Curvelets : A surprisingly effective
nona-daptive representation for objects with edges. Technical report, Stanford
University CA, Dept. of Statistics, 2000.
158 Bibliographie
[11] G. Casella and C. P. Robert. Monte Carlo Statistical Methods.
Springer-Verlag New York, LLC, 2nd edition, 2004.
[12] V. Chappelier and C. Guillemot. Oriented wavelet transform for
image compression and denoising. IEEE Trans. On Image Processing,
15(10) :2892–2903, October 2006.
[13] C.-T. Chen. Adaptive transform coding via quadtree-based variable
blocksize dct. InProc. IEEE Int’l Conference on Acoustics, Speech and Signal
Processing (ICASSP), 23-26 May 1989.
[14] S. Chen, S. A. Billings, and W. Luo. Orthogonal least squares methods
and their application to non-linear system identification. Int’l Journal of
Control, 50(5) :1873–1896, 1989.
[15] S. S. Chen and D. L. Donoho. Basis pursuit. InProc. Asilomar Conference
on Signals, Systems, and Computers, volume 1, pages 41–44, 1994.
[16] S. S. Chen, D. L. Donoho, and M. A. Saunders. Atomic decomposition
by basis pursuit. SIAM Journal on Scientific Computing, 20 :33–61, 1998.
[17] R. R. Coifman, Y. Meyer, and M. V. Wickerhauser. Wavelet analysis and
signal processing. Wavelets and their applications, 1992.
[18] P. L. Combettes and J.-C. Pesquet. A proximal decomposition
me-thod for solving convex variational inverse problems. Inverse problems,
24(6) :1–31, 2008.
[19] C. Couvreur and Y. Bresler. On the optimality of the backward greedy
algorithm for the subset selection problem.SIAM Journal on Matrix
Ana-lysis and Applications, 21(3) :797–808, February 2000.
[20] T. M. Cover and J. A. Thomas. Elements of Information Theory. Wiley
Series in Telecommunications, 1991.
[21] C. Dai, O. D. Escoda, X. Yin, L. Peng, and C. Gomila. Geometry-adaptive
bloc partitioning for intra prediction in image and video coding. InProc.
IEEE Int’l Conference on Image Processing (ICIP), volume 6, pages VI – 85
– VI – 88, 2007.
[22] W. Dai and O. Milenkovic. Subspace pursuit for compressive sensing
signal reconstruction. IEEE Trans. On Information Theory, 55(5) :2230–
2249, May 2009.
[23] Y. Dai, Q. Zhang, A. Tourapis, and C.-C. J. Kuo. Efficient block-based
intra prediction for image coding with 2d geometrical manipulations.
InProc. IEEE Int’l Conference on Image Processing (ICIP), San Diego, CA,
2008.
Bibliographie 159
[24] I. Daubechies, M. Defrise, and C. DeMol. An iterative thresholding
al-gorithm for linear inverse problems with a sparsity constraint.
Commu-nications on pure and applied mathematics, 57(11) :1413–1457, 2004.
[25] A. P. Dempster, N. M. Laird, and D. B. Rubin. Maximum likelihood
from incomplete data via the em algorithm.Journal of the Royal Statistical
Society. Series B (Methodological), 39 :1–38, 1977.
[26] M. N. Do and M. Vetterli. Contourlets : a directional multiresolution
image representation. InProc. IEEE Int’l Conference on Image Processing
(ICIP), volume 1, pages 357–360, 2002.
[27] D. L. Donoho. De-noising by soft-thresholding.IEEE Trans. On
Informa-tion Theory, 41(3) :613–627, May 1995.
[28] D. L. Donoho and M. Elad. Optimally sparse representation in general
(nonorthogonal) dictionaries via`
1minimization. Proc. Nat. Acad. Sci.,
100(5) :2197–2202, March 2003.
[29] D. L. Donoho and I. Johnstone. Ideal spatial adaptation by wavelet
shrinkage. Biometrika, 81 :425–455, 1993.
[30] D. L. Donoho, Y. Tsaig, I. Drori, and J.-L. Starck. Sparse solution of
un-derdetermined linear equations by stagewise orthogonal matching
pur-suit. Technical report, Stanford University, March 2006.
[31] M. Elad, J.-L. Starck, P. Querre, and D. L. Donoho. Simultaneous cartoon
and texture image inpainting using morphological component analysis
(mca). Journal on Applied and Computational Harmonic Analysis (ACHA),
19 :340–358, November 2005.
[32] M. Elad and I. Yavneh. A plurality of sparse representations is
bet-ter than the sparsest one alone. IEEE Trans. On Information Theory,
55(10) :4701–4714, October 2009.
[33] Y. C. Eldar, P. Kuppinger, and H. Bolcskei. Compressed sensing of
block-sparse signals : uncertainty relations and efficient recovery. Submitted
to IEEE Trans. On Signal Processing, 2010.
[34] Y. C. Eldar and M. Mishali. Robust recovery of signals from a structured
union of subspaces. IEEE Trans. On Information Theory, 55(11) :5302–
5316, November 2009.
[35] K. Engan, S. O. Aase, and J. H. Husoy. Method of optimal directions for
frame design. In IEEE Computer Society, editor,Proc. IEEE Int’l
Confe-rence on Acoustics, Speech and Signal Processing (ICASSP), volume 5, pages
2443–2446, 1999.
160 Bibliographie
[36] H. Everett. Generalized lagrange multiplier method for solving
problems of optimum allocation of resources. Operations Research,
11(3) :399–417, May-June 1963.
[37] M. J. Fadili and J.-L. Starck. An em algorithm for sparse
representation-based image inpainting. InProc. IEEE Int’l Conference on Image Processing
(ICIP), volume 2, pages II – 61–4, September 2005.
[38] A. C. Faul and M. E. Tipping. Analysis of sparse bayesian learning.
Advances in Neural Information Processing Systems, 14 :383–389, 2002.
[39] J.-J. Fuchs. Detection and estimation of superimposed signals. InProc.
IEEE Int’l Conference on Acoustics, Speech and Signal Processing (ICASSP),
volume 3, pages 1649 – 1652, 1998.
[40] J.-J. Fuchs. On the application of the global matched filter to doa
esti-mation with uniform circular arrays. IEEE Trans. On Signal Processing,
49(4) :702–709, 2001.
[41] A. Gersho and R.M. Gray. Vector Quantization and Signal Compression.
Kluwer Academic Publishers, 1991.
[42] H. Gish and J.N. Pierce. Asymptotically efficient quantizing.IEEE Trans.
On Informatio Theory, 14(5) :676–683, September 1968.
[43] R. Gribonval and M. Nielsen. Sparse representations in unions of bases.
IEEE Trans. On Information Theory, 49(12) :3320–3325, December 2003.
[44] R. Gribonval and P. Vandergheynst. On the exponential convergence
of matching pursuits in quasi-incoherent dictionaries. IEEE Trans. On
Information Theory, 52(1) :255–261, 2006.
[45] W. I. Grosky and R. Jain. Optimal quadtrees for image segments. IEEE
Trans. On Pattern Analysis and Machine Intelligence, PAMI-5(1) :77–83,
Ja-nuary 1983.
[46] O. G. Guleryuz. Nonlinear approximation based image recovery using
adaptive sparse reconstructions and iterated denoising : Part i - theory.
IEEE Trans. On Image Processing, 15 :555–571, 2004.
[47] O. G. Guleryuz. Nonlinear approximation based image recovery using
adaptive sparse reconstructions and iterated denoising : Part ii -
adap-tive algorithms.IEEE Trans. On Image Processing, 15 :555–571, 2004.
[48] D. Haugland. A bidirectional greedy heuristic for the subspace selection
Bibliographie 161
[49] L. He and L. Carin. Exploiting structure in wavelet-based bayesian
com-pressive sensing.IEEE Trans. On Signal Processing, 57(9) :3488–3497,
Sep-tember 2009.
[50] M. Helsingius, P. Kuosmanen, and J. Astola. Image compression using
multiple transforms. Signal Processing. Image communication, 15(6) :513–
529, 2000.
[51] D. A. Huffman. A method for the construction of minimum redundancy
codes. Proc. Institute of Radio Engineers (IRE), 40(9) :1098–1101,
Septem-ber 1952.
[52] R. M. Figueras i Ventura, L. Granai, and P. Vandergheynst. R-d
ana-lysis of adaptive edge representations. In Proc. IEEE Int’l Workshop on
Multimedia Signal Processing (MMSP), pages 130–133, December 2002.
[53] R. M. Figueras i Ventura, P. Vandergheynst, and P. Frossard. Low rate
and scalable image coding with redundant representations. Technical
report, TR-ITS-03.02, June 2003.
[54] L. K. Jones. On a conjecture of huber concerning the convergence of
projection pursuit regression.Annals of statistics, 15(2) :880–882, 1987.
[55] N. G. Kingsbury and T. H. Reeves. Overcomplete image coding using
iterative projection-based noise shaping. InProc. IEEE Int’l Conference
on Image Processing (ICIP), volume 3, pages 597–600, 2002.
[56] J. J. Kormylo and J. M. Mendel. Maximum likelihood detection and
estimation of bernoulli-gaussian processes. IEEE Trans. On Information
Theory, IT-28(3) :482488, May 1982.
[57] H. P. Kramer and M. V. Mathews. A linear coding for transmitting a
set of correlated signals. IRE Trans. On Information Theory, IT-23 :41–46,
September 1956.
[58] K. Kreutz-Delgado and B. D. Rao. Focuss-based dictionary learning
al-gorithms. InProc. SPIE, volume 4119 : ”Wavelet Applications in Signal
and Image Processing VIII, July-August 2000.
[59] F. R. Kschischang, B. J. Frey, and H.-A. Loeliger. Factor graphs and the
sum-product algorithm. IEEE Trans. On Information Theory, 47(2) :498–
519, February 2001.
[60] E. G. Larsson and Y. Selen. Linear regression with a sparse parameter
vector.IEEE Trans. On Signal Processing, 55(2) :451–460, January 2007.
[61] E. LePennec and S. Mallat. Sparse geometric image representations with
162 Bibliographie
[62] S. Lesage, R. Gribonval, F. Bimbot, and L. Benaroya. Learning unions
of orthonormal bases with thresholded singular value decomposition.
InProc. IEEE Int’l Conference on Acoustics, Speech and Signal Processing
(ICASSP), volume 5, pages v293–v296, 18-23 March 2005.
[63] M. S. Lewicki and T. J. Sejnowski. Learning overcomplete
representa-tions. Neural Comp., 12 :337–365, 2000.
[64] S. P. Lloyd. Least squares quantization in pcm. Technical report, Bell
Laboratories, 1957.
[65] Y. Lou, A. Bertozzi, and S. Soatto. Direct sparse deblurring. Technical
report, CAM-UCLA, 2009.
[66] D. J. C. MacKay. Bayesian interpolation. Neural Computation, 4(3) :415–
447, May 1992.
[67] S. Mallat. A theory for multiresolution signal decomposition : the
wave-let representation. IEEE Trans. On Pattern Analysis Machine Intelligence,
11(7) :674–693, July 1989.
[68] S. Mallat.A Wavelet Tour of Signal Processing - The Sparse Way. Academic
Press, third edition, December 2008.
[69] S. Mallat and F. Falzon. Analysis of low bit rate image transform coding.
IEEE Trans. On Signal Processing, 46(4) :1027–1042, April 1998.
[70] S. Mallat and G. Yu. Super-resolution with mixing sparse estimators.
Submitted to IEEE Trans. On Image Processing, 2009.
[71] S. Mallat and Z. Zhang. Matching pursuits with time-frequency
dictio-naries. IEEE Trans. On Signal Processing, 41(12) :3397–3415, December
1993.
[72] M. W. Marcellin, M. Gormish, A. Bilgin, and M. Boliek. An overview of
jpeg2000. InProc. Data Compression Conference, pages 523–541, Snowbird,
March 2000.
[73] A. Martin, J.-J. Fuchs, C. Guillemot, and D. Thoreau. Sparse
representa-tions for image prediction. InProc. European Signal Processing Conference
(EUSIPCO), Poznan, Poland., September 2007.
[74] A. Martin, J.-J. Fuchs, C. Guillemot, and D. Thoreau. Atomic
decom-position dedicated to avc and spatial svc prediction. InProc. IEEE Int’l
Conference on Image Processing (ICIP), pages 2492 – 2495, October 2008.
[75] S. Matsuo, S. Takamura, K. Kamikura, and Y. Yashima. Extension of
Bibliographie 163
[76] J. Max. Quantizing for minimum distortion. IEEE Trans. On Information
Theory, 6(1) :7–12, March 1960.
[77] J. M. Mendel.Optimal Seismic Deconvolution. Academic Press, 1983.
[78] F. G. Meyer. Image compression with adaptive local cosines : A
compa-rative study.IEEE Trans. On Image Processing, 11(6) :616–629, June 2002.
[79] J. L. Murray and K. Kreutz-Delgado. An improved focuss-based
lear-ning algorithm for solving sparse linear inverse problems. InProc.
Asi-lomar Conf. On Signals, Systems and Computers, volume 1, pages 347 – 351,
2001.
[80] D. Needell and J. A. Tropp. Cosamp : iterative signal recovery from
incomplete and inaccurate samples.Applied and Computational Harmonic
Analysis, 26(3) :301–321, May 2009.
[81] B. A. Olshausen and D. J. Field. Sparse coding with an overcomplete
basis set : a strategy employed by v1 ?Vision Research, 37(23) :3311–3325,
1997.
[82] A. Ortega and K. Ramchandran. Rate-distortion methods for image and
video compression. IEEE Signal Processing Magazine, 15(6) :23–50,
No-vember 1998.
[83] F. O’Sullivan. A statistical perspective on ill-posed inverse problems.
Statistical science, 1(4) :502–518, 1986.
[84] Y. C. Pati, R. Rezaiifar, Y. C. Pati R. Rezaiifar, and P. S. Krishnaprasad.
Orthogonal matching pursuit : Recursive function approximation with
applications to wavelet decomposition. InProc. Asilomar Conference on
Signals, Systems, and Computers, pages 40–44, 1993.
[85] R. Penrose. A generalized inverse for matrices. Proc. of the Cambridge
Philosophical Society, 51 :406–413, July 1955.
[86] L. Peotta, L. Granai, and P. Vandergheynst. Very low bit rate image
co-ding using redundant dictionaries. InProc. SPIE, volume 5207
”Wave-lets : applications in signal and image processing”, pages 228–239, San
Diego, CA, November 2003.
[87] K. Ramchandran and M. Vetterli. Best wavelet packet bases in a
rate-distortion sense. IEEE Trans. On Image Processing, 2(2) :160–175, April
1993.
[88] G. Rath and C. Guillemot. A complementary matching pursuit
al-gorithm for sparse approximation. In Proc. European Signal Processing
164 Bibliographie
[89] G. Rath and C. Guillemot. Sparse approximation with an orthogonal
complementary matching pursuit algorithm. InProc. IEEE Int’l
Confe-rence on Acoustics, Speech, and Signal Processing (ICASSP), pages 3325 –
3328, 2009.
[90] L. Rebollo-Neira and D. Lowe. Optimized orthogonal matching pursuit
approach.IEEE Signal Processing Letters, 9(4) :137–140, April 2002.
[91] I. E. G. Richardson. H.264 and MPEG-4 Video Compression. British
Li-brary, 2003.
[92] J. Rissanen. Generalized kraft inequality and arithmetic coding. IBM
Journal of research and development, 20(3) :198–203, May 1976.
[93] A. Robert, I. Amonou, and B. Pesquet-Popescu. Improving intra mode
coding in h.264/avc through bloc oriented transforms. InProc. IEEE
Int’l Workshop on Multimedia Signal Processing (MMSP), pages 382–386,
2006.
[94] S. Sardy, A. G. Bruce, and P. Tseng. Block coordinate relaxation methods
for nonparametric signal denoising with wavelet dictionaries.Journal of
computational and graphical statistics, 9 :361–379, 2000.
[95] P. Schniter, L. C. Potter, and J. Ziniel. Fast bayesian matching pursuit. In
Proc. Workshop on Information Theory and Applications (ITA), pages 326 –
333, La Jolla, CA, January 2008.
[96] O. G. Sezer, O. Harmanci, and O. G. Guleryuz. Sparse orthonormal
transforms for image compression. InProc. IEEE Int’l Conference on Image
Processing (ICIP), San Diego, CA., October 2008.
[97] C. A. Shaffer, R. Juvvadi, and L. S. Health. Generalized comparison
of quadtree and bintree storage requirements. Image Vision Computing,
11(7) :402–412, 1993.
[98] K. S. Shanmugam. Comments on “discrete cosine transform”. IEEE
Trans. On Computers, C-24 :759, July 1975.
[99] C. E. Shannon. A mathematical theory of communication. Bell System
Technical Journal, 27 :379–423 and 623–656, July and October 1948.
Dans le document
Décompositions parcimonieuses : approches Bayésiennes et application à la compression d'image
(Page 165-183)