• Aucun résultat trouvé

Evaluation des effets de la compression sur la volumétrie

Le but ici est d’évaluer les effets de la compression avec pertes d’images volumiques sur les mesures de volume des nodules détectés par le CAD [91]. Les expériences ont été effectuées sur deux examens MCDT haute-résolution de poitrine : un normal et un pathologique (emphysème). Ils ont été acquis à 16 x 1,25 mm avec un intervalle de reconstruction de 0,6 mm. Dans ces deux examens, 89 nodules générés par ordinateur avec des volumes connus variant de 31,7 à 896,7 mm3, reflétant des caractéristiques typiques de nodules solides d’examen MDCT de poitrine ont été insérés à des localisations au hasard, juxtavasculaires ou sous-pleurales. Les deux images 3D ont été comprimées en utilisant la méthode de compression SPIHT 3D aux même taux de compression que pour l’étude précédente (24 : 1, 48 : 1 et 96 : 1). Un modèle d’analyse de la variance (ANOVA) a été mis en place pour évaluer l’impact du taux de compression et des caractéristiques des nodules sur les estimations de volumes fournies par le CAD.

Le CAD produit une erreur mesurée moyenne sur le volume des nodules de + 3,4 % ± 7,6 % pour l’ensemble des données non compressées. Sur une image comprimée, par exemple à un taux de compression de 96 : 1, cette même erreur moyenne sur le volume est de + 0,5 % ± 9,1 % . En fait, aucune différence significative dans l’erreur de mesure des volumes pour tous les niveaux de compression n’a été identifiée. Cependant, bien que la compression ne puisse pas prévoir la taille des erreurs volumétriques, le taux de compression de 96 : 1 produit statistiquement des volumes sensiblement plus petits en moyenne (perte en moyenne de 4,1 mm3 pour les volumes) que les autres taux de compression testés.

Par ailleurs, de manière identique à l’étude précédente sur la sensibilité du CAD, la localisation du nodule s’avère un facteur prédictif significatif d’erreur de mesure de volume avec de plus grandes erreurs en moyenne pour les nodules juxtavasculaires (+ 7,1 %) et pleuraux (+ 1.6 %). La taille des nodules, tout comme la présence d’emphysème n’ont pas été identifiées en tant que facteurs

98 images médicales prédictifs significatifs d’erreur de mesure de volume.

Ainsi, les évaluations de volume par le CAD des nodules sur des données comprimées avec pertes par SPIHT 3D n’ont montré aucune différence significative jusqu’à 96 : 1 en comparaison avec les volumes présents dans la base de données de référence.

3.6 Conclusion

Nous avons proposé deux résultats principaux sur des scanners de type MDCT de poumons. Le premier a montré que la détection des nodules par le CAD n’était pas détériorée par la compression basée sur SPIHT 3D jusqu’à un niveau de compression de 48 : 1 et restait robuste jusqu’à 96 : 1. La seconde étude sur la volumétrie, bien que préliminaire, a déjà montré que les estimations des volumes des nodules sur des données compressées avec pertes (par SPIHT 3D) ne présentaient aucune variation significative, si l’on compare aux volumes connus dans la base de référence. Ces deux études font partie des premiers résultats pour l’évaluation des effets de la compression avec pertes en utilisant un codeur 3D sur les performances d’un CAD pulmonaire pour des images de type MDCT. Elles constituent une première validation pour l’utilisation éventuelle de méthodes de compression 3D pour les images MDCT des poumons. Actuellement, la compression avec pertes est utilisée avec abondance (notamment sur Inter-net). En imagerie radiologie, les algorithmes 3D récents de compression avec pertes sont encore très loin d’être utilisés dans la pratique. Pour envisager un jour une mise en production de la compression avec pertes dans un PACS ou par les grands constructeurs d’appareils radiologiques, il est fondamental de populariser l’idée de la compression avec pertes maitrisées dans la communauté médicale. Multiplier les études validant les méthodes de compression avec pertes sur différents organes, modalités et traitements va clairement dans ce sens. Dans cette optique, nous réalisons actuellement une étude sur les effets de la compression avec pertes sur le recalage rigide et non rigide d’images oncologiques. De plus, nous débutons des tests sur l’impact des pertes liés à la compression sur des reconstructions volumiques classiques dans des scanners de reins. Une autre étude sur l’évaluation de segmentation cardiaque 3D d’images compressées est en projet.

Chapitre 4

Quelques outils analytiques pour la

compression d’images

4.1 Introduction

L’approche intra-bande considère chaque sous-bande issue de la transformée en ondelettes de façon indépendante. Pour construire un schéma de compression efficace, il est alors nécessaire de déterminer un débit pour chacune d’elles à travers une procédure d’allocation de débits. Le second chapitre a présenté une nouvelle méthode de compression intra-bandes pour les images médicales volumiques basée sur une quantification algébrique avec zone morte. Ainsi, cette méthode nécessite une allocation de débits qui peut s’avérer très coûteuse en calculs, et ceci d’autant plus qu’elle requiert le réglage d’un paramètre supplémentaire : la zone morte vectorielle. L’objectif ici est de diminuer sensiblement le nombre de calculs effectués à partir des données. Nous proposons dans ce chapitre deux solutions pour l’allocation de débits de la QVAZM pour les images naturelles. La seconde solution est étendue aux images médicales 3D.

L’allocation de débits correspond à une minimisation non linéaire sous contraintes d’égalité. Elle a fait l’objet de nombreuses recherches, résumées dans [78]. Ces méthodes peuvent être découpées en trois groupes :

La première famille comprend les méthodes basées sur le calcul des courbes débit-distorsion. Deux approches peuvent être employées dans la résolution du problème de minimisation : l’approche lagrangienne ou la programmation dynamique [78]. Si celles-ci assurent la plus grande précision en terme de détection du minimum du fait de l’utilisation directe des données, elles présentent l’inconvénient d’un coût de complexité assez élevé. En effet, elles travaillent avec les courbes débit-distorsion qui nécessitent énormément de ressources pour être calculées. C’est ce type de méthode (lagrangienne) qui a été utilisé pour l’allocation du chapitre 2.

La deuxième classe de méthodes regroupe les approches du type approximation ou ajustement des courbes débit-distorsion, dont le principe consiste à effectuer un certain nombre de mesures sur les données (i.e. calculer quelques points de la courbe débit-distorsion) et à en déduire une approximation grâce à un modèle. Cette approche est un compromis entre nombre d’appels aux données et validité de l’estimation. Elle est particulièrement utilisée en compression vidéo pour le contrôle des débits [78], [17]. La méthode1 proposée dans la première partie de ce chapitre pour l’allocation de la QVAZM 2D, peut être classée dans cette famille : elle consiste à remplacer l’appel aux données par une estimation des courbes débit-distorsion grâce à un modèle exponentiel [47], l’allocation en elle-même consistant à appliquer de simples formules analytiques.

Enfin, les approches statistiques ont pour intérêt de délivrer un modèle analytique dont la résolu-tion est beaucoup moins coûteuse du fait de la quasi absence d’appel aux données dans le processus

d’allocation. De nombreux travaux ont porté sur des méthodes d’allocations basées sur des modèles statistiques des coefficients d’ondelettes [93], reposant sur des hypothèses de type gaussienne géné-ralisée [80] ou faisant appel à des modélisations prenant en compte les dépendances spatiales [63]. Dans ce chapitre, nous présentons une nouvelle modélisation2 de la norme des vecteurs en utilisant un mélange de lois gamma conduisant à un mélange de lois de type gaussienne généralisée des vec-teurs de la source eux-mêmes [48]. Nous dérivons ainsi des modèles débit-distorsion pour la QVA et la QVAZM, simplement déduits des modèles classiques dans le cas i.i.d. Une fois la norme des vecteurs d’ondelettes modélisée par un mélange de gamma, nous ne faisons plus du tout appel aux données. La complexité de notre schéma de compression intra-bandes en est ainsi considérablement réduite.

Ce chapitre est composé de trois parties, la première présente la procédure analytique d’alloca-tion de débits basée sur une approximad’alloca-tion des courbes débit-distorsion de la QVAZM avec modèle exponentiel. La seconde partie propose des modèles statistiques débit-distorsion valables pour la QVA et la QVAZM. Ils sont dédiés à des mélanges de densité par blocs. La dernière partie com-pare les performances de ces allocations sur un panel classique d’images naturelles. Elle présente également les résultats de l’allocation avec le modèle statistique sur un scanner ORL de la base E3.

4.2 Allocation de débits pour la QVAZM par approximation des