• Aucun résultat trouvé

Aide à la détection pour des volumes de tomosynthèse

Les travaux présentés dans la section précédente portaient essentiellement sur l’aide à la détection en mammographie standard. Certains de ces éléments peuvent plus ou moins directement être adaptés pour le traitement de volumes de tomosynthèse. Dans un premier temps nous reviendrons sur les motivations d’un outil de détection en 3D, puis nous présenterons de manière haut niveau les schémas de détection proposés dans la littérature. Nous poursuivrons par une description des approches de détection de microcalcifications et de masses. Nous finirons par une présentation sommaire de notre approche.

1.4.1

Motivations

Bien que la tomosynthèse ait le potentiel de réduire les problèmes de superpositions de structures que l’on retrouve en mammographie standard, les motivations pour la création d’un outil de détection auto- matique de signes radiologiques qui étaient valables en 2D sont toujours d’actualité. De plus, comme la quantité de données que le radiologue doit observer augmente de manière non négligeable (un volume 3D comptant dix à cinquante fois plus d’images à lire que deux clichés 2D), un tel système est plus que jamais utile afin d’assister le spécialiste dans sa tâche de lecture.

1.4.2

Différents designs de système de détection

Dans le cadre de la tomosynthèse, le choix de la structure de la chaîne de traitement n’est pas direct. En effet, différentes possibilités peuvent être envisagées. Ainsi on peut choisir de travailler dans le volume reconstruit (c.f. figure 1.10(a)), ou dans les projections (c.f. figure 1.10(b)), ou encore de faire des allers retours entre 2D et 3D (c.f. figure 1.10(c)).

Dans le premier cas, la chaîne de traitement peut se présenter d’une manière haut niveau comme la détection de marqueurs dans le volume, suivie d’une analyse plus en détails reposant par exemple sur la segmentation et la caractérisation des opacités, pour finir avec la prise de décision. Chacune de ces étapes peut se faire en 3D ou en pseudo-3D, c’est-à-dire en considérant tous les voisins des voxels dans l’espace ou en travaillant sur les coupes reconstruites de manière presque indépendante (on ne s’occupe pas des coupes adjacentes). En effet, contrairement aux images 3D plus classiques comme celles acquises en CT, la limitation de la géométrie du système menant à la distorsion en Z des objets peut rendre difficile la modéli- sation d’algorithmes de détection. Cette approche a le défaut majeur d’être dépendante de la reconstruction. Néanmoins, les techniques de reconstruction en tomosynthèse du sein semblent se stabiliser ce qui permet d’envisager ce type de traitements.

La deuxième approche consiste à travailler sur les projections s’affranchissant ainsi de la méthode de reconstruction. Ce genre d’approche permet d’exploiter directement les méthodes conçues pour les mam- mographies standard. Néanmoins, deux problèmes se posent lorsque l’on choisit une telle approche. Pre- mièrement, la dose de chacune des projections en tomosynthèse est inférieure à celle de mammographies standard. Cela a pour effet principal de diminuer le rapport signal à bruit dans les images, rendant les tâches de détection et de caractérisation plus difficiles. Le deuxième point à prendre en compte est la fusion d’in- formations. En effet, dans un tel schéma, chacune des projections est traitée de manière indépendante, ainsi si on prend une décision trop tôt dans une de ces dernières, il peut être difficile voire impossible de rattraper l’erreur dans la suite du traitement.

La troisième approche peut être vue comme une approche hybride des deux premières. L’idée est de commencer l’analyse dans les projections en faisant le moins de prise de décision possible. Une fois cela fait, une étape d’agrégation permet de regrouper tous les éléments que l’on a pu rassembler de manière indépendante jusque là. Ensuite, une analyse 3D peut avoir lieu, soit à partir du volume, soit à partir de la fusion des informations 2D. Éventuellement on peut retourner dans les domaines des projections dans le but de rechercher de l’information que l’on aurait pu manquer, comme par exemple une lésion non détectée dans une des projections car elle y apparaît de manière subtile. Les itérations entre 2D et 3D peuvent permettre d’obtenir toutes les informations nécessaires pour prendre la meilleure décision.

1.4.3

Microcalcifications

Reconstruction Détection 3D Analyse 3D Décision 3D

(a)

Analyse

Décision 2D

Décision 2D Analyse 2D Agrégation 3D

(b)

Analyse 3D Décision 3D Décision 2D Analyse 2D Agrégation 3D

Reprojection

(c)

FIG. 1.10 – Différents schémas de détection en tomosynthèse.

le contenu du sein ainsi que le bruit présent dans les images acquises. Cette approche repose essentiellement sur le traitement des projections avant agrégation.

Une autre approche travaillant cette fois-ci en 3D a été proposée par Bernard et al. (2006). L’idée est de modéliser le bruit ainsi que la quantité de calcium présent en chaque voxel dans le cas d’une reconstruction par rétroprojection simple et de détecter les calcifications par convolution avec un chapeau mexicain. En effet dans ce cas on peut montrer que le rapport contraste à bruit dans le volume est bien meilleur que dans les projections. Des travaux plus récents ont montré que cette approche peut se reformuler de manière presque équivalente à un filtrage des projections avant rétroprojection, ce qui a pour avantage principal d’accélérer le traitement des données (Bernard et al., 2007). La gestion des artéfacts de retroprojection ainsi que la validation de ce type d’approche sur une base de données plus conséquente ont aussi été proposées (Bernard et al., 2008) .

Des modélisations de plus haut niveau, notamment pour l’étape de fusion après détection dans les pro- jections ont aussi été proposées. On peut citer les travaux de Peters et al. (2005) qui reposent sur la notion de contours flous, c’est-à-dire un ensemble de contours possibles, pour chaque microcalcification détectée. L’utilisation de la logique floue permet de fournir un cadre de travail avantageux lors de la prise de décision en 3D, dans la mesure où il permet d’être assez laxiste sur les décisions prises en 2D.

1.4.4

Densités

La détection des opacités est comme en mammographie conventionnelle toujours une étape délicate. Chan et al. (2004) ont proposé des travaux préliminaires pour traiter le problème reposant sur le traitement des projections de manière indépendante (c.f. figure 1.10(b)). Les mêmes auteurs (Chan et al., 2005) ont aussi investigué la détection à partir de coupes reconstruites de manière itérative par maximum de vraisem- blance (Wu et al., 2003a).

D’autres équipes ont investigé les deux approches (volume/projections). Ainsi, Reiser et al. (2006) pro- posent de détecter les opacités dans les projections de manière indépendante puis de recombiner ces dé- tections dans un volume portant aussi une information sur l’ouverture angulaire dans laquelle la lésion est visible. Leur investigation de la piste 3D repose sur l’utilisation d’un filtre d’analyse radiale, pour mettre en évidence les structures sphériques, associé à une projection par maximum d’intensité et un chapeau haut de forme (Reiser et al., 2005). Ces travaux se limitent néanmoins juste à une détection grossière de zones suspectes à forte sensibilité mais produisant beaucoup de faux positifs. Ainsi les auteurs n’abordent pas les parties d’analyse et de décision que l’on peut voir sur la figure 1.10.

Peters (2007) a proposé un système défini dans le cadre de la logique floue faisant des boucles entre 2D et 3D pour la détection et la caractérisation des masses (c.f. figure 1.10(c)). Plus concrètement une première

détection dans les projections est faite de manière indépendante suivie d’une extraction de contours flous (Peters et al., 2007) pour chacune des zones suspectes. Pour chacune de ces segmentations, des attributs flous sont calculés (Peters et al., 2006b). Ces derniers correspondent à des mesures telles que définies dans la section 1.3.6 mais portant l’imprécision induite par les contours flous. Une fois ces traitements effectués pour toutes les projections, les différentes détections correspondant aux mêmes zones dans le sein sont associées et leurs caractéristiques sont agrégées dans le but d’utiliser un arbre de décision flou pour juger de la malignité de la lésion sous-jacente à la structure détectée. Ce genre d’approche a l’avantage de pouvoir manipuler l’imprécision et l’incertitude provenant des données et des filtres de détection utilisés, et ce jusqu’à la fin de la chaîne de détection où toute l’information est disponible pour prendre une décision.

Plus récemment, des études sur l’influence du nombre de projections et de la dose sur la détection ont été menées. Chan et al. (2008b) proposent de comparer les performances entre des examens contenant 21 projections et des examens contenant 11 projections. Les mêmes cas/images étant utilisés pour l’étude, les séries ne contenant que 11 projections ont une dose environ deux fois plus faible par rapport aux séries contenant 21 projections. La conclusion à laquelle arrivent les auteurs est qu’une meilleure détection est ob- tenue dans le cas où l’on utilise 21 projections. Néanmoins on peut s’interroger sur la part de responsabilité de la dose dans ce résultat.

La comparaison des différentes approches de détection a aussi été abordée dans la littérature. Ainsi, Chan et al. (2008a) ont fait une comparaison entre détection dans les volumes reconstruits, détection dans les projection et approches hybrides. La méthode purement 2D en est ressortie la moins performante alors que l’approche hybride a démontré le meilleur comportement. Ces travaux sont les plus aboutis notamment pour la validation sur une base de données assez conséquente (69 lésions malignes) compte tenu de la maturité de la modalité d’imagerie utilisée. Une comparaison de notre approche avec, entre autres, ces travaux sera largement détaillée au chapitre 8.

On peut enfin citer une dernière famille de travaux reposant sur l’utilisation d’outils de correspondance de motifs. Cette dernière a été proposée pour aider à la prise de décision, et notamment pour réduire le nombre de faux positifs générés par des systèmes de détection automatique d’opacités (Singh et al., 2008b). Ces travaux seront aussi discutés au chapitre 8.

1.4.5

Approche proposée

L’approche que nous proposons ne considère que le volume reconstruit (voir figure 1.10(a)). L’hypo- thèse sous-jacente de ce choix est de considérer que les méthodes de reconstruction ont atteint une certaine maturité dans le domaine de la tomosynthèse numérique du sein.

Plus concrètement, notre approche se focalise non seulement sur la détection des opacités, au même titre que les travaux précédemment cités, mais aussi sur les distorsions architecturales. Pour cette raison, nous proposons un schéma à deux canaux respectivement dédiés aux deux précédents signes radiologiques. Ce schéma est présenté dans sa globalité à la figure 1.11.

Dans le cas du canal dédié à la détection des opacités, l’étape préliminaire de détection se fait à l’aide d’un nouveau type de filtres, à savoir les filtres connexes flous. Ces derniers permettent de prendre en compte les imperfections des images ainsi que des critères utilisés pour la détection. Le chapitre 2 les introduit de manière formelle tout en les étudiant de manière théorique. Les chapitres 3 et 4 traitent respectivement de leur mise en œuvre et du conditionnement des données pour de tels filtres. Les étapes d’analyse et de prise de décision dans ce canal sont quant à elles plus classiques : méthode de segmentation par programmation dynamique (Timp et Karssemeijer, 2004) et utilisation d’un classifieur fondé sur les SVM.

Le second canal utilise des principes similaires à ceux proposés par Karssemeijer et te Brake (1996) dans une modélisation a contrario (Desolneux et al., 2000, 2001, 2003; Moisan, 2003; Moisan et Stival, 2004). Cette méthode sera présentée au chapitre 7. Le processus proposé permet de détecter les zones suspectes de convergence dans le volume. Pour chacune de ces zones, on extrait des caractéristiques servant d’entrée à un classifieur, encore une fois de type SVM, pour obtenir les zones vraiment suspectes.

Les volumes de tomosynthèse souffrant de défauts assez marqués notamment dans la direction perpendi- culaire au détecteur (réplications et allongement de structures dans cette direction), les algorithmes proposés fonctionnent essentiellement coupe par coupe. En effet la prise en compte des défauts que subissent les ob- jets reste assez délicate. Néanmoins l’aspect 3D n’est pas complètement écarté, ainsi les différentes parties des algorithmes s’assurent de la cohérence des résultats obtenus pour chacune des coupes, et ce à plusieurs

Volume

Extraction de sur-densités Détection a contrario

Zones de suspicion Zones de suspicion

Contours

Attributs

Attributs

Zones suspectes

Détection des masses Détection des distorsions architecturales Classes Classes Classification Classification Segmentation Extraction de caractéristiques Extraction de caractéristiques

FIG. 1.11 – Schéma global de l’approche de détection proposée.

reprises dans toute la chaîne de détection.

Les deux canaux ayant des populations cibles de signes radiologiques distinctes, les zones détectées par chacun d’entre eux sont donc agrégées de manière disjonctive : pour qu’une zone soit suspecte, il faut qu’au moins un des deux canaux la considère comme telle.

De manière parallèle à cette chaîne de détection, nous illustrons aussi des expérimentations prélimi- naires sur l’utilisation de méthodes de segmentation et de classification floues dans le cas d’opacités à noyaux denses. Cette contribution est présentée au chapitre 6.