• Aucun résultat trouvé

1.3 La détection automatique de cancers en mammographie conventionnelle

1.3.6 Prise de décision

La prise de décision se fait généralement après une étape de caractérisation. D’un point de vue haut niveau, on fait des mesures à partir des résultats de détection et/ou de segmentation (selon que l’on travaille sur des microcalcifications ou des opacités) dans le but de prendre dans un second temps une décision à l’aide de méthodes de classification standard.

Extraction de caractéristiques

Dans le cas des microcalcifications, une étape préliminaire d’extraction de caractéristiques est donc requise (Dengler et al., 1993; Bankman et al., 1994; Cheng et al., 2003). Parmi ces caractéristiques, on peut en trouver qui portent sur la texture comme l’analyse des régions avoisinantes, la dépendance spatiale des niveaux de gris, les statistiques de longueurs sur les niveaux de gris ou encore la différence de niveaux de gris (Weszka et al., 1976; Galloway, 1975; Kim et Park, 1999).

En ce qui concerne les opacités, la première classe de caractéristiques utilisées repose sur la forme de l’objet (Vachier, 1995; Sahiner et al., 2001; Bruynooghe, 2006). On peut citer par exemple la compacité, le rapport de Ferret, ou encore le périmètre. D’autres mesures s’appuient sur l’analyse des distributions de la longueur radiale normalisée (distance entre le centroïde de la lésion et les points du contour) et des longueurs de cordes normalisées (Kilday et al., 1993; Rangayyan et al., 1997). Ces mesures ne permettent que de caractériser le résultat de la segmentation. Pour cette raison leur intérêt dépend essentiellement de la qualité de cette dernière et elles ont généralement besoin d’être combinées à d’autres descripteurs pour permettre une caractérisation satisfaisante.

Des mesures sur l’intensité peuvent aussi être utilisées (Huo et al., 1998). On peut par exemple analyser la distribution des niveaux de gris dans la lésion supposée, sur son contour ou dans son voisinage. On peut aussi utiliser des mesures plus robustes qui sont invariantes par changement de contraste (Bruynooghe, 2006). Ce type de mesures apporte une information complémentaire par rapport aux précédentes mesures.

Une caractérisation importante de certaines lésions est la présence de spicules au niveau de leur pé- riphérie. Pour prendre cet élément en compte, une série de mesures permettant d’évaluer à quel point la lésion est spiculée ont aussi été proposées (Viton et al., 1996). Elles reposent essentiellement sur l’analyse des orientations locales des contours (Kegelmeyer et al., 1994). Ces orientations peuvent par exemple être obtenues à partir d’une décomposition en ondelettes (Li et al., 1997). Sur le même principe, des travaux proposent d’évaluer la complexité d’un contour par analyse fractale (Kim et Kim, 2005).

L’information fournie par l’association du contour et du contenu de l’image peut aussi être exploitée en extrayant et en analysant une bande plus ou moins large qui suit le contour de la lésion (Sahiner et al., 1998; Mudigonda et al., 2001). Cette bande est généralement étirée de manière à rendre le contour linéaire avant analyse. L’analyse se fait par l’extraction de mesures sur cette bande, comme l’étude des orientations du contour (Domínguez et Nandi, 2009). Ce type d’approche est donc dépendant du contour, ainsi les mesures obtenues vont être fortement liées aux caractéristiques des segmentations considérées. Par exemple, si l’on utilise un contour qui suit bien les spicules, ces dernières apparaîtront de manière linéaire dans l’image de bande. Inversement, si le contour coupe les spicules, on les verra apparaître de manière plus prononcée dans la même image.

Une autre classe de mesures repose sur l’analyse de texture (Haralick et al., 1973). Ainsi on peut citer les mesures dérivées de matrices de cooccurrence des niveaux de gris (Wei et al., 1997; Sahiner et al., 2001; Llobet et al., 2005; Mudigonda et al., 2001). On remarquera néanmoins que le calcul de tels attributs est assez lourd.

Sélection de caractéristiques

Un trop grand nombre de caractéristiques pour les individus à classifier peut nuire à la performance du classifieur. En effet, cela peut augmenter de manière non nécessaire l’espace de travail empêchant par la même occasion une généralisation efficace lors de l’apprentissage de la partie classification. Des heuris- tiques, comme l’aire sous la courbe ROC du classifieur (Kupinski et Giger, 1999), permettent de modéliser la qualité d’un ensemble de caractéristiques. Cela permet d’utiliser des méthodes d’optimisation comme les

algorithmes génétiques (Holland, 1992) pour obtenir l’ensemble optimal. Ce genre d’approche a été mis en œuvre avec succès en mammographie (Dhawan et al., 1996; Kupinski et Giger, 1997).

Classification

L’étape de classification a pour but de donner la réponse finale sur ce qui est détecté et considéré comme un signe de lésion. L’idée est de combiner les informations extraites précédemment pour obtenir une dé- cision. On peut voir cela de manière similaire à ce que fait le radiologue pour prendre sa décision. Le problème de classification n’est pas propre à la détection de lésions dans le sein, en effet c’est un champ de recherche à part entière qui peut être utilisé dans des applications très différentes.

Une première famille de classifieurs comprend les méthodes de type plus proches voisins (Cover et Hart, 1967). L’idée pour classifier un individu est de regarder les individus dont on connaît la classe et qui sont as- sez semblables. En mammographie, des travaux reposant sur cette technique assez simple dans son fonction- nement ont été proposés pour la classification d’opacités (Llobet et al., 2005). Veldkamp et Karssemeijer (1999) ainsi que Zadeh et al. (2001) utilisent des méthodes de K plus proches voisins pour la classifica- tion de microcalcifications. Ce type d’approche a l’avantage de ne faire aucune hypothèse sur les données à classifier. Néanmoins, son pouvoir de généralisation sur des données éloignées de celles utilisées pour l’apprentissage est assez limité et peut poser problème.

Une autre méthode de classification regroupe les réseaux de neurones (Rumelhart et al., 1986; Lau, 1991). Le plus communément utilisé est le perceptron où les neurones sont reliés de manière causale. Dans le cas où le problème n’est pas linéairement séparable, plusieurs couches de neurones sont nécessaires. Ce type de réseaux a été utilisé pour la classification d’opacités (Floyd Jr. et al., 1994; Cheng et al., 1994; Fogel et al., 1998; Zou et al., 2008; Arbach et al., 2003). Dans le cas des microcalcifications, les réseaux de neurones sont aussi souvent utilisés (Bourrely et Muller, 1989; Chitre et al., 1994; Bankman et al., 1994; Kim et Park, 1999; Kramer et Aghdasi, 1999; Zheng et Regentova, 2006; Verma et Zakos, 2001). Une étude propose même de comparer les performances d’un réseau de neurones avec la classification de cinq radio- logues (Jiang et al., 1997) pour montrer que ce type de classifieur peut faire mieux que l’expert en termes d’aire sous la courbe de performances de détection (ROC). Dans certains cas, l’utilisation de réseaux de neurones de convolution a été proposée, ainsi Sahiner et al. (1996a) s’en servent pour les opacités.

Des approches reposant plus sur une modélisation statistique, connues sous le nom de réseaux de croyances bayésiens (Pearl, 1988), ont aussi été employées en mammographie. Woods et al. (1993) a mon- tré le potentiel d’un tel classifieur en le comparant à d’autres méthodes comme les réseaux de neurones. Néanmoins Zheng et al. (1999) a mis en évidence que la façon dont étaient appris les deux types de classi- fieurs par l’intermédiaire de bases d’apprentissage était l’élément le plus crucial pour obtenir de meilleures performances.

Une autre approche classique de classification est connue sous le nom de machines à vecteurs de support. Dans certains cas pour correspondre à l’acronyme anglais SVM, on emploie le terme de séparateurs à vaste marge (Vapnik, 1995). L’idée est de trouver un hyperplan qui sépare deux classes en maximisant la marge de séparation des éléments les plus proches des deux classes. Bien entendu, bien souvent les classes ne sont pas linéairement séparables. Dans de tels cas, les éléments à classer sont transférés dans un espace de dimension supérieure où une séparation par un hyperplan aura plus de sens. Plusieurs travaux utilisent les SVM pour la classification des masses (Cao et al., 2004; Campanini et al., 2004; Bornefalk, 2005).

Les arbres de décision (Safavian et Landgrebe, 1991; Zighed et Rakotomalala, 2000) se composent de tests à effectuer sur les différentes composantes des éléments à classer. Ces différents tests prennent la forme de seuils et sont combinés entre eux de manière conjonctive lorsque l’on suit une branche de l’arbre. L’avantage premier de ce type de méthodes est la sémantique qui se cache derrière l’arbre. En effet on peut y voir une série de règles d’experts combinées avec des et et des ou logiques. Kegelmeyer et al. (1994) ont montré la possibilité d’utiliser un tel processus de classification pour la détection de lésions spiculées. L’utilisation de la logique floue a aussi été proposée dans le cadre des arbres de décision. L’idée est d’as- souplir les tests faits aux différents nœuds pour être capable de considérer plusieurs possibilités pour les cas qui sont proches de la frontière de décision (Janikow, 1998). Dans certains cas, les arbres de décision sont aussi capables de manipuler des données imprécises (S. Bothorel, 1997). Le point délicat avec ce genre d’approche est l’apprentissage, notamment avec le dernier type d’arbres.