• Aucun résultat trouvé

Méthodes supervisées

Dans le document en fr (Page 45-48)

2.4 Segmentation automatique

2.4.2 Méthodes supervisées

Les méthodes supervisées s’appuient sur les techniques issues de l’apprentissage automatique. En effet, la segmentation des HSB peut aussi être vue comme une problématique de classification binaire où, pour chaque voxel d’une image, on cherche à savoir s’il appartient à la classe "non HSB" (notée par exemple 0) ou à la classe "HSB" (notée 1) à partir d’une ou plusieurs caractéristiques associées à ce voxel (par exemple, les intensités de ce voxel sur différentes séquences IRM). Pour effectuer cette tâche, les méthodes supervisées vont s’appuyer sur un ensemble d’apprentissage, constitué d’exemples de voxels pour lesquels la classe est déjà connue. Dans le cas de la segmentation des HSB, une segmentation manuelle (ou l’accord entre plusieurs segmentations manuelles) effectuée par un expert est fréquemment choisie comme référence puisque la vérité histologique n’est pas connue. Les données que l’on cherche à classifier sont appelées ensemble test.

2.4. Segmentation automatique Plusieurs cadres mathématiques ont été proposés pour construire des règles de classification à partir d’un ensemble d’apprentissage de manière à pouvoir ensuite appliquer cette règle sur l’ensemble test. Les réseaux de neurones artificiels, la classification par k plus proches voisins et les machines à vecteurs de support ont notamment été utilisés dans le cas des HSB.

2.4.2.1 Classification par réseaux de neurones artificiels (ANN)

Les réseaux de neurones artificiels (ANN pour Artificial Neural Net- works) sont une méthode de classification inspirée du fonctionnement des neurones biologiques. Schématiquement, un réseau de neurones est composé de plusieurs couches, chacune composée de différents noeuds. Chaque couche possède comme entrées les valeurs de sortie produites par la couche précédente. La couche d’entrée possède autant de noeuds que de valeurs d’entrée, la couche de sortie fournit une valeur correpon- dant au problème de classification (dans notre cas, deux valeurs, 0 pour "non HSB" et 1 pour "HSB" par exemple). Pour chaque noeud, les valeurs d’entrée sont pondérées par un coefficient, appelé poids synaptique, puis sommées et une fonction dite d’activation calcule une valeur de sortie en fonction de cette somme. En comparant la valeur prédite avec la valeur attendue, il est possible d’adapter les poids synaptiques des noeuds de chaque couche pour obtenir une meilleure fonction de prédiction.

Zijdenbos et al. [2002] ont proposé d’utiliser une classification par réseaux de neurones artificiels pour effectuer la segmentation des tissus cérébraux. La classification fait suite à un ensemble de prétraitements permettant d’homogénéiser les images à travers un recalage non linéaire dans un espace stéréotaxique, une normalisation des intensités entre les coupes, un débruitage et une correction des inhomogénéités d’intensité. Un réseau de neurones à trois couches est ensuite entraîné sur un ensemble d’apprentissage composé de dix images. Les variables d’entrée sont les valeurs d’intensités pour trois contrastes IRM (T1, T2 et PD) ainsi que la probabilité d’appartenance à l’un des trois tissus principaux (substance blanche, substance grise ou liquide cérébrospinal). Ces trois dernières valeurs sont obtenues à partir d’un atlas statistique construit dans le même espace. Cette méthode de classification fut tout d’abord appliquée au cas de la sclérose en plaques sur un grand nombre d’images ('1000)

2 . QU A N T I F I C A T I O N D E S H Y P E R I N T E N S I T É S D E L A S U B S T A N C E B L A N C H E

provenant de plusieurs centres d’acquistion. Les résultats obtenus par cette méthode étaient statistiquement identiques à ceux obtenus par des segmentations manuelles.

Suite aux bons résultats observés pour la sclérose en plaques, cet algo- rithme a ensuite été modifié pour être appliqué à l’étude LADIS [Dyrby et al., 2008]. Plusieurs structures de réseaux de neurones ont été évaluées, prenant en compte soit les images T1 et T2, soit les images FLAIR, soit leur combinaison. Des informations concernant la localisation ou le voisinage du voxel à classifier ont également été ajoutées. Tous les modèles présen- taient des performances à peu près similaires et relativement décevantes, bien que l’utilisation des toutes les séquences IRM améliorait légèrement les résultats.

Les ANN ont également été appliqués dans l’étude AGES - Reykjavik en prenant en compte quatre séquences IRM (T1, T2, PD et FLAIR) [Si- gurdsson et al., 2011]. La classification visait ici la segmentation de tous les types de tissus, y compris substance blanche, substance grise et liquide cérébrospinal. Alors que les résultats concernant les autres types de tissus étaient plutôt satisfaisants, ceux concernant les HSB étaient plus faibles (indice de similarité moyen : 0, 62).

2.4.2.2 Classification par k plus proches voisins (kNN)

Les classifications par k plus proches voisins (kNN pour k Nearest Neighbors) déterminent la classe d’un voxel de l’ensemble test par com- paraison avec la classe de ses k plus proches voisins dans l’ensemble d’apprentissage.

Une classification par k plus proches voisins pour les HSB a été pro- posée par Anbeek et al. [2004] et fut utilisée pour la première vague de l’étude Rotterdam Scan Study. Elle s’appuie sur différents contrastes IRM (T1, T2, PD, FLAIR et IR). En particulier, Anbeek et al. [2005] ont analysé les différentes combinaisons possibles de ces contrastes et montré que les images FLAIR étaient particulièrement discriminantes (tableau 2.1). 2.4.2.3 Classification par Machines à Vecteurs de Support (SVM)

Les Machines à Vecteur de Support (SVM pour Support Vector Machines) font partie des techniques les plus récentes d’apprentissage supervisé. Le principe général des SVM est de construire une séparatrice qui ne

2.4. Segmentation automatique

Tous contrastes IR FLAIR IR/FLAIR T1/PD/T2

Substance blanche 0, 893 0, 865∗ 0, 775∗ 0, 892 0, 850∗

Substance grise 0, 830 0, 745∗ 0, 652∗ 0,832 0, 741∗

LCS 0, 819 0, 718∗ 0, 795 0, 842 0, 737∗

Ventricules 0.888 0, 845∗ 0, 917 0, 909 0, 870

HSB 0, 805 0.407∗ 0, 803 0, 808 0, 631∗

TA B L E A U 2.1 – Indice de similarité moyen entre la segmentation obtenue

par kNN et une segmentation de référence en fonction des contrastes IRM utilisés (Source : [Anbeek et al., 2005]).

L’indice de similarité permet de caractériser le recouvrement spatial entre deux segmentations(voir section sec :dice). Une valeur de 0 indique qu’il n’y a aucun recouvrement, une valeur de 1 indique un recouvrement parfait. * : indice de similarité statistiquement différent de celui obtenu en utilisant tous les contrastes IRM (t-tests appariés, p<0, 05)

dépende que d’un petit nombre de vecteurs, les vecteurs dits supports, qui sont supposés être les plus difficiles à classer. Cette propriété devrait notamment permettre une meilleure robustesse des SVM. De plus, les SVM permettent de gérer facilement les espaces de grande dimension.

Une application aux HSB a été proposée par Lao et al. [2008]. La classi- fication s’effectue à partir de quatre modalités IRM (T1, T2, PD et FLAIR). L’évaluation n’a porté que sur 45 sujets provenant de trois centres diffé- rents. 10 sujets ont été utilisés pour constituer l’ensemble d’apprentissage, ne laissant donc que 35 sujets pour l’évalutation des performances.

Dans le document en fr (Page 45-48)