• Aucun résultat trouvé

Un problème trompeusement simple

Examinez les quatre images mi- ventriculaires petite axe (SAX) obtenues par l’IRM cardiaque avec la séquence dacquisition SSFP sur Fig. 1.2. Ils appartiennent à qua- tre personnes avec différentes pathologies. L’une d’eux est une image d’un coeur sain, une autre appartient à un patient après un infarctus du myocarde dans la paroi latérale, la troisième à un patient avec un ventricule gauche avec sa fonction cardiaque gravement insuffisant et non-compactant, et la dernière représente un pa- tient avec lépanchement péricardique idiopathique. Pouvez-vous dire correctement lequel est lequel? Cette tâche de lidentification de la pathologie est apparente et sans effort pour une personne expérimentée dans l’interprétation des images cardiaques. Intuitivement, nous pourrions reconnaître le coeur de post-infarctus du myocarde par un amincissement notable de la paroi latérale causé par l’infarctus transmural et une nécrose myocardique subséquente. On peut aussi noter des artefacts de fil de suture sternale d’une chirurgie antérieure. Le coeur non-compactant se mani- feste avec une dilatation de la cavité gauche massive, les trabéculations dans la cavité ventriculaire gauche dominantes, et une réduction significative de la contrac- tilité du myocarde (mieux visible sur les séquences d’images cinématographiques). L’épanchement péricardique peut être vu comme un anneau hyper-intense du liq- uide à l’extérieur du myocarde et le mouvement du coeur pendulaire. Et enfin, le coeur en bonne santé semble “normal”.

E.3.1 Automatisation de la tâche

Seulement quand nous essayons d’écrire un programme pour imiter ce raisonnement sur un ordinateur, nous commencerons à apprécier pleinement la véritable com- plexité des tâches visuelles effectuées par le cerveau. La simplicité de l’extraction d’informations pertinentes à partir des images est très trompeuse. Les concepts in- tuitifs comme l’amincissement du myocarde, la dilatation de la cavité, la faible con- tractilité, l’anneau hyper-intense ou le mouvement pendulaire sont inconnus à une machine. Sans oublier la tâche plus globale — de dire automatiquement que toutes ces images proviennent d’une séquence d’acquisition SSFP et sont des coups petite axe. Une des possibilités pour extraire ces informations par un ordinateur est de

E.3. Un problème trompeusement simple 145

commencer à écrire un ensemble de règles. Mesure de l’amincissement du myocarde peut être obtenu comme la longueur de la ligne la plus courte à travers du myocarde, comptant pixels entre deux bords séparant lobjet blanc (le sang dans la cavité) et le environnement gris (sauf pour le cas avec l’épanchement péricardique) à lextérieur du coeur. La dilatation est liée au nombre de voxels au sein de la cavité ventriculaire et son diamètre. Ces deux mesures peuvent être calculées à partir de la segmenta- tion du myocarde ventriculaire gauche. La contractilité peut être estimée à partir du déplacement de pixels, par exemple, par l’intermédiaire du recalage d’images. Les changements subtils que nous voudrions reconnaître sont facilement éclipsés par les différences dacquisition : les images provenant de différentes machines dacquisition, des artefacts d’acquisition et des différences dans l’orientation d’image et la posi- tion du coeur dans les images existent. Les images ne sont pas acquises avec des résolutions ni la qualité d’images similaire, les intensités des tissus entre différentes machines ne correspondent pas, des artefacts d’acquisition sont présents ou varia- tions spécifiques aux fournisseurs des protocoles d’acquisition sont utilisées. Nous découvrons bientôt que (pour coder cet ensemble des règles et extraire l’information pertinente pour décrire les images cardiaques n’a pas de frontière).

E.3.2 L’approche de l’apprentissage automatique

L’approche de l’apprentissage automatique est tout à fait différente. Au lieu de coder manuellement les règles, nous spécifions un modèle d’apprentissage et lais- sons l’algorithme d’apprentissage détermine automatiquement un ensemble de rè- gles en regardant les données, à savoir, pour entraîner le modèle. Dans le cadre de l’apprentissage supervisé, un ensemble d’exemples ainsi que des sorties désirée (par exemple les images et leurs segmentations) sont présentés à l’algorithme de lentraînement. L’algorithme prend alors les règles qui transforment au mieux les entrées aux sorties souhaitées. Il est important que le modèle généralise, autrement dit, quil peut prévoir de façon fiable les sorties pour des images jamais vues, tout en ignorant les différences d’acquisition non pertinentes.

Bien quune bonne prédiction est souhaitable, il est courant d’utiliser les systèmes d’apprentissage automatique “moins que parfait” dans une boucle, et d’améliorer les modèles au fil du temps, lorsque plus de données arrive. Aussi lorsque directives changent, ces algorithmes peuvent être relancés et les images peuvent être traité à nouveau. Prévisions incorrectes peuvent être fixées et ajoutées au nouveau en- semble dentraînement et le modèle peut ensuite être ré-entraîné. L’apprentissage automatique dans l’imagerie médicale est devenu remarquablement présent. Ceci est en partie grâce aux améliorations algorithmiques, mais aussi grâce à la disponi- bilité de grandes quantités de données. Bien qu’il existe de nombreux algorithmes d’apprentissage automatique, il n’y a pas (encore) un algorithme parfait pour toutes les tâches à accomplir, qui performe bien sur les grands et petits ensembles de don- nées. Tout au long de cette thèse, nous allons utiliser principalement trois familles des algorithmes dapprentissage automatique supervisé: les modèles linéaires (les machines à vecteurs de support (SVM) (Cortes and Vapnik, 1995) et la régression

linaire (Golub et al., 1979).), les forêts de décision (Ho, 1995; Amit and Geman,

1997;Breiman,1999), et les réseaux de neurones à convolution (CNN) (Fukushima,

1980;LeCun et al.,1989).

Documents relatifs