• Aucun résultat trouvé

Partie I Un formalisme graphique 11

6.5 Résultats

La base de données étiquetée par l’expert humain a été divisée en deux par l’expert lui

même. La première partie étant utilisée pour l’apprentissage des gaussiennes et la seconde pour

6.5. Résultats

Auto \Humain Score 0 Score 1 Score 2

Score 0 763 55 1

Score 1 80 196 15

Score 2 8 20 66

Table6.4 – Comparaison des scores résultants de l’analyse automatique avec ceux de l’analyse

manuelle.

Sensibilité VPP

Score 0 0.89 0.93

Score 1 0.72 0.67

Score 2 0.80 0.70

Table6.5 – Evaluation des résultats du système d’analyse automatique en termes de sensibilité

et de VPP.

l’évaluation. Nous confrontons pour l’évaluation des résultats le score donné en fin de séquence

par l’analyse automatique avec le score donné par l’expert humain. La base de données de test

est composée de 1204 enregistrements avec la répartition suivante :

– 851 cas de score 0 (70.5%)

– 271 cas de score 1 (22.5%)

– 82 cas de score 2 (7%)

Le tableau 6.4 récapitule les différences entre les sorties de l’analyse automatique et les

résultats attendus par l’expert humain. Dans ce tableau les éléments diagonaux correspondent

aux enregistrements pour lesquels le score donné par le modèle informatique est en accord avec

celui de l’expert humain.

A partir du tableau de contingence, nous pouvons mesurer la sensibilité et la valeur prédictive

positive (VPP) de la détection de chaque score en considérant les scores donnés par l’expert

humain comme référence. Le calcul est le suivant :

Sensibilité(Score

i

) = Vrais Score

i

détectés

Nombre total de vraisScore

i

(6.2)

VPP(Score

i

) = Vrais Score

i

détectés

Nombre total de scoreScore

i

détectés (6.3)

Les résultats en termes de sensibilités et de VPP sont donnés dans le tableau 6.5.

A titre de comparaison, nous avons utilisé les règles de décision telles qu’elles ont été

formali-sées par l’expert humain dans une première description du problème. Les résultats de l’évaluation

du système à base de règles sont donnés dans les tableaux 6.6 et 6.7. La grande variabilité des

signaux observés fait que l’utilisation d’une telle approche est inadaptée. Il est bien sûr difficile de

formaliser le raisonnement opéré par l’humain avec un système de règles. Les données en entrée

du système sont des valeurs numériques alors que le raisonnement humain est essentiellement

symbolique. Ainsi la notion de stabilité d’un paramètre, perçue visuellement par l’humain, est

difficile à mettre en équation. Par ailleurs, le savoir faire de l’expert repose sur beaucoup de

connaissances non dites, acquises par l’expérience. Il est donc d’une certaine façon plus

perti-nent de travailler par mimétisme, en modélisant la fonction de décision à partir des résultats de

l’analyse humaine, plutôt que de demander à l’humain de formaliser son propre raisonnement.

Règles \Humain Score 0 Score 1 Score 2

Score 0 724 135 25

Score 1 118 120 42

Score 2 9 16 15

Table 6.6 – Comparaison des scores obtenus d’un coté avec le système à base de règles et de

l’autre par l’expert humain.

Sensibilité VPP

Score 0 0.85 0.82

Score 1 0.44 0.43

Score 2 0.18 0.38

Table6.7 – Sensibilité et VPP de la détection de chaque score avec le système à base de règles.

6.6 Conclusion

Nous avons présenté dans ce chapitre une application des techniques d’apprentissage à un

problème de diagnostic médical. La contribution est applicative puisque le modèle ainsi

déve-loppé a été jugé suffisamment pertinent pour pouvoir être distribué par Gambro dans les centres

de dialyse, comme module intégré à une solution logicielle plus globale. Le modèle développé

permettra ainsi de tirer parti d’informations issues des machines de dialyse qui ne sont pas du

tout prises en compte aujourd’hui, à la fois parce que leur analyse nécessite une formation

par-ticulière et parce que la quantité de données générée est trop importante pour qu’un personnel

médical puisse s’intéresser chaque jour l’ensemble des patients suivi. L’apport de ce système est

de pouvoir proposer une sélection de patients triés par ordre de gravité.

Sur le plan méthodologique nous avons pu ainsi constater la pertinence d’aborder par

appren-tissage un problème de diagnostic lorsque l’on dispose de données étiquetées, même partiellement

(ici, seules les fin de séquences étaient étiquetées). L’intérêt de l’apprentissage est qu’il permet

de prendre en compte des connaissances non dites acquises par l’humain. Remarquons cependant

que la validation est réalisée uniquement en comparaison avec l’analyse humaine. La validité des

diagnostics n’est bien sûr pas démontrée vis à vis de l’état réel du patient.

Chapitre 7

Apprentissage de modèles pour la

segmentation d’électrocardiogrammes

Sommaire

7.1 Contexte . . . 128

7.2 Travaux connexes . . . 130

7.2.1 Utilisation d’une représentation temps-fréquences . . . 131

7.2.2 Utilisation de modèles stochastiques . . . 132

7.3 Utilisation de plusieurs chaînes de Markov inter-connectées . . 132

7.4 Segmentation sur 12 pistes. . . 134

7.5 Approche multi-modèles . . . 136

7.6 Résultats . . . 137

7.7 Conclusion . . . 140

Le travail de segmentation, qui consiste à positionner des marqueurs sur un signal temporel

est souvent nécessaire en médecine pour localiser dans le temps des phénomènes et mesurer

leur durée. Ce problème peut concerner toutes sortes de signaux de différente nature comme

par exemple les mouvements respiratoires, l’activité électrique cardiaque ou neuronale, . . . Selon

l’objectif de la segmentation, la nature éventuellement variable du signal, l’analyse peut nécessiter

une expertise particulière. Nous nous intéressons ici à la possibilité d’apprendre par l’exemple

les critères de positionnement des marqueurs.

Ce chapitre présente une approche par apprentissage pour réaliser le découpage d’un

électro-cardiogramme (ECG) selon les différentes phases du cycle cardiaque. Nous montrons ainsi que

l’approche stochastique permet de mimer le comportement d’un expert humain en reproduisant

sa façon d’analyser un signal dynamique. Ce travail [1] est le fruit d’une collaboration entre

l’INRIA et la société Cardiabase dont le cœur de métier est l’analyse de signaux ECG produits

dans le cadre d’études pharmaceutiques.

dI mesure bipolaire entre le bras droit et le bras gauche.

dII mesure bipolaire entre le bras droit et la jambe gauche.

dIII mesure bipolaire entre le bras gauche et la jambe gauche.

aV R mesure unipolaire sur le bras droit.

aV L mesure unipolaire sur le bras gauche.

aV F mesure unipolaire sur la jambe gauche.

V1 mesure sur le 4

ème

espace intercostal droit, sur le bord droit du sternum.

V2 mesure sur le 4

ème

espace intercostal gauche, sur le bord gauche du sternum.

V3 mesure entre V2etV4.

V4 mesure sur le 5

ème

espace intercostal gauche, sur la ligne médioclaviculaire.

V5 mesure sur le 4

ème

espace intercostal gauche, sur la ligne axillaire antérieure.

V6 mesure sur le 4

ème

espace intercostal gauche, sur la ligne axillaire moyenne.

Table7.1 – Les 12 dérivations d’un ECG standard

7.1 Contexte

Dans le cadre du développement de nouveaux médicaments les laboratoires pharmaceutiques

sont tenus de réaliser un certain nombre d’études et d’essais cliniques en vue d’obtenir

l’autori-sation de mise sur le marché (AMM). Les essais sur l’homme se décomposent en plusieurs phases

dont la première consiste à vérifier les niveaux de tolérance et de toxicité de la nouvelle molécule.

Ces essais dephase I sont réalisés sur un petit nombre de sujets sains (de 20 à 200) recevant des

doses croissantes du médicament sous surveillance médicale. Cette surveillance porte notamment

sur le système cardiovasculaire afin de détecter d’éventuels effets indésirables de la molécule.

L’électrocardiogramme est un enregistrement de l’activité électrique à l’origine des

mouve-ments cardiaques. Il permet de mettre en évidence les différentes phases du cycle cardiaque qui

est composé des systoles (contractions auriculaire et ventriculaire) et de la diastole (pendant

laquelle le muscle se décontracte pour collecter le sang). La surveillance porte en particulier sur

la durée des différentes phases extraites à partir de l’ECG.

L’enregistrement est réalisé à l’aide d’un certain nombre d’électrodes en contact avec la peau

au niveau du thorax, des bras et de la jambe gauche. A partir de ces électrodes sont enregistrés

un certain nombre de signaux unipolaires (différence de potentiel entre une électrode et un point

de référence) et bipolaires (différence de potentiel entre deux électrodes). Un ECG standard est

ainsi constitué de 12 signaux comme détaillés dans le tableau 7.1. Un exemple de tracé des 12

pistes sur une période est donné par la figure 7.1.

La figure 7.2 représente les différentes ondes et les différents intervalles caractéristique de

l’ECG mettant en évidence les différentes phases de l’activité cardiaque. L’ondeP correspond à

la phase de dépolarisation des oreillettes (systole auriculaire). Elle est suivie par le complexeQRS

provoquant la contraction des ventricules (systole ventriculaire). Finalement l’ondeT correspond

à la repolarisation des ventricules (diastole). La durée totale de l’activité ventriculaire est mesurée

par l’intervalleQT qui représente l’indicateur le plus utilisé en pharmacologie clinique.

Les essais cliniques réalisés par les laboratoires pharmaceutiques sont ainsi générateurs d’une

très grande quantité d’enregistrements dont la lecture repose sur la mesure des différents

inter-valles. La société Cardiabase, spécialisée dans la lecture et l’analyse d’enregistrements ECG, traite

chaque année de nombreux enregistrements en s’appuyant sur une procédure semi-automatique.

7.1. Contexte

Figure 7.2 – Les différents segments de l’ECG

Avant d’être validés par des cardiologues, les enregistrements sont pré-traités par un logiciel puis

revus par des opérateurs formés à la lecture d’ECG. Cette révision permet de corriger les défauts

de la segmentation automatique.

Dans la pratique, les enregistrements ECG sont très variables d’un sujet à l’autre ce qui

rend l’automatisation de la segmentation difficile. Les techniques classiques de segmentation

automatique ont en effet tendance à reproduire systématiquement les mêmes erreurs sur un sujet

donné. Les enregistrements sont suffisamment spécifiques de la personne pour être considérés par

certains comme une empreinte personnelle, au même titre que l’empreinte digitale. Une personne

habituée à voir les enregistrements d’un sujet peut en effet parfois reconnaitre le sujet d’après

les spécificités de ses enregistrements.

En s’inspirant des techniques de reconnaissance de la parole, nous proposons de construire

par apprentissage un modèle stochastique du signal ECG afin de pouvoir adapter celui-ci à un

ou plusieurs sujets et être capable d’apprendre une segmentation plus pertinente, évitant ainsi

les corrections manuelles répétitives. Nous proposons de modéliser les enregistrements ECG à

l’aide d’un ensemble de chaînes de Markov cachées représentant les différents segments du signal.

Nous proposons conjointement une méthode de classification non supervisée des enregistrements

permettant de regrouper les enregistrements similaires et de développer une approche

multi-modèles.