• Aucun résultat trouvé

Nous avons présenté une méthode automatique et simple permettant d’enlever les artefacts oculaires des enregistrements EEG. Cette méthode présente un cas particulier d’un cadre plus général visant à décomposer les signaux multivariés en sous-espaces in-dépendants (Tsalaile et al., 2009, Sameni et al., 2008b, Sameni, 2008 et Sameni et al., 2009). Ce cadre flexible permet de choisir le critère permettant de trouver les combinai-sons linéaires, la fonction permettant de débruiter et l’utilisation de la partie itérative pour affiner les résultats. Dans le cas particulier présenté ici, nous avons utilisé la non-stationnarité pour trouver la combinaison linéaire. Ce critère nous a conduit à un quotient de Rayleigh (Strang, 1988,Golub et van Loan, 1996etGray, 2006) généralisé dont la so-lution est donnée par la méthode de la décomposition en valeurs propres généralisée. Dans d’autres applications, d’autres contrastes pourraient également être utilisés, par exemple la périodicité (extraction de signaux cardiaques) ou encore un contraste basé sur les di-versités spectrales des signaux.

Nous avons présenté deux différentes méthodes de débruitage. Alors que la première engendre une diminution du rang des données du nombre de composantes mises à zéro, la deuxième basée sur la transformée en ondelettes discrète permet de conserver le rang des données.

Les différents exemples d’utilisation qui ont été présentés dans ce chapitre ont montré l’intérêt de la méthode pour le débruitage. Tout d’abord, dans le cas de données simulées, nous avons montré que notre méthode s’avère plus précise qu’une méthode classique basée sur l’analyse en composantes indépendantes (ACI). L’exemple suivant basé sur des données réelles a permis d’illustrer de manière détaillée chaque étape de la méthode et a montré la supériorité du débruitage par ondelettes par rapport à une simple mise à zéro des premières composantes extraites. Enfin, dans le but de classifier des signaux EEG d’une expérience d’ICM, la dernière application a montré que notre méthode pouvait dans le cas général, engendrer de faibles gains de performances mais ne présentait aucun inconvénient à être utilisée de manière systématique.

7 Références du chapitre

Anderson, C. W., Stolz, E. A. et Shamsunder, S. (1998). Multivariate autoregressive mo-dels for classification of spontaneous electroencephalographic signals during mental tasks. IEEE Trans. Biomed. Eng., 45(3):277–286.

Beran, J. (1994). Statistics for long-memory processes. Chapman & Hall, New-York, USA. Boudet, S. (2008). Filtrage d’artefacts par analyse multicomposante de

l’électroencéphalo-gramme de patients épileptiques. Thèse de doctorat, Université de Lille 1.

Delorme, A., Sejnowski, T. et Makeig, S. (2007). Enhanced detection of artifacts in EEG data using higher-order statistics and independent component analysis. Neuroimage, 34(4):1443–1449.

Donoho, D. L. et Johnstone, I. M. (1995). Adapting to unknown smoothness via wavelet shrinkage. J. Am. Statist. Ass., 90(432):1200–1224.

Golub, G. et van Loan, C. (1996). Matrix Computations. The Johns Hopkins University Press, Troisième édition.

Gray, R. M. (2006). Toeplitz and circulant matrices: A review. Foundations and Trends in Communications and Information Theory, 2(3):155–239.

Hyvärinen, A. (1999). Fast and robust fixed-point algorithms for independent component analysis. IEEE Trans. Neural Netw., 10(3):626–634.

Hyvärinen, A., Karhunen, J. et Oja, E. (2001). Independent Component Analysis. Wiley-Interscience.

Ille, N. (2001). Artifact correction in continuous recordings of the electro- and magnetoen-cephalogram by spatial filtering. Thèse de doctorat, Universität Mannheim.

Ille, N., Berg, P. et Scherg, M. (2002). Artifact correction of the ongoing EEG using spatial filters based on artifact and brain signal topographies. J. Clin. Neurophysiol., 19(2):113–124.

Jung, T., Humphries, C., Lee, T., McKeown, M. et Iragui, V. et al. (2000a). Remo-ving electroencephalographic artifacts by blind source separation. J. Psychophysiol., 37:163–178.

Lindgren, G., Leadbetter, M. et Rootzén, H. (1983). Extremes and related properties of stationary sequences and processes. Springer, New-York, USA.

Mallat, S. (1999). A Wavelet Tour of Signal Processing, Second Edition (Wavelet Analysis & Its Applications). Academic Press.

Naeem, M., Brunner, C., Leeb, R., Graimann, B. et Pfurtscheller, G. (2006). Seperability of four-class motor imagery data using independent components analysis. J. Neural Eng., 3(3):208–216.

Romero, S., Mañanas, M. A. et Barbanoj, M. J. (2008). A comparative study of automatic techniques for ocular artifact reduction in spontaneous EEG signals based on clinical target variables: A simulation case. Comput. Biol. Med., 38(3):348–360.

Romero, S., Mañanas, M. et Barbanoj, M. (2009). Ocular reduction in EEG signals based on adaptive filtering, regression and blind source separation. Ann. Biomed. Eng., 37(1):176–191.

Sameni, R. (2008). Extraction of Fetal Cardiac Signals from an Array of Abdominal Ma-ternal Recordings. Thèse de doctorat, Institut Polytechnique de Grenoble.

Sameni, R., Jutten, C. et Shamsollahi, M. B. (2009). A deflation procedure for subspace decomposition. IEEE Trans. Signal Process.. Submitted (in review process).

Sameni, R., Jutten, C. et Shamsollahi, M. B. (2008a). Multichannel electrocardio-gram decomposition using periodic component analysis. IEEE Trans. Biomed. Eng., 55(8):1935–1940.

Sameni, R., Shamsollahi, M. B. et Jutten, C. (2008b). Model-based bayesian filtering of cardiac contaminants from biomedical recordings.. Physiol. Meas., 29(5):595–613.

Schlögl, A., Keinrath, C., Zimmermann, D., Scherer, R. et Leeb, R. et al. (2007). A fully automated correction method of EOG artifacts in EEG recordings. Clin. Neurophy-siol., 118(1):98–104.

Strang, G. (1988). Linear Algebra and Its Applications. Brooks/Cole, 3rd édition.

Thulasidas, M., Guan, C., Ranganatha, S., Wu, J. et Zhu, X. et al. (2004). Effect of ocular artifact removal in brain computer interface accuracy. Dans Conf. Proc. IEEE. Eng. Med. Biol. Soc., pages 4385–4388.

Tsalaile, T., Sameni, R., Sanei, S., Jutten, C. et Chambers, J. (2009). Sequential blind source extraction for quasi-periodic signals with time-varying period.. IEEE Trans. Biomed. Eng., 56(3):646–655.

Vigário, R., Särelä, J., Jousmäki, V., Hämäläinen, M. et Oja, E. (2000). Independent component approach to the analysis of EEG and MEG recordings. IEEE Trans. Biomed. Eng., 47(5):589–593.

Filtrage des états mentaux

par modèle de Markov

1 Introduction . . . 106 2 Formulation théorique . . . 107 2.1 Modèle d’évolution des états mentaux, cadre variationnel bayésien . 107 2.2 Résumé de l’algorithme de filtrage des probabilités . . . 114 2.3 Illustration du filtrage variationnel bayésien . . . 115 3 Méthode générale pour les ICMs . . . 117 3.1 Phase d’entraînement . . . 117 3.2 Phase d’évaluation . . . 117 3.3 Résumé . . . 117 4 Apprentissage de l’état « repos » . . . 118 4.1 Utilisation des périodes de repos . . . 118 4.2 Définition implicite . . . 119 5 Données expérimentales . . . 120 5.1 « BCI Competition III, dataset 4b » . . . 120 5.2 « BCI Competition IV, dataset 1 » . . . 121 6 Résultats . . . 121 6.1 Méthode d’évaluation . . . 121 6.2 « BCI Competition III » . . . 123 6.3 « BCI Competition IV » . . . 127 7 Discussion et conclusion . . . 129 7.1 Utilisation des bandes de fréquences . . . 130 7.2 Améliorations dues au filtrage variationnel . . . 130 8 Références du chapitre . . . 132

N

OUS AVONS CONSACRÉ les chapitres précédents à plusieurs étapes fondamentales

de traitement pour la conception d’Interfaces Cerveau-Machines (ICMs). Nous nous sommes notamment intéressés au débruitage des signaux (chapitre IV) ainsi qu’aux mé-thodes de filtrage spatial permettant d’extraire les sources cérébrales associées à la réali-sation des tâches mentales (chapitre III). De plus, l’extraction de caractéristiques permet-tant de résumer l’activité cérébrale à quelques valeurs principales ainsi que la classification de ces valeurs a été décrite et abordée dans les différents chapitres et approfondie dans l’annexe A.

Cependant la plupart des méthodes mises en place jusqu’à présent se sont concentrées sur des paradigmes ICMs relativement contraints dans la mesure où les sujets devaient envoyer leur commande mentale à des instants imposés par le système (ICMs dites syn-chrones). Dans le cas de paradigmes sans contrainte temporelle, l’analyse de l’activité

cérébrale doit être réalisée en continu (ICMs dites asynchrones). Les problèmes engendrés par ce type de système sont multiples. Dans ce chapitre, nous montrons que les méthodes qui ont été décrites depuis le début de ce manuscrit peuvent être appliquées au cas de paradigmes non contraints.

Nous adaptons ces méthodes à la problématique des interfaces non-contraintes en ajou-tant une étape de traitement inédite visant à contrôler la dynamique en sortie du système selon le principe neurophysiologiquement plausible de relative stabilité des états mentaux du sujet. Cette étape a pour but de régulariser la sortie du système afin de compenser les variabilités engendrées par l’analyse en continu de l’activité cérébrale. Cette problé-matique est abordée en utilisant un modèle de Markov caché dans un cadre variationnel bayésien.

Ces travaux ont été réalisés en collaboration avec le Dr. Jérémie Mattout (INSERM, Lyon).

1 Introduction

Depuis plus de 20 ans, experts en traitement du signal ainsi que neurophysiologistes travaillent côte à côte pour fournir aux personnes souffrant de graves maladies motrices des outils pour restaurer la communication ou des capacités motrices minimes (Birbaumer et Cohen, 2007). Si les paradigmes relativement contraints, tels que ceux utilisés pour les données des chapitres précédents, ont permis d’obtenir des taux de classification élevés, le caractère peu flexible de ce type de systèmes a jusqu’à présent limité leur utilisation par une large population de patients. Or la principale limitation des ICMs classiques réside dans la contrainte imposée au sujet d’envoyer sa commande au moment où le système l’impose et non au moment où le sujet le désire.

Nous avons vu au cours du chapitre II qu’un effort significatif visait aujourd’hui à rendre les ICMs plus flexibles. Ceci passe tout d’abord par la suppression de la contrainte temporelle imposant au sujet l’instant de sa commande (Townsend et al., 2004). Bien que cette problématique soit apparue il y a une dizaine d’années (Mason et Birch, 2000), seules quelques équipes dans le monde travaillent sur ce problème et tentent de résoudre les difficultés qu’il soulève (Mason et al., 2006,Bashashati et al., 2007b,Birch et al., 2003, Scherer et al., 2008et Galán et al., 2008). Parmi ces difficultés, l’une des principales est engendrée par la nécessité, pour le système, de décider si le sujet est en train d’envoyer une commande ou s’il se trouve dans un état naïf (du point de vue du système). Or, s’il est relativement aisé de discriminer entre deux tâches déterminées dont on connaît bien les caractéristiques, il est beaucoup plus difficile de discriminer entre une tâche et un état neutre, dont la variabilité est très importante. Afin de pallier ce problème,Townsend et al. (2004) ont proposé d’utiliser ce qu’on appelle un « dwell time ». L’idée de ce système est d’analyser l’activité cérébrale en continu mais de ne prendre une décision que lorsqu’on est sûr qu’une certaine tâche est maintenue pendant une période relativement longue. Le taux de fausses détections est alors contrôlé par le temps de « dwell time ».

Cependant, l’inconvénient de cette approche est qu’elle ralentit le flux d’information du système. Elle tente néanmoins d’utiliser l’information a priori qui consiste à considérer que la variation d’état mental du sujet doit être relativement lente et peut permettre de pallier la grande variabilité qui serait engendrée par une classification en continu. Dans ce chapitre, nous proposons donc d’étendre cette idée en proposant une méthode basée sur un modèle de Markov caché. L’idée sous-jacente est d’utiliser à la fois la relative stabilité a priori des états mentaux du sujet et également les transitions a priori entre les différents états mentaux pour filtrer la sortie du classifieur afin de rendre le système stable.

Différents travaux ont déjà tenté d’utiliser des chaînes de Markov cachées dans le cadre des ICMs mais dans un but de classification (Obermaier et al., 2001) en utilisant la vraisemblance par rapport à plusieurs modèles correspondant à chacune des classes. Cette

approche générative (un modèle par classe) souffre néanmoins d’une perte de puissance du modèle qui est utilisé pour générer les données plutôt que pour discriminer les différentes classes. Cet inconvénient a été pointé par Chiappa (2006) qui a proposé d’utiliser un modèle de Markov discriminatif plutôt que génératif (Chiappa et Bengio, 2004). Dans le même but, certains auteurs ont également proposé d’utiliser une description continue des états plutôt que discrète, proposant donc des filtres de Kalman pour la classification des signaux EEG (Tsui et al., 2009, Sykacek et al., 2004 et Sykacek et al., 2003). Bien que l’outil présenté dans ce chapitre soit également basé sur des chaînes de Markov cachées, le but est ici de proposer une méthode de filtrage de la sortie du classifieur et non une méthode de classification.

2 Formulation théorique

Afin de simplifier les notations dans le présent chapitre, nous adoptons une notation différente de celle utilisée dans les chapitres précédents. Ainsi, nous noterons xt ∈ RNs

les données EEG, enregistrées à l’aide de Ns capteurs. A chaque instant t, l’état mental du sujet sera appelé lt. Nous nous placerons dans le cas d’une interface à commandes discrètes, c’est-à-dire lt prend des valeurs parmi un alphabet fini dont on peut définir une bijection avec l’ensemble {1, 2, · · · , c}. Enfin, nous supposerons disposer d’un système capable, à partir d’une fenêtre de données xt autour de chaque instant t, de fournir une estimation de la probabilité que le sujet soit dans chacun des états mentaux. La probabilité pour que le sujet soit dans l’état i ∈ {1, 2, · · · , c} à l’instant t sera notée pi,t. L’ensemble des probabilités estimées à l’instant t sera rassemblé sous la forme d’un vecteur

pt =      p1,t p2,t .. . pc,t      avec ∀t ∈ R c X i=1 pi,t= 1. (V.1)

Bien que lt soit une valeur discrète dans l’intervalle {1, 2, · · · , c}, nous la noterons dans la suite du chapitre de manière préférentielle sous la forme d’une variable indicatrice lt ∈ {0, 1}c telle que

∀i ∈ {1, 2, · · · , c} li,t=n1 si lt = i

0 sinon . (V.2)

2.1 Modèle d’évolution des états mentaux, cadre variationnel bayésien