• Aucun résultat trouvé

2.4 Exp ´erimentations

2.4.2 D ´ebruitage de donn ´ees et des images

2.5 Conclusion . . . . 52

2.1 Introduction

Il s’av `ere que la contrainte de non-n ´egativit ´e est tr `es essentielle dans de nombreux probl `emes d’optimisation. Cette propri ´et ´e incorpore l’ ´equivalence math ´ematique entre la n ´egative et la non-positive. Seules les m ´ethodes it ´eratives peuvent ˆetre utilis ´ees pour r ´esoudre les probl `emes g ´en ´eraux d’optimisation sous de telles contraintes. En outre, un sch ´ema it ´eratif pour la non-n ´egativit ´e peut servir de base pour des probl `emes d’optimisation plus complexes sous contrainte, tels que l’optimisation de contraintes born ´ees. Depuis les ann ´ees quatre-vingt, des contraintes de non-n ´egativit ´e ont ´et ´e impos ´ees pour la d ´econvolution d’un signal par Thomas dans [Tho83] et Prost et al. dans [PG84], et ´etendues `a la d ´econvolution et le d ´ebruitage des images ont ´et ´e ´etudi ´es respectivement par Thomas et al. dans [TS91] et Snyder et al. dans [SSO92]. Durant la derni `ere d ´ecennie, une m ´ethode plus g ´en ´erale pour l’optimisa-tion it ´erative sous contraintes de non-n ´egativit ´e a ´et ´e ´etudi ´ee, initi ´ee par Lant ´eri et al. [LRCA01], et plus r ´ecemment pour l’apprentissage en ligne dans [CRH+10b], l’identification des syst `emes [CRH+10a] et la r ´egression distribu ´ee [CRHB10].

La propri ´et ´e de la non-n ´egativit ´e est n ´ecessaire dans plusieurs domaines. L’analyse en compo-santes ind ´ependantes impose une factorisation non-n ´egative des donn ´ees dans [HO00], comme pour la s ´eparation aveugle des sources avec des sourcespositives. Dans [OP03], une analyse non-n ´egative en composantes principales (ACP) est propos ´ee. Diff ´erentes ´etudes pour la reconnaissance des formes sous contraintes ont ´et ´e bas ´ees sur des algorithmes lin ´eaires, tels que l’ACP pour le diagnostic du cancer dans [Han10], la parcimonie non-n ´egative dans [ZS07], la recherche de solutions optimales en appliquant la proc ´edure par s ´eparation- ´evaluation dans [MWA06], et la recherche du vecteur propre dominant en utilisant l’algorithme de l’esp ´erance-maximisation dans [SB08].

Lors de la reconnaissance des formes ou le d ´ebruitage, nous sommes souvent `a la recherche de formes, ou de repr ´esentations dans l’espace des observations o `u elles sont d ´ecrites. De plus, inspir ´es par la physiologie qui n ´ecessite souvent une contrainte de non-n ´egativit ´e, nous ´elaborons alors la r ´esolution du probl `eme de la pr ´e-image sous contrainte de non-n ´egativit ´e. Pour ce faire, l’ ´etude est d ´ecompos ´ee en deux parties. Dans un premier temps, elle porte sur les conditions de non-n ´egativit ´e sur la pr ´e-image estim ´ee. Et dans un second temps, nous tenons compte de l’additivit ´e des contributions ce qui m `ene `a la non-n ´egativit ´e des coefficients qui les d ´efinissent. En couplant ces d ´eveloppements avec l’analyse en composantes principales `a noyaux, nous ´etudions l’extraction de caract ´eristiques pour des signaux potentiels ´evoqu ´es, et le d ´ebruitage des images.

2.2 M ´ethodes `a noyaux, pr ´e-image et non-n ´egativit ´e

Dans cette section, nous combinons le probl `eme de la pr ´e-image avec la condition de non-n ´egativit ´e en ´etudiant les conditions pour lesquelles nous aboutissons `a des r ´esultats non-n ´egatifs. En utilisant le Th ´eor `eme1.3, nous pouvons ´etablir un lien entre les coefficients dans les deux espaces des observations et de caract ´eristiques.

Lemme 2.1. Pour des donn ´ees d’apprentissages non-n ´egatives, si les coefficients dans l’espace

fonc-tionnel sont non-n ´egatifs, γ1, γ2, . . . , γn ≥ 0, alors les coefficients de la pr ´e-image correspondante

sont aussi non-n ´egatifs, i.e.,β1, β2, . . . , βn ≥ 0. Par ailleurs, la non-n ´egativit ´e des donn ´ees n’est pas

n ´ecessaire pour les noyaux radiaux.

D ´emonstration. Pour les noyaux projectifs, les coefficients de la pr ´e-image ont la forme (1.16)

βii

f(1)(hxi,xi)

f(1)(hx,xi).

Lorsque toutes les donn ´ees d’apprentissages sont n ´egatives, les d ´eriv ´ees ci-dessus sont non-n ´egatives suite `a la Propositionon-n1.2. La m ˆeme preuve peut ˆetre appliqu ´ee `a l’ ´equation (1.17) pour les noyaux radiaux v ´erifiant la Proposition1.1, avec

βii

g(1)(kxi−xk2) Pn

2.3. Pr ´e-image avec contraintes de non-n ´egativit ´e 37

La non-n ´egativit ´e des coefficientsγiest une condition impos ´ee par les machines `a vecteurs supports (SVM) pour la classification et la r ´egression, ainsi que d’autres m ´ethodes d’apprentissage. Toutefois, ce n’est pas le cas en g ´en ´eral, avec l’ACP- `a-noyaux par exemple. Nous ne nous limiterons pas au probl `eme convexe, mais consid ´erons le probl `eme non convexe plus g ´en ´eral.

Pour le noyau Gaussien, nous avons

κG(xi,xj) =g(kxi−xjk2) = exp(2σ12kxi−xjk2)

alors la d ´eriv ´ee premi `ere du noyau Gaussien s’ ´ecrit comme suit

g(1)(kxi−xjk2) =−2σ12 κG(xi,xj),

et la d ´eriv ´ee seconde

g(2)(kxi−xjk2) = 41σ4 κG(xi,xj).

Lorsque le noyau polynomial est appliqu ´e, avec

κq(xi,xj) =f(xi·xj) = (c+ hxi,xji)q,

alors la d ´eriv ´ee premi `ere du noyau polynomial s’ ´ecrit comme suit

f(1)(hxi,xji) =q κq1(xi,xj),

o `uκq−1(xi,xj) =f(hxi,xji) = (c+ hxi,xji)q−1.

2.3 Pr ´e-image avec contraintes de non-n ´egativit ´e

En reconnaissance des formes, nous cherchons parfois des solutions avec contraintes. Il s’agit sou-vent des contraintes de non-n ´egativit ´e. Par exemple, en traitement d’images, les donn ´ees d’appren-tissage sont des images ou des pixels dans une image, comme les donn ´ees qui sont non-n ´egatives si les images sont cod ´ees en niveau de gris. Afin d’extraire une caract ´eristique ou aboutir `a une ver-sion d ´ebruit ´ee du m ˆeme type (m ˆeme espace des observations avec une condition de non-n ´egativit ´e de chaque pixel), nous imposons une contrainte de non-n ´egativit ´e sur la pr ´e-image. Cependant, les contraintes peuvent ˆetre appliqu ´ees soit sur les donn ´ees elles-m ˆemes, soit sur les coefficients du mod `ele en utilisant la combinaison lin ´eaire d ´efinie dans (1.14).

Φ(·) ? x0 x Φ(x0) x1 x2 x3 Φ(x1) Φ(x3) Φ(x2) xn Φ(xn) ϕ ϕm ϕ2 ϕ1

FIGURE 2.1: Sch ´ema illustrant le probl `eme de la pr ´e-image sous contrainte de non-n ´egativit ´e. ´Etant

donn ´e une observation bruit ´eex0, elle est transform ´ee enΦ(x0)par la fonction non-lin ´eaire Φ(·),

en-suite projet ´ee sur le sous-espace engendr ´e par les axes principaux les plus pertinentsϕ1, ϕ2, . . . , ϕm.

Une fois que la forme d ´ebruit ´eeϕest estim ´ee, il est n ´ecessaire de faire le retour inverse vers l’espace

des observations, afin de retrouver la pr ´e-image deϕ`a savoirx, o `u le domaine admissible des r ´esultats

est donn ´e par la non-n ´egativit ´e dans l’espace des observations.

2.3.1 Contraintes de non-n ´egativit ´e sur la pr ´e-image

Dans cette section, nous consid ´erons le probl `eme g ´en ´eral de r ´esolution du probl `eme de la pr ´e-image avec contrainte de non-n ´egativit ´e. Nous ´etudions le probl `eme d’optimisation sous contrainte, en utilisant la fonction co ˆutJ(·)d ´efinie par (1.10), alors notre probl `eme est d ´ecrit par

x= arg min

x J(x) sous contrainte x≥0, (2.1) o `u l’expressionx≥0d ´esigne la non-n ´egativit ´e de toutes les composantes du vecteurx. Le gradient de la fonction co ˆut est donn ´e dans le Tableau 1.3pour diff ´erents types de noyaux. Ensuite, nous d ´erivons une r `egle de mise- `a-jour it ´erative qui m `ene `a la non-n ´egativit ´e de la pr ´e-image. L’id ´ee de cette pr ´e-image avec contrainte de non-n ´egativit ´e est illustr ´ee par la Figure2.1.

Nous consid ´erons le Lagrangien associ ´e `a ce probl `eme d’optimisation avec contraintes donn ´e par (2.1). Le Lagrangien de ce probl `eme n’est autre que

J(x)−µx,

2.3. Pr ´e-image avec contraintes de non-n ´egativit ´e 39

x, il lui correspond un vecteur optimal des multiplicateurs de Lagrange soitµ. Les conditions du premier ordre de (Karush-)Kuhn-Tucker `a l’optimum se traduisent par

x

J(x)−µT x = 0

]i[x]i = 0 pour tout i= 1,2, . . . ,dim{X } o `u [·]i repr ´esente lai`eme

composante. Nous pouvons facilement voir que la premi `ere condition s’ ´ecrit sous la formex

J(x)]i−]i = 0pour touti. La combinaison de toutes ces conditions d’ ´egalit ´e nous donne, pour chaque composantei = 1,2, . . ., une contrainte active pour[x]i = 0ou une contrainte inactive pour [∇xJ(x)]i = 0avec [x]i > 0. Nous proposons de r ´esoudre ce probl `eme avec une m ´ethode it ´erative en s’inspirant de [LRCA01]. Ainsi, l’expression de mise- `a-jour `a l’it ´erationt+ 1est-elle donn ´ee par

[x(t+ 1)]i = [x(t)]ii(t)p([x(t)]i) [−∇xJ(x(t))]i,

o `u le signe moins montre une technique de descente du gradient, p(x(t))est une fonction positive sur le domaine admissible du vecteurx, etηi(t)repr ´esente un facteur de relaxation. Nous proposons dans la suite deux techniques en variant l’expression de la fonction positivep([x(t)]i), d’une part pour donner un pas fixe et d’autre part pour donner un pas variable d ´ependant du vecteurxlui-m ˆeme.

2.3.1.1 Pas fixe

Dans ce paragraphe, nous fixons la valeur de la fonction positive p([x(t)]i) `a l’unit ´e. L’expression ci-dessus est donn ´ee par

[x(t+ 1)]i= [x(t)]ii(t) [−∇xJ(x(t))]i.

Le pas d’adaptation ηi(t) est utilis ´e afin de contr ˆoler la convergence. Ce pas d’adaptation ηi(t) doit satisfaire une condition pour assurer cette non-n ´egativit ´e de toutes les composantes [x(t + 1)]i du vecteurx(t+ 1). Deux cas sont alors distingu ´es : Si le gradient ci-dessus est inf ´erieur ou ´egal `a z ´ero, c’est- `a-dire[∇xJ(x(t))]i ≤0, aucune restriction n’est appliqu ´ee sur la valeur que peut prendre le pas ; cependant, si ce gradient est sup ´erieur `a z ´ero, i.e.[∇xJ(x(t))]i >0, alors le pas d’adaptation doit ˆetre born ´e, selon

ηi(t)≤ [x(t)]i

[∇xJ(x(t))]i.

M ˆeme en utilisant une valeur du pas pour chacune des directions de descente du gradient, il est souvent int ´eressant d’avoir une valeur unique pour ce pas pour chaque it ´erationt. Nous d ´efinissons alors le pas d’adaptationη(t)par η(t)≤min i [x(t)]i [∇xJ(x(t))]i . (2.2)

`

A partir de ces expressions, la r `egle de mise- `a-jour sous forme matricielle est alors ´ecrite

x(t+ 1) =x(t)−η(t)∇xJ(x(t)), (2.3) o `u le pas est adapt ´e comme pr ´esent ´e ci-dessus. Passons maintenant `a une autre forme de la fonction positivep([x(t)]i).

2.3.1.2 Pas variable

Inspir ´ee par les travaux de Lant ´eri et al. [LTBM09], nous proposons une approche qui permet une convergence plus rapide vers les valeurs nulles. `A cette fin, nous remplac¸ons la fonction positive

p([x(t)]i)par le vecteurxen question en tenant compte de chacune des composantes [x(t)]i. Alors, le pas d’adaptation est multipli ´e par la valeur de [x(t)]i correspondante, r ´esultant en une rapidit ´e de convergence pour aboutir au z ´ero en question. Nous aboutissons alors `a l’expression

[x(t+ 1)]i = [x(t)]ii(t) [x(t)]i[−∇xJ(x(t))]i.

Notons que la non-n ´egativit ´e des composantes [x(t+ 1)]i impose une condition sur le pas ηi(t). En r ´e- ´ecrivant l’expression de mise `a jour de[x(t+ 1)]i nous obtenons la factorisation suivante

[x(t+ 1)]i = [x(t)]i 1 +ηi(t) [−∇xJ(x(t))]i

.

Afin de conserver la non-n ´egativit ´e `a chaque it ´eration, une condition apparait sur le terme entre pa-renth `eses, i.e., 1 +ηi(t) [−∇xJ(x(t))]i. Lorsque le gradient de la fonction co ˆut est n ´egatif, aucune restriction n’est n ´ecessaire sur le pas. Cependant, lorsque ce gradient est positif, la valeur du pas est maximis ´ee par

ηi(t)≤ 1

[∇xJ(x(t))]i .

En pratique, nous pouvons utiliser un pas ind ´ependant de la composante i, `a condition qu’il soit maximis ´e par le minimum sur tous leside l’inverse du gradient

η(t)≤min i 1 [∇xJ(x(t))]i . ´

Ecrite sous une forme matricielle, la r `egle de mise- `a-jour est d ´efinie par x(t+ 1) =x(t)−η(t)diagx(t)

xJ(x(t)), (2.4)

o `u diag[·] est l’op ´erateur pour d ´efinir une matrice diagonale, pr ´ecis ´ement diag[x(t)] est la matrice diagonale ayant comme ´el ´ements les composantes [x(t)]i du vecteurx(t). Dans cette expression, le terme −diag[x(t)]∇xJ(x(t))correspond `a la direction de la descente du gradient. Il est clair alors

2.3. Pr ´e-image avec contraintes de non-n ´egativit ´e 41 J(x) x 0 −ηtdiag x(t) ∇xJ(x(t))

FIGURE2.2: Illustration de la pond ´eration

du pas par la valeur dexcorrespondante.

que le pas pour les grandes valeurs de[x(t)]i est multipli ´e par une valeur plus importante que pour les faibles valeurs. Cette propri ´et ´e permet alors une convergene plus rapide vers les valeurs nulles, comme illustr ´ee dans la Figure2.2.

2.3.2 Contraintes de non-n ´egativit ´e sur les coefficients du mod `ele

En vertu du Th ´eor `eme 1.3, la pr ´e-image s’ ´ecrit selon une combinaison lin ´eaire des observations disponibles, utilisant la formex =Pn

i=1βixi, avec des param `etresβi `a d ´eterminer [KHR+10]. Donc, nous cherchons la pr ´e-image optimale de la forme matricielle

x=Xβ,

o `u les vecteurs des donn ´eesxisont regroup ´es dans la matriceX = [x1x2 · · · xn]et les param `etres

β

i `a d ´eterminer dansβ = [β 1β

2 · · · β

n]⊤. Cette ´ecriture nous permet de pr ´esenter une autre strat ´egie pour r ´esoudre le probl `eme de la pr ´e-image, cette fois en imposant une contrainte sur les coefficients dans l’expression ci-dessus. Le probl `eme de la pr ´e-image sous contrainte de non-n ´egativit ´e des coefficients est

x = arg min

x J(x) sous contrainteβ≥0,

o `ux=Xβ.

Dans cette expression, la fonction co ˆut (1.10) est donn ´ee en fonction des coefficients β. Elle est d ´efinie par J(Xβ) =− n X i=1 γiκ(xi,Xβ) + 1 2κ(X β,Xβ). (2.5)

TABLE2.1: Gradient de la fonction co ˆut (1.10) par rapport `aβd ´efini parx=Xβ, pour les noyaux les plus utilis ´es.

TypeβJ(Xβ) Polynomialn X i=1 γiq κq1(xi,Xβ)X xi+q κq1(Xβ,Xβ)X Xβ Laplacienσ1 n X i=1 γiκL(xi,Xβ)X xi Exponentiel1σ n X i=1 γiκE(xi,Xβ)Xxi+ 1σκE(Xβ,Xβ)X Xβ Gaussienσ12 n X i=1 γiκG(xi,Xβ)X(xi−Xβ)

Le gradient de cette expression par rapportβvaut

βJ(Xβ) =X∇xJ(x). (2.6)

Le Tableau2.1regroupe les expressions des gradients par rapport aux coefficientsβdes noyaux les plus couramment utilis ´es. Il est important de noter, qu’il existe une relation entre les expressions du gradient par rapport aux donn ´eesx(Tableau1.3) et le gradient par rapport aux coefficientsβ, et elle est d ´efinie dans l’expression (2.6).

En tenant compte de l’expression qui lie les coefficients aux donn ´ees `a savoirx = Xβ, et en prenant l’expression de la fonction co ˆut (2.5), nous pouvons ´etablir une nouvelle formulation du probl `eme d’optimisation sous contrainte de non-n ´egativit ´e appliqu ´ee sur les coefficientsβ. Pour ce faire, et par analogie avec le probl `eme d’optimisation sous contrainte de non-n ´egativit ´e sur la pr ´e-image (2.1), nous aboutissons alors `a ce nouveau probl `eme

β = arg min

β J(Xβ) sous contrainteβ≥0.

Dans cette expression la fonction co ˆut est d ´efinie par (2.5), avec un gradient par rapport aux coefficients βdonn ´e par (2.6). Une r `egle de mise- `a-jour est alors ´etablie, par analogie avec (2.4), comme suit

β(t+ 1) =β(t)−η(t)diag[β(t)]X∇xJ(x). (2.7) Une fois les coefficients sont d ´etermin ´es β1, β2, . . . , βn, nous pouvons ainsi d ´eterminer la pr ´e-image avec x = Xβ. De cette expression, nous pouvons voir que dans le cas de la non-n ´egativit ´e des donn ´ees d’apprentissage, c’est- `a-direx1,x2, . . . ,xn≥0, la pr ´e-image r ´esultantexle sera alors aussi.

2.4. Exp ´erimentations 43

2.3.2.1 La parcimonie

Une des propri ´et ´es utiles de forcer une contrainte sur les coefficients d’un mod `ele de combinaison lin ´eaire est la propri ´et ´e de la parcimonie. En fait, la solution sans contrainte peut unir des contributions additives et soustractives dans la combinaison lin ´eaire ; une grande partie de ces contributions se neu-tralisent alors entre elles. En fixant des contraintes de non-n ´egativit ´e sur les coefficients, il s’av `ere que cet ´equilibre aboutira `a un grand nombre de composants inactifs, c’est- `a-dire, des coefficients proches de z ´ero. C’est la propri ´et ´e de la parcimonie, contribuant `a la g ´en ´eralisation des algorithmes des Supports Vecteurs [Vap98] et la litt ´erature du compressive sampling [CW08]. Nous insistons sur le fait qu’il s’agit d’un effet secondaire fortuit des contraintes de non-n ´egativit ´e, par opposition `a une fonction principale ayant pour objectif la parcimonie, o `u l’on contr ˆole le degr ´e de parcimonie de la solution. La parcimonie signifie qu’un grand nombre des coefficients est proche de z ´ero, ou en d’autres termes, seulement un petit nombre de donn ´ees d’apprentissage contribue `a la solution finale. Cette propri ´et ´e est probablement due `a la redondance dans les observations. En effet, dans la solution sans contrainte, cette redondance entraˆıne des coefficients additifs et soustractifs permettant de neutraliser leurs contributions.

La parcimonie est une propri ´et ´e tr `es souhaitable dans la reconnaissance des formes et dans l’appren-tissage, ce qui contribue `a une meilleure compr ´ehension des r ´esultats, en bioinformatique par exemple. Il est `a noter que la parcimonie n’est de la pr ´e-image. De plus, l’inclusion explicite de la contrainte de par-cimonie, comme la minimisation d’une fonction co ˆut0ou1, est co ˆuteuse en ressources informatiques. La parcimonie est ´etudi ´ee avec une proc ´edure par s ´eparation- ´evaluation dans [MWA06]. La m ´ethode de Lasso tient en compte de la parcimonie de la solution et le co ˆut calculatoire dans [Tib96]. Ce co ˆut calculatoire est ´etudi ´e lors de l’impl ´ementation de cette m ´ethode Lasso dans Matlab [Sjo05], ainsi que lors de son application sur les composantes principales dans [ZHT04]. De plus, une ´etude concernant le co ˆut de la parcimonie de la solution porte sur la maximisation de la variance des donn ´ees dans [dEJL07]. Des ´etudes sont men ´ees pour optimiser les mod `eles en imposant une p ´enalit ´e de la parcimonie dans [BJMO12], d’autres ´etudes tiennent en compte une optimisation convexe dans [BJMO11]. Elle est illustr ´ee dans la section d’exp ´erimentations sur des ensembles de donn ´ees artificielles et r ´eelles.

2.4 Exp ´erimentations

Dans cette section, nous illustrons l’efficacit ´e de nos m ´ethodes propos ´ees, pour deux applications diff ´erentes : l’extraction des caract ´eristiques d ´etaill ´ee dans1.5.1et le d ´ebruitage d ´ecrit dans la section

1.5.2.

2.4.1 Extraction des caract ´eristiques de signaux ERP

Nous consid ´erons l’extraction des caract ´eristiques avec une application sur des signaux r ´eels, plus pr ´ecis ´ement des enregistrements mesurant l’activit ´e du cerveau. Les potentiels ´evoqu ´es ou Event-related

FIGURE2.3: Quelques signaux des potentiels ´evoqu ´es, enregistr ´es par le canal Cz. La diversit ´e de ces signaux est illustr ´ee, avec quelques uns n’ayant pas de composantes positives au voisinage

de300ms (voir par exemple). 0 100 200 300 400 500 600

−40 −30 −20 −10 0 10 20 30 40 50 60 temps (ms) a m p lit u d e ( µ V )

potentials (ERP) en anglais repr ´esentent l’activit ´e ´electrique du cerveau due `a une r ´eponse `a une stimu-lation bien sp ´ecifique, mesur ´ee avec l’ ´electroenc ´ephalographe (EEG). Il y a un fort consensus sur les composantes d’un enregistrement ERP, ind ´ependamment des sujets ou du type de stimulation. Un tel signal comprend une d ´eviation n ´egative (appel ´ee N200) suivie d’une autre positive (appel ´ee P300), se produisant respectivement `a environ 200 ms et 300 ms apr `es le d ´ebut de la stimulation. Durant l’acti-vit ´e c ´er ´ebrale, une telle r ´eponse unique n’est pas g ´en ´eralement visible dans ces enregistrements. Pour contourner ce probl `eme, de nombreux essais sont souvent effectu ´es en utilisant la m ˆeme stimulation. En pratique, on prend la moyenne de ces r ´eponses, ce qui donne un moment du premier ordre des enregis-trements ERP. Nous donnons dans cette section une autre statistique tenant compte de la variance de ces signaux, en combinant l’ACP- `a-noyaux avec le noyau Gaussien d’une part, et la technique propos ´ee de pr ´e-image d’autre part.

Pour les exp ´eriences, nous utilisons des signaux ERP collect ´es `a partir d’exp ´eriences r ´ealis ´ees `a l’universit ´e de Kuopio [oK] et ´etudi ´ees dans [Tar] ; pour plus d’informations, voir aussi [Geo07, Tar04]. La stimulation auditive est compos ´ee d’une s ´erie de deux signaux de tonalit ´e en alternance, jou ´es al ´eatoirement avec un temps entre les stimuli (aussi appel ´e intervalle inter-stimulation ou ISI) d’une se-conde. Ces stimuli correspondent soit `a une tonalit ´e `a la fr ´equence de800 Hz ou d’une autre tonalit ´e `a560Hz, jou ´ees avec un rapport de85%pour le premier signal et15%pour le second. Alors que les signaux ERP sont des enregistrements `a partir d’un EEG `a64canaux, seule la ligne m ´ediane du canal central Cz, souvent tr `es fiable, est utilis ´ee pour la d ´etection des potentiels. L’enregistrement capt ´e dans le canal Cz est segment ´e en signaux afin de voir la r ´eaction du sujet aux stimulations en utilisant une fen ˆetre[0,600]ms, o `u0correspond `a l’instance de relance de chaque stimulation. Une telle fen ˆetre est appropri ´ee pour extraire les deux composantes N200 et P300 de l’ERP. Un ensemble de 87 signaux de longueur 600 ms est recueilli, avec 151 ´echantillons chacun, comme illustr ´e dans la Figure2.3 o `u seulement dix signaux choisis au hasard sont pr ´esent ´es pour afficher la diversit ´e de ces signaux.

Nous appliquons l’ACP- `a-noyaux pour extraire le premier axe principal de ces donn ´ees, dans l’espace fonctionnel associ ´e au noyau Gaussien. L’approche de la pr ´e-image nous a permis de revenir `a l’espace

2.4. Exp ´erimentations 45

Signal d’initialisation Caract ´eristique extraite

0 100 200 300 400 500 600 −40 −30 −20 −10 0 10 20 30 temps (ms) a m p lit u d e ( µ V ) 0 100 200 300 400 500 600 −40 −20 0 20 40 60 80 temps (ms) a m p lit u d e ( µ V )

FIGURE 2.4: Extraction de caract ´eristiques des donn ´ees des potentiels ´evoqu ´es, avec l’algorithme ini-tialis ´e au signal initial (figure `a gauche). En ´evaluant la pr ´e-image du premier axe principal de l’ACP- `a-noyaux, nous obtenons la caract ´eristique extraite (figure `a droite).

des observations, qui est, l’espace des signaux ´etudi ´es. Ses signaux ont des composantes n ´egatives1 Nous appliquons la technique de pr ´e-image sous contrainte de non-n ´egativit ´e sur les coefficients. Le noyau Gaussien est utilis ´e, avec une largeur de bande d ´efinie `aσ = 500, et la valeur du pas fix ´ee `a

η= 0.1. Nous ´etudions l’influence de l’initialisation de l’algorithme, selon deux initialisations diff ´erentes. Tout d’abord, l’algorithme est initialis ´e `a des donn ´ees al ´eatoires, soitx(0)sans perte de g ´en ´eralit ´e, et le signal d’initialisation est illustr ´e `a la Figure2.4(figure `a gauche). Cette valeur correspond `a initialiser

Documents relatifs