• Aucun résultat trouvé

Séparation d'un mélange sous-déterminé de sources par simulation stochastique

N/A
N/A
Protected

Academic year: 2021

Partager "Séparation d'un mélange sous-déterminé de sources par simulation stochastique"

Copied!
5
0
0

Texte intégral

(1)

HAL Id: hal-00456195

https://hal.archives-ouvertes.fr/hal-00456195

Submitted on 17 Apr 2019

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Séparation d’un mélange sous-déterminé de sources par

simulation stochastique

Éric Le Carpentier

To cite this version:

Éric Le Carpentier. Séparation d’un mélange sous-déterminé de sources par simulation stochastique.

GRETSI, Sep 2005, Louvain la Neuve, Belgique. �hal-00456195�

(2)

Séparation d’un mélange sous-déterminé de sources par

simulation stochastique

Éric Le Carpentier

Institut de Recherche en Communications et Cybernétique de Nantes IRCCyN - 1, rue de la Noë - BP 92 101 - 44321 Nantes CEDEX 03

Eric.Le-Carpentier@irccyn.ec-nantes.fr

Résumé –Nous proposons dans cet article un algorithme de Gibbs pour l’identification, la séparation et la déconvolution d’un mélange mono-capteur de sources i.i.d. mutuellement indépendantes régies par une loi de Bernoulli-Gauss, et filtrées linéairement. Il s’agit d’une étude préparatoire, l’objectif à moyen-terme étant l’analyse des signaux électromyographiques pour le diagnostic des pathologies neuro-musculaires. L’extension au cas multi-capteur (mélange convolutif) est immédiate.

Abstract – This paper deals with the derivation of a Gibbs algorithm for mixture separation and deconvolution, when the observed signal is a sum of linear filtering of mutually independant Bernoulli-Gauss i.i.d. sequences. This is a first step towards electromyographic signals analysis, for automatic diagnosis purpose. The extension to multi-sensors case is straightforward.

1

Introduction

Soit un signal scalaire à temps discret y = (yn)n∈N mo-délisable de la façon suivante : pour tout instant n :

yn = s X i=1 (h(i)∗ x(i))n+ wn = s X i=1 ` X d=0 h(i)d x(i)n−d+ wn

où les x(i), 1 ≤ i ≤ s sont des séquences aléatoires i.i.d. mutuellement indépendantes et suivant une loi de Ber-noulli-Gauss, les h(i)sont des réponses impulsionnelles de longueur finie ` + 1, et telles que h(i)0 = 1, ∗ dénote le produit de convolution, et w est un bruit additif gaussien, indépendant des x(i).

Ce modèle est apte à représenter, par exemple, des si-gnaux biomédicaux de type électromyographiques [1]. Ces signaux sont constitués d’une superposition d’ondelettes élémentaires, les potentiels d’unité motrice, se propageant le long des muscles. La forme de ces ondelettes corres-pond aux réponses impulsionnelles h(i), et les paramètres de la loi de Bernoulli-Gauss renseignent sur la probabilité d’apparition de telles ondelettes. Ces divers paramètres peuvent être utilisés pour caractériser et diagnostiquer cer-taines pathologies neuromusculaires.

L’objectif est donc l’estimation des réponses impulsion-nelles et des paramètres des lois de probabilité (identifica-tion), ainsi que la reconstruction des séquences x(i) (sépa-ration et déconvolution), à partir d’un enregistrement de longueur finie y1:N = (yn)1≤n≤N.

Un problème analogue a été traité par Sénécal et Am-blard, dans le cas d’un mélange instantané et déterminé de sources discrètes [2]. Dans le contexte convolutif, Cheng et al. propose une méthode de déconvolution de signaux sis-miques, dans un cas mono-source [3]. Dans les deux cas,

une approche de simulation bayesienne par MCMC est proposée [4]. Nous proposons dans cet article d’étendre les résultats de Cheng au contexte multi-source mono-capteur.

2

Approche bayesienne

Soit θ l’ensemble des paramètres à estimer, et soit ρ : θ 7→ ρ(θ) la densité de θ conditionnellement à l’observation y1:N. L’estimateur de l’espérance a posteriori s’écrit :

ˆ

θ = E {θ|y1:N} (1) =

Z

θ ρ(θ) dθ (2)

où E {} désigne l’espérance mathématique. Nous appro-chons cet estimateur par Monte-Carlo, en tirant T valeurs de θ suivant la loi de densité ρ.

ˆ θ ≈ 1 T T X t=1 θ(t) (3)

Pour effectuer cette opération, nous utilisons un algori-thme de Gibbs, qui consiste, lorsque le vecteur paramètre θ est scindé sous la forme (θ1, . . . , θd), à tirer récursivement chaque sous-paramètre θk conditionnellement à (θ`)`6=k. En pratique, il s’agit d’exprimer préalablement la densité ρ, puis d’isoler pour chaque k les termes dépendant de θk, les autres paramètres étant fixés. Par la règle de Bayes, on obtient ρ par la formule :

ρ(θ) = p(θ|y1:N) ∝ p(y1:N|θ) p(θ) (4) Il faut donc exprimer la densité de la mesure condition-nellement aux paramètres, ainsi que les a priori sur ces paramètres.

(3)

3

Formalisation

Posons g(., V ) la densité de la loi de Gauss centrée de variance-covariance V . La densité des sources s’écrit alors, pour tout n et pour tout i, en notant λ(i)1 le coefficient de mélange pour la ie source :

p(x(i)n |λ(i)1 µ(i)ν(i)) = 1 X k=0

λ(i)k g(x(i)n − µ(i)k , νk(i)) (5) avec :

λ(i)0 = 1 − λ(i)1 et µ(i)0 = q

ν0(i)= 0 (6) Et la densité du bruit additif s’écrit, si r est sa variance : p(wn|r) = g(wn, r) (7) Pour mener à bien les calculs, il est préférable de procéder à une augmentation de variable, en marquant les (x(i)n ) par la composante kn(i)∈ {0, 1} suivant laquelle x

(i) n a été tirée. La loi des variables marquées s’écrit donc :

p(x(i)n k(i)n1(i)ν1(i)λ(i)1 ) = λ(i) kn(i) g(x(i)n − µ(i) k(i)n , ν(i) k(i)n ) (8)

Le vecteur des paramètres à estimer vaut donc : θ = ((x(1:s)n )n, (k(1:s)n )n, h(1:s), r, µ(1:s)1 , ν1(1:s), λ(1:s)1 ) (9) avec n variant de 1 − ` à N , pour éviter toute troncature, comme le montre plus bas la formule 12.

La loi suivant laquelle il faudra tirer les paramètres s’écrit, en l’absence de tout a priori sur µ(1:s)1 , ν1(1:s), λ(1:s)1 : ρ(θ) ∝ p(y1:N|θ) p(θ) (10) ∝ p(y1:N|(x(1:s) n )n, (k (1:s) n )n, h (1:s), r) × p((x(1:s)n )n, (kn(1:s))n|µ (1:s) 1 , ν (1:s) 1 , λ (1:s) 1 ) (11) Posons : n= yn− s X i=1 ` X d=0 h(i)d x(i)n−d (12) Comme fait classiquement en filtrage linéaire, on obtient facilement que le premier terme de l’équation 11 s’écrit :

p(y1:N|(x(1:s) n )n, (k (1:s) n )n, h (1:s), r) (13) = N Y n=1 pwn|r(n) (14) = N Y n=1 g(n, r) (15) D’autre part, en tirant parti de la mutuelle indépendance des sources, et de leur caractère i.i.d.

p((x(1:s)n )n, (k(1:s)n )n|µ1(1:s), ν1(1:s), λ(1:s)1 ) (16) = s Y i=1 N Y n=1−`

p(x(i)n , k(i)n1(i), ν1(i), λ(i)1 ) (17)

= λ(i) k(i)n g(x(i)n − µ (i) kn(i) , ν(i) kn(i) ) (18) On obtient finalement : ρ(θ) ∝ N Y n=1 g (n, r) × s Y i=1 N Y n=1−` λ(i) k(i)n g(x(i)n − µ(i) k(i)n , ν(i) kn(i) ) (19)

4

Lois conditionnelles

Le calcul des densités conditionnelles consiste alors à ex-hiber, dans la formule 19, les termes dépendant de chaque paramètre, les autres étant fixés.

4.1

Paramètres de mélange λ

(i)1

En isolant les termes de la formule 19 dépendant de λ(i)1 , on obtient (les produits et sommes sur n portent sur l’intervalle {1 − `, . . . , N }) : ρ(λ(i)1 |reste) ∝Y n λ(i) k(i)n (20) ∝ (1 − λ(i)1 )N +`−Pnk (i) n (i) 1 ) P nk (i) n (21)

Il faut donc tirer λ(i)1 suivant une loi beta, soit BeP nk (i) n + 1, N + ` −Pnk(i)n + 1  .

4.2

Moyennes µ

(i)1

En isolant les termes de la formule 19 dépendant de µ(i)1 , on obtient (les produits et sommes sur n portent sur l’intervalle {1 − `, . . . , N }) : ρ(µ(i)1 |reste) ∝ N Y n k(i)n =1

g(x(i)n − µ(i)1 , ν1(i)) (22)

∝ exp " − 1 2ν1(i) X n

k(i)n (x(i)n − µ(i)1 ) 2 # (23) ∝ exp  − P nk (i) n 2ν1(i) µ(i)1 − P nk (i) n x(i)n P nk (i) n !2  (24)

Il faut donc tirer µ(i)suivant une loi normale, soit N P nk (i) n x (i) n P nk (i) n , ν (i) 1 P nk (i) n  .

4.3

Variances ν

1(i)

En isolant les termes de la formule 19 dépendant de ν1(i), on obtient (les produits et sommes sur n portent sur l’intervalle {1 − `, . . . , N }) : ρ(ν1(i)|reste) ∝ N Y n k(i) n =1

g(x(i)n − µ(i)1 , ν1(i)) (25)

∝ 1 ν 1 2 P nk (i) n 1 exp " − 1 2ν1(i) X n k(i)n (x(i)n − µ (i) 1 ) 2 # (26)

Il faut donc tirer ν(i)suivant une loi gamma inverse, soit IG1 2 P nk (i) n − 1,12 Pnk (i) n (x (i) n − µ (i) 1 )2  .

4.4

Variance r

En isolant les termes de la formule 19 dépendant de r, on obtient (les produits et sommes sur n portent sur

(4)

l’intervalle {1, . . . , N }) : ρ(r|reste) ∝ Y n g(n, r) (27) ∝ 1 rN2 exp " −1 2r X n 2n # (28)

Il faut donc tirer r suivant une loi gamma inverse, soit IG(N 2 − 1, 1 2 P n 2 n).

4.5

Réponses impulsionnelles h

(i)

Définissons les vecteurs suivants :

y =    y1 .. . yN     =    1 .. . N    x (i)=     x(i)1 .. . x(`)N     h(i)=     h(i)1 .. . h(i)`     (29) ainsi que les matrices Toeplitz circulantes suivantes :

X(i)=        x(i)0 . . . x(i)1−` .. . . .. ... .. . . .. x(i)0 x(i)N −1 . . . x(i)N −`        (30)

L’équation 12 peut alors s’écrire sous forme vectorielle :

 = y −X j x(j)−X j X(j)h(j) (31) = y −X j x(j)−X j6=i X(j)h(j) | {z } ˜ (i) −X(i)h(i) (32)

Le terme ˜(i) ne dépend pas de h(i). En isolant, dans la formule 19, les termes dépendant de h(i), on obtient :

ρ(h(i)|reste) ∝Y n g(n, r) (33) ∝ exp " −1 2r X n 2n # (34) ∝ exp  −1 2r T  (35) ∝ exp  −1 2r(˜ (i)

− X(i)h(i))T(i)− X(i)h(i))

 (36)

En faisant apparaître les carrés nécessaires, on obtient que h(i)doit être tiré suivant une loi normale, soit

N X(i)TX(i)−1X(i)T˜(i), r X(i)TX(i)−1

4.6

Entrées marquées (x

(i)n

, k

n(i)

)

Rappelons que n doit varier ici de 1−` à N . Définissons, en complément des vecteurs définis en 29, les vecteurs sui-vants, à N + ` lignes : ¯ x(i)=     x(i)1−` .. . x(i)N     (37)

ainsi que les matrices Toeplitz circulantes suivantes, à N lignes : H(i)=     h(i)p . . . 1 0 . .. . .. 0 h(i)p . . . 1     (38)

En outre, nous noterons H(i)n la necolonne de H(i). L’équa-tion 12 peut alors s’écrire sous la nouvelle forme vecto-rielle :  = y −X j H(j)x¯(j) (39) = y −X j6=i H(j)x¯(j)− H(i)x¯(i) (40) = y −X j6=i H(j)x¯(j) X m6=n H(i) mx (i) m | {z } ¯ (i) −H(i) n x (i) n (41)

Le terme ¯(i) ne dépend pas de x(i) n et k

(i)

n . En isolant, dans la formule 19, les termes dépendant de x(i)n et k

(i) n , on obtient :

ρ(x(i)n , kn(i)|reste) (42) ∝ N Y m=1 g(m, r) g(x(i)n − µ (i) k(i)n , ν(i) k(i)n ) λ(i) k(i)n (43)

∝ g(, rIN) g(x(i)n − µ(i) k(i)n , ν(i) k(i)n ) λ(i) kn(i) (44) ∝ g(¯(i)− H(i)

n x(i)n , rIN) g(x(i)n − µ (i) k(i)n , ν(i) k(i)n ) λ(i) k(i)n (45)

En faisant apparaître les carrés nécessaires, le premier terme conduit à la densité de la loi de Gauss de moyenne ¯ µ(i)n et de variance ¯ν (i) n par rapport à x (i) n , définies par : ¯ µ(i)n = H (i)T n ¯ (i) n H(i)T n H (i) n ¯ νn(i)= r H(i)T n H (i) n (46)

La densité conditionnelle s’écrit donc, en utilisant les règles de produit de densités de Gauss :

ρ(x(i)n , kn(i)|reste) (47) ∝ g(x(i)n − ¯µ(i)n , ν(i)n ) g(x(i)n − µ(i)

k(i)n , ν(i) k(i)n ) λ(i) kn(i) (48) ∝ g  x(i)n − ¯ νn(i)µ(i) k(i)n + ν(i) k(i)n ¯ µ(i)n ν(i) k(i)n + ¯νn(i) , ν(i) k(i)n ¯ νn(i) ν(i) k(i)n + ¯νn(i)  × g(µ(i) kn(i) − ¯µ(i)n , ν(i) k(i)n + ¯νn(i)) λ(i) kn(i) | {z } ¯ λ(i) kn(i) (49)

L’étiquette kn(i)doit donc prendre la valeur 1 avec la pro-babilité λ¯

(i) 1

¯

λ(i)0 +¯λ(i)1 , 0 avec la probabilité ¯ λ(i)0 ¯ λ(i)0 +¯λ(i)1 . x (i) n est ensuite tirée suivant une loi normale, soit

N ¯ ν(i) n µ (i) k(i)n +ν(i) k(i)n ¯ µ(i) n ν(i) k(i)n +¯ν(i)n , ν(i) k(i)n ¯ ν(i) n ν(i) kn(i) +¯νn(i) ! . On constate

immédiate-ment que dans le cas Bernoulli-gaussien, si k(i)n prend la valeur 0, x(i)n est obligatoirement nul.

(5)

−500 0 50 100 150 200 250 300 1

2 3

Entrée 1: bleu estimé, rouge réelle

0 2 4 6 8 10 12 14 16 18 20 −1 −0.5 0 0.5 1

Réponse impulsionnelle 1: bleu estimé, rouge réelle

−50 0 50 100 150 200 250 300

−2 0 2 4

Entrée 1 convoluée: bleu estimé, rouge réelle

−50 0 50 100 150 200 250 300 −1 0 1 2 3

Entrée 2: bleu estimé, rouge réelle

0 2 4 6 8 10 12 14 16 18 20 −1 −0.5 0 0.5 1

Réponse impulsionnelle 2: bleu estimé, rouge réelle

−50 0 50 100 150 200 250 300

−2 0 2 4

Entrée 2 convoluée: bleu estimé, rouge réelle

Fig. 1 – Deux entrées de Bernoulli-Gauss, une sortie, bruit 5dB

5

Simulations

Sur la figure 1, sont représentées les résultats dans le cas de 2 sources bernoulli-gaussiennes, dans le cas où les ondelettes h(i)sont de longueur ` = 20. Sont tracées, pour chaque source i, la séquence x(i), l’ondelette h(i), et le fil-trage h(i)∗ x(i), dans leurs versions simulée (◦ ou pointillé) et reconstruite (trait plein).

Simulé Estimé Bruit √r = 0.0489 √r = 0.0546 Entrée 1 λ = 0.0750 µ1= 1.105 ν1= 0.346 λ = 0.0638 µ1= 1.178 ν1= 0.231 Entrée 2 λ = 0.0562 µ1= 1.237 ν1= 0.490 λ = 0.0546 µ1= 1.233 ν1= 0.637

6

Conclusion et perspectives

Les résultats en simulation semble démontrer la faisa-bilité d’une approche de type MCMC pour la séparation de sources bernoulli-gaussiennes filtrées linéairement, pour lesquelles on ne dispose que d’un seul mélange. Les résul-tats peuvent s’étendre au cas multi-sortie (sous-déterminé ou non) dans le cadre des mélanges convolutifs. L’exten-sion au cas de filtres à réponse impulL’exten-sionnelle infinie, voire à non minimum de phase (en utilisant la formalisation gé-nérale des modèles ARMA [5]), est envisagée. En ce qui concerne les signaux électromyographiques, il est néces-saire de compliquer le modèle, car l’hypothèse de sources indépendantes s’avère abusive ; il est en effet nécessaire de prendre en compte un temps de latence entre les instants de mise à feu de chaque source ; l’implantation implique alors une modification de l’algorithme décrit ci-dessus, qui devra réaliser une mise à jour de type Metropolis-Hastings.

Remerciements

Je tiens à remercier Nicolas Bourdaud, pour l’aide pré-cieuse qu’il m’a apportée lors de son stage de DEA à l’IRC-CyN, en 2004.

Références

[1] C.J. De Luca. Physiology and Mathematics of Myoe-lectric Signals. IEEE Transactions on Biomedical En-gineering, 26(6) :313–325, juin 1979.

[2] S. Sénécal et P.O. Amblard. Séparation de sources par méthodes de simulation. 18e colloque GRETSI, volume 2, pages 319–322, Toulouse, France, septembre 2001.

[3] Q. Cheng, R. Chen, et T.H. Li. Simultaneous wave-let estimation and deconvolution of reflection seismic signals. IEEE Transactions on geoscience and remote sensing, 34(2) :377–384, mars 1996.

[4] C.P. Robert. The bayesian Choice. Springer, 2001. [5] O. Shalvi et E. Weinstein. Maximum likelihood and

lo-wer bounds in system identification with non-gaussian inputs. IEEE Trans. on Inform. Theory, 40(2) :328– 339, 1994.

Figure

Fig. 1 – Deux entrées de Bernoulli-Gauss, une sortie, bruit 5dB

Références

Documents relatifs

Nous pouvons alors utiliser une portion de la fibre optique (20 m) permettant d’estimer une température proche de celle de l’air en surface de la digue en

Apr`es avoir pr´esent´e un ´etat de l’art sur le principe du probl`eme de la s´eparation de sources, nous allons d´ecrire dans cette section, quelques approches de s´eparation dans

Les experiences sur trois methodes de decomposition par- cimonieuse suggerent que la separation de sources sur la reunion de deux bases adaptees est possible a condition que les

En revanche, lors- qu’une perturbation est introduite sur la matrice de m´elange, les m´ethodes MPC1 et DUET (attribution `a une seule direc- tion) s’av`erent plus robustes que

Le modèle de mélange linéaire (2.2) suggère que la radioactivité contenue dans la séquence d’images peut être expliquée presque entièrement (à l’erreur près) par

Ce probl`eme peut alors paraˆıtre plus facile que la s´eparation aveugle puisque la forme des sources est impos´ee, mais les sources param´etriques sont souvent corr´el´ees, surtout

The results show that the MinimalPart algorithm is more efficient whenever the number of possible generalizations for a component is high. It also shows that the num- ber

La filtration permet de retirer les particules solides en suspension dans l'eau et d'obtenir un liquide homogène.. La filtration est souvent utilisée en complément d'une