A.3.1 Resultat theorique
La condition n ecessaire et susante d'identiabilit e (A.1) d epend des coecients de corr elation des signaux sources. Par cons equent, il est impossible a priori de v erier si les sources sont \s eparables" ou pas a partir de l'ensemble des ma- trices de corr elation des signaux observ es. Cependant, il est possible de v erier a posteriori si les sources ont et e \s epar ees" ou pas. Nous avons le r esultat suivant : Theoreme A.4 Soit τ1 < τ2 < · · · < τK avec K ≥ 1 les retards temporels et z(t) =
Bx(t). On suppose que B est une matrice tel que z(t) satisfait2 l' equation (A.2) 2En raison de l'ind etermination inh erente du probl eme de SAS, on suppose sans perte de
pour tous 1 ≤ i 6= j ≤ N et k = 1, · · · , K. Alors il existe une matrice de permutation P tel que pour k = 1, · · · , K.
E[z(t + τk)z(t)H] = P Rs(τk)PT
En d'autres termes, les entr ees de z(t) , P z(t) ont les m^eme coecients de corr elation que ceux de s(t) aux retards τ1, · · · , τK, c'est a dire que E[zi(t +
τk)zi(t)∗] = ρi(τk)pour k = 1, · · · , K et i = 1, · · · , N.
Demonstration : voir la d emonstration dans l'annexe B.
En se servant du th eor eme A.4, l'existence de la condition (A.1) peut ^etre v eri ee en utilisant une approximation des coecients de corr elation rii(τk) , E[zi(t +
τk)zi(t)∗]. Il est important de pr eciser que m^eme si l' equation (A.2) est valide, cela
ne signie pas que les signaux sources ont et e s epar es. Trois situations peuvent se pr esenter :
1. pour toutes les paires (i, j), les vecteurs de corr elationρeietρejcalcul es a partir
de z(t), sont lin eairement ind ependants ; alors on est s ^ur que les sources ont et e s epar ees et que le signal z(t) = s(t) a une ind etermination pr es. En fait, le test de la condition d'identiabilit e est equivalent au test d'ind ependance par mesure des angles entre les vecteurs ρei et ρej pour tout 1 ≤ i 6= j ≤ N.
Plus l'angle entre ρei et ρej est grand, meilleure est la qualit e de s eparation
(voir l'analyse de performance faite par Belouchrani et al. dans [31]),
2. pour toutes les paires (i, j), les vecteurs de corr elation ρei et ρej sont
lin eairement d ependants. Ainsi les sources n'ont pas et e s epar ees et z(t) est toujours une combinaison lin eaire des signaux s(t),
3. quelques paires (i, j) parmi l'ensemble de toutes les paires, sont telles que les vecteurs ρei etρej sont lin eairement d ependants. Alors les sources seront
s eparables par blocs.
Maintenant, ayant seulement une seule r ealisation du signal sous la main, nous proposons d'utiliser une technique de r e echantillonnage pour evaluer la statis- tique n ecessaire pour la mise en oeuvre de la proc edure de test.
A.3.2 Test
d'identiabilite
utilisant
des
techniques
de
reechantillonnage
Notons, qu'en pratique les coecients de corr elation des signaux sources sont calcul es a partir d'un ensemble de donn ees nies et bruit ees. En raison des eets
Tab. A.1 { Test d'identiabilit e utilisant les techniques de r e echantillonnage 1. Estimer la matrice de s eparation B et z(t) , Bx(t) en utili-
sant un algorithme existant de SAS exploitant les statistiques d'ordre deux (par exemple SOBI [31]).
2. Pour chaque composante zi(t), estimer le vecteur normalis e
correspondantρei.
3. Calculer le produit scalaire Ebij = |ρeiρeTj| pour chaque paire
(i, j)pour tous 1 ≤ i 6= j ≤ N.
4. Estimer σb(i,j) la d eviation standard de Ebij en utilisant une
technique de r e echantillonnage.
5. Choisir α(i,j) en fonction de l'intervalle de conance. Par
exemple pour avoir un intervalle de conance egal a 99.7% on choisit α(i,j)= 3σb(i,j), et on compare |Ebij− 1| a α(i,j)an de
tester si les sources i et j ont et e s epar ees ou pas.
communs du bruit et de la taille des observations, il est impossible d'obtenir les coecients de corr elation exacts des sources an evaluer la condition d'identia- bilit e. La condition d'identiabilit e devrait ^etre test ee en utilisant un certain seuil
α, c'est a dire que nous d eciderons que les vecteurs de corr elation ρei et ρej sont
lin eairement ind ependants si |ρeiρe T j| − 1 > α.
An de trouver α on exploite le fait que l'erreur d'estimation de ρeiρe
T
j est asymp-
totiquement Gaussienne3 et par cons equent, on peut etablir un intervalle de
conance d'une telle variable en fonction de sa variance. Cet algorithme peut ^etre r esum e par le tableau A.1.
A.3.3 Techniques de reechantillonnage : jackknife
Dans plusieurs applications en traitement du signal, on est int eress e par l'esti- mation d'un certain nombre de param etres inconnus d'un processus al eatoire, en
3Plus pr ecis ement, on peut prouver que l'erreur estim ee √T δ(
e ρiρe
T
j) est asymptotiquement
(pour une taille d'observation T assez grande) Gaussienne avec une moyenne nulle et une variance nie.
utilisant un ensemble d'observations ni. On est aussi int eress e par la distribu- tion echantillonn ee des estimateurs, de sorte que les moyennes, les variances, et les cumulants respectifs puissent ^etre calcul es.
Le bootstrap [148] a et e introduit par B. Efron [149] comme une approche pour calculer les intervalles de conance de param etres dans des circonstances o u les m ethodes standard ne peuvent pas ^etre appliqu ees. Le bootstrap a par la suite et e utilis e pour r esoudre plusieurs autres probl emes qui seraient trop compliqu es pour l'analyse statistique traditionnelle. Avec des mots simples, le bootstrap fait avec un ordinateur ce que l'exp erimentateur ferait en pratique, c'est a dire si c' etait possible, il ou elle r ep eterait l'exp erience. Avec le bootstrap, les observations sont al eatoirement r eassign ees, et les estim ees recalcul ees. Ces assignations et calculs sont faits des centaines ou des milliers de fois et trait es comme des exp eriences r ep et ees.
Le jackknife [150] est une autre technique de r e echantillonnage pour l'estimation de la d eviation standard. Comme alternative au bootstrap, la m ethode jackknife peut ^etre pens ee comme le tirage de n r ealisations de taille (n − 1) sans rempla- cement de l' echantillon original de taille n [150].
Supposons que nous avons l' echantillon X = {X1, X2, . . . , Xn} et ϑb est une es-
tim ee calcul ee a partir de l' echantillon X . La m ethode jackknife est bas ee sur des echantillons amput es d'une observation pour chaque r ealisation,
X(i)
= {X1, X2, . . . , Xi−1, Xi+1, . . . , Xn}
avec i = 1, 2, . . . , n, appel es echantillons jackknife. Cet ie echantillon jackknife
consiste en l'ensemble des donn ees avec la ieobservation supprim ee. Pour chaque
ie echantillon jackknife, on calcule la ie estim ee jackknife ϑb(i) de ϑ, i = 1, 2, . . . , n.
L'estimation jackknife de la d eviation standard de ϑbest d enie par : b σ = v u u u t n − 1 n n X i=1 bϑ(i)− 1 n n X j=1 b ϑ(j) 2 (A.3) Le jackknife est moins co ^uteux que le bootstrap, si n est inf erieur au nombre d'it erations utilis ees par le bootstrap pour l'estimation de la deviation standard puisque il requiert le calcul de ϑb seulement pour les n echantillons jackknife.
Par exemple, si 25 r e echantillonnages sont n ecessaires pour l'estimation de la d eviation standard avec le bootstrap, avec un echantillon de taille n = 10 il n'en faut que 10 pour le jackknife, alors il est clair que le jackknife sera moins co ^uteux que le bootstrap.
Tab. A.2 { Test d'identiabilit e utilisant la technique jackknife 1. Pour chaque signal zi = [zi(0), . . . , zi(T − 1)]T, engendrer T
vecteurs jackknife tel que z(j)
i = [zi(0), . . . , zi(j − 1), zi(j +
1), . . . , zi(T − 1)]T et j = 0, 1, . . . , T − 1.
2. Pour chaque vecteur jackknife z(j)
i , estimer le vecteur cor-
respondantρe
(j)
i .
3. Estimer la matriceEb telle que son el ement ij est d eni par b Eij = 1 T T −1 X k=0 hρe (k) i ,ρe (k) j i kρe (k) i kkρe (k) j k
o u h·, ·i d enote le produit scalaire.
4. Estimer la d eviation standard de Ebij par : b σ(i,j) = v u u u t T − 1 T T −1 X k=0 hρe (k) i ,ρe (k) j i kρe (k) i kkρe (k) j k − 1 T T −1 X l=0 hρe (l) i ,ρe (l) j i kρe (l) i kkρe (l) j k 2
An de tester la s eparabilit e des signaux estim es, nous avons opt e pour la m ethode jackknife an d'estimer la d eviation standard du produit scalaire Eij pour i, j =
1, 2, . . . , N. Ceci est fait selon les etapes donn ees dans le tableau A.2.
A.4 Discussion
Nous fournissons ici quelques commentaires importants an d'obtenir plus de lisibilit e sur la m ethode de test consid er ee ainsi que ses applications et extensions potentielles.
Qualite de la separation
L'analyse de performance asymptotique de SOBI tir ee de [31], montre que les per- formances de la s eparation de deux sources si et sj d ependent de l'angle entre les
vecteurs de corr elation respectivesρeietρej. Donc, la mesure de cet angle donne une
on peut utiliser la mesure de cet angle non seulement pour evaluer la s eparabilit e des deux sources, mais aussi pour garantir une qualit e de s eparation minimale. Le choix du seuil α(i,j) est par cons equent une question importante actuellement
a l' etude.
Procedure de separation a deux etapes
La m ethode de test peut ^etre incorpor ee dans une proc edure de s eparation a deux etapes o u la premi ere etape consiste en une m ethode de d ecorr elation au second ordre (SOBI). La deuxi eme etape serait une m ethode de s eparation bas ee sur les statistiques d'ordre sup erieur appliqu ee seulement quand le test indique un echec de la s eparation a la premi ere etape.
Separation partielle
Dans beaucoup de situations pratiques, on pourrait ^etre int eress e par seulement un ou quelque signaux sources. C'est le cas par exemple dans le probl eme de r eduction d'interf erence dans [151] ou dans des applications de surveillance de centrales electriques [152]. Dans ces situations, le r esultat d'identiabilit e par- tielle est d'un grand int er^et car il montre que le signal source d esir e peut ^etre extrait m^eme si une s eparation compl ete des sources ne peut pas ^etre r ealis ee. Statistiques d'ordre superieur
Nous pensons que des m ethodes de test semblable peuvent ^etre employ ees pour des m ethodes de SAS bas ee sur les statistiques d'ordre sup erieur, du moins pour des m ethodes de type JADE [43], qui sont bas ees sur la d ecorr elation d'ordre quatre.