• Aucun résultat trouvé

L’OPCA est un terme introduit par Kung et Diamantaras [97], comme une généra- lisation de la PCA. Elle correspond à la décomposition généralisée des valeurs propres

d’une paire de matrices de covariance de la même manière que la PCA correspond à la décomposition des valeurs propres d’une seule matrice de covariance. La fonction coût maximisée par l’OPCA est le rapport signal à signal entre deux signaux u et v de dimension n : JOP CA(w) = EwTu2 E (wTv)2 = wTR uw wTR vw, (3.53)

où Ru = E{uuT} et Rv = E{vvT}, w = e1 du JOP CA est appelé composante prin-

cipale orientée et elle représente la valeur propre généralisée de la matrice [Ru, Rv]

correspondant à la valeur propre maximum généralisée λ1. Comme Ru, et Rv sont

symétriques toutes les valeurs propres généralisées sont réelles et, par conséquent, elles peuvent être organisées par ordre décroissant, comme dans le cas du PCA. Les vecteurs propres généralisés e1, e2, ..., en, seront appelés deuxième, troisième, ..., n`eme compo-

santes principales orientées. Tous ces vecteurs maximisent la fonction coût JOP CA

soumis à la contrainte orthogonalité suivante :

eTi Ruej = eTi Rvej = 0, i = j. (3.54)

Le terme "orientée" est justifié par le fait que e1 est semblable à la composante

principale ordinaire pour u à l’exception qu’elle est orientée vers la direction la moins principale de v. En d’autres termes, la distribution de v "conduit" e1dans la direction

du minimum d’énergie de v. Il est clair que si la distribution de v est isotrope dans toutes les directions, c’est-à-dire que v est un bruit blanc, alors la direction est absente et les composantes principales orientées sont identiques à celles du PCA ordinaire. Ceci est facilement vérifié mathématiquement en posant : Rv = I dans JOP CA en

l’identifiant à la fonction coût maximisée par la PCA.

3.9 Conclusion

Dans ce chapitre nous avons présenté le principe des méthodes de décomposition en sous-espaces appliquées à la séparation de sources. Ces méthodes sont : PCA, OPCA et ICA.

Nous avons tout d’abord, présenté le principe de l’analyse en composantes princi- pales linéaires. L’idée de base du PCA est de réduire la dimension de la matrice des données, en retenant le plus possible les variations présentes dans le jeu de données de départ. Cette réduction ne sera possible que si les variables initiales ne sont pas indépendantes et ont des coefficients de corrélation entre elles non nuls. Ces variables initiales sont transformées en de nouvelles variables, appelées composantes principales.

Elles sont obtenues par combinaisons linéaires des précédentes et sont ordonnées et non corrélées entre elles.

L’analyse en composantes principales cherche à identifier les vecteurs propres or- thonormaux et les valeurs propres de la matrice de dispersion des variables originelles. Les vecteurs propres orthonormaux sont utilisés pour construire les composantes prin- cipales, et les valeurs propres sont les variances des composantes principales corres- pondantes.

Un modèle PCA est défini globalement par la matrice des premiers vecteurs propres de la matrice de corrélations des données. Cette dernière permet à la fois de définir la projection permettant d’avoir les composantes principales et la projection inverse permettant d’estimer les données.

Cependant, toutes les approches antérieures ont toujours utilisé deux étapes : un prétraitement comme première étape suivie par une deuxième méthode d’analyse telle que la PCA. L’approche OPCA a l’avantage de ne pas nécessiter de prétraitement. Ce dernier est implicitement intégré dans le critère du rapport signal à signal qui est optimisé par l’algorithme OPCA. En outre, cette approche est itérative et améliore les performances en combinant plusieurs décalages dans le temps pour l’estimation des paramètres de mélange.

L’ICA est un concept général avec un très grand nombre d’applications en calcul neuronal, traitement du signal, et des statistiques. L’ICA donne une représentation, ou une transformation des données multidimensionnelles qui semble être bien adaptée pour le traitement de l’information. Les composantes de la représentation doivent être indépendantes entre elles, et en même temps elles doivent être «non-gaussiennes».

L’ICA pourrait être considérée comme un prolongement de l’analyse en compo- santes principales. Dans ce cas-ci, la décorrelation des observations est remplacée par l’hypothèse d’indépendance des sources. Elle utilise des moments d’ordre supérieur à deux dans le but d’obtenir une indépendance statistique des sources et ainsi, lever l’in- détermination qui existe si l’on ne considère que la PCA. C’est une méthode liée à la théorie de l’information et en particulier au concept d’information mutuelle. Chacune des composantes vit dans un certain sous-espace linéaire et l’on requiert l’indépendance linéaire de ces sous-espaces et l’indépendance statistique de ces composantes.

Le principe de la séparation aveugle de source est très intéressant avec l’utilisation de l’algorithme ICA puisqu’aucune forte hypothèse sur les signaux n’est nécessaire à part l’existence de sources indépendantes.

Séparation aveugle de sources

pour les mélanges instantanés

4.1 Introduction

Au cours de ces dernières décennies, beaucoup d’attention a été accordée à la séparation aveugle des sources. Les processus de mélange sont inconnus et les enregis- trements de ces mélanges sont disponibles. Dans plusieurs situations, il est souhaitable de récupérer toutes les sources de ces mélanges enregistrés, ou du moins d’isoler une source particulière. En outre, il est utile d’identifier les processus de mélange lui-même pour révéler des informations sur le système de mélange physique. L’objectif de la séparation aveugle de source est d’extraire les signaux de la source originale de leurs mélanges et éventuellement d’estimer le canal inconnu du mélange en utilisant unique- ment les informations du signal observé sans aucune connaissance « a priori » sur les signaux source et sur le mélange. Les techniques de BSS peuvent être généralement divisées en deux, soit en utilisant les méthodes du second ordre [32] ou en utilisant des statistiques d’ordre supérieur [114]. Dans ce chapitre, nous présentons la méthode uti- lisant les statistiques d’ordre supérieur (en anglais : HOS, High Order Statistics), que nous avons développé pour la séparation des signaux de parole. Puis, nous décrivons la mise en œuvre de la méthode OPCA, une méthode utilisant les statistiques d’ordre deux, que nous proposons pour la séparation des signaux de parole pour la première fois.

Les résultats d’une étude comparative sur les trois approches de séparation aveugle de signaux de parole citées ci-dessus, seront présentés. Les trois algorithmes, OPCA, HOS et Fast-ICA sont, comparés de façon objective en termes de rapport Signal-à- Interférence (SIR) et PESQ, et de façon subjective en termes de MOS. Les résultats des expériences ont été effectués en utilisant la base de données « TIMIT ».

4.2 Principe de la séparation aveugle de sources