• Aucun résultat trouvé

3.2 Analyse en composantes principales : PCA

3.3.2 Algorithme OPCA de K I Diamantaras et Th Papadimitriou

L’OPCA est une version étendue de la technique classique d’analyse en composante principale. Les auteurs ont développé un algorithme qui utilise les statistiques d’ordre deux. Comme la PCA, qui correspond à la décomposition en valeurs propres d’une seule matrice de covariance, selon les auteurs, l’OPCA correspond à la décomposition d’une paire de matrices de variance-covariance en valeurs propres. Ainsi, l’objectif de cette technique est de maximiser la fonction de coût donnant le rapport entre une paire de signaux n-dimensionnels u et v :

JOP CA(w) = E(w Tu)2 E(wTv)2 = wTRuw wTR vw, (3.16) où u, v sont deux vecteurs signal, Ru et Rv sont respectivement leurs matrices de

covariance et w le « maximiseur » de cette fonction de coût, on l’appelle principale composante orientée (premier vecteur propre).

La PCA d’un vecteur aléatoire x(k) ∈ Rm est obtenu en retrouvant un système de

coordonnées réalisant une opération d’orthogonalisation de sorte que les composantes de x dans ce système deviennent décorrélées, orthogonales et ordonnées en énergie croissante. Afin d’appliquer l’OPCA, l’idée des auteurs est de considérer un nouveau signal (y) issu du filtrage des observations par un filtre h = [h0, ..., hM] :

y(k) =

M



m=0

hmx(k − lm). (3.17)

Ensuite, sous l’hypothèse de sources colorées avec différentes densités spectrales, ils cherchent la relation entre les observations x et leurs filtrés y à partir de leur matrice de covariance au retard l0 = 0. Ainsi, par des substitutions ils trouvent la relation

suivante : Ry(0)A−T = Rx(0)A−TD, (3.18) où D = M  p,q=0

hphqRs(lp− lq) ( lp, lq sont deux retard). (3.19)

Désormais, le problème revient à appliquer l’OPCA sur la paire {Ry(0), Rx(0)}

réalisant leur décomposition généralisée en valeurs propres. Les valeurs propres géné- ralisées de ce problème correspondront aux éléments diagonaux de D et les colonnes de la matrice A−T seront données par les vecteurs propres généralisés. Le détail de la

méthode OPCA sera donné dans le chapitre quatre.

3.4 Analyse en Composantes Indépendantes : ICA

L’essor des méthodes à base d’analyse en composantes indépendantes (en an- glais ICA : Independent Components Analysis), en particulier depuis l’article « An information-maximization approach to blind separation and blind deconvolution » [73] de Bell et Sejnowski en 1995, en font une technique de base incontournable pour la séparation de source. Nous commencerons par présenter, dans le cadre de mélanges linéaires et instantanés, le cas où il y a autant de capteurs que de sources. Nous nous intéresserons ensuite aux cas de mélanges convolutifs.

L’étude de l’analyse en composantes indépendantes représente une introduction dans le cadre du problème posé dans ce mémoire de thèse, et elle est nécessaire pour établir des repères concernant notre travail et d’autre part en raison de son succès pour certains problèmes de séparations de sources, en pratique.

Depuis plus d’une dizaine d’années, une petite communauté du domaine du trai- tement du signal développe des algorithmes pour l’analyse en composantes indépen- dantes et la séparation de sources. Il s’agit de méthodes traitant des observations vec- torielles afin d’en extraire des composantes linéaires qui soient aussi indépendantes que possible. Cette méthode a des liens évidents avec l’analyse de données (voir ci-dessous une comparaison entre ICA et PCA), avec les méthodes neuromimétiques (codage des flux d’information) et l’analyse harmonique computationnelle (recherche des "bonnes bases” de représentation).

L’analyse en composantes indépendantes est un prolongement de l’analyse en com- posantes principales, mais dans laquelle la décorrélation des observations est remplacée par une hypothèse plus forte qui est l’indépendance des sources. C’est une méthode d’analyse de données connue dans la séparation aveugle de sources appliquée à divers domaines.

L’exemple emblématique du "cocktail party" (Figure 3.3) illustre le point de vue de la séparation de sources : on enregistre N conversations simultanées en plaçant N microphones bien répartis dans la pièce, chacun enregistrant une superposition de toutes les conversations, mais un peu plus nettement celles qui se trouvent à proximité directe. Le problème est de retrouver la voix de chacune des personnes débarrassée des autres voix qui la perturbe donc isoler chacun des discours pour comprendre ce qui s’est dit.

F. 3.3 — Problème du "cocktail party".

L’ICA permet de résoudre ce problème en supposant que les personnes qui parlent ont des discours indépendants. Ces discours sont considérés comme des signaux aléa- toires statistiquement indépendants, ne tenant compte ni de la sémantique de ces discours ni de l’acoustique. L’ICA formulé ainsi, considère uniquement des superpo- sitions linéaires de signaux indépendants, résultant du mélange par A. C’est souvent une restriction acceptable ; par exemple les systèmes de transmission sont des milieux

linéaires où les signaux agissent comme s’ils étaient présents indépendamment les uns des autres, ils n’interagissent pas mais s’additionnent [99].

D’autres formulations prennent en compte des mélanges dits post non linéaires [100] [101] [102] issus de transformations monotones de mélanges linéaires s’exprimant par X = f(AS), f de composantes monotones et A inversible. Il existe aussi des modèles convolutifs, où le mélange par A n’est pas instantané. Enfin, nous pouvons aussi considérer des modèles bruités.

3.4.1 Définition

- On observe grâce à plusieurs capteurs des sources qui sont «mélangées».

- Le mélange a lieu par l’intermédiaire d’une matrice inconnue : la matrice de mélange A tel qu’indiqué dans les équations 3.7 et 3.8.

Le modèle statistique dans l’équation 3.8 est appelée analyse en composantes indé- pendantes. Ces dernières ne peuvent pas être directement observées. Aussi la matrice de mélange est supposée non connue. Tout ce que nous observons c’est un vecteur aléa- toire x et nous devons estimer A et s à partir de ce vecteur, avec la seule connaissance a priori : l’indépendance statistique. Nous devons supposer aussi que les composantes ont des distributions non-gaussiennes.