• Aucun résultat trouvé

4.3 L'Analyse en Composantes Indépendantes

4.3.3 Dénition de l'ACI

Dénition : L'ACI propose un ensemble de méthodes basées sur les mêmes principes. Une dénition générale de l'ACI peut être la suivante [64] :

l'ACI d'un vecteur aléatoire x RN consiste à estimer le modèle génératif des données x=As, avec A RN×p, en déterminant une transformation linéaire s=Wx, avec W Rp×N, de telle manière que les composantes des Rp soient aussi indépendantes que possible par maximisation d'une fonction F(s)qui est une mesure de l'indépendance statistique.

Un modèle plus exacte de l'ACI introduit du bruit dans les mesures. An de simplier le problème, ce bruit est omis dans la suite de ce mémoire puisque le problème d'ACI sans bruit de mesure est assez complexe en lui-même. De plus, ce modèle sans bruit sut dans de nombreuses applications [66].

Les sourcessine sont pas observées directement. Leurs densités de probabilitéfi(si)ne sont évidem-ment pas connues car il est rare en pratique d'avoir une connaissance étendue de ces fonctions. Il est donc impossible en général d'utiliser la dénition de l'indépendance de l'équation (4.2) pour estimer des sources indépendantes.

Les méthodes d'ACI reposent donc sur une mesure d'indépendance qui reste à dénir. Les diérentes approches se diérencient par la mesure d'indépendance retenue et par la méthode d'optimisation choisie.

Mais toute méthode d'ACI repose sur les mêmes hypothèses et restrictions que nous allons répertorier dans le paragraphe suivant.

Hypothèses : Les composantes si, i ∈ {1, . . . , p}, sont supposées statistiquement indépendantes.

Cette hypothèse est fondamentale pour garantir l'estimation du modèle directx=Asde l'ACI.

Les composantes indépendantes doivent avoir des distributions non-gaussiennes. Toutes les informa-tions des variables aléatoires gaussiennes sont contenues dans la matrice de covariance dont l'exploitation peut conduire au mieux à la décorrélation. Or l'ACI exploite les informations contenues ailleurs que dans la matrice de covariance, notamment celles contenues dans les tenseurs dénis par les cumulants croisés.

Il s'avère qu'au plus une composante indépendante peut avoir une distribution gaussienne.

Le nombreN de composantes du vecteurxdoit être supérieur ou égal au nombrepde composantes indépendantes du vecteurs. Dans le cas contraire, le mélange est dit sous-déterminé et le problème n'est pas soluble sans connaissances a priori supplémentaires sur les sources puisque même si la matrice de

mélangeAest connue, elle n'est pas inversible.

Les méthodes d'ACI exploitées dans la suite de ce mémoire divisent le problème de séparation en deux, à savoir une étape d'identication de la matrice de mélangeAet une étape d'extraction des sources [13].

Mais d'autres méthodes telles que l'algorithme de Hérault et Jutten [70] mettent à jour les sorties en premier plutôt que les mélanges, mais elles ne seront pas utilisées ici. Dans la suite de ce mémoire, nous nous placerons dans le cas plus simple où le nombre de sources est inférieur ou égal au nombre de signaux mélanges observés.

La matrice de mélange Adoit être inversible c'est-à-dire que ses colonnes doivent être linéairement indépendantes. Les mélanges redondants peuvent être éliminés de l'analyse tout en s'assurant que le nombre de lignes deAreste supérieur ou égal à son nombre de colonnes pour éviter le cas sous-déterminé.

Sous ces hypothèses, le modèle de l'ACI présenté dans le paragraphe précédent est identiable. La matrice de mélangeAet le vecteur des sourcesssont ainsi estimables sur la seule connaissance du vecteur des observationsx. Mais quelques indéterminations inhérentes à la modélisation de l'ACI subsistent.

Indéterminations : Le modèle linéaire et instantané de l'ACI se réécrit facilement sous la forme : x=As=

Xp j=1

ajsj

où le vecteuraj représente laj-ème colonne de la matrice de mélangeA. Cette équation est strictement équivalente à :

x= Xp j=1

µ 1 αjaj

¶¡ αjsj

¢

où lesαj sont des constantes non nulles. Ainsi la multiplication d'une sourcesj par toute constante αj

peut être annulée par la division de la colonne correspondante aj de Apar la même constanteαj sans inuer sur les hypothèses posées sur le modèle de l'ACI. Cette indétermination traduit l'impossibilité d'estimer les énergies des composantes indépendantes. C'est pourquoi les sourcessj seront supposées être de variance unité, sans perte de généralité, c'est-à-dire queRs=E{(s−E{s})(s−E{s})T}=Ip oùIp

est la matrice identité de dimensionsp×p. Le signe de chaque composante est également impossible à déterminer puisque le choixαj =−1 est possible.

Le modèle de l'ACI reste valide sous la transformation linéaire suivante : x=As=AP−1Ps

où la matrice P est une matrice de permutation de dimensions p×p. Dans la somme Pp

j=1ajsj, les termes ajsj peuvent être permutés librement. L'ordre des composantes indépendantes n'est donc pas déterminable.

La prise en compte de ces deux indéterminations signie que les sources indépendantes ne sont extrac-tibles qu'à une matrice∆=DPprès, où la matriceDest diagonale, d'élémentsαj pourj ∈ {1, . . . , p}

4.3. L'Analyse en Composantes Indépendantes 121 et de rang plein, et la matricePest une matrice de permutation. Des prétraitements sur le vecteur des données, tels que le centrage et le blanchiment, permettent de s'aranchir de certaines indéterminations et de simplier le problème de séparation.

4.3.4 Prétraitements

4.3.4.1 Centrage

An de simplier la théorie et les algorithmes d'ACI, les composantes du vecteur des observationsx sont forcées à une moyenne nulle sans perte de généralité. Ceci est lié aux cumulants croisés et à leurs estimateurs qui sont d'expression beaucoup plus simple dans le cas de variables aléatoires centrées [72].

Cette étape est réalisée par une simple soustraction de la moyenne des diérentes composantes estimée à partir de leurs réalisations. Le vecteurxest ainsi transformé en :

xc=x−E{x}.

Par cette opération, les composantes indépendantes sont elles-aussi centrées puisque : E{sc}=A#E{xc}= 0

où le sigle#dénit l'inversion matricielle de Moore-Penrose, encore appelée pseudo inverse, qui est utilisée lorsque la matriceAn'est pas carrée. Lorsqu'elle est carrée, l'inversion matricielle classique est utilisée et l'équation s'écrit :E{sc} =A−1E{xc} = 0. La matrice de mélange A n'est pas modiée par cette opération qui peut donc toujours être appliquée aux données sans aecter l'estimation deA.

4.3.4.2 Blanchiment

Cette étape consiste à décorréler et à imposer une variance unité aux variables du vecteurxc. Cette transformation linéaire est réalisée en multipliantxcpar une matriceVde dimensionsp×Nan d'obtenir le vecteur

z=Vxc

de dimensions1où les composantes de zsont décorrélées et de variance unité, ce qui signie que la matrice de covariance dezvaut

Rz=E{zzT}=Ip (4.3)

oùIpest la matrice identité de dimensionsp×p.

Diverses méthodes ont été développées pour réaliser cette transformation et l'une des plus populaires est l'utilisation de l'ACP. La décomposition en valeurs propres de la matrice de covariance de xc est dénie par :

Rx=E{xcxcT}=EDET

où la matrice D est une matrice diagonale de dimensions N ×N dont les éléments diagonaux di avec i ∈ {1, . . . , N]sont les valeurs propres de la matriceRxet sont rangés par ordre décroissant, c'est-à-dire qued1≥d2≥. . .≥dΛ≥. . .. La matriceEde dimensionsN×N est la matrice orthogonale des vecteurs propres de la matriceRx. Dans le cas où le nombre de sources à estimer est plus petit que le nombre de signaux observés, c'est-à-dire dans le cas où p < N, et où le modèle est supposé sans bruit, seules pvaleurs propres sont non nulles. En présence de bruit, l'ACP permet de projeter les données dans un espace de dimension p engendré par les sources. Seules les ppremières valeurs propres et les vecteurs propres associés sont conservés. Notons D˜ et E˜ les versions tronquées respectives des matricesD et E. Les matricesD˜ etE˜ sont de dimensions respectivesp×pet N×p. En dénissant la matrice diagonale D˜12 de dimensionsp×ppar :

12 =



 d˜1

12

· · · 0 ... ... ...

0 · · · d˜p12





la matrice de blanchimentVest calculée par :

V=D˜12T (4.4)

et est eectivement de dimensionsp×N.

Observons les conséquences de ce blanchiment sur le modèle génératif de l'équation (4.1) : z=Vxc=VAsc.

En dénissant la matriceU=VAde dimensionsp×ple modèle s'écrit sous la forme :

z=Usc. (4.5)

La matrice de covarianceRz dezpeut se mettre sous la forme :

Rz=UE{scscT}UT =URsUT =UUT. (4.6) L'identication entre les équations (4.3) et (4.6) donne l'égalité UUT = Ip. La matrice U est donc orthogonale.

Le blanchiment des données ne permet évidemment pas d'assurer l'estimation des composantes indé-pendantes, mais simplie celle-ci de moitié. Il est nécessaire d'estimerp(p−1)/2inconnues de la matrice orthogonaleU au lieu desN×péléments de la matriceA. L'estimation de la matriceUrepose sur des fonctions objectif qui représentent une mesure d'indépendance.

Le blanchiment des données n'est pas systématique. Certains algorithmes d'ACI s'appliquent direc-tement sur les données centrées comme l'algorithme Infomax de Bell et Sejnowski [10]. Le blanchiment est cependant recommandé puisqu'il permet d'accélérer la convergence des algorithmes [66]. La suite de cette section présente les principaux algorithmes d'ACI, JADE et FastICA, qui requièrent le blanchiment préalable des données.

4.3. L'Analyse en Composantes Indépendantes 123