• Aucun résultat trouvé

1.2 Statistiques d’ordre supérieur pour les variables et vecteurs aléatoires

1.2.2 Vecteurs aléatoires réels

1.2.2.1 Définition générale

Soit X = (X1, X2, . . . , Xn)T un vecteur de n variables aléatoires réelles centrées, la fonction de répartition àn dimensions est définie par :

FX(u) =P roba{x1 ≤u1, x2 ≤u2, . . . , xn≤un}, (1.28) où u = (u1, . . . , un)T. La densité de probabilité (ddp) conjointe pX(x) du vecteur de va-riables aléatoires X est :

pX(x) =

nFX(x) ∂x1∂x2. . . ∂xn

,

oùx= (x1, . . . , xn)T est le vecteur des valeurs prises par le vecteur aléatoire X. Le moment croisé d’ordre r du vecteur aléatoire X est défini par :

µr1...rnX =E[Xr1 1 . . . Xrn n ] = Z +∞ −∞ . . . Z +∞ −∞ xr1 1 . . . xrn n pX(x)dx, (1.29) avec r1 +. . . rn = r. Comme pour les variables aléatoires scalaires, nous définissons les deux premières fonctions caractéristiques. La première fonction caractéristiqueΦX(ν), avec ν = (ν1, . . . , νn)T le vecteur des fréquences, est définie comme la transformée de Fourier de dimension n de la ddp et la seconde est simplement le logarithme népérien de la première, soit : ΦX(ν) = E[e−2πxTν ] = Z +∞ −∞ . . . Z +∞ −∞ pX(x)e−2πxTν dx1. . . dxn, (1.30) ΨX(ν) = ln[ΨX(ν)]. (1.31)

De façon identique aux relations (1.9) et (1.12) dans le cas de variable aléatoire scalaire, les moments et les cumulants s’expriment aussi avec les dérivées partielles des deux fonctions caractéristiques :

1.2. Statistiques d’ordre supérieur pour les variables et vecteurs aléatoires 29 µr1...rnX = (−2π)rmΦX(ν) ∂νr1 1 . . . ∂νrn n ν1=...=νn=0 , (1.32) κr1...rnX = (−2π)−rrΨX(ν) ∂νr1 1 . . . ∂νrn n ν1=...=νn=0 . (1.33)

Ainsi, les moments (respectivement les cumulants) permettent d’approximer la première (resp. la seconde) fonction caractéristique.

Cas particulier

Classiquement, nous utilisons les cumulants dans le cas particulier r1 = . . . = rn = 1. Comme r =Pn

i=1ri nous avonsr=n [Cul87, p.29],[Bri81, p.19],[LAC97, p.13]. Classique-ment, pour simplifier les notations, nous noterons dans ce cas particulier le cumulant croisé d’ordren par :

κ1...1X =Cum[X1, X2, . . . , Xn]. (1.34) Les cumulants croisés d’un vecteur aléatoire ndimensionnel, Cum[X1, X2, . . . , Xn]sont liés aux moments croisés d’ordre inférieur ou égal àn par la relation :

Cum[X1, X2, . . . , Xn] = X (−1)k1(k−1)!E " Y i1∈n1 Xi1 # E " Y i2∈n2 Xi2 # . . . E  Y ip∈np Xip  , (1.35) où la somme s’étend sur tous les ensembles {n1, n2, . . . , np : 1 ≤ p ≤ n} formant une partition de{1,2, . . . , n}etkest le nombre d’éléments composant la partition. Par exemple, les premiers cumulants croisés des variables aléatoires centrées s’expriment par :

Cum[X1, X2] = E[X1X2],

Cum[X1, X2, X3] = E[X1X2X3], (1.36)

Cum[X1, X2, X3, X4] = E[X1X2, X3, X4]−E[X1X2]E[X3X4]

−E[X1X3]E[X2X4]−E[X1X4]E[X2X3].

Remarque : Les relations précédentes correspondent au prolongement des relations

(1.14) dans le cas scalaire. Par exemple, le cumulant d’ordre 4 κ4X de la variable sca-laire X est identique au moment d’ordre 4 du vecteur X = (X, X, X, X) soit κ4X = Cum[X, X, X, X]

Nous avons défini les moments et cumulants dans le cas d’un vecteur aléatoire. Dans la suite, nous allons présenter les principales propriétés des moments et cumulants.

30 Chapitre 1. Imagerie sismique et déconvolution par les statistiques d’ordre supérieur

1.2.2.2 Propriétés des moments et cumulants

L’ensemble des moments d’ordre inférieur àn et l’ensemble des cumulants d’ordre infé-rieur àn contiennent exactement les mêmes informations statistiques. Cependant, l’expres-sion de celles-ci est différente et est plus au moins simple à obtenir. Le choix du formalisme des moments ou des cumulants se fera en fonction des propriétés recherchées dans le vecteur aléatoire.

Multilinéarité

Les cumulants et moments vérifient la propriété de multilinéarité. L’expression de cette propriété est donnée dans [Cul87] [LAC97, p.19]. En particulier, nous avons pour un réel

λ∈R etn+ 1 variables aléatoires réelles Y, X1, X2, . . . , Xn :

E[(λX1+Y)X2. . . Xn] = λE[X1X2. . . Xn] +E[Y X2. . . Xn], (1.37)

Cum[(λX1+Y), X2. . . , Xn] = λCum[X1, X2, . . . , Xn] +Cum[Y, X2. . . , Xn].(1.38)

Remarque :Les cumulants contrairement aux moments sont invariants par translation,

mais en déconvolution aveugle nous nous limitons à des signaux centrés, par conséquent cette invariance n’est pas utile.

Indépendance statistique

Soient {X1, . . . , Xn}={X1, . . . , Xi} ∪ {Xi+1, . . . , Xn}un ensemble de n variables aléa-toires, tel que les deux sous-ensembles soient indépendants, alors :

E[X1, X2. . . Xn] = E[X1X2. . . Xi]E[Xi+1. . . Xn], (1.39)

Cum[X1, X2. . . , Xn] = 0. (1.40) Ces relations ne font qu’approcher aux ordres supérieurs les relations vérifiées par les deux fonctions caractéristiques. En effet, en écrivant l’indépendance des deux ensembles de variables nous avons :

pX1,...,Xn(x1, . . . , xn) =pX1,...,Xi(x1, . . . , xi)pXi+1,...,Xn(xi+1, . . . , xn).

Après transformée de Fourier de l’équation précédente et le logarithme, les fonctions caractéristiques vérifient :

ΦX1,...,Xn1, . . . , νn) = ΦX1,...,Xi1, . . . , νiXi+1,...,Xni+1, . . . , νn), (1.41)

ΨX1,...,Xn1, . . . , νn) = ΨX1,...,Xi1, . . . , νi) + ΨXi+1,...,Xni+1, . . . , νn). (1.42) Enfin, par dérivation de (1.41) (resp. (1.42)), nous trouvons les relations (1.39) (resp (1.40)). La relation (1.40) avec les cumulants croisés permet de mettre plus facilement en évidence la notion d’indépendance statistique entre différentes variables aléatoires compa-rativement au formalisme des moments avec (1.39). Cette propriété des cumulants est très largement utilisée en traitement du signal, notamment dans les problèmes d’Analyse en Composantes Indépendantes (ACI) ou de séparation de sources [CS93, Com94, Car99].

1.2. Statistiques d’ordre supérieur pour les variables et vecteurs aléatoires 31 Somme de variables aléatoires indépendantes

Soient X = (X1, X2, . . . , Xn) et Y = (Y1, Y2, . . . , Yn) deux vecteurs de variables aléa-toires, si les composantes deX sont mutuellement indépendantes de celles deY, alors nous avons pour le cumulant d’ordre n, la relation suivante :

Cum[X1+Y1, X2+Y2, . . . , Xn+Yn] =Cum[X1, X2. . . , Xn] +Cum[Y1, Y2. . . , Yn]. (1.43)

Cette relation peut être retrouvée en écrivant que pX+Y = pX ? pY, puis par trans-formée de Fourier nous obtenons pour la première fonction caractéristique ΦX+Y(ν) = ΦX(ν)ΦY(ν). Puis avec le logarithme népérien pour la seconde fonction caractéristique nous avons ΨX+Y(ν) = ΨY(ν) + ΨY(ν). Enfin par dérivation, nous obtenons (1.43). Cette relation (1.43) approche à l’ordre n la relation générale vérifiée par la seconde fonction caractéristique. Cette propriété n’est pas vérifiée par les moments. Cette relation justifie le nom de "cumulants", puisque les cumulants d’une somme de variables indépendants sont cumulatifs.

Nous venons de voir les principales propriétés des cumulants et moments. En pratique, se pose le problème de l’estimation de ces grandeurs, qui sera détaillé dans le paragraphe suivant.

Estimation des moments et cumulants multidimensionnels

Soit X = (X1, X2, . . . , Xn)T un vecteur aléatoire de n variables aléatoires réelles. On dispose de N réalisations indépendantes de chaque variable. Pour la variable aléatoire Xi, nous noterons les réalisations sous forme d’un vecteur xi = (xi1, xi2, . . . , xiN) = (xij)N

j=1. Comme dans le cas scalaire (1.17), les moments croisés peuvent être estimés sans biais de la façon suivante : b µr1...rnX= 1 N N X j=1 xr1 1jxr2 2j. . . xrn nj. (1.44)

En disposant d’un estimateur des moments, nous pourrions ensuite estimer les cumu-lants en utilisant la relation (1.35). Mais nous obtiendrions comme dans le cas scalaire des estimateurs biaisés. Les estimateurs non biaisés des cumulants croisés sont données pour les données multidimensionnelles [KS63, chap. 13][Cul87, chap. 4] par les k-statistiques :

32 Chapitre 1. Imagerie sismique et déconvolution par les statistiques d’ordre supérieur [ Cum[Xp, Xq] = 1 N(N −1)(N spq −spsq), [ Cum[Xp, Xq, Xr] = 1 N(N −1)(N −2)(N 2spqr−N spsqr−N sqsrp−N srspq+ 2spsqsr), [ Cum[Xp, Xq, Xr, Xt] = 1 N(N −1)(N −2)(N−3) N2(N + 1)spqrt−N(N + 1)spsqrt −N(N + 1)sqsrtp−N(N + 1)srstpq−N(N + 1)stspqr −N(N −1)spqsrt−N(N−1)sprsqt−N(N −1)sptsqr +2N spsqsrt+ 2N spsrsqt+ 2N spsqsrt+ 2N sqsrspt +2N sqstspr+ 2N srstspq−6spsqsrst}, où sp = PN j=1xpj, spq = PN j=1xpjxqj, spqr = PN j=1xpjxqjxrj, spqrt = PN j=1xpjxqjxrjxtj et les indices p, q, r, t∈ {1, . . . , n} ne sont pas nécessairement distincts. Dans le cas particulier de p = q = r = t, nous retrouvons le cas de la variable aléatoire scalaire donné par les équations (1.23).

Dans cette partie de rappel de statistiques, nous avons présenté les moments et les cu-mulants d’une variable aléatoire et d’un vecteur aléatoire. En traitement du signal, nous observons des signaux que nous souhaitons caractériser. En faisant l’hypothèse d’un pro-cessus iid, les échantillonsx(t)sont vus comme des réalisations d’un processus stochastique

X, qui s’apparente à une variable aléatoire. Par conséquent, les outils développés dans le cas d’une variable aléatoire scalaire permettent de caractériser ce processus. Ensuite, si nous nous intéressons aux liaisons entre plusieurs processus stochastiques, nous serons amenés à utiliser les outils vectoriels. Par exemple, pour la séparation de sources, nous utilisons les cumulants pour décrire l’indépendance entre les sources estimées, soit à l’ordre 2 (Analyse en Composantes Principales) ou à l’ordre 3 ou au delà (fréquemment à l’ordre 4) [Car99, CS93, Com94] pour l’Analyse en Composantes Indépendantes. En déconvolu-tion aveugle, nous souhaitons caractériser la dépendance temporelle entre les échantillons dans un processus stochastique, par exemple la blancheur qui est synonyme de l’indépen-dance statistique entre les échantillons successifs. Ainsi, chaque version décalée x(t+τ)

d’une observation x(t) peut être vue comme une variable aléatoire. Ensuite, nous pouvons quantifier la dépendance en utilisant les cumulants croisés entre les versions décalées du processus. Dans la partie suivante, nous allons présenter les outils nécessaires à l’analyse des signaux monodimensionnels stationnaires tels que les fonctions de multicorrélations et les multispectres.

1.3 Les statistiques d’ordre supérieur pour l’analyse des

Documents relatifs