• Aucun résultat trouvé

Traitement des Signaux Aléatoires

N/A
N/A
Protected

Academic year: 2022

Partager "Traitement des Signaux Aléatoires"

Copied!
72
0
0

Texte intégral

(1)

Traitement des Signaux Aléatoires

S. Zozor

ENSIMAG – 2019

(2)

Table des matières

Préambule 4

1 Brefs rappels sur les signaux (scalaires) déterministes 6

1.1 À temps continu . . . 6

1.2 À temps discret . . . 7

1.3 Exercices . . . 10

1.3.1 Fonction de corrélation . . . 10

1.3.2 Échantillonnage d’une porte . . . 10

1.3.3 Transmission de symboles numériques . . . 11

2 Brefs rappels sur les variables et vecteurs aléatoires 11 2.1 Variables aléatoires . . . 11

2.2 Vecteurs aléatoires . . . 15

2.3 Vecteurs aléatoires à valeurs complexes. . . 17

2.4 Exercices . . . 19

2.4.1 Séquence de Bernoulli bruitée . . . 19

2.4.2 Message binaire bruité décision et probabilité d’erreur . . . 19

2.4.3 Séquence de Bernoulli bruitée et probabilité d’erreur . . . 19

2.4.4 Séquence BPSK bruitée et probabilité d’erreur . . . 20

3 Signaux aléatoires 20 3.1 Définition et caractérisation temporelle. . . 20

3.2 Stationnarités . . . 22

3.3 Cyclotationnarités . . . 24

3.4 Ergodisme . . . 25

3.5 Représentation spectrale . . . 28

3.5.1 Densité spectrale de puissance . . . 28

3.5.2 Echantillonnage. . . 31

3.5.3 Notion de bruit blanc . . . 32

3.5.4 Quelque mots sur les signaux non-stationnaires . . . 33

3.6 Exercices . . . 33

3.6.1 Sinusoïde à amplitude et/ou phase aléatoire . . . 33

3.6.2 Signal stationnaire modulé . . . 33

3.6.3 Marche aléatoire et processus limite . . . 33

3.6.4 Processus autorégressif d’ordre 1 . . . 34

3.6.5 Mélange de signaux . . . 34

3.6.6 Stationnarisation . . . 34

3.6.7 Code d’amplitude aléatoire . . . 35

4 Filtrage linéaire et homogène des signaux aléatoires 36 4.1 Caractérisation statistique temporelle et formules des interférences . . . 36

4.2 Conservation de l’ergodisme . . . 37

4.3 Formules des interférences dans le domaine fréquentiel . . . 38

4.4 Exercices . . . 39

4.4.1 Identification en contexte bruité . . . 39

4.4.2 Signal stationnaire modulé puis filtré . . . 40

4.4.3 Filtre adapté . . . 40

5 Récapitulatif sur les signaux aléatoires 41

(3)

6 Estimation en moyenne quadratique, approche linéaire – filtre de Wiener 42

6.1 Cas “général” . . . 43

6.2 Estimation linéaire d’erreur quadratique minimale, dans le cadre de signaux stationnaires à l’ordre 2 . . . 44

6.2.1 CasD0=Z. . . 45

6.2.2 CasD0=J0 ;N−1K. . . 46

6.3 Exercices . . . 47

6.3.1 Prédiction àl pas . . . 47

6.3.2 Débruitage . . . 47

6.3.3 Un exemple à temps continu, dans le cadre de la prédiction . . . 48

7 Discrimination binaire 49 7.1 L’approche Bayésienne . . . 50

7.2 L’approche minimax . . . 51

7.3 L’approche de Neyman-Pearson . . . 53

7.4 Performances et caractéristiques opérationnelles du récepteur . . . 54

7.4.1 Cas d’un récepteur quelconqueΛ . . . 54

7.4.2 Cas particulier du rapport de vraissemblanceΛlr . . . 55

7.5 Détection linéaire d’un signal connu dans du bruit & déflexion maximale . . . 56

7.5.1 Le cas du bruit blanc . . . 58

7.5.2 Le cas du bruit coloré (non blanc) . . . 59

7.6 Exercices . . . 61

7.6.1 Détection en contexte Gaussien . . . 61

7.6.2 Détection linéaire dans du bruit de Cauchy . . . 61

7.6.3 Détection localement optimale . . . 62

7.6.4 Gaussiennes de puissances différentes. . . 62

7.6.5 Discrimination de loi exponentielles . . . 63

Énoncés d’examens 64 Mai 2014 . . . 64

Mai 2015 . . . 66

Mai 2016 . . . 68

Mai 2017 - Partie A . . . 70

Mai 2018 - Partie A . . . 71

(4)

Préambule

Comme nous le verrons par la suite, on appellera signal aléatoire une collection de variables aléatoires in- dexée par le temps. Une question qui peut se poser est l’existence même de signaux aléatoires naturels. Si l’on considère que la physique, tout au moins à l’échelle macroscopique, est gérée par des lois bien détermi- nées, la réponse serait plutôt négative. Si par exemple on considère une séquence de pile ou face, selon les caractéristiques de la pièce et les conditions dans lesquelles s’effectuent ces lancers, la séquence seraa priori parfaitement déterminée. Mais trop de données influencent ces lancers et le résultat est trop sensible à celles-ci pour que l’on soit capable de prévoir une telle séquence. Modéliser ce procédé comme aléatoire en affectant des probabilités a priorid’obtenir pile ou face permet une modélisation statistique satisfaisante de la séquence.

Dans la même veine, on peut prendre l’exemple de la planche de Galton, planche verticale à clous sur sa partie supérieure et munie de “réceptacles” sur sa partie inférieure (voir figure1-(a)). Une bille lachée en haut du dispositif, en chutant heurera le premier clou et en fonction des conditions initiales ira à sa droite ou à sa gauche. Sur le second niveau de clous, il se passera de même, et ainsi de suite jusqu’aux réceptacles. Si l’on répète l’expérience, même en prenant beaucoup de précautions pour la faire dans les mêmes conditions (pense-t-on), la sensibilité du système est telle que les billes ne tomberont pas dans le même réceptacle, mais se distribueront dans les différents réceptacles. Si l’on répète un nombre suffisant de fois l’expérience (de manière

“indépendantes”), la répartition des billes épousera de manière remarquable la courbe de Gauss. Au lieu de chercher à modéliser le problème par les lois physiques sous-tendant le mécanisme, nous pouvons en avoir une approche aléatoire en considérant que d’une couche de clous à l’autre, la bille a une probabilité 12 de partir à droite, et de même à gauche. Si on analyse la probabilité pour une bille de tomber dans l’un ou l’autre des réceptacles, celle-ci suit une loi binomiale qui épouse la loi gaussienne quand le nombre nde couches de clous est suffisamment grand (la gaussienne en est la loi limite).

Le processus précédemment décrit est également connu comme “marche aléatoire” (marche de l’ivrogne, voir figure 1-(b)) et lorsque le pas vertical et le pas “droite-gauche” tend vers 0 (tout en gardant le rapport pas spatial au carré – pas temporel constant), le processus limite, aléatoire, et connu sous le vocale de “mouvement brownien” ou “processus de Wiener” (voir figure1-(c)). Aussi surprenant que cela puisse paraître, ce processus (en 3 dimensions) modélise parfaitement bien le bruit thermique dû à l’agitation et collisions des molécules d’un gaz parfait. Dans ce cas encore, les lois physiques peuvent décrire parfaitement les collisions entre les particules. Toutefois, le nombre de particules est si grand (en conditions normales de température et pression, 1 litre de gaz parfait contient2.7×1022molécules !) qu’il est impossible de modéliser complètement le problème avec ces lois physiques. Une approche statistique permet de très bien décrire les phénomènes macroscopiques, ce qui a donné naissance à la physique statistique (sous l’impulsion entre autres de Maxwell, Boltzmann, Planck ou Gibbs). Le bruit thermique apparaît également dans le domaine de l’électronique en raison de l’agitation des porteurs de charges. Il a pour conséquence de perturber la tension aux bornes d’une impédance par exemple.

(a) (b) (c)

Figure1: (a) : Planche de Galton (photo prise à la cité des sciences à Paris). (b) : 4 réalisations (trajectoires) de marches aléatoires. (c) : 50 réalisations du processus “limite” (en noir) et densité de probabilité des positions d’arrivées (en rouge) à différentes “profondeur”.

(5)

La modélisation aléatoire peut aussi apparaître là ou on l’attend moins, comme par exemple à la mise en route d’un générateur de sinusoïdes. En effet, le signal observé est de la forme X(t) = Acos(2πν0t+ϕ), a priori parfaitement déterministe. On le verra ainsi sur un oscilloscope numérique en mode non déclenché et mono-coup (un seul balayage lancé une fois générateur mis sous tension). Mais la phase à l’origineϕn’a aucune raison d’être la même si on répète l’expérience d’allumage du générateur plusieurs fois : cette phase dépend de l’état initial des circuits électroniques du générateur. Là encore, les connaître avec assez de précision pour déterminer ϕ est impossible et modéliser cette phase comme étant aléatoire est une très bonne alternative.

Notons dans ce cas que le signal observé n’a pas d’allure “erratique” comme pour ce qui est du mouvement brownien par exemple, mais l’aléa, indépendant du temps, se cache dans la phase (voir figure 2). Il n’en reste pas moins que pour chaquet,X(t)est une variable aléatoire, et doncX est une collection de variables aléatoires indexée part.

t X(t, ω)

Figure2: 4 réalisations du signalX(t)pour 4 réalisations de phases tirées selon une loi uniforme sur[0 ; 2π).

Ces traces seraient celles affichées par un oscilloscope en mode mono-coup et non synchronisé.

Dans la “vraie vie”, de nombreux processus sont trop complexes ou dépendent d’un trop grand nombre de degrés de liberté pour pouvoir être décrits de manière parfaite. La modélisation stochastique de ces processus permet très souvent de pouvoir les caractériser de manière macroscopique et de très bien décrire leurs comportements moyens par exemple, ou d’en extraire les informations essentielles. Ce sera souvent le cas en communication, où les signaux que l’on cherche à transmettre sont déterministes en général –il faut l’espérer !–, mais que l’on modélisera aléatoires du point de vue du récepteur. En effet, ce dernier n’a aucune raison de connaîtrea priori le signal qu’il va recevoir, sinon il serait inutile de le transmettre. De plus, il fait face à une diversité importante des signaux auxquels il peut s’attendre.

Au delà de la modélisation stochastique de signaux ou processus physiques, de nombreux problèmes usuels nécessitent non seulement une caractérisation de ces signaux, mais des traitements afin d’en extraire des informations pertinentes.

Un exemple classique est celui de la détection binaire, ou de la classification. Il s’agit par exemple de chercher à déceler la présence ou non d’un signal d’intérêt s(t) dans un signal enregistrér(t). En général la mesure est entachée de bruit (par exemple le son d’un dauphin couvert par le bruit de la houle, des sons d’autres animaux, etc.) de sorte que le problème est de discriminer entre deux hypothèses H0l’enregistrement n’est que du bruit r(t) =b(t)ou H1 le signal d’intérêt y est présentr(t) =s(t) +b(t), à partir de la seule observation r(t)et de quelques hypothèses sur les lois de probabilité sous-jacentes au bruitb(t).

Le même genre de problèmes se pose en communication numérique par exemple. On peut souhaiter transmettre une séquence{a(n)}nde symboles binaires, par exemple±1, que l’on mettra en forme pour construire un signal analogiquex(t)qui sera transmis dans un canal de communication (le média ambiant par exemple). Ce canal n’étant pas parfait, et, en particulier, entaché d’un bruit b(t), le signal reçu sera au mieux le signal transmis bruité additivement, i.e., r(t) = x(t) +b(t). À partir du signal reçu r(t), et en s’aidant de connaissances a priorisur les lois de probabilité liées au bruit, il s’agit de reconstruire “au mieux” la séquence binaire transmise –débruitage et estimation des symboles à partir du signal débruité–. Ceci est illustré sur la figure3.

En sus de ce problème de reconstruction, connaissant le canal de transmission (les lois de probabilité du bruit. . . ), peut se poser la question des choix de séquences d’entrée permettant de transmettre “au mieux” ce message. Là encore, les messages étant souvent longs, la diversité des messages est très importante. On pourra en avoir une modélisation probabiliste et chercher les lois “optimales” dans ce problème de transmission.

(6)

1 +1

{a(n)}n

g(t−nT)

−1

+1 x(t)

bruit b(t)

Canal r(t) Traitement & décision

⇒ {ba(n)}n

Figure3: Exemple très élémentaire d’une chaîne de communication. On cherche à transmettre une séquence de symboles{a(n)}n aveca(n)∈ {−1 ; +1}, dans un medium de communication. Cette séquence est mise en forme,a(n)multipliant une fonction de mise en formeg(t−nT)de durée finieTen général (temps symbole), de sorte à transmettrex(t) =P

na(n)g(t−nT). En général,gest un bout de cosinus, et souvent on transmet deux signaux, un dit en phase et l’autre en quadrature (multiplication par un cosinus et un sinus respectivement).

On peut voir cela comme une séquence de 0 ou 1, codant la phase d’une exponentielle complexe (porteuseν0).

Cette modulation dite de phase est connue comme BPSK pour “Binary Phase-Shift Keying” en anglais et la séquence d’entrée peut-être représentée par une constellation dans le plan complexe (deux points donc). En supposant le canal bruité additivement (modèle le plus simple), on recevra r(t) =x(t) +b(t)à partir duquel on souhaite retrouver la séquence {a(n)}n. Dans le cas BPSK, x et b sont des signaux complexes (phase et quadrature). À la réception, on se sert de la connaissance de g pour obtenir une estimation (réelle) des symboles émis. Dans le cas de la modulation BPSK par exemple, après démodulation complexe on récupère pour chaque symbole émis un point dans le plan complexe (démodulation/calcul de phase en quelque sorte, et représenté par une constellation dans le plan complexe), à partir de laquelle on souhaite déterminer {ba(n)}n estimation des symboles émis.

1 Brefs rappels sur les signaux (scalaires) déterministes

1.1 À temps continu

Signaux d’énergie finie Signaux de puissance moyenne finie

• x∈L2(C), i.e., Z

R|x(t)|2dt <+∞ • x6∈L2(C) mais lim

T+

Z T2

T2

|x(t)|2

T dt <+∞ E=

Z

C|x(t)|2dt : énergie P = lim

T+

Z T2

T2

|x(t)|2

T dt : puissance moyenne x(t) =Acos(2πν0t+ϕ)6∈L2(C) Cas périodique : P = 1

T0

Z T20

T20

|x(t)|2dt

• Intercorrélation dexety

Cxy(τ) = Z

Rx(t)y(t−τ)dt Cxy(τ) = lim

T→+∞

Z T2

T2

x(t)y(t−τ)

T dt

Cette quantité existe (Cauchy-Schwarz) ;Cxx(τ)est l’autocorrélation, maximale en 0 (Cauchy-Schwarz)

(7)

E=Cxx(0), Exy=Cxy(0) : énergie (d’interaction)

P =Cxx(0), Pxy=Cxy(0) : puissance moyenne (d’interaction)

• Représentation spectrale (décomposition sur la “base” e2ıπνt, avec ı2=−1)

b x(ν) =

Z

Rx(t)e2ıπνtdt bxT(ν) =

Z

RxT(t)e2ıπνtdt

(x∈L1, sinon au sens des distributions) avec xT(t) =x(t)1[T2 ;T2](t) signal tronqué1

• Conservation du produit scalaire

Cxy(0) = Z

Rx(νb )yb(ν)dν Cxy(0) = lim

T→+∞

Z

R

b

xT(ν)byT(ν)

T dν

γxy(ν) =bx(ν)by(ν) :

densité spectrale d’énergie (d’interaction)

γxy(ν) = lim

T+

b

xT(ν)byT(ν)

T :

densité spectrale de puissance (d’interaction)

• Théorème de Wiener-Khinchin (conservation du produit scalaire) :γxy(ν) = Z

RCxy(τ)e−2ıπντ

• Filtrage et formules des interférences :y(t) = [h∗x](t) = Z

Rh(u)x(t−u)du

b

y(ν) =bh(ν)bx(ν) Cxy(τ) =

h#∗Cxx

(τ), Cyx(τ) = [h∗Cxx] (τ), Cyy(τ) = [Chh∗Cxx] (τ) avec h#(u) =h(−u) γxy(ν) =bh(ν)γxx(ν), γyx(ν) =bh(ν)γxx(ν), γyy(ν) =bh(ν)

2

γxx(ν)

1.2 À temps discret

Du continu au discret : échantillonnage avec les mains. Intuitivement, on prélève des valeurs du signal à une cadence Te, i.e., tous les instantskTe avec k ∈Z. En pratique, cela reviendrait à multiplier xautour de chaque instant kTe par une fonction porte de durée très courte (voir figure 4). Si on souhaite conserver localement la valeur moyenne du signal, on construitxk(t) =x(t)T11[T2;T2](t−kTe). Pour T suffisamment

“faible”, on aura2 Z

Rxk(t)dt≈x(kTe).

On remarque alors que T11[T2;T2](t) est de moyenne égale à 1 quel que soitT, mais que son support tend vers 0 quandT →0 : la “limite” de cette fonction n’est plus une fonction mais une distribution appelée Dirac et notée δ.

1. 1Aest la fonction indicatrice deA, i.e.,1A(x) = 1sixAet 0 sinon.

2.

Z

Rxk(t)dt= 1 T

ZkTe+T2

kTeT2

x(t)dt. D’après le théorème des accroissements finis, il existe tk

kTeT

2 ;kTe+T 2

tel que

1 T

Z kTe+T2

kTeT2

x(t)dt=x(tk) x(kTe) quand T 0.

(8)

t

t

t

x(t)

1 Te

X

k

1[T2;T2](tkTe)

X

k

xk(t)

Te

Figure4: Illustration de l’échantillonage : on multiplie le signal par une porte de durée faibleT, périodisée à la cadenceTe, et telle que l’on conserve localement la moyenne du signal. Formellement, l’équivalent “continu”

du prélèvement d’échantillons s’obtient par passage à la limiteT →0.

Le Dirac avec les mains.

• x(t)δ(t) =x(0)δ(t): on a une “porte” d’airex(0), de support tendant vers 0. . . (ce résultat est rigoureu- sement exact si on travaille dans l’espace des distributions).

• Bien que l’écriture soit très incorrecte, on verra souvent dans la littératureZ

Rx(t)δ(t)dt =x(0) (voir ci-dessus ; on devrait écrire hTx, δi = x(0) avec h·,·i définie de manière adéquate dans l’espace des distributions etTx distribution associée àx).

• En notantδτ(t) = δ(t−τ), on obtient[x∗δτ](t) = x(t−τ)(ce résultat, parfaitement rigoureux, peut s’obtenir “avec les mains” à partir du précédent).

• La transformée de Fourier deδest la fonction constante 1 (même remarque que pour l’item précédent).

• Peigne de Diracs :πTe(t) =X

k∈Z

δkTe(t); on montre que sa transformée de Fourier est aussi un peigne de Diracs bπTe(ν) =νe

X

k∈Z

δe(ν) =νeπνe(ν) avec νe= T1

e.

Échantillonnage formel. Pour écrire le signal à temps discret en termes de fonction d’une variable continue, on écrit donc l’échantillonage sous la forme

xe(t) =x(t)πTe(t) =X

k∈Z

x(kTekTe(t) Les échantillons ne sont autres que les poids des Diracs.

Par passage dans le domaine de Fourier (en supposant quexsoit L1, ou sinon au sens des distributions), b

xe(ν) = [xb∗bπTe] (ν) =νe

X

k∈Z

b

x(ν−kνe), avec νe= 1 Te

On constate une périodisation dans le domaine de Fourier : l’échantillonnage sera dit sans pertes, ou sans recouvrement spectral, ou encore sans repliement spectral (on peut retrouver/reconstruitre le signal original) si après périodisation de x(ν)b il n’y a pas déformation de ce motif, i.e., si les différents x(νb −kνe) ne se recouvrent pas. Dans ce cas, nécessairementxest à bande limitéeB, i.e., bx(ν) = 0siν 6∈

α−B2 ;α+B2et l’échantillonnage est sans repliement spectral (sans pertes) pour

νe> B (théorème de Shannon) Ceci est illustré figure5 pourα= 0.

(9)

ν bx(ν)

B

B 2 2

ν bxe(ν)

b

x(ν+ 2νe) bx(νe) bx(ν) bx(ν−νe) bx(ν−2νe)

B2 B2 νe ν

bxe(ν)

b

x(ν+ 2νe) bx(νe) bx(ν) bx(ν−νe) x(νb −2νe)

B2 B2 νe

(a) (b) (c)

Figure 5: Illustration de l’effet de l’échantillonage et du phénomène de repliement spectral ou non. (a) Transformée de Fourier du signal continu x(t) à bande limitée B. (b) Transformée de Fourier du signal échantillonné à une fréquence d’échantillonnage νe< B ne respectant pas Shannon (en rouge) : le repliement spectral déforme le motif (en vert) et l’échantillonnage est donc avec pertes. (c) Transformée de Fourier du signal échantillonné à une fréquence d’échantillonnageνe> Brespectant Shannon : il n’y a pas de repliement spectral et l’échantillonnage est sans pertes.

Par la suite, on écrira tout signal discret x(n), sans référence à un (éventuel) échantillonnage sous-jacent. Les outils usuels du cadre continu s’adaptent naturellement au cadre discret :

• Intercorrélation :

Cxy(k) =X

n∈Z

x(n)y(n−k) ou Cxy(k) = lim

N→∞

XN n=−N

x(n)y(n−k) 2N+ 1

Dans le cas de signaux échantillonnés, on peut monter que ces fonctions de corrélation sont les échan- tillonnées des fonctions de corrélation à temps continu. Leurs propriétés se conservent à temps discret (autocorrélation maximale en 0, énergie/puissance,. . . ).

• Représentation spectrale : on peut définir une transformée de Fourier (réduite) de la manière suivante b

xr(λ) =X

n∈Z

x(n)e2ıπλn

(ou sur le signal tronqué dans le cadre puissance moyenne finie). On constate qu’elle est périodique et qu’il suffit de la définir pourλ∈

12; 12

(ouλ= [0 ; 1)). Dans le cadre de signaux échantillonnés, on montre facilement que3 xbe(ν) =xbr(λ) avec λ= ννe, justifiant l’appelation de “fréquence réduite” pourλet de

“transformation de Fourier réduite”. A noter que la transformée enz dexétantxbz(z) =X

n∈Z

x(n)zn, la transformée de Fourier réduite dexn’est autre que sa transformée enzsur le cercle unité4, i.e., pour z=e2ıπλ, xbr(λ) =bxz(e2ıπλ). On obtient ainsi immédiatement la formule d’inversion

x(n) = Z 12

12

b

xr(λ)e2ıπλn

• Transformée de Fourier discrete : lorsque le signal x(n) est de durée limitée 0 ≤ n≤ N−1, on peut artificiellement périodiser x, xp(n) = P

k∈Zx(n−kN). Cela a donc un effet d’échantillonnage dans le domaine fréquentiel, de cadence 1/N. On peut le montrer en échantillonnant xbr(λ) formellement et en utilisant la formule d’inversion. xp étant échantillonné et périodique, il en est de même pour sa représentation spectrale, de sorte que N points de cette dernière sont suffisants pour avoir toute l’information surx. On définit ainsi la transformée de Fourier discrète, pour0≤m≤N−1,

b xd(m) =

N−1X

n=0

x(n)e2ıπnmN ⇐⇒ x(n) = 1 N

N−1X

m=0

b

xd(m)e2ıπnmN

3. bxe(ν) =X

k

x(kTe) Z

Rδ(tkTe)e−2ıπνtdt=X

k

x(kTe)e−2ıπkTeνt

4. Dans le cadre énergie finie, le cercle unité est nécessairement dans le domaine de convergence. Dans le cadre puissance moyenne finie, on travaille sur le signal tronqué de sorte qu’il n’y a pas de soucis de convergence.

(10)

et clairementxbd(m) =bxr m N

. Souvent, on ajoute des 0 au signal discret (périodisation de période plus grande) de sorte à échantillonner plus finementXr(λ): c’est ce que l’on appelle le “zero padding”. D’autre part, il existe une méthode rapide de calcul de la transformée de Fourier discrète, dite FFT pour “Fast Fourier Transform”, lorsque le nombre de points est une puissance de 2 (méthode basée sur un arbre binaire). PourN non puissance de 2, on a donc double intérêt à faire du zero padding.

• Densité spectrale d’énergie ou de puissance : on peut encore utiliser les propriétés de la transformation de Fourier (réduite, discrète) et de Parseval pour définir

γxx,r(λ) =X

n∈Z

Cxx(n)e2ıπnλ

ce qui est aussi, dans le cas énergie finie,|Xr(ν)|2(sinon on travaille encore sur les signaux tronqués et on normalise par la taille de la troncature). Dans le cas de signaux de durée finie, la fonction de corrélation l’est également (sur2N+ 1points) et on peut aussi travailler en transformée de Fourier réduite.

• Les propriétés de filtrage et formule des interférence se conservent. A noter toutefois que dans le cadre durée finie, les convolutions sont circulaires (i.e., surNpoints, mais en travaillant sur le signal périodisé).

1.3 Exercices

1.3.1 Fonction de corrélation On émet un signal

x(t) =1[T2;T2](t)

et sous effet de la propagation, réflexion sur une cible en mouvement, et de bruit additif, on mesure en réception r(t) =α1[T20;T20](t−tr) +b(t)

oùαest un facteur d’atténuation inconnu,T06=T résulte du mouvement de la cible5, ettrest un retard lié à la distance de la cible de l’émetteur-récepteur.b(t)est un bruit, a priorisignal aléatoire. Ici, on fera comme s’il était déterministe.

1. En notant c la vitesse de propagation du signal émis dans le milieu, et dla distance (inconnue) entre l’émetteur et la cible, relierc,dettr.

2. Soitex(t) =1hTe

2 ;T2ei(t)une copie dexavec laquelle on peut jouer sur le paramètre de duréeTe. Calculer la fonction d’intercorrélationCrexen supposant que, quel que soit le support d’intégration, l’intégrale du signalb(t)sur celui-ci est nul6.

3. En déduire une méthode d’estimation detret deT0: cette dernière étant reliée à la vitesse de déplacement de la cible, on remontera aux informations de distance et vitesse de la cible.

1.3.2 Échantillonnage d’une porte Soit

x(t) =1[T2;T2](t) que l’on souhaite échantillonner à la cadenceTe, et soit

N = T

2Te

que l’on supposera non nul (on échantillonne suffisamment finement).

1. Calculerbx(ν)la transformée de Fourier dex(t).

2. Soitx(n)≡x(nTe)la séquence d’échantillons. Calculer les transformées de Fourier réduitexbret discrète b

xd dexet commenter les résultats.

5. Le mouvement de la cible engendre un effet de compression ou de dilatation de l’onde. C’est “l’effet Doppler”. Pour des signaux à bande très étroite, cet effet se manifeste par un décalage dans le domaine fréquentiel.

6. best aléatoire, mais, dit “avec les mains”, s’il est de “moyenne” nulle, statistiquement on sommera “autant valeurs positives que négatives, de mêmes ordres de grandeur”. On verra plus tard que sous hypthèses dites de bruit centré statistiquement, de stationnarité à l’ordre 1, et d’ergodisme à l’ordre 1, si le support d’intégration est assez grand, cette hypothèse est valable, quelle que soit la “trajectoire” ou réalisation.

(11)

1.3.3 Transmission de symboles numériques

On veut transmettre une séquence de symboles a(n), n ∈Z (d’énergie finie) dans un canal de transmission analogique. Pour cela on utilise une fonction de mise en formeg(t), en général de durée finieT appelée temps symbole, et on transmet le signal

x(t) =X

n∈Z

a(n)g(t−nT)

1. Calculer la fonction d’autocorrélation dex, en mettant en évidence celles deaet deg.

2. Calculer de deux manières la densité spectrale d’énergieγxx(ν)dex.

2 Brefs rappels sur les variables et vecteurs aléatoires

2.1 Variables aléatoires

Soit(Ω,A, P)un espace probabilisé ou espace de probabilité, i.e.,

• (Ω,A)est un espace mesurable

Ωespace fondamental ou univers, d’élémentsω appelés éventualités,

A tribu (ou σ−algèbre), ensemble de parties de Ω (ensemble d’événements) tel que pour tout événement A ∈ A alors son événement complémentaire A est dans A, et tel que toute union dénombrable d’événements deAest encore dansA,

• muni d’une mesure, P : A → R+, qui, par définition, est σ−additive, i.e., pour {Ai} mutuellement exclusifs (pouri6=j,Ai∩Aj =∅),P(∪iAi) =P

iP(Ai)et dans le cas qui nous intéresse ici la mesure est finie et telle queP(Ω) = 1.

Une variable aléatoire réelle est une application mesurable

X : (Ω,A, P)−→(R,B(R), PX)

oùB(R)est l’ensemble des boréliens deR, i.e., la plus petite tribu engendrée par l’ensemble des ouverts deR.

Mesurable signifie que

∀B∈ B(R), X1(B) ={ω∈Ω :X(ω)∈B} ∈ A On note en généralX−1(B) par l’événement (X ∈B).

Par le théorème de la mesure image, la mesure PX(B) d’un élement B de B(R) est la mesure par P de l’ensemble réciproque, i.e.,

PX(B) =P(X∈B)

Pour définir la mesurePX, il suffit de la connaître sur les ouverts de la forme (−∞;x] (parσ−additivité on la déduit pour n’importe quelB) : c’est la “fonction de répartition”, ainsi définie par

FX(x) =PX((−∞; x]) =P(X ≤x) Rappelons que cette fonction a les propriétés suivantes :

• FXest croissante : ceci est une conséquence de laσ−additivité, en notant que pourx1≤x2, (−∞; x2] = (−∞;x1]∪(x1;x2]ensembles disjoints7

• lim

x+FX(x) = 1 (c’estPX(R) =P(Ω) = 1).

• lim

x→−∞FX(x) = 0 (c’estP(∅) = 0).

• FX est par définition même, continue à droite, mais elle n’est par forcément continue :

si elle est escallier, alorsX est une variable dite discrète que l’on peut caractériser parP(X =xk) avecxk les points de rupture de FX, i.e., les valeurs prises parX;

7. De manière générale, laσ−additivité implique que pourAB,P(A)P(B).

(12)

si elle est continue, la variableX est dite continue et pour peu qu’elle soit dérivable (au moins par morceau), la variable est dite à densité et on définit la densité de probabilité8 par

fX = dFX

dx

On notera en passant que pour une variable à densité,P(X ∈B) = Z

B

fx(x)dx.

Nous ne reviendrons pas ici sur la théorie de l’intégration. Le principe consiste à écrire la mesure d’un événement A par une intégration de la variable aléatoire 1A sous la forme Z

1A(ω)dP(ω) =P(A), puis, par linéarité de l’écrire pour les variables étagéesX =P

iαi1Ai, et enfin de l’étendre pour toute variableX en l’écrivant comme limite de variable étagée9 : par définion, on notera l’espérance d’une variable X par

E[X] = Z

X(ω)dP(ω) = Z

Rx dPX(x)

si cette quantité est finie, et on dira queXest sommable. On peut montrer que pour toute fonction (mesurable) g,

E[g(X)] = Z

g(X(ω))dP(ω) = Z

Rg(x)dPX(x) si cette quantité est finie. Les deux cas d’intérêt usuels sont les suivants :

• La variableX (la mesurePX) est discrète (FX est escallier) et E[g(X)] =X

k

g(xk)P(X=xk) avecxk les valeurs prises par X.

• La variable X (la mesure PX) est continue et à densité (FX est continue, dérivable au moins par morceaux) et

E[g(X)] = Z

Rg(x)dPX(x) = Z

Rg(x)fX(x)dx

On appelle en général ces quantités, “moments” de la variableX. Les moments d’intérêt sont en général :

• le moment d’ordre 1, lorsqueX est sommable,mX = E[X], appelé moyenne (statistique) : il caractérise la valeur autour de laquelle les réalisationsX(ω)se “répartissent” ou se “distribuent” (c’est l’équivalent d’un centre de masse en mécanique) ; remarque : pour une variable positive X ≥0 , cette moyenne se calcule aussi sous la forme E[X] =

Z

R+(1−FX(x))dx;

• le moment d’ordre 2, lorsque X est de carré sommable, E[X2], ou plus souvent la variance, moment d’ordre 2 de la variable centrée, σX2 = Var[X] = E[(X −mX)2] = E[X2]−E[X]2 : elle caractérise la dispersion des réalisationsX(ω)autour de la moyennemX (c’est l’équivalent d’un moment d’inertie en mécanique) ; Nota : pour tout(a, b)∈R2 déterministes,Var[aX+b] =a2Var[X].

• la fonction caractéristique ΦX(t) = E eıtX

. À une dilatation près, c’est la transformée de Fourier de la densité de probabilité pour les variables à densité. C’est la transformée de Fourier réduite de la loi pour les variables discrètes. En développant l’exponentielle en série entière, on s’aperçoit que les moments d’ordre n apparaissent dans le développement de ΦX en série entière (ΦX est intimement reliée à ce qu’on appelle la génératrice des moments)10, i.e., ΦX(0) = 1, Φ(k)X (0) =ıkE[Xk].

8. Plus généralement on définie la densité dePX par rapport à une mesure quelconque si on peut relierPX et cette dernière par une intégration (au sens de Lebesgue) ; on sous-entend donc ici que la densité est par rapport à la mesure de Lebesgueµ, telle queµ((a;b)) =ba.

9. moyennant quelques thèorèmes de la théorie de l’intégration, de type théorème de convergence monotone et de convergence dominée.

10. Ceci est valide moyennant des convergences uniformes de l’intégrale, permettant de permuter des dérivations et intégrations, ou des sommes infinies et intégrations. Toute fonction caractéristique n’est pas dérivable une infinité de fois ; toute variable aléatoire n’admet pas des moments entiers à n’importe quel ordre.

(13)

Exemples

Dans le cas de loi discrète, on est souvent dans le cadre oùX est à valeurs dans Nou un sous-ensemble deN.

• Loi de Bernoulli où X prend ses valeurs sur {0,1} (par exemple pile ou face, tel que l’on affecte 0 à l’événement “pile” et 1 à l’événement “face”). On noteX ∼ B(p).

La loi est P(X = 1) = 1−P(X = 0) =p∈[0 ; 1] avec p paramètre de la loi.

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX=p, σ2X=p(1−p) et ΦX(t) = 1−p+peıt.

• Loi binomialeoùXprend ses valeurs dans l’ensemble{0, . . . , n}. Elle modélise le processus de comptage d’événements de probabilitéplors d’une expérience répétéenfois de manière indépendante. On peut la définir sous la formeX=d

Xn k=1

Bk avecBk Bernoulli indépendantes de paramètrepet =d signifiant “égal en distribution”, i.e., “de même loi”. On noteX∼ B(n, p)(à noter queB(1, p)∼ B(p)).

Sa loi est P(X =k) = n

k

pk(1−p)nk.

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX=n p, σX2 =n p(1−p) et ΦX(t) = (1−p+peıt)n.

• Loi de Poissonoù X prend ses valeurs sur N. Cette variable apparaît dans les processus de comptage d’un nombre d’événements sur un intervalle de temps fini par exemple (ex. désintégrations nucléaires), processus tel que sur un intervalle de tempsdtau plus un événement se produit avec une probabilitép dt.

Elle apparaît aussi comme limite de la loi binomiale (normalisée) quandpest faible (on passe par des approximation de Stirling des factorielles et(1−p)n ≈enp). On note X ∼ P(λ) avec λ paramètre ou taux de Poisson11.

Sa loi est P(X =k) =λke−λ k! .

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX2X=λ et ΦX(t) =eλ(1eıt).

• Loi uniforme discrèteoùX prend ses valeurs sur un ensembleX de cardinal fini. On écriraX ∼ U(X). Sa loi est P(X =xk) = 1

Card(X) oùCard denote le cardinal d’un ensemble.

Dans le cas où X = {0, . . . , n−1}, Card(X) = n; La moyenne, la variance et la fonction caractéristique sont respectivement

mX= n−1

2 , σX2 = (n−1)(n+ 1)

12 et ΦX(t) =ei(n−1)2 t nsinc nt2 sinc t2 .

• Loi uniforme continueoùX prend ses valeurs sur un intervalle(a;b). On écriraX∼ U((a;b)). La densité de probabilité est fX(x) = 1

b−a1(a;b)(x), Sa fonction de répartition est FX(x) = x−a

b−a1[a;b)(x) +1[b; +∞)(x).

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX= a+b

2 , σX2 =(b−a)2

12 et ΦX(t) =eı(a+b)t2 sinc

(b−a)t 2

.

• Loi exponentiellede paramètreλ >0, notéeX ∼ E(λ), prenant ses valeurs surR+. La densité de probabilité est fX(x) =λeλx1R+(x).

Sa fonction de répartition s’écrit FX(x) = 1−eλx1R+(x).

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX= 1

λ, σX2 = 1

λ2 et ΦX(t) = λ λ−ıt.

11. Dans le problème du nombre de désintégrations sur une durée t, λ = pt et les instants entre deux événements sont indépendants et de loi exponentielle

(14)

• Loi gaussienne (ou normale)de paramètremetσ >0, notée X ∼ N(m, σ), prenant ses valeurs surR. Cette loi, et en particulier sa fonction de répartition, apparaît souvent en communication ou dans les problèmes de calcul de probabilité d’erreur en discrimination par exemple.

La densité de probabilité est fX(x) = 1

√2π σe(x−m)22 . Sa fonction de répartition s’écrit FX(x) = 1

2

1 + erf

x−m σ√

2

avec la fonction spéciale erf appelée ‘fonction d’erreur’.

Sa moyenne, sa variance et sa fonction caractétistique sont respectivement mX=m, σX22 et ΦX(t) =eimtσ22t2.

• Loi gamma de paramètre de forme α > 0 et de paramètre d’intensité β > 0, notée X ∼ G(α, β), et prenant ses valeurs surR+.

La densité de probabilité est fX(x) =xα1βαeβx Γ(α) 1R+. Sa fonction de répartition s’écrit FX(x) = γ(α, βx)

Γ(α) avec la fonction spéciale γ appelée ‘gamma incomplète’.

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX= α

β, σX2 = α

β2 et ΦX(t) =

1−ı t β

α

.

Pour α = 1 on retrouve la loi exponentielle. Pour X1, . . . , Xn indépendantes et N(0, σ2) on obtient P

kXk2∼ G(n/2,1/σ), appelée également dans ce cas loi du chi-deux à kdegrés de libertés (χ2k). Dans le cas de Gaussiennes non centrées (même moyenne), on obtient une loi dite du chi-deux décentrée. Ces loi apparaissent souvent en communication pourn= 2(ou plutôt la loi de la racine, connue sous le nom de loi de Rayleigh dans le cas centré et loi de Rice dans le cas décentré).

Une variable aléatoire n’est pas forcément soit continue, soit discrète. Prenons l’exemple suivant : X =B Y avecB Bernoulli de paramètrepetY ∼ E(λ)indépendante deB. Sa fonction de répartition est donc

FX(x) = P(X ≤x)

= P(X ≤x|B= 0)P(B= 0) +P(X ≤x|B= 1)P(B= 1)

= (1−p)P(0≤x|B = 0) +p P(Y ≤x|B= 1)

= (1−p)P(0≤x) +p P(Y ≤x) (par indépendance deB etY)

= (1−p)1R+(x) +p FY(x)

= (1−p)1R+(x) +p 1−eλx1R+(x) i.e.,

FX(x) = 1−peλx1R+(x)

Cette fonction, tracée figure6 pourp= 0.6etλ= 4, n’est ni escallier, ni continue, illustrant bien le caractère ni discret, ni continu de X.

A noter enfin que la modélisation gaussienne est souvent utilisée pour les bruits, en mettant en avant le théorème de la limite centrale : si{Xk}k1est une séquence variables aléatoires indépendantes et identiquement distribuées (iid), de moyennemet de varianceσ2, alors

nlim→∞

√1n Xn k=1

(Xk−m) =dX ∼ N(0, σ2)

Les bruits seront souvent considérés comme résultant de la somme d’un grand nombre de “sources” aléatoires, et donc considérés de distribution gaussienne.

(15)

x FX

1p

1

3

Figure 6: Fonction de répartition de la variable X = B Y avec B Bernoulli de paramètre pet Y ∼ E(λ) indépendante deB, pourp= 0.6et λ= 4.

2.2 Vecteurs aléatoires

Un vecteur aléatoireX = [X1 · · · Xn]t deRn est un vecteur denvariables aléatoiresXk, ou encore une fonction mesurable X : (Ω,A, P) −→(Rn,B(Rn), PX) avecB boréliens de Rn, plus petite tribu engendrée par les ouverts deRn. La variable est caractérisée par sa fonction de répartition (loi jointe)

FX(x) =FX1,...,Xn(x1, . . . , xn) =P(∩nk=1(Xk≤xk)) avec x= [x1 · · · xn]t

Si FX est continue, la variable est dite continue, et si FX est dérivable suivant lesnvariables (au moins par morceaux), la variable est à densité et la densité de probabilité deX est définie par

fX= ∂nFX

∂x1. . . ∂xn

Comme dans le cas scalaire, P(X∈B) = Z

B

fX(x)dx. Les propriétés générales deFX sont les suivantes :

• pour tout sous ensembleIm={ik}1kmde{1, . . . , n}, la loi du sous-vecteurXIm= [Xi1 · · · Xim]t est FXIm(xIm) = lim

{xi:i6∈Im}→1FX(x), appelée loi marginale ; les densités marginales s’obtiennent donc par intégration de la densité sur toutes les variablesxi, i6∈Im.

• quel que soit k, la fonction xk → FX(. . . , xk, . . .) est croissante de 0 à FXJk(xJk) avec Jk = {1, . . . , n}\{k}.

Comme dans le cas scalaire, on défini l’espérance de n’importe quelle fonction (mesurable)g par E[g(X)] =

Z

Rng(x)dPX(x)

(si cette quantité est finie). On s’intéresse en général au moments d’ordre 1 et 2 et à la fonction caractéristique, à savoir

• Si elle existe,mX= E[X] = [ E[X1] · · · E[Xn] ]t, moyenne (statistique), caractérisant là aussi le point autour duquel les réalisationsX(ω)se “répartissent” ou se “distribuent” (équivalent d’un centre de masse en mécanique) ;

• Si elle existe, RX = E [XXt], corrélation, ou, plus souvent, cette quantité après centrage, à savoir la matrice de covariance, ΣX = Cov[X] = E [(X−mX)(X−mX)t] = E [XXt]−E[X] E[X]t=RX− mXmtX de composantesE[(Xi−mXi)(Xj−mXj)] = Cov[Xi, Xj]variances/covariances des composantes scalaires.

• Pour deux vecteurs aléatoires X et Y, si elle existe, on définie la matrice d’intercorrélation RXY = E[XYt] ou de covarianceCov[X, Y] = E[XYt]−mXmtY. Remarque : pour tout(a, b, c, d)∈R4 déter- ministe,Cov[aX+b, cY +d] = a cCov[X, Y]

• ΦX(u) = Eh eıutXi

fonction caractéristique. A noter que pour tout sous ensemble Im = {ik}1km

de {1, . . . , n}, la fonction caractéristique du sous-vecteur XIm = [Xi1 · · · Xim]t est ΦXIm(uIm) =

{ui:i6∈limIm}→0ΦX(u). Les moments sont également cachés dans les dérivées de la fonction caractéristique.

En particulier ΦX(0) = 1, ∇uΦX(0) =ıE[X] et HuΦX(0) =−E[XXt] avec∇ le gradient etH la matrice Hessienne.

(16)

Les composantes d’un vecteur aléatoire sont indépendantes si la loi conjointe se factorise par les lois mar- ginales de chaque composantes. Ceci est équivalent à E

"

Y

i

gi(Xi)

#

= Y

i

E[gi(Xi)] pour toutes fonctions (mesurables) gi (il ne suffit pas d’en trouver un seul jeu). La conséquence est que si les composantes de X sont indépendantes, alors la matrice de covarianceΣX est diagonale. La réciproque est en générale fausse. De même, pour un vecteur à composantes indépendantes, ΦX(u) =Y

i

ΦXi(ui).

Si un vecteurX est de moyennemXet de matrice de covarianceΣX, alors pour toute matriceM de dimensions adéquates etµ∈Rn, Y =M X+µ est de moyenne mY =M mX+µ, de matrice de covariance ΣY =MΣXMt et de fonction caractéristique ΦY(u) =eıutµΦX(Mtu).

Rappelons également qu’une matrice de corrélarion ou de covariance est symétrique (par construction même) et non négative, i.e., pour tout vecteurµ, µtRXµ≥0 et µtΣXµ≥0

cela vient deµtE [(X−kmX)(X−kmX)t]µ= E [µt(X−kmX)(X−kmX)tµ] = Eh

t(X−kmX))2i

aveck= 0pourRX et k= 1pourΣX

.

Par la suite, quand on parlera de moments (moyenne, covariance) on sous-entendra que l’on considère de telles quantités sous réserve d’existance (moyenne si X est sommable, etc.).

Exemples

• Loi multinomiale.On écritX ∼ M(n, m, p)avecp= [p1 · · · pm]tvecteur de probabilité,0≤pi≤1 et P

ipi = 1. Elle est définie sur l’ensemble {k∈ {0, . . . , n}m:P

iki=n}. Cette loi généralise la loi binomiale, donnée pour m = 2 (on peut voir la binomiale comme un couple (X, n−X)). Cette loi modélise encore un processus de comptage d’événements, non plus binaires mais avecmpossibilités, lors d’une expérience répétéenfois de manière indépendante. On peut la définir sous la formeX=d

Xn k=1

Bk

avecBk ayant une seule composante non nulle et égale à un, avec pi la probabilité que la composante isoit celle-ci. Cette loi apparaît par exemple dans une série de lancers d’un dé pour lequel on cherche, sur lesnlancers, combien de fois on obtient la face i= 1, . . . ,6.

Sa loi est P(X =k) = n!

k1!. . . km! pk11. . . pkmm.

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement12 mX=n p, Σ2X =n(diag(p)−ppt) et ΦX(u) = 1teıdiag(u)pn.

Les composantesXi deX sont binomiales,Xi∼ B(n, pi).

• Loi uniforme continueoùX prend ses valeurs sur un ensemble bornéD ⊂Rn. On écriraX∼ U(D).

La densité de probabilité est fX(x) = 1

VolD1D(x) avec VolD= Z

D

dx, volume de D.

Dans le cas particulier où D=Bn(µ, ρ) ={x∈ Rn :kx−µk ≤ ρ} boule de rayonρet centrée sur µ, on obtient VolBn(µ, ρ) = πn2ρn

Γ n2 + 1; la moyenne, la matrice de covariance et la fonction caractéristique sont respectivement

mX =µ, ΣX = ρ2

n+ 2I et ΦX(u) = 2n2Γ n2 + 1

Jn2(ρkuk)

ρn2kukn2 avec I matrice identité et Jν

fonction de Bessel du premier type et d’ordreν. On notera queΣX, proportionnelle à l’identité, est donc diagonale, mais les composantes deX ne sont pas indépendantes pour autant.

• Loi gaussienne ou normalede paramètreµetΣ, notéeX ∼ N(µ,Σ), prenant ses valeurs surRn. Cette loi, en particulier pourn= 2, apparaît souvent en communication.

La densité de probabilité est fX(x) = 1

(2π)n2 |Σ|12 exp

−1

2(x−µ)tΣ1(x−µ)

avec| · |valeur absolue du déterminant.

12. diag(x)avecxRest la matrice diagonale portantxsur sa diagonale,1est le vecteur de composantes 1, et l’exponentielle d’une matrice diagonalecoïncide avec la matrice diagonale portant sur celle-ci les exponentielles des éléments diagonaux de∆.

(17)

Sa moyenne, sa variance et sa fonction caractéristique sont respectivement mX=µ, ΣX = Σ et ΦX(u) = exp

ıutµ−1 2utΣu

.

Pour toute matriceM de rang plein et de dimension adéquate, tout vecteur α∈Rn, M X+α∼ N(M µ+α, MΣMt). En particulier, une combinaison linéaire de composantes d’un vecteur gaussien est gaussienne. La réciproque est vrai si toute combinaison linéaire des composantes d’un vecteur est gaussienne.

• Variable sphériquement invariante. Une variable X est dite sphériquement invariante si pour toute matrice orthogonale (de rotation)O, on a OX=d X. En communication, le casn= 2 apparaît souvent et le vecteur aléatoire est dit circulaire (voir section2.3) sur les vecteurs aléatoires complexes).

La densité de probabilité ne dépend que du module de xet est de la forme fX(x) = dX(kxk2) avecdX appelé générateur de densité.

Si elles existent, la moyenne est nulle et la matrice de covariance proportionnelle à l’identité (par nature, la seule invariante par l’effet de n’importe quelle rotation).

La fonction caractéristique est de la formeΦX(u) =ϕX(kuk2) avecϕX, appelé générateur carac- téristique, et transformée de Hankel dedX, ϕX2) = (2π)n2 ϑ1−n2

Z

R+rn2dX(r2)Jn21(rϑ)dr.

Maxwell a montré queX est sphériquement invariant et de composantes indépendantes si et seule- ment siX ∼ N(0, αI).

On peut montrer que X=dRU avec R=dkXk et U=d kXXk ∼ U(Sn) indépendante de R, où Sn={x∈Rn:kxk= 1} est la sphère unité deRn. De plus, kXk et X

kXk sont indépendantes.

On peut écrireX à l’aide des coordonnées hypersphériques (polaires dans le casn= 2), Xi=Rcos Θi

i1

Y

j=1

sin Θj avec, par convention, Y0

1

= 1 et Θn= 0. On montre alors que Ret lesΘi sont mutuellement indépendantes

fR(r) = 2πn2

Γ n2rn−1dX(r2) fΘii) = Γ n2j+1

√πΓ n2j (sinθj)nj1 1[0 ;π)i) pour 1≤i≤n−2 fΘn−1n1) = 1

2π1[0 ; 2π)n1) uniforme.

En communication, le casn= 2pour une loi gaussienne apparaît souvent. Le moduleRsuit une loi de Rayleigh.

On dira que siX est sphériquement invariante,X +µest sphériquement invariante autour du vecteur µ. De même, pour toute matrice M de rang plein, M X+µ est dite elliptiquement distribuée autour deµ: ses courbes iso-probabilités sont des ellispoïodes dont les axes (orthogonnaux) et étirements sont donnés par les vecteurs propres et valeurs propres deΣ =M Mt. A noter que si elle existe, la moyenne d’un vecteur sphériquement invariant autour deµest nécessairementµ

En communication, le casn = 2 pour une loi gaussienne non centrée apparaît souvent également. Le moduleR suit une loi connue sous le nom de loi de Rice.

2.3 Vecteurs aléatoires à valeurs complexes

En traitement du signal déterministe, on travaille souvent avec des signaux complexes, typiquement pour représenter des sinusoïdes. On souhaitera en faire de même avec les signaux aléatoires. Pour ce faire, on souhaitera donc travailler avec des variables et vecteurs aléatoires à valeurs complexes.

En remarquant queCpeut-être mis en bijection avecR2, et doncCn avecR2n on peut facilement construire des vecteurs aléatoires Z : (Ω,A, P)−→ (Cn,B(Cn), PZ) ≡(R2n,B(R2n), PX,Y). On écrira Z =X +ıY et

Références

Documents relatifs

On tire au hasard trois boules simultanément, et on appelle X la variable aléatoire correspondant à la somme des numéros marqués sur ces boules.. Représenter la loi de

La cirrhose est une situation clinique complexe qui associe une insuffisance hépatocellulaire, à l’origine d’une augmentation de la toxicité d’un certain nombre de molécules

Le signal y (n ) présentant de l'interférence intersymbole, on se propose de l'égaliser au moyen d'un filtre numérique que l'on appellera &#34;égaliseur&#34;. 3) Exprimez

On considère un signal numérique x (n ) dont les échantillons sont constitués de la somme d'une constante notée α et d'une variable de bruit blanc b (n ) gaussienne, centrée,

• C’est essentiellement cette quantité qui est utile en temps que descripteur statistique du signal, car la phase est aléatoire et, en général, de moyenne nulle.. Méthode

• Il faut un indicateur qui mesure avec quelle « force » la valeur d’un échantillon à l’instant t+ τ dépend de la valeur à l’instant t .... Exemples Exemples

Signaux Aléatoires et Systèmes Linéaires.. Cas des

b-Utiliser le résultat de (a), et sachant que la dérivée de la fonction échelon est une impulsion de Dirac ( ) calculer la dérivée de v(t) et tracer sa forme d’onde.. ∫ ( )