• Aucun résultat trouvé

FORMULAIRE POUR LA THÉORIE DU SIGNAL

N/A
N/A
Protected

Academic year: 2021

Partager "FORMULAIRE POUR LA THÉORIE DU SIGNAL"

Copied!
7
0
0

Texte intégral

(1)

FORMULAIRE POUR LA THÉORIE DU SIGNAL

Christian JUTTEN

Laboratoire GIPSA, Département Signal et Images (CNRS, UGA, Grenoble-INP), Grenoble, France Christian.Jutten@gipsa-lab.fr

1. FORMULES TRIGONOMÉTRIQUES 1.1. Somme et différence d’angles

• sin(α+β) = sinαcosβ+ cosαsinβ,

• sin(α−β) = sinαcosβ−cosαsinβ,

• cos(α+β) = cosαcosβ−sinαsinβ,

• cos(α−β) = cosαcosβ+ sinαsinβ.

1.2. Expression en fonction des angles doubles

• 2 sin2α= 1−cos 2α,

• 2 cos2α= 1 + cos 2α,

• 2 sinαcosα= sin 2α.

1.3. Produits de fonctions trigonométriques

• 2 sinαsinβ= cos(α−β)−cos(α+β),

• 2 cosαcosβ = cos(α−β) + cos(α+β),

• 2 sinαcosβ= sin(α+β) + sin(α−β).

1.4. Somme et différence de fonctions trigonométriques

• sinα+ sinβ= 2 sin[(α+β)/2] cos[(α−β)/2],

• sinα−sinβ= 2 sin[(α−β)/2] cos[(α+β)/2],

• cosα+ cosβ= 2 cos[(α+β)/2] cos[(α−β)/2],

• cosα−cosβ=−2 sin[(α+β)/2] sin[(α−β)/2].

1.5. Formes exponentielles

• exp(jα) = cosα+jsinα, avecj2=−1,

• sinα=exp(jα)−exp(−jα)

2j ,

• cosα= exp(jα)+exp(−jα)

2 .

1.6. Développements limités

• sinα=α−α3/3! +α5/5!. . .+ (−1)pα2p+1/(2p+ 1)! +. . .,

• cosα= 1−α2/2! +α4/4!. . .+ (−1)pα2p/(2p)! +. . .,

• expα= 1 +α+α2/2! +. . .+αk/k! +. . ..

2. MODÈLES MATHÉMATIQUES DE SIGNAUX 2.1. Signaux simples

• rect[(t−τ)/T]: fonction rectangle centrée surτ, d’amplitude 1et de largeurT (l’aire vautT),

• tri[(t−τ)/T]: fonction triangle centrée surτ, d’amplitude 1et de largeur2T(l’aire vautT),

• δ(t): distribution de Dirac, satisfaisantδ(t) = 0pour t6= 0, etR+∞

−∞ δ(t)dt= 1,

• sinc(u) = sin(πu)πu : sinus cardinal deu(son aire vaut 1).

2.2. Opérateur de répétition

• repT(.): répétition de.avec une périodeT,

• repT(x(t)) =P+∞

k=−∞x(t−kT),

• repT(δ(t)) =δT(t) =P+∞

k=−∞δ(t−kT): peigne de Dirac.

2.3. Opérateur de convolution Définition

• x(t)∗y(t) = (x∗y)(t) = R+∞

−∞ x(u)y(t−u)du = R+∞

−∞ x(t−v)y(v)dv,

• x(t)∗y(t−t0) =R+∞

−∞ x(u)y(t−u−t0)du,

• x(t)∗y(at+b) =R+∞

−∞ x(u)y(a(t−u) +b)du Propriétés

• Commutativité :x(t)∗y(t) =y(t)∗x(t),

• Associativité :[x(t)∗y(t)]∗z(t) =x(t)∗[y(t)∗z(t)] = x(t)∗y(t)∗z(t),

• Distributivité par rapport à l’addition : x(t)∗[y(t) + z(t)] =x(t)∗y(t) +x(t)∗z(t)

(2)

2.4. Propriétés de la distribution de Diracδ(t)

• x(t0) =R+∞

−∞ x(t)δ(t−t0)dt

• x(t)∗δ(t) =x(t),

• x(t)∗δ(t−t0) =x(t−t0),

• x(t−t1)∗δ(t−t2) =x(t−t1−t2),

• δ(at) =|a|−1δ(t).

3. VALEUR MOYENNE TEMPORELLE, ÉNERGIE ET PUISSANCE

• x¯= limT→+∞T1 R+T /2

−T /2 x(t)dt: moyenne.

Signaux réels

• Wx=R+∞

−∞ x2(t)dt: énergie,

• Px= limT→+∞ 1 T

R+T /2

−T /2 x2(t)dt: puissance.

Signaux complexes

• Wx=R+∞

−∞ |x(t)|2dt: énergie,

• Px= limT→+∞ 1 T

R+T /2

−T /2 |x(t)|2dt: puissance.

4. REPRÉSENTATION VECTORIELLE

On considère des signauxx(t)ety(t)dans l’espaceL2(t1, t2).

4.1. Distance euclidienne

• d2(x, y) =kx−yk2=Rt2

t1 |x(t)−y(t)|2dt

• d2(x, y) =kxk2+kyk2−2<hx, yi

• kxk2=Rt2

t1 |x(t)|2dt,

• hx, yi=Rt2

t1 x(t)y(t)dt.

4.2. Inégalité de Schwartz

• |hx, yi|2≤ hx, xi.hy, yi,

Rt2

t1 x(t)y(t)dt

2

≤Rt2

t1 |x(t)|2dt.Rt2

t1 |y(t)|2dt.

4.3. Orthogonalité dex(t)ety(t)

• hx, yi=Rt2

t1 x(t)y(t)dt= 0.

4.4. Développement sur une base orthogonale{ψk(t)}

• x(t) =P+∞

k=1αkψk(t),

• αk= λ1

kkhx, ψki= λ1

kk

Rt2

t1 x(t)ψk(t)dt,

• λkk=hψk, ψki=kψkk2=Rt2

t1k(t)|2dt,

• Rt2

t1 |x(t)|2dt=P+∞

k=1k|2λkk.

4.5. Développement en séries de Fourier (DSF) dansL2(t1, t1+ T)

On utiliseφk(t) = exp j2πTkt .

• x(t) =P+∞

k=1αkexp j2πTkt ,

• λkk=Rt1+T

t1 |exp j2πTkt

|2dt=T,

• αk = λ1

kkhx,exp j2πTkt

i = T1 Rt1+T

t1 x(t) exp − j2πTkt

dt.

5. TRANSFORMÉES DE FOURIER 5.1. Transformée de fonctions sommable

Pour des fonctions x(t) bornées et absolument sommables (R

|x(t)|dt <+∞), on définit la transformée de Fourier (TF), notéeX(f).

x(t)X(f) = Z +∞

−∞

x(t) exp(−j2πf t)dt.

De même, étant donnéeX(f), on peut calculerx(t)par trans- formée de Fourier inverse :

X(f)x(t) = Z +∞

−∞

X(f) exp(+j2πf t)df.

5.2. Notations On notera

• x(t)X(f),

• X(f) =F {x(t)}: transformée de Fourier,

• x(t) =F−1{X(f)}: transformée de Fourier inverse.

5.3. Propriétés

• La TF est linéaire :ax(t) +by(t)aX(f) +bY(f)

• La TF conserve la parité.

• Si la fonction x(t) est réelle (imaginaire, resp.) im- paire,X(f)est imaginaire (réelle, resp.) impaire.

5.4. Règles de calculs

Soit une fonctionx(t), telle quex(t)X(f).

• x(−t)X(−f): retournement temporel,

• x(t)X(−f): complexe conjuguée,

• x(at)|a|−1X(f /a): effet Doppler,

• x(t−t0) X(f) exp(−j2πf t0): translation tem- porelle,

• x(t) exp(j2πf0t)X(f−f0): translation en fréquence ou modulation,

dtdnnx(t)(j2πf)nX(f): dérivation surt,

(3)

• Rt

−∞x(u)du j2πf1 X(f): intégration surt.

Soient deux fonctionsx(t)ety(t), telles quex(t)X(f)et y(t)Y(f), on montre le Théorème de Plancherel :

• x(t)∗y(t)X(f)Y(f),

• x(t)y(t)X(f)∗Y(f).

5.5. Transformées de Fourier de quelques signaux usuels

• rect(t/T)Tsinc(f T): fonction rectangle,

• tri(t/T)Tsinc2(f T): fonction triangle,

• exp(−at)(t) a+j2πf1 : impulsion exponentielle unilatérale,

• exp(−a|t|) a2+(2πf)2a 2 : impulsion exponentielle double,

• exp(−πt2)exp(−πf2): impulsion gaussienne,

• exp(−at) sin(2πf0t)(t) (a+j2πf)2πf2+(2πf0 0)2 : sinu- soïde amortie,

• exp(−at) cos(2πf0t)(t) (a+j2πfa+j2πf)2+(2πf0 0)2 : cosi- nusoïde amortie.

5.6. Transformées de Fourier de distributions

• (t) j2πf1 +δ(f)2 : échelon unité,

• sgn(t) jπf1 : fonction signe,

• δ(t)1: impulsion de Dirac,

• kkδ(f): constante.

5.7. Transformée de Fourier de signaux à moyenne non nulle

• Soitx(t) = ¯x+x0(t)oùx¯est la moyenne dex(t), on aF {x(t)}= F {xj2πf00(t)}+ ¯xδ(f),

• (t) 12δ(f) +j2πf1 ,

• sgn(t) jπf1 .

5.8. Transformées de Fourier de signaux périodiques Soient deux signauxx(t)ety(t), périodiques de même péri- ode∆.

5.8.1. Développement en séries de Fourier

Les signaux étant périodiques, si les conditions de Diriclet sont satisfaites, on peut calculer DSF dex(t)ety(t):

• x(t) =P+∞

n=−∞Xnexp(j2πnt/∆), avecXn= [R+∆/2

−∆/2 x(t) exp(−j2πnt/∆)dt]/∆,

• y(t) =P+∞

n=−∞Ynexp(j2πnt/∆), avecYn = [R+∆/2

−∆/2 y(t) exp(−j2πnt/∆)dt]/∆.

5.8.2. Transformées de Fourier

Les transformées de Fourier donnent des spectres de raies, aux fréquencesn/∆, dont l’enveloppe spectrale est la trans- formée de Fourier d’une période du signal divisée par la péri- ode∆.

• X(f) =P+∞

n=−∞Xnδ(f−n/∆), avecXn défini ci- dessus,

• Y(f) = P+∞

n=−∞Ynδ(f −n/∆), avec Yn défini ci- dessus.

5.8.3. Transformées de signaux périodiques usuels

• cos(2πf0t) 12[δ(f +f0) +δ(f−f0)]: signal cosi- nusoïdal,

• sin(2πf0t) j2[δ(f+f0)−δ(f−f0)]: signal sinu- soïdal,

• exp(j2πf0t)δ(f −f0): phaseur à la fréquencef0,

• P

kδ(t−k∆) 1

P

nδ(f−n/∆): peigne de Dirac,

• δ(t) 1δ1/∆(f): peigne de Dirac avec les nota- tions abrégées,

• P+∞

n=−∞Xnexp(j2πnt/∆)P+∞

n=−∞Xnδ(f−n/∆):

signalx(t)périodique,

• Arep{rect(t/θ}P+∞

n=−∞Xnδ(f−n/T)avecXn =

T sinc(nθ/T).

6. CORRÉLATIONS ET DENSITÉS SPECTRALES 6.1. Signaux à énergie finie

6.1.1. Auto- et inter-corrélation

• Auto-corrélation :Γxx(τ) =R+∞

−∞ x(t)x(t−τ)dt,

• Inter-corrélation :Γxy(τ) =R+∞

−∞ x(t)y(t−τ)dt.

6.1.2. Relation entre corrélation et convolution

• Γxy(τ) =x(τ)∗y(−τ).

6.1.3. Propriétés des fonctions de corrélation

• Symétrie hermitienne : – Γxy(τ) = Γyx(−τ), – Γxx(τ) = Γxx(−τ),

• Bornes

– Cas général :|Γxy(τ)| ≤Γxx(0)Γyy(0), – Pourx(t) =y(t):|Γxx(τ)| ≤Γxx(0)dt, – Γxx(0)∈Rest l’énergie du signal.

• Dans le cas de signaux réels, la fonction d’autocorrélation est paire et maximale en0, oùΓxx(0)est l’énergie du signal.

(4)

6.1.4. Densité spectrale d’énergie

• Γxx(τ)Sxx(f) =R+∞

−∞ Γxx(τ) exp(−j2πf τ)dτ,

• Sxx(f) =|X(f)|2: densité spectrale d’énergie,

• Γxy(τ) Sxy(f) = R+∞

−∞ Γxy(τ) exp(−j2πf τ)dτ : densité inter-spectrale,

• Sxy(f) =X(f)Y(f), 6.1.5. Relations de Parseval

• R+∞

−∞ x(t)y(t)dt=R+∞

−∞ X(f)Y(f)df,

• R+∞

−∞ |x(t)|2dt=R+∞

−∞ |X(f)|2df, ou bien Γxy(0) =R+∞

−∞ Sxx(f)df: énergie du signal.

6.1.6. Dérivation de la fonction de corrélation

xy(τ) = Γx0y(τ) =−Γxy0(τ)

6.2. Signaux à puissance moyenne finie 6.2.1. Fonctions de corrélation

• Γxx(τ) = limT→∞ 1 T

R+T /2

−T /2 x(t)x(t−τ)dt : auto- corrélation,

• Γxy(τ) = limT→∞ 1 T

R+T /2

−T /2 x(t)y(t−τ)dt: inter- corrélation.

6.2.2. Densités spectrale et interspectrale de puissance

• Sxx(f) =F {Γxx(τ)}: densité spectrale de puissance,

• Sxy(f) =F {Γxy(τ)}: densité inter-spectrale de puis- sance,

• Sxx(f) = limT→∞ 1

T|X(f, T)|2, avec X(f, T) =F {x(t, T)}=F {rect(t/T)x(t)}.

6.2.3. Relation de Parseval

• Px={Γxx(0)}=R+∞

−∞ Sxy(f).

6.3. Signaux périodiques

Soient deux signauxx(t)ety(t), périodiques de même péri- ode∆.

6.3.1. Fonctions de corrélations

Les auto et inter-corrélations sont périodiques de période∆, et on peut les calculer par intégration sur une période∆.

• Auto-corrélation

– Γxx(τ) =1 R+∆/2

−∆/2 x(t)x(t−τ)dt, – Γxx(τ) =1 Rt0+∆

t0 x(t)x(t−τ)dt, – Γxx(τ) =P+∞

n=−∞|Xn|2exp(j2πnτ /∆), en util- isant le DSF dex(t).

• Inter-corrélation

– Γxy(τ) = 1 R+∆/2

−∆/2 x(t)y(t−τ)dt, – Γxy(τ) = 1 Rt0+∆

t0 x(t)y(t−τ)dt, – Γxy(τ) =P+∞

n=−∞XnYnexp(j2πnτ /∆), en util- isant le DSF dex(t)ety(t).

6.3.2. Densités spectrale et inter-spectrale de puissance Les densités spectrale et inter-spectrale de puissance sont les transformées de Fourier de fonctions périodiques de périodes

∆. On obtient donc des spectres de raies, aux fréquences k/∆, dont l’enveloppe spectrale est la transformée de Fourier d’une période de la fonction de corrélation divisée par la péri- ode∆.

• Densité spectrale – Sxx(f) = P+∞

n=−∞|Xn|2δ(f −n/∆), en util- isant le DSF dex(t),

– Sxx(f) =12|X(f,∆)|2δ1/∆(f), avec

X(f,∆) =F {x(t,∆)}=F {rect((t−t0)/∆)x(t)}.

• Densité inter-spectrale – Sxy(f) = P+∞

n=−∞XnYnδ(f −n/∆), en util- isant le DSF dex(t),

– Sxy(f) =12X(f,∆)Y(f,∆)δ1/∆(f), avec X(f,∆) =F {x(t,∆)}=F {rect((t−t0)/∆)x(t)}

etY(f,∆) =F {y(t,∆)}=F {rect((t−t0)/∆)y(t)}.

6.3.3. Relations de Parseval

• Px= Γxx(0) =R+∞

−∞ Sxx(f)df=P+∞

n=−∞|Xn|2. 7. SIGNAUX ALÉATOIRES

7.1. Variables aléatoires 7.1.1. Densités de probabilité

On notepX(u)la densité d’un variable aléatoire (VA)X.

• SiXetY sont deux VA indépendantes, la densité de la VAZ =X+Y est :pZ(u) = (pX∗py)(u),

• SiY =f(X), avecf inversible, pY(u) =pX(f−1(u))/|f0(f−1(u))|

7.1.2. Moments

Moyenne d’une VA continue ou discrète

• µ1=E[X] =R+∞

−∞ upX(u)du,

• µ1=E[X] =P

iuiPr(X =ui).

Moment d’ordrekd’une VA continue ou discrète

• µk=E[Xk] =R+∞

−∞ ukpX(u)du,

• µk=E[Xk] =P

iukiPr(X =ui).

(5)

Moment centré d’ordrekd’une VA continue ou discrète

• µ0k =E[(X−µ1)k] =R+∞

−∞(u−µ1)kpX(u)du,

• µ0k =E[(X−µ1)k] =P

i(ui−µ1)kPr(X =ui).

Variance : c’est le moment centré d’ordre 2. On la note fréquemmentσ2plutôt queµ02.

• σ202=E[(X−µ1)2] =R+∞

−∞(u−µ1)2pX(u)du,

• σ202=E[(X−µ1)2] =P

i(ui−µ1)2Pr(X =ui).

Relation entre variance et moments d’ordre1et2

• σ2=E[(X−µ1)2] =E[X2]−E[X]22−µ21. 7.1.3. Distributions de quelques lois usuelles

• Pr(k) = Cnkpk(1−p)n−k : loi Binomiale, de la VA somme de nVA binaires, avec p = Pr(X = x1) et 1−p=Pr(X =x0),

• Pr(n) = an!nexp(−a) : loi de Poisson de paramètre a >0,

• p(u) = 1

2πσexp

(u−m)2 2

: loi gaussienne de moyennemet de varianceσ2, notéeN(m, σ2).

7.2. Vecteurs aléatoires 7.2.1. Densités de probabilité

On notepX(u1, . . . , un)la densité d’un vecteur aléatoire (VcA) Xde dimensionn.

SoitY =f(X), avecf inversible. On notef−1la transfor- mation inverse et(f−1)ila composanteide la transformation f−1:

• pY(u1, . . . , un) =

pX((f−1)1(u1), . . . ,(f−1)n(un))|Jf−1|.

Dans le cas d’une transformation linéaireY=AXoùAest une matrice régulière etu= (u1, . . . , un)T :

• pY(u1, . . . , un) = pX(A−1u)|detA−1|.

Dans le cas de la somme Z = X +Y de deux variables aléatoires, la densitépZ(u)vaut :

• pZ(u) =R

pXY(x, u−x)dx,

• pZ(u) =R

pX(x)pY(u−x)dx= (pX∗pY)(u), siX etY sont des VA indépendantes.

7.2.2. Théorème de la limite centrale

Théorème 7.2.1 La distribution statistique d’une somme de nvariables aléatoires indépendantes, possédant la même loi tend asymptotiquement vers une distribution gaussienne quelle que soit la distribution des termes individuels.

7.3. Auto-corrélation

On note de façon générale Xi = x(ti) la VA associée au processus aléatoirex(t)pourt=ti.

7.3.1. Auto-corrélation statistique Cas général

• RXX(t1, t2) =E[X1X2] =R R

x1x2p(x1, x2)dx1dx2. Cas d’un signal stationnaire, en notantτ =t1−t2

• RXX(τ) =E[X(t)X(t−τ)] =R R

x1x2p(x1, x2)dx1dx2. Les VA sont orthogonales ssiRXX(τ) = 0.

7.3.2. Auto-covariance statistique

C’est l’auto-corrélation des processus aléatoires centrés. On la noteCXX(τ).

Cas général

• CXX(t1, t2) =E[(X1−E(X1))(X2−E(X2))]

=R R

(x1−E(X1))(x2−E(X2))p(x1, x2)dx1dx2

=RXX(t1, t2)−E(X1)E(X2).

Cas d’un signal stationnaire, en notantτ =t1−t2

• CXX(τ) =E[(X(t)−E(X))(X(t−τ)−E(X))]

=R R

x1x2p(x1, x2)dx1dx2

=RXX(τ)−E(X)2.

Les VA sont non corrélées ssiCXX(τ) = 0.

7.3.3. Cas de processus ergodiques et stationnaires

Dans ce cas, on peut remplacer les moyennes statistiques par des moyennes temporelles, car on a asymptotiquement :

• RXX(τ) = limT→∞T1RT /2

−T /2x(t)x(t−τ)dt= ΓXX(τ).

7.3.4. Coefficients de corrélation

Par définition, c’est l’auto-covariance normalisée, notéeρX(τ) :

• ρX(τ) =CCXX(τ)

XX(0) =CXXσ2(τ)

X

. 7.3.5. Propriétés pour les signaux réels

Les fonction d’auto-corrélation et d’auto-covariance ont les propriétés inbtéressantes pour des processus aléatoires réels De plus, on a les relations énergétiques, pourτ = 0:

• elles sont paires,

• le maximum est atteint enτ= 0: – |CXX(τ)| ≤CXX(0) – |RXX(τ)| ≤RXX(0) – CXX(0) =σ2X, – RXX(0) =σ2X2X.

(6)

7.4. Densité spectrale de puissance (DSP)

Pour un processus aléatoirex(t), on ne peut pas calculer di- rectement la transformée de Fourier, puisquex(t)ne peut pas être décrit. Par conséquent, on ne peut pas calculer directe- ment sa DSP. On peut en revanche calculer sa fonction d’auto- corrélation par une moyenne statistique ou temporelle.

7.4.1. Théorème de Wiener-Kintchine

Le théorème de Wiener-Kintchine établit le lien entre la fonc- tion d’auto-corrélation et la DSP.

Théorème 7.4.1 La DSP d’un processus aléatoire station- naire au sens large est le transformée de Fourier de sa fonc- tion d’auto-corrélation :

SXX(f) = Z +∞

−∞

RXX(τ) exp(−j2πf τ)dτ.

7.4.2. Conséquence

Si on connaît la DSPSXX(f)d’un processus aléatoirex(t), on peut déduire la fonction d’auto-corrélation par transformée de Fourier inverse :

RXX(τ) = Z +∞

−∞

SXX(f) exp(j2πf τ)df.

On peut aussi l’exprimer en fonction de l’auto-covariance, car RXX(τ) =CXX(τ) +µ2X:

SXX(f) =F {CXX(τ)}+µ2Xδ(f).

Enτ= 0, on a :

• RXX(0) =PX =R+∞

−∞ SXX(f)df. Si le processus est aussi ergodique, on a

• RXX(0) = limT→∞ 1 T

RT /2

−T /2|x(t)|2dt

=R+∞

−∞ SXX(f)df.

7.4.3. Bruit blanc

Définition 7.4.2 On appelle bruit blanc un processus aléa- toireb(t)dont la densité spectrale de puissance est constante,

∀f :

SBB(f) =η/2.

Par transformée de Fourier inverse, on déduit la fonction d’auto- corrélation d’un bruit blancb(t):

RBB(τ) =F−1{SXX(f)}=δ(τ)η/2.

7.5. Inter-corrélation et densité inter-spectrale 7.5.1. Inter-corrélation et inter-covariance On définit les fonctions d’inter-corrélation :

• RXY(t1, t2) =E[X(t1)Y(t2)](cas général)

• RXY(τ) =E(X(t)Y(t−τ))(cas stationnaire).

et d’inter-covariance :

• CXY(t1, t2) =E[(X(t1)−µX)(Y(t2)−µY)]

=RXY(t1, t2)−E(X(t1))E(Y(t2))(cas général),

• CXY(τ) =E[(X(t)−µX)(Y(t−τ)−µY)]

=RXY(τ)−µXµY (cas stationnaire).

7.5.2. Coefficient d’inter-corrélation

Le coefficient d’inter-corrélation est défini par :

• ρXY(τ) =CσXY(τ)

XσY . 7.5.3. Densité inter-spectrale

La densité inter-spectrale de puissance est la transformée de Fourier de la fonction d’inter-corrélation :

• SXY(f) =F {RXY(τ)}.

7.5.4. Cohérence

• γXY(f) = S |SXY(f)|2

XX(f)SY Y(f).

La cohérence est proche de1si les signauxx(t)ety(t)sont liés par une relation linéaire (filtre). Dans le cas d’une relation non linéaire ou en présence d’un bruit additif, la cohérence devient très inférieure à1.

8. FILTRES LINÉAIRES INVARIANTS On considère un filtre de réponse impulsionnelle g(t)et en fréquence G(f), dont les signaux d’entrée et de sortie sont x(t)ety(t), respectivement.

• Y(f) =G(f)X(f) =X(f)G(f),

• y(t) = (g∗x)(t) = (x∗g)(t).

Pour une cascade de filtres, on ag(t) = (g1∗g2∗. . .∗gn)(t) ou, en fréquence,G(f) =G1(f)G2(f). . . Gn(f).

8.1. Formule des interférences

On considère deux filtres de réponses impulsionnellesg1(t) et g2(t) et en fréquence G1(f)et G2(f), dont les signaux d’entrée sontx1(t)etx2(t), et de sortiey1(t)ety2(t).

• SY1Y2(f) =SX1X2(f)G1(f)G2(f).

8.2. Relation entrée sortie des DSP

En conséquence de la formule des interférences, on a pour les DSP :

• SY Y(f) =|G(f)|2SXX(f),

• SY X(f) =G(f)SXX(f).

(7)

8.3. Relation entrée sortie entre corrélations

En conséquence des formules entre DSP, par transformée de Fourier inverse, on a pour les auto-corrélations

• RY Y(τ) = Γgg(τ)∗RXX(τ)pour des signaux aléa- toires, et

• ΓY Y(τ) = Γgg(τ)∗ΓXX(τ)si les signaux sont er- godiques, ou certains à puissance moyenne finie ou à énergie finie (attention aux définitions deΓ).

et pour les inter-corrélations :

• RY X(τ) = g(τ)∗ RXX(τ), pour des signaux aléa- toires, et

• ΓY X(τ) =g(τ)∗ΓXX(τ)si les signaux sont ergodiques, ou certains à puissance moyenne finie ou à énergie finie (attention aux définitions deΓ).

8.4. Statistiques en sortie d’un opérateur de filtrage On considèrey(t) = (g∗x)(t). Les statistiques dey(t)sup- posé stationnaire et ergodique sont :

• µYXG(0)(moyenne),

• PY =RY Y(0)

=R

RXX(τ)Γgg(τ)dτ

=R

SXX(f)|G(f)|2df(moment d’ordre 2),

• σ2Y =CXX(0) =PY −µ2X

=R

CXX(τ)Γgg(τ)dτ (variance)

• SY X(f) =G(f)SXX(f)(auto-corrélation).

8.4.1. Filtre passe-bas sans perte

G(0) = 1et la moyenne en sortie :µYX. 8.4.2. Filtre passe-haut

G(0) = 0et la moyenne en sortieµY = 0.

8.4.3. Signal d’entrée blanc, centré et de DSPη/2 moyenne en sortie :µY = 0,

auto-corrélation de l’entrée :ΓXX(τ) =δ(τ)η/2, auto-corrélation en sortie :RY Y(τ) = Γgg(τ)η/2, variance :σY2 = Γgg(0)η/2.

9. AUTRES OPÉRATEURS 9.1. Opérateur de retardt0

• g(t) =δ(t−t0),

• G(f) = exp(−j2πf t0), soit|G(f)|= 1 etφ(G(f)) =−2πf t0(phase linéaire),

• Γgg(τ) =δ(τ)(auto-corrélation).

9.2. Opérateur de moyenne temporelle

• g(t) =T1rectt−T /2

T

,

• G(f) =sinc(T f) exp(−jπf T),

• µy=G(0)µX(moyenne),

• Γgg(τ) =tri(τ /T)/T (auto-corrélation).

9.3. Opérateur de filtrage passe-bas idéal

Le filtre causal de largeur de bandeB n’étant pas réalisable, on décaleg(t)det0.

• G(f) =rect[f /(2B)] exp(−j2πf t0),

avec|G(f)|=rect[f /(2B)]etφ(G(f)) =−2πf t0,

• g(t) = 2Bsinc[2B(t−t0)],

• Γgg(τ) = 2Bsinc[2Bτ](auto-corrélation).

9.4. Opérateur de filtrage passe-bande idéal

Le filtre causal de largeur de bandeB, centré sur les fréquences

±f0n’étant pas réalisable, on décaleg(t)det0.

• G(f) =

rect[f /B] exp(−j2πf t0)∗[δ(f −f0) +δ(f+f0)], avec|G(f)|=rect[f /(2B)]etφ(G(f)) =−2πf t0,

• g(t) = 2Bsinc[2B(t−t0)] cos(2πf0t),

• Γgg(τ) = 2Bsinc[2Bτ] cos(2πf0τ)(auto-corrélation).

10. FILTRE ADAPTÉ

Problème : concevoir un filtreh(t)qui détecte un signalx(t) connu dans une observation bruitée,x(t) +n(t), oùn(t)est un bruit de DSPSN N(f), avec le meilleur rapport signal/bruit au tempst0. On notey(t) = (x+n)∗h(t)la sortie du filtre h(t).

Le filtre optimal est le filtreadapté(au signalx(t)) : H(f) =k X(f)

SN N(f)exp(−j2πf t0), (1) oùkest un scalaire quelconque, et le rapport S/B vaut :

S B

2

= Z +∞

−∞

|X(f)|2

SN N(f)df. (2) Dans le cas où le bruitn(t)est un bruit blanc de DSP égale à SN N(f) =N0:

H(f) =k0X(f) exp(−j2πf t0), (3) ou dans le domaine temporel :

h(t) =k0x(t0−t), (4) oùk0est un scalaire quelconque. Le rapport S/B vaut alors :

S B

2

= 1 N0

Z +∞

−∞

|X(f)|2df. (5) Pour un signalx(t)réel, on a simplementh(t) =k0x(t0−t).

Références

Documents relatifs

• 3 (en

Définition. ) Proposition (un critère suffisant).. La convergence en moyenne implique la convergence en probabilité.. Preuve.. Loi faible des

Ce qui montre de façon rigoureuse que lorsque l'on lance un grand nombre de fois une pièce de monnaie bien équilibrée, on a une chance sur deux en moyenne que la pièce tombe sur

2- Sachant que la consommation journalière moyenne observée dans l’échantillon est de 12 cigarettes, donner un intervalle de con…ance bilatéral à 90% pour m:?. 3- Quelle est

A chaque unité de temps , la particule se déplace d’une unité à droite avec une probabilité 0,5 ou d’une unité à gauche avec une probabilité 0,5.. On suppose que les

La fonction g est le résultat d'opérations et de composition de fonctions usuelles C ∞ dans leurs domaines... L'inégalité précédente est valable pour tous

Somme de variables aléatoires www.mathGM.fr Les savoir-faire Le problème du chapitre Variables aléatoires X +Y et aX Variables aléatoires indépendantes Somme de variables

On a constaté qu’en moyenne, sur un grand nombre de plats testés sortant de l’usine, 1,5 % des plats ne supportent pas une telle température et cassent. On choisit au hasard 200