• Aucun résultat trouvé

Preuves des th´eor`emes 1.4 et

Dans le document Cours Séries Temporelles 1 (Page 34-40)

converge presque sˆurement, quand n tend vers l’infini, vers une limite que nous notons Yt = P une suite de variables al´eatoires int´egrables. Le th´eor`eme de convergence domin´e (see Proposition??) montre que

Par cons´equent, il existe un ensemble A∈ F, v´erifiant PA= 1 tel que, pour toutω ∈A, nous ayons X

s=−∞

s||Xt−s(ω)|<∞

Pour ω∈A, la s´erie de terme g´en´eriques7→ψsXt−s(ω) est normalement sommable, ce qui implique que, pour toutω∈A, la suiten7→Yn,t(ω) converge. Fixons² >0 et choisissons ntel que

sup

p,q≥nE[|Yp,t−Yq,t|]≤²

Par application du lemme de Fatou nous avons alors, pour toutq ≥n,

Comme pr´ec´edemment fixons² >0 et choisissonsn tel que : sup

p,q≥n

|Yp,t−Yq,t|2¤

≤².

Par application du lemme de Fatou, nous avons : E d’autres termes, la suite{Yq,t}q≥0 converge en moyenne quadratique versYt. Finalement, nous avons :

etYt est donc une variable de carr´e int´egrable. ¥

Th´eor`eme 1.5. Soit{ψk}une suite telle queP

k=−∞k|<∞et soit{Xt}un processus stationnaire au second ordre de moyenneµX =E[Xt]et de fonction d’autocovarianceγX(h) = cov(Xt+h, Xt). Alors le processusYt=P

s=−∞ψsXt−s est stationnaire au second ordre de moyenne : µY =µX

et de mesure spectrale :

νY(dλ) =|ψ(e−iλ)|2νX(dλ) (1.49)

o`u ψ(e−iλ) = P

kψke−ikλ est la fonction de transfert du filtre. Enfin l’intercovariance entre les pro-cessus Yt et Xt a pour expression :

γY X(h) =E[(Yt+h−µY)(Xt−µX)] = X

k=−∞

ψkγX(h−k) (1.50)

D´emonstration. CommeE£P

s=−∞s|E[|Xt−s|]¤

<∞, le th´eor`eme de Fubini implique

E

ce qui ´etablit (1.47). Pour la fonction d’autocovariance, notons tout d’abord que, pour tout n, le processusYn,t=Pn

s=−nψsXt−s est stationnaire au second ordre et que nous avons cov(Yn,t, Yn,t+h) = permet ensuite de d´eduire, quandn tend vers l’infini, les limites suivantes

|B| ≤(var(Yt−Yn,t))1/2(var(Yn,t+h))1/20

3Nous venons ici de d´emontrer directement la propri´et´e de continuit´e de la covariance dans L2 que nous verrons comme une cons´equence de la structure d’espace de Hilbert au chapitre 4.

En remarquant ensuite que X

j=−∞

X

k=−∞

Z

I

j||ψkX(dλ)≤γX(0)

 X

j=−∞

j|

2

nous pouvons appliquer le th´eor`eme de Fubini et permuter les signes somme et int´egrale dans l’ex-pression de γY(h). Ce qui donne :

γY(h) = Z

I

eihλ X

j=−∞

X

k=−∞

ψjψkeikλe−ijλ= Z

I

eihλ|ψ(e−iλ)|2νX(dλ)

On en d´eduit queνY(dλ) =|ψ(e−iλ)|2νX(dλ). Pour d´eterminer l’expression de l’intercovariance entre les processus entre les processus Yt et Xt, il suffit de noter |cov(Yt+h, Xt)|2 ≤γY(0)γX(0) < +∞ et que :

E[(Yt+h−µY)(Xt−µX)] = lim

n→∞cov(Yn,t+h, Xt) = lim

n→∞

Xn

k=−n

ψkcov(Xt+h−kXt)

= X

k=−∞

ψkγX(h−k)

Ce qui conclut la preuve. ¥

Chapitre 2

Estimation de la moyenne et des covariances

2.1 Estimation de la moyenne

Soit{Xt}un processus al´eatoire `a temps discret stationnaire au second ordre, de moyenneE[Xt] = µ, et de fonction d’autocovarianceγ(h). On suppose avoir observ´en´echantillons cons´ecutifsX1, . . . Xn du processus. L’estimateur deµque nous consid´erons est lamoyenne empirique d´efinie par :

ˆ

On constate tout d’abord que ˆµn est un estimateursans biais de la moyenne µcar E[ˆµn] = 1

n Xn

t=1

E[Xt] =µ (2.2)

du fait de la stationnarit´e. Lerisque quadratique de l’estimateur, qui mesure sa dispersion autour de la valeur inconnueµ de la moyenne, a pour expression

R(ˆµn, µ) =E£ D’o`u la proposition suivante :

Proposition 2.1. Soit {Xt} un processus stationnaire au second ordre de moyenne µ et de fonction d’autocovariance γ(h) avec P c’est `a dire queµˆn converge en moyenne quadratique vers µ, `a la vitesse√

n. De pluslimn→∞µˆn=µ P-p.s.

D´emonstration. Lorsque γ(h) est absolument sommable, le th´eor`eme de la convergence domin´ee ap-pliqu´ee `a (2.3) montre que

n→∞lim nR(ˆµn, µ) = X

h=−∞

n→∞lim µ

1−|h|

n

γ(h) = X

h=−∞

γ(h) = 2πf(0) o`u f(λ) = (2π)−1P

h=−∞γ(h)e−ihλ est la densit´e spectrale du processus {Xt}. La preuve de la convergence presque sˆure de ˆµn est trait´ee par l’exercice??. ¥ Cette proposition montre que la loi des grands nombres, ´etablie classiquement pour des variables al´eatoires ind´ependantes, est ´egalement valable pour un processus stationnaire au second ordre, du moment que la fonction d’autocovariance d´ecroˆıt suffisamment rapidement `a l’infini. Sous cette condi-tion, il est possible d’estimer la moyenne `a partir d’une seule r´ealisation de celui-ci. La proposition 2.1 nous donne acc`es `a la valeur limite deE£

(

n(ˆµn−µ))2¤

. Cependant pour construire des intervalles de confiance pour les param`etres estim´es (cf. d´efinition A.27) ou pour tester des hypoth`eses concernant la valeur des param`etres (voir d´efinition A.28), il est n´ecessaire d’obtenir un r´esultat plus pr´ecis portant sur la distribution limite de

n(ˆµn−µ). L’obtention de th´eor`emes de type limite centrale pour des suites de variables al´eatoiresd´ependantesest un sujet d´elicat, qui a donn´e lieu `a une vaste litt´erature.

Il n’est bien entendu pas question ici de pr´esenter une th´eorie g´en´erale et nous nous contentons donc d’´enoncer un r´esultat valable dans le cas de processus lin´eaire fort. Le fait de devoir ´emettre une hypoth`ese aussi contraignante sur la loi du processus dans un contexte o`u, en fait, seules les propri´et´es au second ordre nous int´eressent est bien sˆur frustrant, mais il traduit la (relative) difficult´e technique d’un tel r´esultat (la preuve de ce th´eor`eme est omise).

Th´eor`eme 2.1. Soit {Xt} un processus lin´eaire fort de moyenne µ. On a Xt=µ+P

k=−∞ψkZt−k avec P

kk|<∞ et ZtIID(0, σ2). On poseµˆn=n−1Pn

t=1Xt. Alors :

√n(ˆµn−µ)→dN(0,2πf(0)) (2.5)

o`u f(0) =σ2|ψ(0)|ˆ 2/(2π), ψ(λ) =ˆ P

j=−∞ψjeijλ, est la densit´e spectrale de Xt en0.

Exemple 2.1 : Moyenne empirique pour un processus AR(1) (fort)

SoitXtun processus autor´egressif d’ordre1 fort, de moyenneµ, solution stationnaire au second ordre d´efini par l’´equation de r´ecurrence

Xtµ=φ(Xt−1µ) +Zt

o`u{Zt} ∼IID(0, σ2) et|φ|<1. Nous rappelons que la fonction d’autocovariance d’un processus AR(1) pour

|φ|<1 est donn´ee par

γX(k) = σ2 (1φ2)φ|k|

et que la densit´e spectrale de ce processus a pour expression f(λ) = σ2

|1φe−iλ|2

Dans ce cas, la variance limite qui intervient dans l’´equation (2.5), est donn´ee par 2πf(0) = σ2/(1φ)2. Cette valeur est `a comparer avec la variance deXtdonn´ee parγ(0) =σ2/(1−φ2). On constate que le rapport 2πf(0)/γ(0) = (1 +φ)/(1φ) tend vers 0 lorsque φ → −1 et vers +∞ lorsque φ 1. Ce qui implique

par exemple lorsque l’on consid`ere l’intervalle de confiance asymptotique de niveau 95% pour la moyenne µ donn´e par µn 1.96σn−1/2/(1φ),µˆn+ 1.96σn−1/2/(1φ)] que l’estimation de la moyenne est bien meilleure (plus pr´ecise) que si les donn´ees ´etaient iid lorsqueφest proche de −1. Inversement, lorsqueφest proche de 1, l’intervalle de confiance est beaucoup plus large, c’est `a dire l’estimation est significativement moins pr´ecise, pour un nombrend’´echantillons comparable, que si les donn´ees ´etaient ind´ependantes. Cette constatation somme toute assez logique est `a mettre en rapport avec l’allure des trajectoires repr´esent´ees sur la figure 1.11.

2.2 Estimation des coefficients d’autocovariance et

Dans le document Cours Séries Temporelles 1 (Page 34-40)