converge presque sˆurement, quand n tend vers l’infini, vers une limite que nous notons Yt = P∞ une suite de variables al´eatoires int´egrables. Le th´eor`eme de convergence domin´e (see Proposition??) montre que
Par cons´equent, il existe un ensemble A∈ F, v´erifiant PA= 1 tel que, pour toutω ∈A, nous ayons X∞
s=−∞
|ψs||Xt−s(ω)|<∞
Pour ω∈A, la s´erie de terme g´en´eriques7→ψsXt−s(ω) est normalement sommable, ce qui implique que, pour toutω∈A, la suiten7→Yn,t(ω) converge. Fixons² >0 et choisissons ntel que
sup
p,q≥nE[|Yp,t−Yq,t|]≤²
Par application du lemme de Fatou nous avons alors, pour toutq ≥n,
Comme pr´ec´edemment fixons² >0 et choisissonsn tel que : sup
p,q≥nE£
|Yp,t−Yq,t|2¤
≤².
Par application du lemme de Fatou, nous avons : E d’autres termes, la suite{Yq,t}q≥0 converge en moyenne quadratique versYt. Finalement, nous avons :
E£
etYt est donc une variable de carr´e int´egrable. ¥
Th´eor`eme 1.5. Soit{ψk}une suite telle queP∞
k=−∞|ψk|<∞et soit{Xt}un processus stationnaire au second ordre de moyenneµX =E[Xt]et de fonction d’autocovarianceγX(h) = cov(Xt+h, Xt). Alors le processusYt=P∞
s=−∞ψsXt−s est stationnaire au second ordre de moyenne : µY =µX
et de mesure spectrale :
νY(dλ) =|ψ(e−iλ)|2νX(dλ) (1.49)
o`u ψ(e−iλ) = P
kψke−ikλ est la fonction de transfert du filtre. Enfin l’intercovariance entre les pro-cessus Yt et Xt a pour expression :
γY X(h) =E[(Yt+h−µY)(Xt−µX)] = X∞
k=−∞
ψkγX(h−k) (1.50)
D´emonstration. CommeE£P∞
s=−∞|ψs|E[|Xt−s|]¤
<∞, le th´eor`eme de Fubini implique
E
ce qui ´etablit (1.47). Pour la fonction d’autocovariance, notons tout d’abord que, pour tout n, le processusYn,t=Pn
s=−nψsXt−s est stationnaire au second ordre et que nous avons cov(Yn,t, Yn,t+h) = permet ensuite de d´eduire, quandn tend vers l’infini, les limites suivantes
|B| ≤(var(Yt−Yn,t))1/2(var(Yn,t+h))1/2→0
3Nous venons ici de d´emontrer directement la propri´et´e de continuit´e de la covariance dans L2 que nous verrons comme une cons´equence de la structure d’espace de Hilbert au chapitre 4.
En remarquant ensuite que X∞
j=−∞
X∞
k=−∞
Z
I
|ψj||ψk|νX(dλ)≤γX(0)
X∞
j=−∞
|ψj|
2
nous pouvons appliquer le th´eor`eme de Fubini et permuter les signes somme et int´egrale dans l’ex-pression de γY(h). Ce qui donne :
γY(h) = Z
I
eihλ X∞
j=−∞
X∞
k=−∞
ψjψkeikλe−ijλ= Z
I
eihλ|ψ(e−iλ)|2νX(dλ)
On en d´eduit queνY(dλ) =|ψ(e−iλ)|2νX(dλ). Pour d´eterminer l’expression de l’intercovariance entre les processus entre les processus Yt et Xt, il suffit de noter |cov(Yt+h, Xt)|2 ≤γY(0)γX(0) < +∞ et que :
E[(Yt+h−µY)(Xt−µX)] = lim
n→∞cov(Yn,t+h, Xt) = lim
n→∞
Xn
k=−n
ψkcov(Xt+h−kXt)
= X∞
k=−∞
ψkγX(h−k)
Ce qui conclut la preuve. ¥
Chapitre 2
Estimation de la moyenne et des covariances
2.1 Estimation de la moyenne
Soit{Xt}un processus al´eatoire `a temps discret stationnaire au second ordre, de moyenneE[Xt] = µ, et de fonction d’autocovarianceγ(h). On suppose avoir observ´en´echantillons cons´ecutifsX1, . . . Xn du processus. L’estimateur deµque nous consid´erons est lamoyenne empirique d´efinie par :
ˆ
On constate tout d’abord que ˆµn est un estimateursans biais de la moyenne µcar E[ˆµn] = 1
n Xn
t=1
E[Xt] =µ (2.2)
du fait de la stationnarit´e. Lerisque quadratique de l’estimateur, qui mesure sa dispersion autour de la valeur inconnueµ de la moyenne, a pour expression
R(ˆµn, µ) =E£ D’o`u la proposition suivante :
Proposition 2.1. Soit {Xt} un processus stationnaire au second ordre de moyenne µ et de fonction d’autocovariance γ(h) avec P c’est `a dire queµˆn converge en moyenne quadratique vers µ, `a la vitesse√
n. De pluslimn→∞µˆn=µ P-p.s.
D´emonstration. Lorsque γ(h) est absolument sommable, le th´eor`eme de la convergence domin´ee ap-pliqu´ee `a (2.3) montre que
n→∞lim nR(ˆµn, µ) = X∞
h=−∞
n→∞lim µ
1−|h|
n
¶
γ(h) = X∞
h=−∞
γ(h) = 2πf(0) o`u f(λ) = (2π)−1P∞
h=−∞γ(h)e−ihλ est la densit´e spectrale du processus {Xt}. La preuve de la convergence presque sˆure de ˆµn est trait´ee par l’exercice??. ¥ Cette proposition montre que la loi des grands nombres, ´etablie classiquement pour des variables al´eatoires ind´ependantes, est ´egalement valable pour un processus stationnaire au second ordre, du moment que la fonction d’autocovariance d´ecroˆıt suffisamment rapidement `a l’infini. Sous cette condi-tion, il est possible d’estimer la moyenne `a partir d’une seule r´ealisation de celui-ci. La proposition 2.1 nous donne acc`es `a la valeur limite deE£
(√
n(ˆµn−µ))2¤
. Cependant pour construire des intervalles de confiance pour les param`etres estim´es (cf. d´efinition A.27) ou pour tester des hypoth`eses concernant la valeur des param`etres (voir d´efinition A.28), il est n´ecessaire d’obtenir un r´esultat plus pr´ecis portant sur la distribution limite de √
n(ˆµn−µ). L’obtention de th´eor`emes de type limite centrale pour des suites de variables al´eatoiresd´ependantesest un sujet d´elicat, qui a donn´e lieu `a une vaste litt´erature.
Il n’est bien entendu pas question ici de pr´esenter une th´eorie g´en´erale et nous nous contentons donc d’´enoncer un r´esultat valable dans le cas de processus lin´eaire fort. Le fait de devoir ´emettre une hypoth`ese aussi contraignante sur la loi du processus dans un contexte o`u, en fait, seules les propri´et´es au second ordre nous int´eressent est bien sˆur frustrant, mais il traduit la (relative) difficult´e technique d’un tel r´esultat (la preuve de ce th´eor`eme est omise).
Th´eor`eme 2.1. Soit {Xt} un processus lin´eaire fort de moyenne µ. On a Xt=µ+P∞
k=−∞ψkZt−k avec P
k|ψk|<∞ et Zt∼IID(0, σ2). On poseµˆn=n−1Pn
t=1Xt. Alors :
√n(ˆµn−µ)→dN(0,2πf(0)) (2.5)
o`u f(0) =σ2|ψ(0)|ˆ 2/(2π), ψ(λ) =ˆ P∞
j=−∞ψjeijλ, est la densit´e spectrale de Xt en0.
Exemple 2.1 : Moyenne empirique pour un processus AR(1) (fort)
SoitXtun processus autor´egressif d’ordre1 fort, de moyenneµ, solution stationnaire au second ordre d´efini par l’´equation de r´ecurrence
Xt−µ=φ(Xt−1−µ) +Zt
o`u{Zt} ∼IID(0, σ2) et|φ|<1. Nous rappelons que la fonction d’autocovariance d’un processus AR(1) pour
|φ|<1 est donn´ee par
γX(k) = σ2 (1−φ2)φ|k|
et que la densit´e spectrale de ce processus a pour expression f(λ) = σ2
2π|1−φe−iλ|2
Dans ce cas, la variance limite qui intervient dans l’´equation (2.5), est donn´ee par 2πf(0) = σ2/(1−φ)2. Cette valeur est `a comparer avec la variance deXtdonn´ee parγ(0) =σ2/(1−φ2). On constate que le rapport 2πf(0)/γ(0) = (1 +φ)/(1−φ) tend vers 0 lorsque φ → −1 et vers +∞ lorsque φ → 1. Ce qui implique
par exemple lorsque l’on consid`ere l’intervalle de confiance asymptotique de niveau 95% pour la moyenne µ donn´e par [ˆµn −1.96σn−1/2/(1−φ),µˆn+ 1.96σn−1/2/(1−φ)] que l’estimation de la moyenne est bien meilleure (plus pr´ecise) que si les donn´ees ´etaient iid lorsqueφest proche de −1. Inversement, lorsqueφest proche de 1, l’intervalle de confiance est beaucoup plus large, c’est `a dire l’estimation est significativement moins pr´ecise, pour un nombrend’´echantillons comparable, que si les donn´ees ´etaient ind´ependantes. Cette constatation somme toute assez logique est `a mettre en rapport avec l’allure des trajectoires repr´esent´ees sur la figure 1.11.