Master 2 Ingénierie Mathématique
Modélisation temporelle et spatiale des dépendances
Travaux Dirigés
Ex 1. Soit X ∈ Rd un vecteur aléatoire gaussien d'espérance m et de covariance Γ semi-dénie positive.
1) Rappeler la dénition d'un vecteur aléatoire gaussien.
2) Montrer que le vecteur m+ Γ1/2Z, où Z ∈ Rd est un vecteur aléatoire dont les composantes sont toutes indépendantes et de loiN(0,1), est de même espérance et de même covariance queX. 3) On rappelle que la fonction caractéristique deX est donnée, pour toutu∈Rd, par
φX(u) = exp
ihu, mi −1 2hu,Γui
.
En déduire queX =L m+ Γ1/2Z et que le couple(µ,Γ) est susant pour caractériser entièrement un vecteur gaussien.
4) On suppose qued= 2et queX = (Z, εZ)oùZ ∼ N(0,1) et ε∼ R(1/2). Montrer queX n'est pas un vecteur gaussien.
Ex 2. Soit(εt)t∈Z une suite de variables aléatoires i.i.d. de loiN(0,1), et(ξt)t∈Z la suite dénie par ξt= εt2−1
√2 .
On dénit la suite(Xt)t∈Zpar
Xt=
εt sitest pair, ξt−1 sitest impair.
1) Vérier que(Xt)n'est pas une suite de v.a.r. indépendantes.
2) Montrer que(Xt)forme malgré tout un bruit blanc faible standard, c'est-à-dire que pour toutt∈Z, E[Xt] = 0,V(Xt) = 1 et, dès ques6=t,Cov(Xt, Xs) = 0.
Ex 3. SoientR etU deux variables aléatoires indépendantes de loiE(1/2) etU([0,2π]), respective- ment. Montrer que le vecteur X = (X1, X2) avecX1 = √
Rcos(U)et X2 =√
Rsin(U) est un vecteur gaussien.
Ex 4. Soit(εt)un bruit blanc de varianceσ2>0. On considère les processus dénis, pourt≥1, par St=
t
X
k=1
εk et Pt=
t
Y
k=1
εk.
Étudier la stationnarité de(St)et de(Pt)selon la valeur deσ2. En cas de stationnarité, calculer l'auto- covarianceγ et l'autocorrélationρdu processus.
1
Ex 5. Soient(Xt)et(Yt)deux processus stationnaires et mutuellement décorrélés, d'autocovariances respectivesγX et γY.
1) Montrer que le processus(Xt+Yt)est stationnaire et exprimer son autocovarianceγX+Y en fonction deγX et deγY.
2) Proposer un contre-exemple montrant que, si l'on enlève l'hypothèse de non-corrélation entre(Xt)et (Yt), alors(Xt+Yt)n'est pas nécessairement stationnaire.
Ex 6. Soit(εt)un bruit blanc gaussien de varianceσ2>0. On considère les processus dénis, pour t∈Z,β0∈R,β1∈R∗ et θ∈[−π, π], par
Xt=ε0cos(θt), Yt=ε1cos(θt) +ε2sin(θt), Zt=εtcos(θt) +εt−1sin(θt),
St=εtI{test pair}+ (1−εt)I{test impair}, Ut= (−1)tε0, Vt=β0+β1t+εt et Wt=ε2t−2εt−1. Étudier la stationnarité et, le cas échéant, calculer l'autocovarianceγet l'autocorrélationρdes processus.
Ex 7. On considère le processus(Xt)déni, pour toutt∈Z, par Xt=
A+εt sit est pair, B+εt sit est impair,
oùA∼ N(µA, τA2),B∼ N(µB, τB2),Cov(A, B) =δet(εt)est un bruit blanc de varianceσ2, indépendant deAet deB.
1) Étudier la stationnarité de(Xt)selon les valeurs des paramètresµA,µB,τA2,τB2 etδ.
2) Calculer l'autocovarianceγX et l'autocorrélationρX de(Xt)sous les hypothèses de stationnarité.
Ex 8. On s'intéresse à la relation entre stationnarité et stationnarité stricte.
1) En considérant le processus (Zt)déni, pourt∈Z, parZt= (−1)tZ oùZ∈L2(Ω,A,P)est une va- riable aléatoire asymétrique, montrer qu'une série chronologique stationnaire n'est pas nécessairement strictement stationnaire.
2) Montrer que, si(Xt)est un processus gaussien stationnaire sur Z, alors il est également strictement stationnaire.
Ex 9. À l'aide de l'algorithme de Durbin-Levinson, calculer les 4 premières valeurs de l'autocorré- lation partielleα(0), . . . , α(3)d'un processus stationnaire en fonction de son autocorrélationρet de son autocovarianceγ.
Ex 10. Soit(Xt)un processus stationnaire surZde moyenneµet d'autocovarianceγ, dont on extrait le vecteur(X1, . . . , Xn). On dénit la moyenne empirique du processus par
X¯n= 1 n
n
X
k=1
Xk.
1) Montrer queX¯n est un estimateur non biaisé de µ.
2) Montrer que l'on a la convergenceX¯n−→L2 µsous la conditionγ(n)→0. En déduire que, à cette condi- tion, la moyenne empirique est un estimateur consistant de la moyenne d'un processus stationnaire.
3) Si l'on suppose de plus queγ∈`1(Z), c'est-à-dire que l'on aP
h∈Z|γ(h)|<∞, montrer que
n→∞lim nV( ¯Xn) = X
h∈Z
γ(h).
4) Proposer un estimateur naturel de l'autocovariance γ, de l'autocorrélation ρet de l'autocorrélation partielleαd'un processus stationnaire.
2
Ex 11. Soit le polynôme de degréndéni, pour toutz∈C, par P(z) = 1−p1z−p2z2−. . .−pnzn. Montrer par l'absurde que la conditionPn
i=1|pi|<1est susante pour queP soit causal.
Ex 12. Soient(εt)t∈Zun bruit blanc de varianceσ2et (ηt)t∈Z un bruit blanc de varianceδ2σ2, pour 0<|δ|<1. On considère les processus MA(1) surZengendrés par les relations
Xt=εt−δ εt−1 et Yt=ηt−1 δηt−1. 1) Montrer que(Xt)et(Yt)ont la même fonction d'autocovariance.
2) Montrer que(εt)est le bruit blanc d'innovation de(Xt)mais que(ηt)n'est pas celui de(Yt). 3) Montrer que le processus déni, pourt∈Z, par
eηt= (I−δB)−1(I−δ−1B)ηt
est un bruit blanc identiable au second ordre à(εt), et qu'il s'agit de l'innovation de(Yt).
Ex 13. Soit le processus déni, pour toutt∈Z, par Xt=a Xt−1+εt où(εt)est un bruit blanc de varianceσ2.
1) Montrer que la condition|a| 6= 1 implique la stationnarité de (Xt). Quelle condition supplémentaire implique la causalité de(Xt)?
2) Supposons maintenant que le processus est déni pour toutt∈N. Montrer que le processus n'est plus nécessairement stationnaire.
3) Montrer qu'un tel processus est asymptotiquement stationnaire dès queX0∈L2(Ω,A,P)et|a|<1. 4) Quelles conditions faut-il ajouter pour que le processus déni surNsoit stationnaire ?
Ex 14. On considère le processus déni, pour toutt∈Z, par Xt=θ Xt−1+θ2Xt−2+εt
où(εt)est un bruit blanc de varianceσ2 etθ6= 0.
1) Donner une condition surθpour que le processus admette une écriture causale de (εt), puis montrer que les coecients(pk)associés à cette écriture satisfont la relation de récurrence donnée parp0= 1, p1=θet, pourk≥2,
pk =θ pk−1+θ2pk−2. 2) On pose
C1=θ(1 +√ 5)
2 et C2= θ(1−√ 5)
2 .
Montrer que la solution de la récurrence est donnée, pourk∈N, par pk= 1
θ√
5 C1k+1−C2k+1 . 3) En déduire que la variance d'un tel processus est donnée par
γ(0) = σ2(1−θ2) (1 +θ2)(1−3θ2+θ4). 4) Montrer de plus que
γ(1) = θ γ(0)
1−θ2 et γ(2) =θ2(2−θ2)γ(0) 1−θ2 .
3
Ex 15. On considère un processus AR(p) de paramètre θ = (θ1, . . . , θp), lui-même engendré par un processus AR(1) de paramètreα. En résumé, pour toutt∈Z, on a
Xt = θ1Xt−1+. . .+θpXt−p +εt
εt = α εt−1 +Vt
où(Vt)est un bruit blanc de varianceσ2.
1) Identier l'opérateurR(B)tel queR(B)Xt=Vt, pour toutt∈Z.
2) Montrer queRest de degré au plusp+ 1. Soit alors, pour toutz∈C,
R(z) =r0+r1z+. . .+rp+1zp+1.
Identierr0, . . . , rp+1 en fonction deθ1, . . . , θpet de α. Quelle est la dynamique de(Xt)?
3) Proposer une condition susante surθ= (θ1, . . . , θp)et surαpour que le processus(Xt)soit station- naire.
4) On suppose quep= 1,|θ1|<1,|α|<1etθ1> α. Identier la relation de récurrence sur les coecients (pk)permettant d'obtenir une écriture causale de(Xt)sous la forme
Xt=
∞
X
k=0
pkVt−k.
5) Résoudre le système et en déduire la varianceγ(0)d'un tel processus.
4