Cours de Master
S´eries temporelles non lin´eaires
M2 de Statistiques ` a l’Universit´ e Paris 6
Paul Doukhan
Universit´ e de Cergy-Pontoise
Le 24 f´ evrier 2010
Table des mati` eres
1 Stationnarit´e 5
1.1 Notions de stationnarit´e . . . 5
1.2 Repr´esentation spectrale . . . 6
1.3 Densit´e spectrale et port´ee . . . 10
2 Chaos Gaussien 15 2.1 Lois gaussiennes . . . 15
2.1.1 Loi normale . . . 15
2.1.2 Lois gaussiennes multivari´ees . . . 16
2.1.3 Existence de lois gaussiennes. . . 17
2.1.4 Mouvement brownien fractionnaire . . . 18
2.2 Chaos gaussien . . . 20
2.2.1 Polynˆomes d’Hermite . . . 20
2.2.2 Moments d’ordre 2 . . . 23
2.2.3 Moments d’ordre quelconque . . . 24
3 Processus lin´eaires 27 3.1 Processus FARIMA(0, d,0) . . . 28
3.2 Processus ARMA(p, q) . . . 28
3.3 Processus FARIMA(p, d, q) . . . 29
4 Processus non lin´eaires 31 4.1 Sch´emas de Bernoulli . . . 31
4.1.1 D´efinitions . . . 31
4.1.2 D´ependance faible et sch´emas de Bernoulli . . . 32
4.2 Chaos discrets . . . 34
4.2.1 Polynˆomes d’Appell . . . 34
4.2.2 Polynˆomes d’Appell multivari´es . . . 35
4.2.3 Mod`eles de Volterra . . . 35
4.3 Mod`eles non lin´eaires . . . 36
4.3.1 Mod`eles bilin´eaires . . . 36
4.3.2 Mod`eles ARCH(∞) . . . 37
4.4 Chaˆınes de Markov stables . . . 37
4.4.1 Processus ARCH . . . 39 1
4.4.2 Mod`eles de branchement . . . 39
4.4.3 Mod`ele AR(p) non lin´eaire . . . 40
5 D´ependance 41 5.1 Introduction . . . 41
5.1.1 Th´eor`eme ergodique . . . 41
5.1.2 Port´ee . . . 46
5.2 Longue port´ee . . . 48
5.2.1 Cas gaussien . . . 48
5.2.2 Polynˆomes gaussiens . . . 49
5.2.3 Processus de Rosenblatt . . . 49
5.2.4 Processus lin´eaires . . . 51
5.3 Courte port´ee . . . 52
6 Moments et cumulants 55 6.1 M´ethode des moments . . . 55
6.2 D´efinitions . . . 56
6.3 D´ependance et cumulants . . . 59
6.3.1 Sommes de cumulants . . . 62
6.3.2 Moments de sommes . . . 63
6.3.3 In´egalit´es de Rosenthal . . . 65
TABLE DES MATI `ERES 3
Objectifs du cours
La th´eorie des s´eries chronologiques est d’un usage constant quand on traite de donn´ees ´echantillonn´ees dans le temps.
Loin d’ˆetre exhaustif, ce cours a pour seule ambition d’en pointer quelques
´
el´ements.
Le cours est divis´e en six chapitres.
1. Le premier chapitre introduit les notions li´ees `a la stationnarit´e des pro- cessus. Celle-ci prend en compte la persistance de ph´enom`enes au fils du temps. Les notions de spectre y sont d´evelopp´ees avec leur lien au com- portement de la suite des covariances.
2. Un exemple standard, celui des processus gaussiens est alors envisag´e en d´etails dans le chapitre 2. Nous y rappelons la machinerie qui permet la mise en place du chaos d’Hermite. Nous introduisons ainsi le Mouvement brownien fractionnaire, li´e `a la d´ependance `a longue port´ee.
3. Nous d´eveloppons d’abord les processus lin´eaires, les plus utilis´es en pra- tique, ainsi que quelques-unes de leurs propri´et´es. En particulier, les pro- cessus ARMA et FARIMA sont envisag´es pour leurs propri´et´es de longue ou de courte port´ee.
4. Nous proposons ici quelques exemples de s´eries temporelles non lin´eaires en nous attachant plus pr´ecis´ement `a la d´efinition des mod`eles les plus utilis´es.
Pour cela des sch´emas de Bernoulli g´en´eraux sont introduits. Les mod`eles consid´er´es sont engendr´es par des suites ind´ependantes et ´equidistribu´ees.
Peu de propri´et´es pr´ecises y sont d´etermin´ees au b´en´efice d’une botanique des mod`eles assez riche.
5. Les outils donnant lieu `a des th´eories asymptotiques sont aussi envisag´es dans l’´etude de la d´ependance, forte ou faible. Le point de vue adopt´e est li´e aux asymptotiques sous-jacentes. Compte tenu des aspects hautement techniques de ces th´eories, il s’agit ici d’une tr`es courte ´ebauche et nous renvoyons les lecteurs `a des textes plus complets. Par souci de pr´ecision, nous donnons tout de mˆeme le th´eor`eme ergodique et sa preuve.
6. Pour conclure, nous proposons quelques ´enonc´es en termes de cumulants.
Ceux-ci ont pour objectif de contrˆoler l’´evolution des moments des statis- tiques usuelles pour des s´eries chronologiques.
Des utilisations de ces techniques en termes d’estimation param´etrique, spectrale ou multispectrale sont d´evelopp´ees dans le livre de Rosenblatt (1985) auquel nous renvoyons le lecteur plus attir´e par les applications.
Les livres de Azencott et Dacunha Castelle (1984) et de Rosenblatt (1985) four- nissent un support additionnel pour les lecteurs int´eress´es par les bases de la th´eorie des s´eries chronologiques.
L’ouvrage ´edit´e par Doukhan, Oppenheim et Taqqu (2002) donne de tr`es riches d´eveloppements de cette th´eorie et fait le point sur la d´ependance `a longue
port´ee ; indiquons en particulier les articles de Doukhan et celui de Taqqu dans cet ouvrage dont le pr´esent cours est largement inspir´e.
Les suggestions permettant d’am´eliorer ce manuscript seront les bienvenues.
Paris, le 24 f´evrier 2010
Paul Doukhan
Chapitre 1
Stationnarit´ e
Nous donnons ici quelques d´efinitions et des ´el´ements de la th´eorie des s´eries chronologiques. Nous appelons de mani`ere indiff´erente, suite de variables al´eatoires, s´erie temporelle ou s´erie chronologique toute suite (Xn)n∈Zde variables al´eatoires d´efinies sur le mˆeme espace probabilis´e (syst´ematiquement appel´e (Ω,A,P)) et
`
a valeurs dans le mˆeme espace mesure (E,E). G´en´eralementE=Rsera muni de sa tribu bor´elienne (compl´et´ee si n´ecessaire) ; dans certains casE =Rd est un espace vectoriel de dimension finie. Afin de simplifier le propos nous ´eviterons le plus possible les digressions vectorielles, les limitant aux seuls cas o`u elles s’av`erent n´ecessaires. Un autre type d’extension qui ne sera pas abord´e dans ce cours est celui des champs al´eatoires (Xn)n∈Zd.
Pour ne pas pas avoir `a revenir sur l’espace probabilis´e, notons seulement que lorsque Ω = [0,1]Z est muni de la tribu produit, les applications coor- donn´ees d´eterminent une suite de variables al´eatoires ind´ependantes et uni- formes sur [0,1]. La transformation par quantiles permet alors de construire une suite ind´ependante ´equidistribu´ee et de loi arbitraire sur R (soit F une fonction de r´epartition quelconque,F−1(U) suit la loiF lorsqueU est uniforme sur [0,1]). Nous n’aurons donc aucune retenue pour consid´erer de telles suites ind´ependantes ´equidistribu´ees ´eventuellement ind´ependantes d’une suite d´ej`a construite.
1.1 Notions de stationnarit´ e
D´efinition 1.1.1 La suite(Xn)n∈Zest stationnaire si, pour chaque entier k≥ 0, la loi du vecteur(Xl, . . . , Xl+k)est ind´ependante de l∈Z.
Cette suite est dite stationnaire au second ordre siEXl2<∞ et si on a simple- ment, EXl=EX0 et Cov(Xl, Xk+l) =Cov(X0, Xk)pour tousl, k∈Z. Pour paraphraser cette d´efinition, la suite (Xn)n∈Z est stationnaire si pour chaquek∈Net chaque fonction continue et born´eeh:Rk+1→R, on a
Eh(Xl, . . . , Xl+k) =Eh(X0, . . . , Xk) 5
La stationnarit´e au second ordre est ainsi une hypoth`ese plus faible, mˆeme, que celle obtenue pour k = 1 ; sous une hypoth`ese de moment d’ordre 2, elle correspond `a l’usage de fonctions polynomialeshde degr´e 2.
Lorsque la suite est gaussienne, nous verrons que ces notions co¨ıncident mais un exemple simple prouve qu’elles sont g´en´eralement bien distinctes. Soit (ξn)n∈∈Z, une suite ind´ependante et identiquement distribu´ee et centr´ee de variables de carr´e int´egrable, posonsXn=ξnξn−1, alors cette suite est centr´ee et orthogonale mais elle n’est pas ind´ependante car, lorsque les variables ξn ont des moments d’ordre 4,
Cov (Xn2, Xn−12 ) =Eξ2nξn−14 ξn−22 −Eξ2nξn−12 Eξn−12 ξn−22 = Eξ022
Varξ20 n’est pas nul lorsqueξ02 n’est pasp.s.constante.
Une modification assez simple de cet exemple permet de construire une suite centr´ee orthogonale (donc stationnaire au second ordre) mais non stationnaire
Xn=ξn
r 1− 1
n·ξn−1+ 1
√n·ξn−2
!
lorsque la suite ξn v´erifieEξn2 = 1 on a EXnXm = 0 ou 1 selon quen6=m ou n=m. La non stationnarit´e de cette suite repose sur le calcul deEXnXn−1Xn−2
qui fait effectivement intervenirn.
La stationnarit´e au second ordre s’´ecrit sous la forme
EXl=m, Cov (Xl, Xk+l) =rk, ∀l∈Z,∀k∈N pour une suite de covariancesrn∈R(n≥0) et une moyennem∈R.
1.2 Repr´ esentation spectrale
Notons qu’une propri´et´e de la suite des covariances est la suivante. Si cl ∈ C pour tout|l| ≤n, on a en posantc= (cl)|l|≤n et Σn= (r|i−j|)|i|,|j|≤n
ctΣnc= X
|i|,|j|≤n
cicjr|i−j|=E
X
|i|≤n
ciXi
2
≥0 (1.1)
Th´eor`eme 1.2.1 (Herglotz) Si la suite(rn)n∈Zv´erifie la propri´et´e (1.1) alors il existe une fonction (essentiellement unique) croissante v´erifiant G(−π) = 0 et
rk= Z π
−π
eikλdG(λ)
1.2. REPR ´ESENTATION SPECTRALE 7 Notation. L’int´egrale dG(λ) est prise au sens de Stieljes : on d´efinit une mesure µ par µ([−π, λ]) = G(λ) pour chaque λ ∈ [−π, π]. On d´efinit alors, pour toute fonctionh: [−π, π]→Rcontinue et born´ee :
Z π
−π
h(λ)dG(λ) = Z π
−π
h(λ)µ(dλ) Preuve.Posons
gn(λ) = 1 2πn
n−1
X
s=0 n−1
X
t=0
rt−se−i(t−s)λ= 1 2π
n−1
X
j=−(n−1)
1− j
n
rje−ijλ
et Gn(λ) =Rλ
−πgn(u)du alors par la relation (1.1),gn(u)≥0 donc la fonction est continue croissante et v´erifie Gn(π) = r0. Par un argument de compacit´e, on peut donc en extraire une sous-suite Gn0 convergente. Alors, notons que
1−nj
rj =Rπ
−πeijλdGn(λ), on obtient l’existence deG comme unique limite d’une telle sous-suite Gn0.
Apr`es une int´egration par parties rk = (−1)kr0−ik
Z π
−π
eikλdGn(λ) ce qui implique l’unicit´e deG.
D´efinition 1.2.1 La mesure spectrale du processus (Xn)n∈Z, stationnaire au second ordre (est celle induite par G) est d´efinie, pour toutλ∈[−π, π], par la relation µX([−π, λ]) =G(λ).
Lorsque la fonction G est d´erivable, on appelle densit´e spectrale du processus (Xn)n∈Z la d´eriv´eeg=G0.
Exemples.
– Pour une suite orthogonale (i.eEXkXl= 0 pourk6=l) telle queEXn= 0 et EXn2= 1, on aG(λ) = 1/2 +λ/2π, la mesure associ´ee est celle de Lebesgue.
– Le mod`ele `a phase al´eatoire est `a valeurs complexes ; il est donn´e grˆace `a des constantes a1, b1, . . . , ak, bk ∈R et des variables al´eatoires ind´ependantes et uniformesU1, . . . , Uk sur [−π, π] par la relation
Xn =
k
X
j=1
ajei(nbj+Uj) on calcule,
Cov (Xs, Xt) =EXsXt=rs−t=
k
X
j=1
|aj|2ei(s−t)bj. Ce mod`ele est associ´e `a une fonctionGen escaliers.
– Soit (ξn)n∈Zune suite centr´ee et ind´ependante et identiquement distribu´ee de variables telles queEξn2 = 1, eta ∈R, le mod`ele `a moyenne mobile MA(1) est donn´e par
Xn=ξn+aξn−1
dans ce cas,r0= 1 +a2 etr1=r−1=aalors querk = 0 lorsquek6=−1,0,1.
Reprenant la preuve du th´eor`eme d’Herglotz on calcule g(λ) = 1
2π(r0+ 2r1cosλ)
= 1
2π 1 +a2+ 2acosλ
= 1
2π (1 +acosλ)2+a2sin2λ
≥ 0
Notation. Dans la suite, pour toute fonctiong : [−π, π]→C, nous poserons g(I) = g(v)−g(u) lorsque I = (u, v) est un intervalle d’extr´emit´es u et v; lorsque g : [−π, π] → R est croissante, cette notation identifie g et la mesure positive qui lui est associ´ee.
D´efinition 1.2.2 (Mesure al´eatoire) Une mesure al´eatoire est donn´ee par une fonction al´eatoireΩ×[−π, π]→C,(ω, λ)7→Z(ω, λ), croissante pour chaque ω∈Ω, telle queE|Z(λ)|2<∞et v´erifiant, pour une fonctionH : [−π, π]→R+, croissante,
- EZ(λ) = 0 pour chaqueλ∈[−π, π],
- EZ(I)Z(J) =H(I∩J) pour tout couple d’intervallesI, J⊂[−π, π].
Soit g : [−π, π]→ Cune fonction mesurable telle que Rπ
−π|g(λ)|2dH(λ)<∞, on d´efinit
Z
g(λ)dZ(λ) en deux temps,
- Si la fonctiong est une fonction en escaliers, g(λ) =gs pour λs−1 < λ≤λs (o`u −π=λ0≤λ≤λS =π) et 0< s≤S, on pose
Z
g(λ)dZ(λ) =
S
X
s=1
gsZ([λs−1, λs]) On note que
E
Z π
−π
g(λ)dZ(λ)
2
= X
s,t
gsgtEZ([λs−1, λs])Z([λt−1, λt])
= X
s
|gs|2E|Z([λs−1, λs])|2
= X
s
|gs|2H([λs−1, λs])
1.2. REPR ´ESENTATION SPECTRALE 9
= Z π
−π
g2(λ)dH(λ)
- Sig n’est pas une fonction en escaliers, on peut l’approcher par une suite de fonctionsgn en escaliers telles que
Z π
−π
|g(λ)−gn(λ)|2dH(λ)→n→∞0 alors, la suite Yn =R
gn(λ)dZ(λ) v´erifie, pourn > m, E|Yn−Ym|2=
Z π
−π
|gn(λ)−gm(λ)|2dH(λ)→n→∞0,
de Cauchy, cette suite converge donc dansL2(Ω,A,P), sa limite d´efinit l’int´egrale pr´ec´edente.
Th´eor`eme 1.2.2 (repr´esentation spectrale des suites stationnaires) Soit(Xn)n∈Z un processus stationnaire au second ordre et centr´e, alors il existe une mesure spectrale al´eatoireZ telle que
Xn= Z
einλdZ(λ)
cette mesure est associ´ee `a la mesure spectrale du processus.
Preuve. Soit `a pr´esent un processus Xn stationnaire au second ordre, alors sa fonction spectrale G, croissante, admet au plus une infinit´e d´enombrable de discontinuit´es, not´ees DG. Si I est un intervalle dont les extr´emit´es a, b sont hors de DG, nous posons
Zn(I) = 1 2π
X
|j|≤n
Xj Z b
a
e−ijudu
alors la suite (Zn(I))n≥1est de Cauchy dansL2(Ω,A,P) car on a, pourn > m,
E|Zn(I)−Zm(I)|2= 1 4π2E
X
m<|j|≤n
Xj
Z b a
e−ijudu
2
= Z π
−π
|hn−hm|2dG si on note
hn(λ) = 1 2π
Z b a
e−ij(u−λ)du, (qui est la s´erie de Fourier tronqu´ee de l’indicatrice I1I.)
Soit ainsi Z(I) la limiteL2 deZn(I), on a ais´ement EZ(I) = 0 si EXn = 0 et calcule aussi, avec des notations imm´ediates,
EZ(I)Z(J) = lim
n EZn(I)Zn(J) = lim
n
Z π
−π
hI,nhJ,ndG=G(I∩J)
lorsqueI, J ont des extr´emit´es hors deDG. Un passage `a la limite traite le cas d’extr´emit´es discontinues.
Pour conclure, reste `a noter que EXnZn(I) = 1
2π X
|j|≤n
rn−j Z b
a
eijudu
= Z π
−π
dv 2π
Z b a
X
|j|≤n
eij(u−v)dG(u)
= Z b
a
einvdG(v) Par suite,
EXn
Z
f(λ)dZ(λ) = Z π
−π
einλf(λ)dG(λ)
pour une fonction en escaliers et donc aussi pourf continue, par un passage `a la limite. Lorsquef(λ) =einλon calcule alors
E
Xn− Z
einλdZ(λ)
2
=r0−2r0+r0= 0.
1.3 Densit´ e spectrale et port´ ee
Soit (Xn)n∈Zune suite stationnaire au second ordre. Lui retranchant sa moyenne, on la suppose centr´ee. Si
∞
X
k=0
rk2<∞ alors la fonction
g(λ) = 1 2π
∞
X
k=0
rke−ikλ est d´efinie dansL2([−π, π]), et v´erifie
rk = Z π
−π
eikλg(λ)dλ
donc dans ce cas, la mesure spectrale du processus,G, est absolument continue et de d´eriv´eeg∈L2.
D´efinition 1.3.1 Si la suite stationnaire au second ordre (Xn)v´erifie
∞
X
k=0
r2k<∞et
∞
X
k=0
|rk|=∞ on dit qu’elle est d´ependante `a longue port´ee.
1.3. DENSIT ´E SPECTRALE ET PORT ´EE 11
Si ∞
X
k=0
|rk|<∞
on dit qu’elle est d´ependante `a courte port´ee. Dans ce cas la fonction g est uniform´ement continue et v´erifie
kgk∞≤ 1 2π
∞
X
k=0
|rk|.
Exemples
– Lorsque rk ∼k−α pour 12 < α < 1 la suite est `a longue port´ee et on peut prouver qu’il existeβ tel queg(λ)∼cλ−β lorsqueλ→0.
– Sig(λ) =σ2π2, la suiteξn =Rπ
−πeinλZ(dλ) est un bruit blanc faible de variance σ2 tel queEξnξm= 0 ouσ2 selon quen6=moum=n.
C’est le cas lorsque Z([0, λ]) = σ2π2W(λ) pour un mouvement brownien stan- dardW. Alors, la gaussiannit´e du bruit blanc implique son ind´ependance et on obtient ainsi un bruit blanc fort.
C’est aussi le cas lorsque λ 7→ Z([0, λ]) est un processus `a accroissements ind´ependants.
Un bruit blanc faible est associ´e `a une mesure spectrale al´eatoire `a accroisse- ments orthogonaux.
– Si
Xn=
∞
X
k=−∞
ckξn−k, pour une suite telle que
∞
X
k=−∞
c2k <∞ alors la densit´e spectralegX deX s’´ecrit
gX(λ) =
∞
X
k=−∞
cke−ikλ
2
gξ(λ)
Pour obtenir ce r´esultat, on calcule simplement la covariance du processusX. De plus
ZX(dλ) =
∞
X
k=−∞
ckeikλ
! Zξ(dλ)
o`uZξ d´esigne la mesure al´eatoire spectrale associ´ee au bruit blancξ.
Ceci permet le calcul de la densit´e spectrale des mod`eles auto-r´egressifs Xn =
p
X
k=1
akXn−k+ξn
sous la forme
g(λ) = 1 2π
1−
p
X
k=1
ake−ikλ
−2
la fonctiong est bien continue lorsque le polynˆome P(z) =zp−
p
X
k=1
akzp−k
a ses racines `a l’ext´erieur du disque unit´e complexe. C’est le cas lorsque Pp
k=1|ak|<1.
Notons enfin que les formules d’h´er´edit´e pr´ec´edentes s’´etendent dans tous les cas de suites stationnaires dansL2:
Proposition 1.3.1 Soit(Xn)une suite stationnaire au second ordre et centr´ee, alors si
Yn =
∞
X
k=−∞
ckXn−k,
∞
X
k=−∞
c2k <∞, la suite Yn est aussi stationnaire et centr´ee et
gY(λ) =
∞
X
k=−∞
ckeikλ
2
gX(λ)
ZY(dλ) =
∞
X
k=−∞
ckeikλ
!
ZX(dλ)
Preuve.Le second ´enonc´e est imm´ediat et le premier suit de la bilin´earit´e de la covariance car
Cov (Y0, Yk) =
∞
X
m=−∞
∞
X
j=−∞
cjcj−m
rk+m
Pour justifier l’appellation de port´ee d’un processus notons que lorsque la suite stationnaireXn est centr´ee :
E|X1+· · ·+Xn|2 =
n
X
s=1 n
X
t=1
EXsXt
=
n
X
s=1 n
X
t=1
rt−s
=
n
X
|k|<n
(n− |k|)rk
Par suite
1.3. DENSIT ´E SPECTRALE ET PORT ´EE 13 Proposition 1.3.2 Si la suiteXn est `a courte port´ee alors
E|X1+· · ·+Xn|2∼ng(0) Preuve.Il suffit de montrer que
X
|k|<n
|k|rk=o(n)
Pour cela, si|rk|< pour|k|> K, on divise l’expression en une somme de deux termes
X
|k|<n
|k||rk| ≤ X
|k|<K
|k||rk|+n.
Pour conclure, signalons la repr´esentation suivante comme moyenne mobile in- finie d’un bruit blancfaiblepour une suite stationnaire.
Th´eor`eme 1.3.1 (d´ecomposition de Cr´amer Wold) Soit(Xn)n∈Zune suite faiblement stationnaire d’ordre 2 telle que G soit d´erivable de d´eriv´ee g = G0 telle que
Z
logg(x)dx >−∞.
Alors il existe une unique suite ξn orthogonale, stationnaire d’ordre 2 (bruit blanc faible) telle que Eξ02 = 1 et une suite (cn)n∈N telle queP∞
n=0c2n <∞ et c0≥0 telles que
Xn=EX0+
∞
X
k=0
ckξn−k.
Chapitre 2
Chaos Gaussien
Par nature, les lois gaussiennes jouent un rˆole central en probabilit´es : elles ap- paraissent naturellement comme lois limites en vertu du th´eor`eme de Lindeberg.
Ce chapitre d´eveloppe quelques ´el´ements de la th´eorie du chaos gaussien. Ici, des calculs explicites semblent toujours possibles.
2.1 Lois gaussiennes
2.1.1 Loi normale
Rappelons d’abord qu’une variable al´eatoire normale standard, N ∼ N(0,1), admet la densit´e
ϕ(x) = 1
√2πe−x
2 2
par rapport `a la mesure de Lebesgue sur R. Le facteur de normalisation √ 2π provient du calcul du carr´e d’une int´egrale :
Z ∞
−∞
e−x
2 2 dx
2
= Z ∞
−∞
Z ∞
−∞
e−x2 +y
2 2 dx dy
= Z 2π
0
dθ Z ∞
0
e−r
2 2rdr
= 2π,
Cette identit´e est obtenu via le changement de variables en coordonn´ees polaires, (r, θ)7→(x, y) = (rcosθ, rsinθ), d´efini de R+×[0,2π[ dans R2.
La fonction caract´eristique de la loi normale vaut φN(s) =EeisN =e−s
2
2 (2.1)
En effet, la transform´ee de LaplaceLN(z) =EezN est ais´ement calcul´ee lorsque z∈R:
LN(z) =EezN= 1
√2π Z ∞
−∞
ezx−x
2
2 dx= 1
√2π Z ∞
−∞
ez
2
2−(x−z)22 dx=ez
2 2
15
en utilisant le d´eveloppement du binˆome (x−z)2 =x2−2zx+z2 et apr`es le changement de variablex7→x−z. Grˆace au th´eor`eme de convergence domin´ee, on prouve que l’application z 7→ LN(z) est une fonction enti`ere sur C, donc le principe du prolongement analytique implique φN(s) =LN(is) =e−s
2 2 . La formule utile suivante n’est qu’une r´e´ecriture de la transform´ee de Laplace de la loi gaussienne standard deN :
EezN−z
2
2 = 1, ∀z∈C (2.2)
Notons encore que l’analycit´e de cette fonction implique que la loi d’une gaus- sienne est d´etermin´ee par sa fonction caract´eristique.
Pour conclure avec les variables al´eatoires gaussiennes r´eelles, nous d´efinissons la loi N(m, σ2) comme celle de m+σN pour tous m, σ ∈ R. La densit´e et la fonction caract´eristique de ces lois s’obtiennent par simple changement de variable.
Une propri´et´e importante de ces lois (et qui les caract´erise) est que, lorsque les variablesYj ∼ N(mj, σ2j) sont ind´ependantes pourj = 1 et j= 2, leur somme reste gaussienne etY1+Y2∼ N(m1+m2, σ21+σ22).
Une r´eciproque de cette propri´et´e est que siY1, Y2 sont des variables al´eatoires ind´ependante et de mˆeme loiµ. Si (Y1+Y2)/√
2 suit encore la loiµalorsµest la loi d’une variable gaussienne centr´ee.
Cette propri´et´e suit d’un calcul de fonctions caract´eristiques. Le fait que cette propri´et´e caract´erise les lois gaussiennes est prouv´e en d´emontrant que le loga- rithme de la transform´ee de Laplace d’une telle loi est un polynˆome de degr´e 21.
2.1.2 Lois gaussiennes multivari´ ees
D´efinition 2.1.1 Un vecteur al´eatoireY ∈Zk est gaussien si le produit scalaire Y ·u=Ytuest une variable al´eatoire gaussienne pour chaqueu∈Rk.
Les paragraphes suivants ´evoquent des ´enonc´es classiques donnant les propri´et´es essentielles de telles lois.
Une loi gaussienne ne d´epend que de ses caract´eristiques d’ordre 2.
La loi d’un vecteur gaussienY ne d´epend que de son esp´erance et de sa matrice de covariance, en effet cette loi est d´etermin´ee par celle des variables al´eatoires r´eelles Y ·u pour tout u ∈ Rk et, en notant sa matrice de covariance Σ = E(Y −EY)(Y −EY)t (d’ordre k×k). Par suite, la loi du produit scalaire Y ·u∼ N(EY ·u, utΣu) ne d´epend que deu,EY et Σ.
Une application essentielle de cette remarque est que pour un vecteur gaussien, les notions d’orthogonalit´e et d’ind´ependance co¨ıncident (cette propri´et´e peut aussi ˆetre prouv´ee en utilisant des fonctions caract´eristiques).
1. La fonction caract´erisqueγ(t) =R
eitxµ(dx) v´erifie, par ind´ependanceγ(t) =γ2(t/√ 2).
2.1. LOIS GAUSSIENNES 17 R´eduction d’un vecteur gaussien.
Soit Y un tel vecteur gaussien, alors Σ = E(Y −EY)(Y −EY)t, admet une racine carr´ee R, sym´etrique, positive et telle que Σ = R2. En effet, une telle matrice est diagonalisable en base orthonorm´ee, donc il existe une matrice Ω orthogonale et une matrice D diagonale telles que Σ = ΩtDΩ,et ΩtΩ =Ik.La matrice Σ, est positive comme toute matrice de covariance (en effet, il est clair queutΣu= Var (Y·u)≥0 pour chaque vecteuru∈Rk), par suite la matriceD admet des coefficients positifs (strictement positifs, lorsque Σ est une matrice d´efinie) et il existe donc ∆, matrice diagonale `a coefficients positifs, v´erifiant D= ∆2. Par suiteR= Ωt∆Ω est solution du probl`eme de racine carr´ee. Cette solution est une matrice sym´etrique positive ; on peut prouver qu’elle est unique si Σ est une matrice d´efinie. Dans ce cas, le vecteurZ =R−1(Y −EY), encore gaussien admet des composantes normales standard, N(0,1), orthogonales. La loi d’un vecteur gaussien ne d´epend que de son esp´erance et de sa matrice de covariance doncZ est unk−´echantillonZ∼ Nk(0, Ik).
Densit´e.
On en d´eduit, grˆace `a un changement de variables que, si Σ est inversible, le vecteur Y admet une densit´e surRk :
fY(y) = 1
p(2π)kdet Σe−12(y−EY)tΣ−1(y−EY) (2.3) Fonction caract´eristique.
A pr´esent, et mˆeme lorsque Σ n’est pas inversible, elle est repr´esent´ee sous la forme Y =EY +RZ (maisR n’est peut-ˆetre pas inversible) et on a pour tout s∈Rk :
φY(s) = Eeis·Y
= eis·EYEeis·RZ
= eit·EYEeiZ·Rs
= eis·EY−12(Rs)·(Rs)
φY(s) = eis·EY−12(stΣs) (2.4) Conditionnement.
Soit (X, Y) ∼ Na+b(0,Σ) un vecteur gaussien dont la covariance s’´ecrit par blocs
Ia C Ct B
pour une matrice sym´etrique positive B carr´ee d’ordre b et une matrice rectangulaire C d’ordre a×b. Alors Z = Y −CtX est une variable al´eatoire gaussienne orthogonale `a X, donc ind´ependante de X; par suiteCtX =E(Y|X).
2.1.3 Existence de lois gaussiennes.
Si Σ est une matrice sym´etrique d×d et positive, alors on a montr´e qu’existe une racine carr´ee sym´etrique R telle que R2 = Σ. Si Z = (Z1, . . . , Zd)t pour
des variables gaussiennes standard et ind´ependantes Z1, Z2, . . . alors pour tout vecteurm∈Rd:
Y =m+RZ∼ Nd(m,Σ).
donc cette loi est bien d´efinie.
A titre d’application, non obtenons la
Proposition 2.1.1 Si une suite de r´eels(rk)k v´erifier−n=rn pour toutn≥0 et siPn
i,j=1uiujri−j ≥0,pour tousu1, . . . , un ∈R, alors il existe un processus gaussien stationnaire, centr´e et de covariance rk =EX0Xk.
Preuve. Pour chaque entier d la loi Nd(0,Σd) est d´efinie si on pose Σd = (ri−j)1≤i,j≤d.
Par suite, le th´eor`eme de consistance de Kolmogorov(2) permet de conclure.
Notons que cet ´enonc´e s’´etend imm´ediatement au cas de processus `a temps continu. Si la fonction Γ(s, t) est telle que la matrice (Γ(ti, tj))1≤i,j≤n satisfasse
`
a (1.1) pour tous les choix envisageables d’indicesti, il existe encore un processus gaussien de covariance Γ et de moyenne quelconque. Un exemple de processus li´e `a la d´ependance `a longue port´ee est ainsi d´etaill´e par la section suivante.
2.1.4 Mouvement brownien fractionnaire
Le mouvement brownien fractionnaire (mBf, en abr´eg´e, voir Taqqu, 2002) d’ex- posantH ∈]0,1] est un processus gaussien centr´e (Zt)t∈Rde covariance Γ(s, t) = Cov (Zs, Zt) d´efinie par
Γ(s, t) =|s|2H+|t|2H− |s−t|2H (2.5) Proposition 2.1.2 La fonction Γ d´efinie par (2.5) pour s, t ∈ R est bien la covariance d’un processus gaussien(BH(t))t∈[0,1].
Preuve.En vertu d’une extension de la proposition 2.1.1 au cas de processus `a temps continu, il suffit de prouver que pour tous les choix 0≤t1<· · ·< tn≤1, et tous les complexesu1, . . . , un∈C
A=
n
X
i,j=1
Γ(ti, tj)uiuj≥0 – Etape 1.Posonst0= 0 etu0=−Pn
i=1ui alors
n
X
i=1 n
X
j=1
|ti|2Huiuj = −
n
X
i=0
|ti|2Huiu0
= −
n
X
i=0
|ti−t0|2Huiu0
2. Ce th´eor`eme affirme que si on dispose d’une famille de loisπF surEF pour un espace mesur´e (E,E) et pour toute famille finieF⊂T d’un ensemble quelconque, alors il existe une loiP sur l’espace produit (ET,E⊗T) dont la projectionP◦p−1F surEF admet la loiπF si pourG⊂F,πG=πF◦p−1G lorsque l’on posepF((xt)t∈T) = (xt)t∈F.
2.1. LOIS GAUSSIENNES 19 et de mˆeme
n
X
i=1 n
X
j=1
|tj|2Huiuj =−
n
X
j=0
|tj−t0|2Hu0uj par suite
A=−
n
X
i=0 n
X
j=0
|ti−tj|2Huiuj
– Etape 2.Soit >0, on pose B=
n
X
i,j=0
e−|ti−tj|2Huiuj Alors la formule de Taylor implique simplement que
B∼A, ↓0.
– Etape 3.Admettons que pour chaque >0 et chaqueH ∈]0,1], il existe une variable al´eatoire r´eelle ξtelle que φξ(t) =Eeitξ =e−|t|2H (une telle loi est dite 2H−stable). Si ξ1, . . . , ξn d´esigne un n−´echantillon de cette loi on voit ais´ement que
B=E
n
X
j=0
ujeitξj
2
≥0.
Remarque. Bien que l’on n’en n’ait pas besoin, ce processus peut ˆetre d´efini sur Rtout entier. Le casH = 12 donne lieu au mouvement brownienW =B1
2, avec Γ(s, t) =|s| ∧ |t| sist >0 et 0 sinon.
Lemme 2.1.1 Soit0≤h < Halors, avec la probabilit´e 1, il existe des constantes c, C >0 telles que
|BH(s)−BH(t)| ≤C|t−s|h, si0≤s, t≤1,|s−t|< c.
Preuve.Pour cela, on utilise le lemme de Kolmogorov-Chentsov avec la relation E(BH(s)−BH(t))2= 2|s|2H+2|t|2H−2 |s|2H+|t|2H− |s−t|2H
= 2|s−t|2H. D´efinition 2.1.2 Le processus(Z(t))t∈RestH−autosimilaire lorsque pour tout a >0
(Z(at))t∈Ren loi= (aHZ(t))t∈R
Cette condition ´equivaut `a la stationnarit´e du processus Y(t) = e−tHZ(et) lorsque le processus est index´e parR+. Pour le voir, on prouve l’´egalit´e des lois de r´epartitions finies de deux processus. Remarquons que
1. SiZ est autosimilaire alorsZ(0) = 0
2. SiZ est autosimilaire, et si ses accroissements (Z(t+s)−Z(t))t∈R sont stationnaires pour tout s, alors EZ(t) = 0 lorsque H 6= 1 car EZ(2t) = 2HEZ(t) et on a aussi E(Z(2t)−Z(t)) = E(Z(t)−Z(0)) = EZ(t) donc (2H−2)EZ(t) = 0.
3. Si les accroissements deZ sont stationnaires alors, en loi :Z(−t) =−Z(t) car la loi de Z(0)−Z(−t) est celle de Z(t)−Z(0).
4. Par 3) et par autosimilarit´e :EZ2(t) =|t|2H.
5. H ≤1 car E|Z(2)|= 2HE|Z(1)| ≤E|Z(2)−Z(1)|+E|Z(1)| = 2E|Z(1)|
donc 2H≤2.
6. Lorsque H = 1, EZ(s)Z(t) =σ2st donc E(Z(t)−tZ(1))2= 0 et le pro- cessus est d´eg´en´er´e :Z(t) =tZ(1).
On en d´eduit que
Proposition 2.1.3 Le processus BH est gaussien centr´e et H−autosimilaire ; de plus, ses accroissements sont stationnaires.
2.2 Chaos gaussien
Soit X = (Xt)t∈T une famille gaussienne arbitraire d´efinie sur l’espace pro- babilis´e (Ω,A,P), le chaos gaussien associ´e `a X est le plus petit sous-espace complet deL2(Ω,A,P) contenant les coordonn´ees Xt deX (pour tout t∈T), la constante 1 et stable par multiplication (c’est le compl´et´e de la sous alg`ebre engendr´ee parX). Ses ´el´ements s’´ecrivent comme limites dansL2de polynˆomes
Z=
D
X
d=1
X
t1∈T0
· · · X
td∈T0
a(d)t
1,...,tdXt1· · ·Xtd pour une partie finieT0⊂T.
Pour faire des calculs dans cet espace, on exhibe d’abord une base dans le cas o`u T est r´eduit `a un point et les autres sous sections consid`erent les calculs de variances ou de moment d’ordre plus ´elev´e dans cet espace.
2.2.1 Polynˆ omes d’Hermite
D´efinition 2.2.1 (Polynˆomes d’Hermite) Soitk≥0, entier, on pose Hk(x) =(−1)k
ϕ(x)
dkϕ(x) dxk
AlorsHk est un polynˆome de degr´ek de coefficient dominant valant 1.
Pour prouver ce dernier point, on d´erive la relationHk(x)ϕ(x) = (−1)kϕ(k)(x), ainsi Hk0(x)ϕ(x) +Hk(x)ϕ0(x) = (−1)kϕ(k+1)(x) et, avec ϕ0(x) = −xϕ(x) , il vient (Hk0(x)−xHk(x))ϕ(x) = (−1)kϕ(k+1)(x), ou encore
Hk+1(x) =xHk(x)−Hk0(x)
2.2. CHAOS GAUSSIEN 21 ainsi, d˚Hk+1 = d˚Hk + 1 et admet le coefficient dominant, ainsi H0(x) = 1 permet de conclure. On a ainsi
H0(x) = 1 H1(x) = x H2(x) = x2−1 H3(x) = x3−3x
Les polynˆomesHk forment un syst`eme de polynˆomes orthogonaux pour la me- sure gaussienne car, apr`esk int´egrations par parties, nous avons
EHk(N)Hl(N) = Z ∞
−∞
Hk(x)Hl(x)ϕ(x)dx
= (−1)k Z ∞
−∞
dkϕ(x)
dxk Hl(x)dx
= Z ∞
−∞
dkHl(x) dxk ϕ(x)dx
ainsi cette expression s’annule lorsque k > l; sik=lnous obtenons dkHk(x)
dxk =k! donc EHk2(N) =k!
De plus ce syst`eme est total3, donc, si une fonction mesurablegv´erifie la relation E|g(N)|2<∞, on obtient la repr´esentationL2 suivante
g(x) =
∞
X
k=0
gk
k!Hk(x), gk =Eg(N)Hk(N), E|g(N)|2=
∞
X
k=0
|gk|2 k!
D´efinition 2.2.2 On appelle rang d’Hermite de la fonctiongle plus petit indice k≥0 tel quegk6= 0. On noteram oum(g) ce rang d’Hermite.
De plus, on prouve que cette suite de polynˆomes est aussi d´efinie par la relation formelle
∞
X
k=0
zk
k!Hk(x) =ezx−z2/2 (2.6) Tout d’abord, cette s´erie converge (normalement) dansL2(ϕ(x)dx) car
E zk
k!Hk(N)zl l!Hl(N)
!
=
( 0, lorsque k6=l
|z|2k
k! , si k=l
Nous prouvons ici l’identit´eHk0 =kHk−1. Commed˚(Hk0 −kHk−1)< k−1, ceci d´ecoulera deR
(Hk0(x)−kHk−1(x))Hl(x)ϕ(x)dx= 0 pour toutl < k. D’abord k
Z
Hk−1(x)Hl(x)ϕ(x)dx=
0, sil < k−1
k(k−1)! =k!, sil=k−1
3. cet ´enonc´e est admis : voir par exemple Choquet, Topologie, volume 1).
Une int´egration par parties implique Z
Hk0(x)Hl(x)ϕ(x)dx = (−1)l Z
Hk0(x)ϕ(l)(x)dx
= (−1)l+1 Z
Hk(x)ϕ(l+1)(x)dx
= Z
Hk(x)Hl+1(x)ϕ(x)dx
cette expression s’annule lorsquel < k−1, et sil =k−1 on obtient la mˆeme quantit´e k! que pour l’autre expression ce qui prouve que Hk0 = kHk−1(4).
A pr´esent, la fonction x7→ gz(x) = ezx−z2/2 est dans L2(ϕ), donc admet un d´eveloppement en s´erie d’Hermitegz=P
kgz,kHk/k! o`u gz,k = Egz(N)Hk(N)
= Z ∞
−∞
Hk(x)ezx−z2/2ϕ(x)dx
= Z ∞
−∞
Hk(x)e−(z−x)2/2 dx
√2π
= Z ∞
−∞
Hk(t+z)ϕ(t)dt, grˆace au changement de variablet=x−z
=
k
X
l=0
zl l!
Z ∞
−∞
Hk(l)(t)ϕ(t)dt, par un d´eveloppement de Taylor
=
k
X
l=0
Cklzl Z ∞
−∞
Hk−l(t)ϕ(t)dt, carHk(l)= k!
(k−l)!Hk−l
= zk
par suite nous obtenons le d´eveloppement suivant dansL2 :
∞
X
k=0
zk
k!Hk(N) =ezN−z2/2 dans L2(Ω,A,P). (2.7) De sa convergence dansL2(ϕ), on d´eduit aussi que la s´erieg(x, z) =P∞
k=0 zk k!Hk(x) convergex−p.s pour chaque z∈C5.
4. Une mani`ere alternative plus ´el´ementaire de conclure consiste `a partir de la relation ϕ0(x) =xϕ(x) ; par d´efinitionϕ(k)(x) = (−1)kϕ(x) donc cette formule impliqueHk+1(x) = xHk(x)−Hk0(x). D´erivons aussi cette relationkfois avec la formule de Leibniz, nous obtenons aussiϕ(k+1)(x) =−xϕ(k)(x)−kϕ(k−1)(x), doncHk+1(x) =xHk(x)−kHk−1(x) ; la formule suit alors de la comparaison de ces deux expressions deHk+1.
5. Si on savait prouver que la fonctionx7→g(x, z) est une s´erie convergente d´erivable pour chaque valeur dez, on en d´eduirait que∂g/∂x(x, z) =zg(x, z), et la fonction x7→ezx−z2/2 satisfait `a la mˆeme ´equation aux d´eriv´ees partielles. De plus, dans les deux cas,Eg(N, z) = 1 d’o`u l’identit´e (2.6), pour chaquex∈Ret pour toutz∈C. Ceci donnerait aussi une autre fa¸con de prouver (2.7).
2.2. CHAOS GAUSSIEN 23
2.2.2 Moments d’ordre 2
Lemme 2.2.1 (Formule de Mehler) Soit Y = (Y1, Y2) un vecteur al´eatoire gaussien de loi N2
0,
1 r r 1
, un vecteur gaussien normalis´e, alors
Cov (Hk(Y1), Hl(Y2)) =
0, sik6=l k!rk, sik=l
Preuve.Soientt1, t2∈R, alors soitσ2= Var (t1Y1+t2Y2) =t21+t22+ 2rt1t2on a t1Y1+t2Y2∼σN donc la relation (2.2) implique
Eet1Y1+t2Y2−t
21 +t2 2
2 =ert1t2
Par suite, grˆace `a l’identit´e (2.7) dansL2, on peut intervertir somme et int´egration dans la relation suivante grˆace au th´eor`eme de convergence domin´ee,
Eet1Y1+t2Y2−
t2 1 +t2
2
2 = ert1t2
=
∞
X
k,l=0
tk1 k!
tl2
l! EHk(Y1)Hl(Y2)
Identifier le d´eveloppement pr´ec´edent par rapport aux puissances de t1 et t2
permet de conclure carEHk(Y1)6= 0 seulement lorsquek= 0.
Soit `a pr´esent une fonctiong:R→C, mesurable et telle queE|g(N)|2<∞, on a doncg=P
k gk
k!Hk avecgk =EHk(N)g(N) et Eg(Y1)g(Y2) =
∞
X
k=0
|gk|2 k! rk Cov (g(Y1), g(Y2)) =
∞
X
k=1
|gk|2 k! rk
Soit (Yn)n∈Z une suite stationnaire gaussienne r´eelle telle que EY0 = 0 et VarY0 = 1, si Eg(Y0) = 0 (en termes de rang d’Hermite, ceci signifie donc quem(g)≥1) on a, en notant rn =EY0Yn :
E
n
X
j=1
g(Yj)
2
=
n
X
s,t=1
Eg(Ys)g(Yt)
= n
n
X
|l|<n
1−|l|
n
Eg(Y0)g(Yl)
= n
n
X
|l|<n
1−|l|
n ∞
X
k=m(g)
|gk|2 k! rkl
= n
∞
X
k=m(g)
|gk|2 k!
n
X
|l|<n
1−|l|
n
rlk
Par suite, lorsqueP
l|rl|<∞, chacune des s´eriesRk=P
lrkl converge et
E
n
X
j=1
g(Yj)
2
∼n
∞
X
k=m(g)
Rk|gk|2
k! =O(n) Si, on a seulementP
l|rl|m(g)<∞, ce r´esultat demeure exact.
Exemple. En statistiques, on connaˆıt l’importance de la fonction de r´epartition empiriqueFn(x) = 1
n
n
X
k=1
I
1{Yk≤x}. Le calcul de sa variance repose sur la relation pr´ec´edente avecg(u) = I1{u≤x}. Dans ce cas
gk = EHk(N) I1{N≤x}
= Z x
−∞
Hk(u)ϕ(u)du
= (−1)k Z x
−∞
ϕ(k)(u)du
=
Φ(x), (primitive deϕ) si k= 0
ϕ(x)Hk−1(x), si k6= 0
Par cons´equent
VarFn(x) = 1 n
∞
X
k=m(g)
|ϕ(k−1)(x)|2 k!
n
X
|l|<n
1−|l|
n
rkl
cette expression est d’ordre 1n lorsqueP
l|rl|<∞. LorsqueP
l|rl|=∞, elle est d’ordre n1P
|l|<n
1−|l|n
rl >> 1n, toutefois cette expression converge encore vers 0 si c’est le cas de la suiterl.
2.2.3 Moments d’ordre quelconque
La m´ethode de calcul pour la formule de Mehler sugg`ere un calcul analogue pour un nombre quelconque de facteursHlj(Yj).
Soit doncY = (Y1, . . . , Yp)∼ Np(0, R) o`u la matrice sym´etriqueR= (ri,j)1≤i,j≤p v´erifieri,i= 1. Pour (t1, . . . , tp)∈Rp, on calcule
Var
p
X
j=1
tjYj
=
p
X
j=1
tj+ 2ρ, ρ= X
1≤i<j≤p
ri,jtitj
La relation (2.2) montre que eρ=Ee
Pp j=1
tjYj−t
2j 2