• Aucun résultat trouvé

Cours de Séries Temporelles

N/A
N/A
Protected

Academic year: 2022

Partager "Cours de Séries Temporelles"

Copied!
71
0
0

Texte intégral

(1)

Cours de Master

S´eries temporelles non lin´eaires

M2 de Statistiques ` a l’Universit´ e Paris 6

Paul Doukhan

Universit´ e de Cergy-Pontoise

Le 24 f´ evrier 2010

(2)
(3)

Table des mati` eres

1 Stationnarit´e 5

1.1 Notions de stationnarit´e . . . 5

1.2 Repr´esentation spectrale . . . 6

1.3 Densit´e spectrale et port´ee . . . 10

2 Chaos Gaussien 15 2.1 Lois gaussiennes . . . 15

2.1.1 Loi normale . . . 15

2.1.2 Lois gaussiennes multivari´ees . . . 16

2.1.3 Existence de lois gaussiennes. . . 17

2.1.4 Mouvement brownien fractionnaire . . . 18

2.2 Chaos gaussien . . . 20

2.2.1 Polynˆomes d’Hermite . . . 20

2.2.2 Moments d’ordre 2 . . . 23

2.2.3 Moments d’ordre quelconque . . . 24

3 Processus lin´eaires 27 3.1 Processus FARIMA(0, d,0) . . . 28

3.2 Processus ARMA(p, q) . . . 28

3.3 Processus FARIMA(p, d, q) . . . 29

4 Processus non lin´eaires 31 4.1 Sch´emas de Bernoulli . . . 31

4.1.1 D´efinitions . . . 31

4.1.2 D´ependance faible et sch´emas de Bernoulli . . . 32

4.2 Chaos discrets . . . 34

4.2.1 Polynˆomes d’Appell . . . 34

4.2.2 Polynˆomes d’Appell multivari´es . . . 35

4.2.3 Mod`eles de Volterra . . . 35

4.3 Mod`eles non lin´eaires . . . 36

4.3.1 Mod`eles bilin´eaires . . . 36

4.3.2 Mod`eles ARCH(∞) . . . 37

4.4 Chaˆınes de Markov stables . . . 37

4.4.1 Processus ARCH . . . 39 1

(4)

4.4.2 Mod`eles de branchement . . . 39

4.4.3 Mod`ele AR(p) non lin´eaire . . . 40

5 D´ependance 41 5.1 Introduction . . . 41

5.1.1 Th´eor`eme ergodique . . . 41

5.1.2 Port´ee . . . 46

5.2 Longue port´ee . . . 48

5.2.1 Cas gaussien . . . 48

5.2.2 Polynˆomes gaussiens . . . 49

5.2.3 Processus de Rosenblatt . . . 49

5.2.4 Processus lin´eaires . . . 51

5.3 Courte port´ee . . . 52

6 Moments et cumulants 55 6.1 M´ethode des moments . . . 55

6.2 D´efinitions . . . 56

6.3 D´ependance et cumulants . . . 59

6.3.1 Sommes de cumulants . . . 62

6.3.2 Moments de sommes . . . 63

6.3.3 In´egalit´es de Rosenthal . . . 65

(5)

TABLE DES MATI `ERES 3

Objectifs du cours

La th´eorie des s´eries chronologiques est d’un usage constant quand on traite de donn´ees ´echantillonn´ees dans le temps.

Loin d’ˆetre exhaustif, ce cours a pour seule ambition d’en pointer quelques

´

el´ements.

Le cours est divis´e en six chapitres.

1. Le premier chapitre introduit les notions li´ees `a la stationnarit´e des pro- cessus. Celle-ci prend en compte la persistance de ph´enom`enes au fils du temps. Les notions de spectre y sont d´evelopp´ees avec leur lien au com- portement de la suite des covariances.

2. Un exemple standard, celui des processus gaussiens est alors envisag´e en d´etails dans le chapitre 2. Nous y rappelons la machinerie qui permet la mise en place du chaos d’Hermite. Nous introduisons ainsi le Mouvement brownien fractionnaire, li´e `a la d´ependance `a longue port´ee.

3. Nous d´eveloppons d’abord les processus lin´eaires, les plus utilis´es en pra- tique, ainsi que quelques-unes de leurs propri´et´es. En particulier, les pro- cessus ARMA et FARIMA sont envisag´es pour leurs propri´et´es de longue ou de courte port´ee.

4. Nous proposons ici quelques exemples de s´eries temporelles non lin´eaires en nous attachant plus pr´ecis´ement `a la d´efinition des mod`eles les plus utilis´es.

Pour cela des sch´emas de Bernoulli g´en´eraux sont introduits. Les mod`eles consid´er´es sont engendr´es par des suites ind´ependantes et ´equidistribu´ees.

Peu de propri´et´es pr´ecises y sont d´etermin´ees au b´en´efice d’une botanique des mod`eles assez riche.

5. Les outils donnant lieu `a des th´eories asymptotiques sont aussi envisag´es dans l’´etude de la d´ependance, forte ou faible. Le point de vue adopt´e est li´e aux asymptotiques sous-jacentes. Compte tenu des aspects hautement techniques de ces th´eories, il s’agit ici d’une tr`es courte ´ebauche et nous renvoyons les lecteurs `a des textes plus complets. Par souci de pr´ecision, nous donnons tout de mˆeme le th´eor`eme ergodique et sa preuve.

6. Pour conclure, nous proposons quelques ´enonc´es en termes de cumulants.

Ceux-ci ont pour objectif de contrˆoler l’´evolution des moments des statis- tiques usuelles pour des s´eries chronologiques.

Des utilisations de ces techniques en termes d’estimation param´etrique, spectrale ou multispectrale sont d´evelopp´ees dans le livre de Rosenblatt (1985) auquel nous renvoyons le lecteur plus attir´e par les applications.

Les livres de Azencott et Dacunha Castelle (1984) et de Rosenblatt (1985) four- nissent un support additionnel pour les lecteurs int´eress´es par les bases de la th´eorie des s´eries chronologiques.

L’ouvrage ´edit´e par Doukhan, Oppenheim et Taqqu (2002) donne de tr`es riches d´eveloppements de cette th´eorie et fait le point sur la d´ependance `a longue

(6)

port´ee ; indiquons en particulier les articles de Doukhan et celui de Taqqu dans cet ouvrage dont le pr´esent cours est largement inspir´e.

Les suggestions permettant d’am´eliorer ce manuscript seront les bienvenues.

Paris, le 24 f´evrier 2010

Paul Doukhan

(7)

Chapitre 1

Stationnarit´ e

Nous donnons ici quelques d´efinitions et des ´el´ements de la th´eorie des s´eries chronologiques. Nous appelons de mani`ere indiff´erente, suite de variables al´eatoires, s´erie temporelle ou s´erie chronologique toute suite (Xn)n∈Zde variables al´eatoires d´efinies sur le mˆeme espace probabilis´e (syst´ematiquement appel´e (Ω,A,P)) et

`

a valeurs dans le mˆeme espace mesure (E,E). G´en´eralementE=Rsera muni de sa tribu bor´elienne (compl´et´ee si n´ecessaire) ; dans certains casE =Rd est un espace vectoriel de dimension finie. Afin de simplifier le propos nous ´eviterons le plus possible les digressions vectorielles, les limitant aux seuls cas o`u elles s’av`erent n´ecessaires. Un autre type d’extension qui ne sera pas abord´e dans ce cours est celui des champs al´eatoires (Xn)n∈Zd.

Pour ne pas pas avoir `a revenir sur l’espace probabilis´e, notons seulement que lorsque Ω = [0,1]Z est muni de la tribu produit, les applications coor- donn´ees d´eterminent une suite de variables al´eatoires ind´ependantes et uni- formes sur [0,1]. La transformation par quantiles permet alors de construire une suite ind´ependante ´equidistribu´ee et de loi arbitraire sur R (soit F une fonction de r´epartition quelconque,F−1(U) suit la loiF lorsqueU est uniforme sur [0,1]). Nous n’aurons donc aucune retenue pour consid´erer de telles suites ind´ependantes ´equidistribu´ees ´eventuellement ind´ependantes d’une suite d´ej`a construite.

1.1 Notions de stationnarit´ e

D´efinition 1.1.1 La suite(Xn)n∈Zest stationnaire si, pour chaque entier k≥ 0, la loi du vecteur(Xl, . . . , Xl+k)est ind´ependante de l∈Z.

Cette suite est dite stationnaire au second ordre siEXl2<∞ et si on a simple- ment, EXl=EX0 et Cov(Xl, Xk+l) =Cov(X0, Xk)pour tousl, k∈Z. Pour paraphraser cette d´efinition, la suite (Xn)n∈Z est stationnaire si pour chaquek∈Net chaque fonction continue et born´eeh:Rk+1→R, on a

Eh(Xl, . . . , Xl+k) =Eh(X0, . . . , Xk) 5

(8)

La stationnarit´e au second ordre est ainsi une hypoth`ese plus faible, mˆeme, que celle obtenue pour k = 1 ; sous une hypoth`ese de moment d’ordre 2, elle correspond `a l’usage de fonctions polynomialeshde degr´e 2.

Lorsque la suite est gaussienne, nous verrons que ces notions co¨ıncident mais un exemple simple prouve qu’elles sont g´en´eralement bien distinctes. Soit (ξn)n∈∈Z, une suite ind´ependante et identiquement distribu´ee et centr´ee de variables de carr´e int´egrable, posonsXnnξn−1, alors cette suite est centr´ee et orthogonale mais elle n’est pas ind´ependante car, lorsque les variables ξn ont des moments d’ordre 4,

Cov (Xn2, Xn−12 ) =Eξ2nξn−14 ξn−22 −Eξ2nξn−12n−12 ξn−22 = Eξ022

Varξ20 n’est pas nul lorsqueξ02 n’est pasp.s.constante.

Une modification assez simple de cet exemple permet de construire une suite centr´ee orthogonale (donc stationnaire au second ordre) mais non stationnaire

Xnn

r 1− 1

n·ξn−1+ 1

√n·ξn−2

!

lorsque la suite ξn v´erifieEξn2 = 1 on a EXnXm = 0 ou 1 selon quen6=m ou n=m. La non stationnarit´e de cette suite repose sur le calcul deEXnXn−1Xn−2

qui fait effectivement intervenirn.

La stationnarit´e au second ordre s’´ecrit sous la forme

EXl=m, Cov (Xl, Xk+l) =rk, ∀l∈Z,∀k∈N pour une suite de covariancesrn∈R(n≥0) et une moyennem∈R.

1.2 Repr´ esentation spectrale

Notons qu’une propri´et´e de la suite des covariances est la suivante. Si cl ∈ C pour tout|l| ≤n, on a en posantc= (cl)|l|≤n et Σn= (r|i−j|)|i|,|j|≤n

ctΣnc= X

|i|,|j|≤n

cicjr|i−j|=E

X

|i|≤n

ciXi

2

≥0 (1.1)

Th´eor`eme 1.2.1 (Herglotz) Si la suite(rn)n∈Zv´erifie la propri´et´e (1.1) alors il existe une fonction (essentiellement unique) croissante v´erifiant G(−π) = 0 et

rk= Z π

−π

eikλdG(λ)

(9)

1.2. REPR ´ESENTATION SPECTRALE 7 Notation. L’int´egrale dG(λ) est prise au sens de Stieljes : on d´efinit une mesure µ par µ([−π, λ]) = G(λ) pour chaque λ ∈ [−π, π]. On d´efinit alors, pour toute fonctionh: [−π, π]→Rcontinue et born´ee :

Z π

−π

h(λ)dG(λ) = Z π

−π

h(λ)µ(dλ) Preuve.Posons

gn(λ) = 1 2πn

n−1

X

s=0 n−1

X

t=0

rt−se−i(t−s)λ= 1 2π

n−1

X

j=−(n−1)

1− j

n

rje−ijλ

et Gn(λ) =Rλ

−πgn(u)du alors par la relation (1.1),gn(u)≥0 donc la fonction est continue croissante et v´erifie Gn(π) = r0. Par un argument de compacit´e, on peut donc en extraire une sous-suite Gn0 convergente. Alors, notons que

1−nj

rj =Rπ

−πeijλdGn(λ), on obtient l’existence deG comme unique limite d’une telle sous-suite Gn0.

Apr`es une int´egration par parties rk = (−1)kr0−ik

Z π

−π

eikλdGn(λ) ce qui implique l’unicit´e deG.

D´efinition 1.2.1 La mesure spectrale du processus (Xn)n∈Z, stationnaire au second ordre (est celle induite par G) est d´efinie, pour toutλ∈[−π, π], par la relation µX([−π, λ]) =G(λ).

Lorsque la fonction G est d´erivable, on appelle densit´e spectrale du processus (Xn)n∈Z la d´eriv´eeg=G0.

Exemples.

– Pour une suite orthogonale (i.eEXkXl= 0 pourk6=l) telle queEXn= 0 et EXn2= 1, on aG(λ) = 1/2 +λ/2π, la mesure associ´ee est celle de Lebesgue.

– Le mod`ele `a phase al´eatoire est `a valeurs complexes ; il est donn´e grˆace `a des constantes a1, b1, . . . , ak, bk ∈R et des variables al´eatoires ind´ependantes et uniformesU1, . . . , Uk sur [−π, π] par la relation

Xn =

k

X

j=1

ajei(nbj+Uj) on calcule,

Cov (Xs, Xt) =EXsXt=rs−t=

k

X

j=1

|aj|2ei(s−t)bj. Ce mod`ele est associ´e `a une fonctionGen escaliers.

(10)

– Soit (ξn)n∈Zune suite centr´ee et ind´ependante et identiquement distribu´ee de variables telles queEξn2 = 1, eta ∈R, le mod`ele `a moyenne mobile MA(1) est donn´e par

Xnn+aξn−1

dans ce cas,r0= 1 +a2 etr1=r−1=aalors querk = 0 lorsquek6=−1,0,1.

Reprenant la preuve du th´eor`eme d’Herglotz on calcule g(λ) = 1

2π(r0+ 2r1cosλ)

= 1

2π 1 +a2+ 2acosλ

= 1

2π (1 +acosλ)2+a2sin2λ

≥ 0

Notation. Dans la suite, pour toute fonctiong : [−π, π]→C, nous poserons g(I) = g(v)−g(u) lorsque I = (u, v) est un intervalle d’extr´emit´es u et v; lorsque g : [−π, π] → R est croissante, cette notation identifie g et la mesure positive qui lui est associ´ee.

D´efinition 1.2.2 (Mesure al´eatoire) Une mesure al´eatoire est donn´ee par une fonction al´eatoireΩ×[−π, π]→C,(ω, λ)7→Z(ω, λ), croissante pour chaque ω∈Ω, telle queE|Z(λ)|2<∞et v´erifiant, pour une fonctionH : [−π, π]→R+, croissante,

- EZ(λ) = 0 pour chaqueλ∈[−π, π],

- EZ(I)Z(J) =H(I∩J) pour tout couple d’intervallesI, J⊂[−π, π].

Soit g : [−π, π]→ Cune fonction mesurable telle que Rπ

−π|g(λ)|2dH(λ)<∞, on d´efinit

Z

g(λ)dZ(λ) en deux temps,

- Si la fonctiong est une fonction en escaliers, g(λ) =gs pour λs−1 < λ≤λs (o`u −π=λ0≤λ≤λS =π) et 0< s≤S, on pose

Z

g(λ)dZ(λ) =

S

X

s=1

gsZ([λs−1, λs]) On note que

E

Z π

−π

g(λ)dZ(λ)

2

= X

s,t

gsgtEZ([λs−1, λs])Z([λt−1, λt])

= X

s

|gs|2E|Z([λs−1, λs])|2

= X

s

|gs|2H([λs−1, λs])

(11)

1.2. REPR ´ESENTATION SPECTRALE 9

= Z π

−π

g2(λ)dH(λ)

- Sig n’est pas une fonction en escaliers, on peut l’approcher par une suite de fonctionsgn en escaliers telles que

Z π

−π

|g(λ)−gn(λ)|2dH(λ)→n→∞0 alors, la suite Yn =R

gn(λ)dZ(λ) v´erifie, pourn > m, E|Yn−Ym|2=

Z π

−π

|gn(λ)−gm(λ)|2dH(λ)→n→∞0,

de Cauchy, cette suite converge donc dansL2(Ω,A,P), sa limite d´efinit l’int´egrale pr´ec´edente.

Th´eor`eme 1.2.2 (repr´esentation spectrale des suites stationnaires) Soit(Xn)n∈Z un processus stationnaire au second ordre et centr´e, alors il existe une mesure spectrale al´eatoireZ telle que

Xn= Z

einλdZ(λ)

cette mesure est associ´ee `a la mesure spectrale du processus.

Preuve. Soit `a pr´esent un processus Xn stationnaire au second ordre, alors sa fonction spectrale G, croissante, admet au plus une infinit´e d´enombrable de discontinuit´es, not´ees DG. Si I est un intervalle dont les extr´emit´es a, b sont hors de DG, nous posons

Zn(I) = 1 2π

X

|j|≤n

Xj Z b

a

e−ijudu

alors la suite (Zn(I))n≥1est de Cauchy dansL2(Ω,A,P) car on a, pourn > m,

E|Zn(I)−Zm(I)|2= 1 4π2E

X

m<|j|≤n

Xj

Z b a

e−ijudu

2

= Z π

−π

|hn−hm|2dG si on note

hn(λ) = 1 2π

Z b a

e−ij(u−λ)du, (qui est la s´erie de Fourier tronqu´ee de l’indicatrice I1I.)

Soit ainsi Z(I) la limiteL2 deZn(I), on a ais´ement EZ(I) = 0 si EXn = 0 et calcule aussi, avec des notations imm´ediates,

EZ(I)Z(J) = lim

n EZn(I)Zn(J) = lim

n

Z π

−π

hI,nhJ,ndG=G(I∩J)

(12)

lorsqueI, J ont des extr´emit´es hors deDG. Un passage `a la limite traite le cas d’extr´emit´es discontinues.

Pour conclure, reste `a noter que EXnZn(I) = 1

2π X

|j|≤n

rn−j Z b

a

eijudu

= Z π

−π

dv 2π

Z b a

X

|j|≤n

eij(u−v)dG(u)

= Z b

a

einvdG(v) Par suite,

EXn

Z

f(λ)dZ(λ) = Z π

−π

einλf(λ)dG(λ)

pour une fonction en escaliers et donc aussi pourf continue, par un passage `a la limite. Lorsquef(λ) =einλon calcule alors

E

Xn− Z

einλdZ(λ)

2

=r0−2r0+r0= 0.

1.3 Densit´ e spectrale et port´ ee

Soit (Xn)n∈Zune suite stationnaire au second ordre. Lui retranchant sa moyenne, on la suppose centr´ee. Si

X

k=0

rk2<∞ alors la fonction

g(λ) = 1 2π

X

k=0

rke−ikλ est d´efinie dansL2([−π, π]), et v´erifie

rk = Z π

−π

eikλg(λ)dλ

donc dans ce cas, la mesure spectrale du processus,G, est absolument continue et de d´eriv´eeg∈L2.

D´efinition 1.3.1 Si la suite stationnaire au second ordre (Xn)v´erifie

X

k=0

r2k<∞et

X

k=0

|rk|=∞ on dit qu’elle est d´ependante `a longue port´ee.

(13)

1.3. DENSIT ´E SPECTRALE ET PORT ´EE 11

Si

X

k=0

|rk|<∞

on dit qu’elle est d´ependante `a courte port´ee. Dans ce cas la fonction g est uniform´ement continue et v´erifie

kgk≤ 1 2π

X

k=0

|rk|.

Exemples

– Lorsque rk ∼k−α pour 12 < α < 1 la suite est `a longue port´ee et on peut prouver qu’il existeβ tel queg(λ)∼cλ−β lorsqueλ→0.

– Sig(λ) =σ2, la suiteξn =Rπ

−πeinλZ(dλ) est un bruit blanc faible de variance σ2 tel queEξnξm= 0 ouσ2 selon quen6=moum=n.

C’est le cas lorsque Z([0, λ]) = σ2W(λ) pour un mouvement brownien stan- dardW. Alors, la gaussiannit´e du bruit blanc implique son ind´ependance et on obtient ainsi un bruit blanc fort.

C’est aussi le cas lorsque λ 7→ Z([0, λ]) est un processus `a accroissements ind´ependants.

Un bruit blanc faible est associ´e `a une mesure spectrale al´eatoire `a accroisse- ments orthogonaux.

– Si

Xn=

X

k=−∞

ckξn−k, pour une suite telle que

X

k=−∞

c2k <∞ alors la densit´e spectralegX deX s’´ecrit

gX(λ) =

X

k=−∞

cke−ikλ

2

gξ(λ)

Pour obtenir ce r´esultat, on calcule simplement la covariance du processusX. De plus

ZX(dλ) =

X

k=−∞

ckeikλ

! Zξ(dλ)

o`uZξ d´esigne la mesure al´eatoire spectrale associ´ee au bruit blancξ.

Ceci permet le calcul de la densit´e spectrale des mod`eles auto-r´egressifs Xn =

p

X

k=1

akXn−kn

(14)

sous la forme

g(λ) = 1 2π

1−

p

X

k=1

ake−ikλ

−2

la fonctiong est bien continue lorsque le polynˆome P(z) =zp

p

X

k=1

akzp−k

a ses racines `a l’ext´erieur du disque unit´e complexe. C’est le cas lorsque Pp

k=1|ak|<1.

Notons enfin que les formules d’h´er´edit´e pr´ec´edentes s’´etendent dans tous les cas de suites stationnaires dansL2:

Proposition 1.3.1 Soit(Xn)une suite stationnaire au second ordre et centr´ee, alors si

Yn =

X

k=−∞

ckXn−k,

X

k=−∞

c2k <∞, la suite Yn est aussi stationnaire et centr´ee et

gY(λ) =

X

k=−∞

ckeikλ

2

gX(λ)

ZY(dλ) =

X

k=−∞

ckeikλ

!

ZX(dλ)

Preuve.Le second ´enonc´e est imm´ediat et le premier suit de la bilin´earit´e de la covariance car

Cov (Y0, Yk) =

X

m=−∞

X

j=−∞

cjcj−m

rk+m

Pour justifier l’appellation de port´ee d’un processus notons que lorsque la suite stationnaireXn est centr´ee :

E|X1+· · ·+Xn|2 =

n

X

s=1 n

X

t=1

EXsXt

=

n

X

s=1 n

X

t=1

rt−s

=

n

X

|k|<n

(n− |k|)rk

Par suite

(15)

1.3. DENSIT ´E SPECTRALE ET PORT ´EE 13 Proposition 1.3.2 Si la suiteXn est `a courte port´ee alors

E|X1+· · ·+Xn|2∼ng(0) Preuve.Il suffit de montrer que

X

|k|<n

|k|rk=o(n)

Pour cela, si|rk|< pour|k|> K, on divise l’expression en une somme de deux termes

X

|k|<n

|k||rk| ≤ X

|k|<K

|k||rk|+n.

Pour conclure, signalons la repr´esentation suivante comme moyenne mobile in- finie d’un bruit blancfaiblepour une suite stationnaire.

Th´eor`eme 1.3.1 (d´ecomposition de Cr´amer Wold) Soit(Xn)n∈Zune suite faiblement stationnaire d’ordre 2 telle que G soit d´erivable de d´eriv´ee g = G0 telle que

Z

logg(x)dx >−∞.

Alors il existe une unique suite ξn orthogonale, stationnaire d’ordre 2 (bruit blanc faible) telle que Eξ02 = 1 et une suite (cn)n∈N telle queP

n=0c2n <∞ et c0≥0 telles que

Xn=EX0+

X

k=0

ckξn−k.

(16)
(17)

Chapitre 2

Chaos Gaussien

Par nature, les lois gaussiennes jouent un rˆole central en probabilit´es : elles ap- paraissent naturellement comme lois limites en vertu du th´eor`eme de Lindeberg.

Ce chapitre d´eveloppe quelques ´el´ements de la th´eorie du chaos gaussien. Ici, des calculs explicites semblent toujours possibles.

2.1 Lois gaussiennes

2.1.1 Loi normale

Rappelons d’abord qu’une variable al´eatoire normale standard, N ∼ N(0,1), admet la densit´e

ϕ(x) = 1

√2πex

2 2

par rapport `a la mesure de Lebesgue sur R. Le facteur de normalisation √ 2π provient du calcul du carr´e d’une int´egrale :

Z

−∞

ex

2 2 dx

2

= Z

−∞

Z

−∞

ex2 +y

2 2 dx dy

= Z

0

dθ Z

0

er

2 2rdr

= 2π,

Cette identit´e est obtenu via le changement de variables en coordonn´ees polaires, (r, θ)7→(x, y) = (rcosθ, rsinθ), d´efini de R+×[0,2π[ dans R2.

La fonction caract´eristique de la loi normale vaut φN(s) =EeisN =es

2

2 (2.1)

En effet, la transform´ee de LaplaceLN(z) =EezN est ais´ement calcul´ee lorsque z∈R:

LN(z) =EezN= 1

√2π Z

−∞

ezx−x

2

2 dx= 1

√2π Z

−∞

ez

2

2(x−z)22 dx=ez

2 2

15

(18)

en utilisant le d´eveloppement du binˆome (x−z)2 =x2−2zx+z2 et apr`es le changement de variablex7→x−z. Grˆace au th´eor`eme de convergence domin´ee, on prouve que l’application z 7→ LN(z) est une fonction enti`ere sur C, donc le principe du prolongement analytique implique φN(s) =LN(is) =es

2 2 . La formule utile suivante n’est qu’une r´e´ecriture de la transform´ee de Laplace de la loi gaussienne standard deN :

EezN−z

2

2 = 1, ∀z∈C (2.2)

Notons encore que l’analycit´e de cette fonction implique que la loi d’une gaus- sienne est d´etermin´ee par sa fonction caract´eristique.

Pour conclure avec les variables al´eatoires gaussiennes r´eelles, nous d´efinissons la loi N(m, σ2) comme celle de m+σN pour tous m, σ ∈ R. La densit´e et la fonction caract´eristique de ces lois s’obtiennent par simple changement de variable.

Une propri´et´e importante de ces lois (et qui les caract´erise) est que, lorsque les variablesYj ∼ N(mj, σ2j) sont ind´ependantes pourj = 1 et j= 2, leur somme reste gaussienne etY1+Y2∼ N(m1+m2, σ2122).

Une r´eciproque de cette propri´et´e est que siY1, Y2 sont des variables al´eatoires ind´ependante et de mˆeme loiµ. Si (Y1+Y2)/√

2 suit encore la loiµalorsµest la loi d’une variable gaussienne centr´ee.

Cette propri´et´e suit d’un calcul de fonctions caract´eristiques. Le fait que cette propri´et´e caract´erise les lois gaussiennes est prouv´e en d´emontrant que le loga- rithme de la transform´ee de Laplace d’une telle loi est un polynˆome de degr´e 21.

2.1.2 Lois gaussiennes multivari´ ees

D´efinition 2.1.1 Un vecteur al´eatoireY ∈Zk est gaussien si le produit scalaire Y ·u=Ytuest une variable al´eatoire gaussienne pour chaqueu∈Rk.

Les paragraphes suivants ´evoquent des ´enonc´es classiques donnant les propri´et´es essentielles de telles lois.

Une loi gaussienne ne d´epend que de ses caract´eristiques d’ordre 2.

La loi d’un vecteur gaussienY ne d´epend que de son esp´erance et de sa matrice de covariance, en effet cette loi est d´etermin´ee par celle des variables al´eatoires r´eelles Y ·u pour tout u ∈ Rk et, en notant sa matrice de covariance Σ = E(Y −EY)(Y −EY)t (d’ordre k×k). Par suite, la loi du produit scalaire Y ·u∼ N(EY ·u, utΣu) ne d´epend que deu,EY et Σ.

Une application essentielle de cette remarque est que pour un vecteur gaussien, les notions d’orthogonalit´e et d’ind´ependance co¨ıncident (cette propri´et´e peut aussi ˆetre prouv´ee en utilisant des fonctions caract´eristiques).

1. La fonction caract´erisqueγ(t) =R

eitxµ(dx) v´erifie, par ind´ependanceγ(t) =γ2(t/ 2).

(19)

2.1. LOIS GAUSSIENNES 17 R´eduction d’un vecteur gaussien.

Soit Y un tel vecteur gaussien, alors Σ = E(Y −EY)(Y −EY)t, admet une racine carr´ee R, sym´etrique, positive et telle que Σ = R2. En effet, une telle matrice est diagonalisable en base orthonorm´ee, donc il existe une matrice Ω orthogonale et une matrice D diagonale telles que Σ = ΩtDΩ,et ΩtΩ =Ik.La matrice Σ, est positive comme toute matrice de covariance (en effet, il est clair queutΣu= Var (Y·u)≥0 pour chaque vecteuru∈Rk), par suite la matriceD admet des coefficients positifs (strictement positifs, lorsque Σ est une matrice d´efinie) et il existe donc ∆, matrice diagonale `a coefficients positifs, v´erifiant D= ∆2. Par suiteR= Ωt∆Ω est solution du probl`eme de racine carr´ee. Cette solution est une matrice sym´etrique positive ; on peut prouver qu’elle est unique si Σ est une matrice d´efinie. Dans ce cas, le vecteurZ =R−1(Y −EY), encore gaussien admet des composantes normales standard, N(0,1), orthogonales. La loi d’un vecteur gaussien ne d´epend que de son esp´erance et de sa matrice de covariance doncZ est unk−´echantillonZ∼ Nk(0, Ik).

Densit´e.

On en d´eduit, grˆace `a un changement de variables que, si Σ est inversible, le vecteur Y admet une densit´e surRk :

fY(y) = 1

p(2π)kdet Σe12(y−EY)tΣ−1(y−EY) (2.3) Fonction caract´eristique.

A pr´esent, et mˆeme lorsque Σ n’est pas inversible, elle est repr´esent´ee sous la forme Y =EY +RZ (maisR n’est peut-ˆetre pas inversible) et on a pour tout s∈Rk :

φY(s) = Eeis·Y

= eis·EYEeis·RZ

= eit·EYEeiZ·Rs

= eis·EY12(Rs)·(Rs)

φY(s) = eis·EY12(stΣs) (2.4) Conditionnement.

Soit (X, Y) ∼ Na+b(0,Σ) un vecteur gaussien dont la covariance s’´ecrit par blocs

Ia C Ct B

pour une matrice sym´etrique positive B carr´ee d’ordre b et une matrice rectangulaire C d’ordre a×b. Alors Z = Y −CtX est une variable al´eatoire gaussienne orthogonale `a X, donc ind´ependante de X; par suiteCtX =E(Y|X).

2.1.3 Existence de lois gaussiennes.

Si Σ est une matrice sym´etrique d×d et positive, alors on a montr´e qu’existe une racine carr´ee sym´etrique R telle que R2 = Σ. Si Z = (Z1, . . . , Zd)t pour

(20)

des variables gaussiennes standard et ind´ependantes Z1, Z2, . . . alors pour tout vecteurm∈Rd:

Y =m+RZ∼ Nd(m,Σ).

donc cette loi est bien d´efinie.

A titre d’application, non obtenons la

Proposition 2.1.1 Si une suite de r´eels(rk)k v´erifier−n=rn pour toutn≥0 et siPn

i,j=1uiujri−j ≥0,pour tousu1, . . . , un ∈R, alors il existe un processus gaussien stationnaire, centr´e et de covariance rk =EX0Xk.

Preuve. Pour chaque entier d la loi Nd(0,Σd) est d´efinie si on pose Σd = (ri−j)1≤i,j≤d.

Par suite, le th´eor`eme de consistance de Kolmogorov(2) permet de conclure.

Notons que cet ´enonc´e s’´etend imm´ediatement au cas de processus `a temps continu. Si la fonction Γ(s, t) est telle que la matrice (Γ(ti, tj))1≤i,j≤n satisfasse

`

a (1.1) pour tous les choix envisageables d’indicesti, il existe encore un processus gaussien de covariance Γ et de moyenne quelconque. Un exemple de processus li´e `a la d´ependance `a longue port´ee est ainsi d´etaill´e par la section suivante.

2.1.4 Mouvement brownien fractionnaire

Le mouvement brownien fractionnaire (mBf, en abr´eg´e, voir Taqqu, 2002) d’ex- posantH ∈]0,1] est un processus gaussien centr´e (Zt)t∈Rde covariance Γ(s, t) = Cov (Zs, Zt) d´efinie par

Γ(s, t) =|s|2H+|t|2H− |s−t|2H (2.5) Proposition 2.1.2 La fonction Γ d´efinie par (2.5) pour s, t ∈ R est bien la covariance d’un processus gaussien(BH(t))t∈[0,1].

Preuve.En vertu d’une extension de la proposition 2.1.1 au cas de processus `a temps continu, il suffit de prouver que pour tous les choix 0≤t1<· · ·< tn≤1, et tous les complexesu1, . . . , un∈C

A=

n

X

i,j=1

Γ(ti, tj)uiuj≥0 – Etape 1.Posonst0= 0 etu0=−Pn

i=1ui alors

n

X

i=1 n

X

j=1

|ti|2Huiuj = −

n

X

i=0

|ti|2Huiu0

= −

n

X

i=0

|ti−t0|2Huiu0

2. Ce th´eor`eme affirme que si on dispose d’une famille de loisπF surEF pour un espace mesur´e (E,E) et pour toute famille finieFT d’un ensemble quelconque, alors il existe une loiP sur l’espace produit (ET,E⊗T) dont la projectionPp−1F surEF admet la loiπF si pourGF,πG=πFp−1G lorsque l’on posepF((xt)t∈T) = (xt)t∈F.

(21)

2.1. LOIS GAUSSIENNES 19 et de mˆeme

n

X

i=1 n

X

j=1

|tj|2Huiuj =−

n

X

j=0

|tj−t0|2Hu0uj par suite

A=−

n

X

i=0 n

X

j=0

|ti−tj|2Huiuj

– Etape 2.Soit >0, on pose B=

n

X

i,j=0

e−|ti−tj|2Huiuj Alors la formule de Taylor implique simplement que

B∼A, ↓0.

– Etape 3.Admettons que pour chaque >0 et chaqueH ∈]0,1], il existe une variable al´eatoire r´eelle ξtelle que φξ(t) =Eeitξ =e−|t|2H (une telle loi est dite 2H−stable). Si ξ1, . . . , ξn d´esigne un n−´echantillon de cette loi on voit ais´ement que

B=E

n

X

j=0

ujeitξj

2

≥0.

Remarque. Bien que l’on n’en n’ait pas besoin, ce processus peut ˆetre d´efini sur Rtout entier. Le casH = 12 donne lieu au mouvement brownienW =B1

2, avec Γ(s, t) =|s| ∧ |t| sist >0 et 0 sinon.

Lemme 2.1.1 Soit0≤h < Halors, avec la probabilit´e 1, il existe des constantes c, C >0 telles que

|BH(s)−BH(t)| ≤C|t−s|h, si0≤s, t≤1,|s−t|< c.

Preuve.Pour cela, on utilise le lemme de Kolmogorov-Chentsov avec la relation E(BH(s)−BH(t))2= 2|s|2H+2|t|2H−2 |s|2H+|t|2H− |s−t|2H

= 2|s−t|2H. D´efinition 2.1.2 Le processus(Z(t))t∈RestH−autosimilaire lorsque pour tout a >0

(Z(at))t∈Ren loi= (aHZ(t))t∈R

Cette condition ´equivaut `a la stationnarit´e du processus Y(t) = e−tHZ(et) lorsque le processus est index´e parR+. Pour le voir, on prouve l’´egalit´e des lois de r´epartitions finies de deux processus. Remarquons que

1. SiZ est autosimilaire alorsZ(0) = 0

(22)

2. SiZ est autosimilaire, et si ses accroissements (Z(t+s)−Z(t))t∈R sont stationnaires pour tout s, alors EZ(t) = 0 lorsque H 6= 1 car EZ(2t) = 2HEZ(t) et on a aussi E(Z(2t)−Z(t)) = E(Z(t)−Z(0)) = EZ(t) donc (2H−2)EZ(t) = 0.

3. Si les accroissements deZ sont stationnaires alors, en loi :Z(−t) =−Z(t) car la loi de Z(0)−Z(−t) est celle de Z(t)−Z(0).

4. Par 3) et par autosimilarit´e :EZ2(t) =|t|2H.

5. H ≤1 car E|Z(2)|= 2HE|Z(1)| ≤E|Z(2)−Z(1)|+E|Z(1)| = 2E|Z(1)|

donc 2H≤2.

6. Lorsque H = 1, EZ(s)Z(t) =σ2st donc E(Z(t)−tZ(1))2= 0 et le pro- cessus est d´eg´en´er´e :Z(t) =tZ(1).

On en d´eduit que

Proposition 2.1.3 Le processus BH est gaussien centr´e et H−autosimilaire ; de plus, ses accroissements sont stationnaires.

2.2 Chaos gaussien

Soit X = (Xt)t∈T une famille gaussienne arbitraire d´efinie sur l’espace pro- babilis´e (Ω,A,P), le chaos gaussien associ´e `a X est le plus petit sous-espace complet deL2(Ω,A,P) contenant les coordonn´ees Xt deX (pour tout t∈T), la constante 1 et stable par multiplication (c’est le compl´et´e de la sous alg`ebre engendr´ee parX). Ses ´el´ements s’´ecrivent comme limites dansL2de polynˆomes

Z=

D

X

d=1

X

t1∈T0

· · · X

td∈T0

a(d)t

1,...,tdXt1· · ·Xtd pour une partie finieT0⊂T.

Pour faire des calculs dans cet espace, on exhibe d’abord une base dans le cas o`u T est r´eduit `a un point et les autres sous sections consid`erent les calculs de variances ou de moment d’ordre plus ´elev´e dans cet espace.

2.2.1 Polynˆ omes d’Hermite

D´efinition 2.2.1 (Polynˆomes d’Hermite) Soitk≥0, entier, on pose Hk(x) =(−1)k

ϕ(x)

dkϕ(x) dxk

AlorsHk est un polynˆome de degr´ek de coefficient dominant valant 1.

Pour prouver ce dernier point, on d´erive la relationHk(x)ϕ(x) = (−1)kϕ(k)(x), ainsi Hk0(x)ϕ(x) +Hk(x)ϕ0(x) = (−1)kϕ(k+1)(x) et, avec ϕ0(x) = −xϕ(x) , il vient (Hk0(x)−xHk(x))ϕ(x) = (−1)kϕ(k+1)(x), ou encore

Hk+1(x) =xHk(x)−Hk0(x)

(23)

2.2. CHAOS GAUSSIEN 21 ainsi, d˚Hk+1 = d˚Hk + 1 et admet le coefficient dominant, ainsi H0(x) = 1 permet de conclure. On a ainsi

H0(x) = 1 H1(x) = x H2(x) = x2−1 H3(x) = x3−3x

Les polynˆomesHk forment un syst`eme de polynˆomes orthogonaux pour la me- sure gaussienne car, apr`esk int´egrations par parties, nous avons

EHk(N)Hl(N) = Z

−∞

Hk(x)Hl(x)ϕ(x)dx

= (−1)k Z

−∞

dkϕ(x)

dxk Hl(x)dx

= Z

−∞

dkHl(x) dxk ϕ(x)dx

ainsi cette expression s’annule lorsque k > l; sik=lnous obtenons dkHk(x)

dxk =k! donc EHk2(N) =k!

De plus ce syst`eme est total3, donc, si une fonction mesurablegv´erifie la relation E|g(N)|2<∞, on obtient la repr´esentationL2 suivante

g(x) =

X

k=0

gk

k!Hk(x), gk =Eg(N)Hk(N), E|g(N)|2=

X

k=0

|gk|2 k!

D´efinition 2.2.2 On appelle rang d’Hermite de la fonctiongle plus petit indice k≥0 tel quegk6= 0. On noteram oum(g) ce rang d’Hermite.

De plus, on prouve que cette suite de polynˆomes est aussi d´efinie par la relation formelle

X

k=0

zk

k!Hk(x) =ezx−z2/2 (2.6) Tout d’abord, cette s´erie converge (normalement) dansL2(ϕ(x)dx) car

E zk

k!Hk(N)zl l!Hl(N)

!

=

( 0, lorsque k6=l

|z|2k

k! , si k=l

Nous prouvons ici l’identit´eHk0 =kHk−1. Commed˚(Hk0 −kHk−1)< k−1, ceci d´ecoulera deR

(Hk0(x)−kHk−1(x))Hl(x)ϕ(x)dx= 0 pour toutl < k. D’abord k

Z

Hk−1(x)Hl(x)ϕ(x)dx=

0, sil < k−1

k(k−1)! =k!, sil=k−1

3. cet ´enonc´e est admis : voir par exemple Choquet, Topologie, volume 1).

(24)

Une int´egration par parties implique Z

Hk0(x)Hl(x)ϕ(x)dx = (−1)l Z

Hk0(x)ϕ(l)(x)dx

= (−1)l+1 Z

Hk(x)ϕ(l+1)(x)dx

= Z

Hk(x)Hl+1(x)ϕ(x)dx

cette expression s’annule lorsquel < k−1, et sil =k−1 on obtient la mˆeme quantit´e k! que pour l’autre expression ce qui prouve que Hk0 = kHk−1(4).

A pr´esent, la fonction x7→ gz(x) = ezx−z2/2 est dans L2(ϕ), donc admet un d´eveloppement en s´erie d’Hermitegz=P

kgz,kHk/k! o`u gz,k = Egz(N)Hk(N)

= Z

−∞

Hk(x)ezx−z2/2ϕ(x)dx

= Z

−∞

Hk(x)e−(z−x)2/2 dx

√2π

= Z

−∞

Hk(t+z)ϕ(t)dt, grˆace au changement de variablet=x−z

=

k

X

l=0

zl l!

Z

−∞

Hk(l)(t)ϕ(t)dt, par un d´eveloppement de Taylor

=

k

X

l=0

Cklzl Z

−∞

Hk−l(t)ϕ(t)dt, carHk(l)= k!

(k−l)!Hk−l

= zk

par suite nous obtenons le d´eveloppement suivant dansL2 :

X

k=0

zk

k!Hk(N) =ezN−z2/2 dans L2(Ω,A,P). (2.7) De sa convergence dansL2(ϕ), on d´eduit aussi que la s´erieg(x, z) =P

k=0 zk k!Hk(x) convergex−p.s pour chaque z∈C5.

4. Une mani`ere alternative plus ´el´ementaire de conclure consiste `a partir de la relation ϕ0(x) =xϕ(x) ; par d´efinitionϕ(k)(x) = (−1)kϕ(x) donc cette formule impliqueHk+1(x) = xHk(x)−Hk0(x). D´erivons aussi cette relationkfois avec la formule de Leibniz, nous obtenons aussiϕ(k+1)(x) =−xϕ(k)(x)(k−1)(x), doncHk+1(x) =xHk(x)kHk−1(x) ; la formule suit alors de la comparaison de ces deux expressions deHk+1.

5. Si on savait prouver que la fonctionx7→g(x, z) est une s´erie convergente d´erivable pour chaque valeur dez, on en d´eduirait que∂g/∂x(x, z) =zg(x, z), et la fonction x7→ezx−z2/2 satisfait `a la mˆeme ´equation aux d´eriv´ees partielles. De plus, dans les deux cas,Eg(N, z) = 1 d’o`u l’identit´e (2.6), pour chaquexRet pour toutzC. Ceci donnerait aussi une autre fa¸con de prouver (2.7).

(25)

2.2. CHAOS GAUSSIEN 23

2.2.2 Moments d’ordre 2

Lemme 2.2.1 (Formule de Mehler) Soit Y = (Y1, Y2) un vecteur al´eatoire gaussien de loi N2

0,

1 r r 1

, un vecteur gaussien normalis´e, alors

Cov (Hk(Y1), Hl(Y2)) =

0, sik6=l k!rk, sik=l

Preuve.Soientt1, t2∈R, alors soitσ2= Var (t1Y1+t2Y2) =t21+t22+ 2rt1t2on a t1Y1+t2Y2∼σN donc la relation (2.2) implique

Eet1Y1+t2Y2t

21 +t2 2

2 =ert1t2

Par suite, grˆace `a l’identit´e (2.7) dansL2, on peut intervertir somme et int´egration dans la relation suivante grˆace au th´eor`eme de convergence domin´ee,

Eet1Y1+t2Y2

t2 1 +t2

2

2 = ert1t2

=

X

k,l=0

tk1 k!

tl2

l! EHk(Y1)Hl(Y2)

Identifier le d´eveloppement pr´ec´edent par rapport aux puissances de t1 et t2

permet de conclure carEHk(Y1)6= 0 seulement lorsquek= 0.

Soit `a pr´esent une fonctiong:R→C, mesurable et telle queE|g(N)|2<∞, on a doncg=P

k gk

k!Hk avecgk =EHk(N)g(N) et Eg(Y1)g(Y2) =

X

k=0

|gk|2 k! rk Cov (g(Y1), g(Y2)) =

X

k=1

|gk|2 k! rk

Soit (Yn)n∈Z une suite stationnaire gaussienne r´eelle telle que EY0 = 0 et VarY0 = 1, si Eg(Y0) = 0 (en termes de rang d’Hermite, ceci signifie donc quem(g)≥1) on a, en notant rn =EY0Yn :

E

n

X

j=1

g(Yj)

2

=

n

X

s,t=1

Eg(Ys)g(Yt)

= n

n

X

|l|<n

1−|l|

n

Eg(Y0)g(Yl)

= n

n

X

|l|<n

1−|l|

n

X

k=m(g)

|gk|2 k! rkl

= n

X

k=m(g)

|gk|2 k!

n

X

|l|<n

1−|l|

n

rlk

(26)

Par suite, lorsqueP

l|rl|<∞, chacune des s´eriesRk=P

lrkl converge et

E

n

X

j=1

g(Yj)

2

∼n

X

k=m(g)

Rk|gk|2

k! =O(n) Si, on a seulementP

l|rl|m(g)<∞, ce r´esultat demeure exact.

Exemple. En statistiques, on connaˆıt l’importance de la fonction de r´epartition empiriqueFn(x) = 1

n

n

X

k=1

I

1{Yk≤x}. Le calcul de sa variance repose sur la relation pr´ec´edente avecg(u) = I1{u≤x}. Dans ce cas

gk = EHk(N) I1{N≤x}

= Z x

−∞

Hk(u)ϕ(u)du

= (−1)k Z x

−∞

ϕ(k)(u)du

=

Φ(x), (primitive deϕ) si k= 0

ϕ(x)Hk−1(x), si k6= 0

Par cons´equent

VarFn(x) = 1 n

X

k=m(g)

(k−1)(x)|2 k!

n

X

|l|<n

1−|l|

n

rkl

cette expression est d’ordre 1n lorsqueP

l|rl|<∞. LorsqueP

l|rl|=∞, elle est d’ordre n1P

|l|<n

1−|l|n

rl >> 1n, toutefois cette expression converge encore vers 0 si c’est le cas de la suiterl.

2.2.3 Moments d’ordre quelconque

La m´ethode de calcul pour la formule de Mehler sugg`ere un calcul analogue pour un nombre quelconque de facteursHlj(Yj).

Soit doncY = (Y1, . . . , Yp)∼ Np(0, R) o`u la matrice sym´etriqueR= (ri,j)1≤i,j≤p v´erifieri,i= 1. Pour (t1, . . . , tp)∈Rp, on calcule

Var

p

X

j=1

tjYj

=

p

X

j=1

tj+ 2ρ, ρ= X

1≤i<j≤p

ri,jtitj

La relation (2.2) montre que eρ=Ee

Pp j=1

tjYjt

2j 2

Références

Documents relatifs

La deuxi` eme partie qui d´ emontre le th´ eor` eme de Cantor-Bernstein est facultative, moins dans l’esprit du programme ECS (mais bien dans l’esprit d’une ´ epreuve maths 2

Autrement dit, on consid` ere des tirages de p ´ el´ ements de E avec remise, mais sans tenir compte de l’ordre.. Le nombre de r´ esultats possible est

Dans le cas pr´ esent, la part du cuisinier serait de trois pi` eces, mais les pirates se querellent et six d’entre eux sont tu´ es, ce qui porte la part du cuisinier ` a quatre

Une m´ ethode classique pour obtenir des r´ esultats sur une int´ egrale d´ ependant d’un param` etre est de sortir, par tous les moyens possibles, le param` etre de

Montrer alors (sans utiliser la loi forte des grands nombres) `a l’aide des fonions cara ´eri iques que.. X 

iii) On sait que la fonction z 7→ πcotan(πz) est m´ eromorphe sur C avec ses pˆ oles en tous les entiers relatifs, simples de r´ esidu 1.. Donc finalement G est une fonction

[r]

Comparer cette estimation avec celle donn´ ee par le th´ eor` eme de Minkowski pour de petites et de grandes valeurs de