• Aucun résultat trouvé

2.3 Un mot sur les espaces de Hilbert ` a noyau reproduisant

3.1.1 D´efinitions et propri´et´es de base

On consid`ere un espace probabilis´e (Ω,A, P) et un espace d’´etats mesur´e (E, E) (Cf. [LG06] pour des d´efinitions compl`etes). Dans la majorit´e des cas abord´es, (E,E) sera Rd(d∈ N) muni de sa tribu borelienne, not´eeB(Rd). On rencontrera aussi parfois des

situations dans lesquelles E est un espace fonctionnel, mais on ´evitera alors autant que possible de rentrer dans des d´etails techniques (Cf. par exemple [RY91]).

D´efinitions et notations au sujet des variables al´eatoires

On appelle variable al´eatoire toute application mesurable Y : (Ω,A, P) −→ (E, E). Lorsque (E,E) = (Rd,B(Rd)), on parle de Vecteur al´eatoire r´eel (V.a.r.), ou encore de

variable al´eatoire r´eelle (v.a.r.) dans le cas particulier o`u d = 1. Les variables al´eatoires complexes peuvent s’identifier `a des V.a.r. de dimension 2. L’esp´erance d’une v.a.r. Y , not´ee E[Y ], est l’int´egrale de Y par rapport `a la mesure de probabilit´e P :

E[Y ] = Z

Y (ω)dP(ω) (3.1)

On appelle L1(Ω,A, P), souvent simplement not´e L1, l’espace des v.a.r. Y telles que

E[|Y |] < +∞. On note de mˆeme Lp (p ∈ N − {0}) l’espace des v.a.r. Y telles que

E[|Y |p] < +∞, et les nombres E[|Y |p] sont appel´es les moments d’ordre p de la v.a.r. Y .

La d´efinition de l’esp´erance s’´etend sans difficult´e aux vecteurs al´eatoires, en raisonnant composante par composante. En munissant Rd du produit scalaire euclidien h, i ainsi

que de la norme ||.|| canoniquement associ´ee, on appelle Lpd (p ∈ R − {0}) l’ensemble

des V.a.r. d-dimensionnels Y tels que E[||Y ||p] < +∞, ou de mani`ere ´equivalente tels que chacune des v.a.r. composantes Y1, Y2, . . . , Yd soit dans Lp1 = Lp. Remarquons `a

titre d’exemple que l’esp´erance d’une variable al´eatoire complexe Y = Y1+ iY2, o`u Y1 et

Y2 sont des v.a.r. de L1, est donn´ee par E[Y ] = E[Y1] + iE[Y2]. A ce propos, la fonction

caract´eristique ΦY d’un V.a.r. Y ∈ L1d est d´efinie comme suit :

ΦY : u∈ Rd−→ ΦY(u) = E[ei<Y,u>]∈ C (3.2)

Cette notion joue un rˆole majeur en probabilit´es et statistiques, et permet notamment de faciliter l’´etude des sommes de variables al´eatoires ind´ependantes (preuves simples et ´el´egantes du Th´eor`eme ”Central Limit” (TCL) et de la Loi des Grands Nombres (LGN), introduction des lois stables, etc...Cf. [L´65]).

Consid´erons maintenant une v.a. Y . La mesure image de P par Y , d´efinie par

µY : A∈ E −→ P(Y ∈ A) (3.3)

est aussi appel´ee loi de Y . Dans le cas particulier o`u E = Rd(d∈ N), l’application

FY : (y1, ..., yd)∈ Rd−→ FY(y) = µY(]− ∞, y1[× . . . ×] − ∞, yd[)∈ [0, 1] (3.4)

est appel´ee fonction de r´epartition de Y . Si µY est absolument continue par rapport `a une

mesure de r´ef´erence µ, suppos´ee σ-finie, µY admet une densit´e fY (unique `a une ´egalit´e µ-

p.p. pr`es, par le th´eor`eme de Radon-Nikodym, Cf. [LG06]) appel´ee densit´e de probabilit´e de Y par rapport `a µ. S’il arrive que l’on parle —dans le cas de vecteurs al´eatoires r´eels— d’une densit´e sans donner plus de pr´ecisions sur µ, on raisonne g´en´eralement par rapport `a la mesure de Lebesgue. Lorsqu’une telle fonction de densit´e fY existe, on

dit souvent que Y est un V.a.r. absolument continu, ou plus simplement continu. La loi µY, ou encore la densit´e fY lorsqu’elle existe, contient non seulement toute l’information

sur les lois respectives des v.a.r composantes {Yj, j ∈ [1, d]} (les lois marginales), mais

aussi la structure de d´ependance entre ces derni`eres (r´esum´ee par la notion de copule). En particulier, la matrice des covariances entre les couples de composantes d’un V.a.r. Y ∈ L2

d est au coeur de nombreuses applications statistiques. On d´efinit la covariance

entre deux v.a.r. Y1, Y2∈ L2 comme l’esp´erance du produit des variables centr´ees1 :

Cov[Y1, Y2] = E [(Y1− E[Y1])(Y2− E[Y2])]

= E [Y1Y2]− E[Y1]E[Y2]

(3.5) Remarquons que la covariance ne r´esume pas toute la d´ependance entre deux variables al´eatoires : elle mesure seulement la d´ependance lin´eaire. On a d’ailleurs que l’application (Y1, Y2)∈ L2×L2−→ E [Y1Y2] est bilin´eaire, sym´etrique, et constitue un produit scalaire

sur L2 `a condition de quotienter l’espace par la relation d’´egalit´e presque sˆure, ce qui

permet d’affirmer que (E[Y2] = 0)⇒ (Y est nulle dans l’espace quotient´e L2). On peut

alors montrer (Cf. [LG06]) que L2 muni du produit scalaireh., .i = E [. × .] est un espace pr´e-hilbertien complet, et b´en´eficier ainsi des r´esultats et de la vision g´eom´etrique clas- siquement associ´es aux espaces de Hilbert. Par exemple, l’in´egalit´e de Cauchy-Schwarz appliqu´ee aux variables centr´ees Y1− E[Y1] et Y2− E[Y2] devient

∀Y1, Y2∈ L2, Cov[Y1, Y2]≤

p

V ar[Y1]

p

V ar[Y2] (3.6)

o`u V ar est la forme quadratique associ´ee `a Cov. Si l’on consid`ere maintenant un V.a.r. Y ∈ L2

d (d∈ N − {0}), on a vu que chacune de ses v.a.r. composantes est dans L2, et on

1On montre sans difficult´e que (E[

|Y |2] < +

∞) ⇒ (E[|Y |] < +∞), i.e. que L2

peut ainsi d´efinir autant de covariances qu’il y a de couples de v.a.r. composantes. On appelle matrice de covariance de Y , not´ee Cov[Y ], la matrice de taille d× d de terme g´en´eral Cov[Yi, Yj]. Cov[Y ] est clairement une matrice sym´etrique, et on a de plus que

∀a = (a1, ..., ad)T ∈ Rd, aTCov[Y ]a = d X i=1 d X j=1 aiajCov[Yi, Yj] = V ar " d X i=1 aiYi # ≥ 0, (3.7)

i.e. que la matrice Cov[Y ] est semi-d´efinie positive. En tant que matrice sym´etrique r´elle semi-d´efinie positive, une caract´erisation classique —th´eor`eme spectral— nous permet d’affirmer que toute matrice de covariance est diagonalisable en base orthonorm´ee, de valeurs propres positives ou nulles.

Les vecteurs gaussiens constituent une classe particuli`erement int´eressante de vecteurs al´eatoires. Rappelons qu’une v.a.r. est dite gaussienne standard, ou encore de loiN (0, 1), lorsqu’elle admet pour densit´e la fonction fN (0,1)(y) = √1

2πe−

y2

2 . Une v.a.r. Y est dite gaussienne2 lorsqu’il existe m∈ R, σ ∈ [0, +∞[ , et N ∼ N (0, 1) tels que Y = m + σN.

On a alors que Y ∈ L2 avec E[Y ] = m et V ar[Y ] = σ2, et on utilise la notation

Y ∼ N (m, σ2). On appelle vecteur gaussien standard un V.a.r. N dont les composantes

sont ind´ependantes et de loi N (0, 1). La loi d’un tel vecteur est not´ee N (0, I), o`u la matrice de covariance I repr´esente la variance unit´e des marginales et l’orthogonalit´e des composantes distinctes, cons´equence directe de l’hypoth`ese d’ind´ependance (On montre en annexe que les hypoth`eses d’orthogonalit´e et d’ind´ependance des composantes d’un vecteur gaussien sont en fait ´equivalentes). De mani`ere plus g´en´erale, un V.a.r. Y∈ L2 d

est dit gaussien lorsqu’il existe m ∈ Rd, A ∈ M

d(R), et N ∼ N (0, I) tels que Y =

m + AN. Il vient alors par calcul direct que Cov(Y) = AAT, et on note Y∼ N (m, K), avec K = AAT. La forme de la matrice de covariance obtenue est loin d’ˆetre anodine.

Si l’on consid`ere un vecteur gaussien quelconque Y ∼ N (m, K) (K ´etant une matrice sym´etrique semi-d´efinie positive arbitraire), il existe A ∈ Md(R) tel que K s´ecrive

K = AAT. On obtient par exemple une d´ecomposition unique en imposant `a A d’ˆetre triangulaire inf´erieure (d´ecomposition de Cholesky). Ce r´esultat permet entre autres de simuler tout vecteur gaussien `a partir d’un vecteur gaussien standard N∼ N (0, I), i.e. en se basant uniquement sur des v.a.r. gaussiennes standard. On a de plus que tout 2Nous incluons volontairement le cas σ = 0 de mani`ere `a consid´erer les variables al´eatoires constantes

vecteur Y∼ N (m, K) poss`ede une fonction caract´eristique de la forme suivante : ∀u ∈ Rd, ΦY(u) = E[ei<u,Y>Rd] = ei<m,Y>Rd−

1

2<u,Ku>Rd (3.8) et dans le cas o`u K est inversible on a la densit´e de probabilit´e dite multigaussienne :

∀y ∈ Rd, fY(y) =

1

(2π)d2p( det K)

e−12(y−m)TK−1(y−m) (3.9)

Parmi les propri´et´es incontournables des vecteurs gaussiens (Cf. section 12.2 en annexe), mentionnons en priorit´e le fait que lorsque l’on conditionne un sous-vecteur d’un vecteur gaussien par rapport `a un autre de ses sous-vecteurs, la loi conditionnelle obtenue est toujours gaussienne, telle que pr´ecis´e ci-dessous :

Si Y1 Y2 ! ∼ N m1 m2 ! , K11 K12 K21 K22 !! alors Y1|Y2 ∼ N m1+ K12K22−1(Y2− m2), K11− K12K22−1K21  (3.10)

Nous reviendrons plus tard sur ce r´esultat important. Contentons-nous pour le mo- ment de souligner que l’on retrouve bien a posteriori l’´equivalence entre orthogonalit´e et ind´ependance dans le cas gaussien puisque si E[Y1Y2T] = K12 = 0 alors Y1|Y2 ∼

N (m1, K11) i.e. Y2 n’apporte aucune information sur la loi de Y1. La notion g´en´erale

de conditionnement sera rappel´ee et discut´ee plus en d´etail dans la section 3.1.3. D´efinitions de base au sujet des processus al´eatoires.

Revenons au cas g´en´eral de variables al´eatoires abstraites, d´efinies comme applications mesurables Y : (Ω,A, P) −→ (E, E), o`u (Ω, A, P) est un espace probabilis´e et (E, E) un espace mesurable quelconque. Un processus stochastique est d´efini dans le livre de Paul L´evy ([L´65], chapitre II, p.27) comme ´etant « un proc´ed´e de d´efinition d’une fonction al´eatoire Y (t) du temps t dans lequel le hasard intervient `a chaque instant ». L’auteur dit plus loin que « l’on peut aussi g´en´eraliser la notion de processus stochastique en rempla¸cant t par un syst`eme de plusieurs variables ». Nous utiliserons une approche g´en´erique, semblable `a celle d´evelopp´ee dans l’annexe de ce mˆeme livre, ´ecrite par M. Lo`eve, dans laquelle une fonction al´eatoire (ou encore un processus al´eatoire) est d´efinie comme ´etant une famille de variables al´eatoires {Y (t)}t∈D o`u D est un ensemble quel-

partie finie Dn={t1, ..., tn} ⊂ D la loi de probabilit´e de {Y (t)}t∈Dn ={Y (t1), ..., Y (tn)} soit connue. De telles lois sont souvent appel´ees distributions finies-dimensionnelles du processus Y ; dire que l’on connaˆıt ces lois revient `a dire (Cf. L´evy, p.30) que l’on connaˆıt pour tout Dn={t1, ..., tn} ⊂ A la fonction de r´epartition 3 :

Un: (t1, y1, ..., tn, yn)∈ D2n −→ P(Y (t1) < y1, ..., Y (tn) < yn) (3.11)

Dans la pratique, il arrive bien souvent que l’on ´etudie un processus al´eatoire sans parfai- tement connaˆıtre sa loi de mani`ere analytique, et en s’appuyant plutˆot sur des propri´et´es plus faibles telles que des relations entre pass´e et futur dans le cas o`u D est monodimen- sionnel (´egalit´es et in´egalit´es pour les processus de Markov ou les martingales lorsque D repr´esente le temps), ou encore des tendances et des relations de corr´elations spatiales lorsque l’ensemble D est multidimensionnel (variables spatiales et spatio-temporelles en g´eostatistique, m´et´eorologie, etc.).

Remarquons qu’en d´efinissant un processus al´eatoire comme une famille de variables al´eatoires {Y (t)}t∈D, on ne fait pas apparaˆıtre l’espace Ω explicitement. Il est fr´equent

de rencontrer les notations{Y (t; ω), t ∈ D, ω ∈ Ω} ou encore {Yt(ω), t∈ D, ω ∈ Ω},

et nous les utiliserons par la suite. On appelle trajectoire ou r´ealisation d’un processus al´eatoire toute fonction Y (.; ω) : t∈ D −→ Y (t; ω) ∈ E associ´ee `a un certain ´ev´enement ω ∈ Ω. On peut ainsi voir un processus al´eatoire comme une application de Ω dans ED, l’espace des applications de D dans E. L’´etude des propri´et´es des trajectoires de processus al´eatoires est un sujet d´elicat que nous ne ferons qu’effleurer ici (Cf. [L´65, RY91], en particulier en ce qui concerne les travaux de Kolmogorov sur ce sujet). Exemples :

1. Le mouvement Brownien (MB) est un processus stochastique {Bt}t∈R+ tel que B0 = 0 (d´epart `a l’origine), ∀t ∈ R+, Bt ∼ N (0, t) (marginales gaussiennes), et

∀ t1, t2, t3, t4 ∈ R+ t.q. t1< t2 < t3 < t4, Bt4 − Bt3 ind´ependant de Bt2 − Bt1 (ac- croissements ind´ependants). Il joue un rˆole clef en th´eorie des processus al´eatoires et en calcul stochastique. Il poss`ede de nombreuses propri´et´es remarquables, parmi lesquelles la propri´et´e de Markov : si 0≤ s < t, la loi de Bt ne d´epend des valeurs

{Bu}u≤s prises par le processus B avant le temps s que via la valeur Bs.

2. On appelle souvent champ al´eatoire ou encore processus al´eatoire spatial un proces- sus{Yx}x∈D d´efini sur un ensemble multidimensionnel D⊂ Rd(d∈ N\{0, 1}). De

3Mentionnons sans entrer dans plus de d´etails que pour qu’une famille de fonctions U

n d´efinisse une

famille de fonctions de r´epartitions d’un processus al´eatoire, elles doivent v´erifier certaines conditions de compatibilit´e, pr´esent´ees et expliqu´ees dans ([L´65], pp. 31-32).

Fig. 3.1 – Deux r´ealisations simul´ees du MB sur [0, 1].

tels objets apparaissent de mani`ere assez ´evidente en sciences de la terre (concen- trations diverses dans un sous-sol, champs de pression ou de temp´erature), et peuvent ˆetre utilis´es de mani`ere tr`es g´en´erale pour d´ecrire des ph´enom`enes jouis- sant d’une certaine r´egularit´e spatiale ou spatio-temporelle (m´et´eorologie, oc´eano- graphie, imagerie m´edicale).

Dans la suite de ce m´emoire, nous porterons essentiellement notre attention sur des pro- cessus spatiaux tels que pr´ec´edemment ´evoqu´es, en substituant `a l’espace tri-dimensionnel usuel des espaces de param`etres de dimension alg´ebrique quelconque. Nous aurons de plus besoin de recourir `a des hypoth`eses sur la stationnarit´e des processus consid´er´es, ou encore d’autres proprits spcifiques sur leur loi de probabilit´e. Nous donnons ci-dessous quelques d´efinitions suppl´ementaires qui pourront nous ˆetre bien utiles.

D´efinitions : Stationnarit´e(s).

Suivant ([L´65], p.91), un processus al´eatoire {X(t)}t∈D est dit (fortement) stationnaire

si quelque soit n ∈ N\{0} et t1, ..., tn ∈ D, la loi de (X(t1), ..., X(tn)) ne d´epend que

des diff´erences ti− tj (i, j ∈ [1, n]). Une formulation ´equivalente est de dire que la loi de

(X(t1+ h), ..., X(tn+ h)) est la mˆeme que celle de (X(t1), ..., X(tn)), quelque soit h.

La stationnarit´e apparaˆıt ainsi comme une invariance de la loi d’un processus al´eatoire par changement d’origine de l’espace D. En particulier, la loi de X(t) (X ´evalu´e au point t) ne d´epend pas de t. Ainsi, s’ils existent, les moments de X(t) sont constants sur D. De mˆeme, si elle existe, la covariance entre X(t1) et X(t2) (t1, t2 ∈ D) ne d´epend que de

t1− t2. La notion de stationnarit´e `a l’ordre p permet de d´ecrire d’int´eressantes classes de

Fig. 3.2 – R´ealisation d’un champ al´eatoire (gaussien) de covariance exponentielle de port´ee 5 et de variance 10. Cette r´ealisation a ´et´e obtenue par simulation en utilisant le package R Random Fields.

jusqu’`a l’ordre p existent et poss`edent la propri´et´e d’invariance par translation :

{X(t)}t∈D est dit stationnaire `a l’ordre p (p ∈ N\{0}) si quelque soit n ∈ N\{0} et

t1, ..., tn∈ D les moments jusqu’`a l’ordre p de la loi de (X(t1), ..., X(tn)) ne d´ependent

que des diff´erences ti− tj (i, j ∈ [1, n]).

Remarquons qu’un processus al´eatoire stationnaire n’admet pas n´ecessairement de mo- ments d’ordre p finis. En revanche, il est clair qu’un processus stationnaire dont les moments d’ordre p sont finis est en particulier un processus stationnaire `a l’ordre p. Revenons sur nos deux exemples afin d’illustrer quelques notions de stationnarit´e : Retour sur les exemples :

1. Le mouvement Brownien {Bt}t∈R+ n’est pas stationnaire. On a en effet que ∀t ∈ R+, B

t∼ N (0, t), ce qui entraˆıne que V ar[Bt] = t et donc que la loi de Btd´epend

de t. Par contre, l’esp´erance de Bt est finie puisque ∀t ∈ R+, E[Bt] = 0, et on

2. Lorsque l’on ´etudie un processus al´eatoire spatial {Yx}x∈D en sciences de la terre,

il est assez courant de supposer Y stationnaire `a l’ordre 2 (on rencontre parfois la terminlogie ”faiblement stationnaire” pour de tels processus). La fonction d’auto- covariance C : (x1, x2)∈ D2 −→ C(x1, x2) = cov[Y

x1, Yx2] ne d´epend alors que de la diff´erence h = x1− x2, et est appel´ee ”autocovariance stationnaire”.