• Aucun résultat trouvé

Ind´ependance, esp´erance conditionnelle

Dans le document ELEMENTS DE CALCUL STOCHASTIQUE (Page 8-12)

D´efinition 1.15 SoitX une v.a.r. telle que Z

On d´efinit alors l’esp´erance deX par E[X] =

Il existe des variables al´eatoires qui n’ont pas d’esp´erance, c’est-`a-dire pour lesquelles l’int´egrale R

et doncE[X] n’a pas de sens. On dit queXestint´egrablequand on peut d´efinir son esp´erance, autrement dit si|X|a une esp´erance finie. On noteL1(Ω,F,P) (ouL1(Ω) quand il n’y a pas d’ambigu¨ıt´e) l’ensemble des v.a. int´egrables. De la mˆeme fa¸con, on d´efinit

Lp(Ω,F,P) =

1.2. IND ´EPENDANCE, ESP ´ERANCE CONDITIONNELLE 9 L2(Ω,F) des v.a. de carr´e int´egrable joue un rˆole essentiel : c’est un espace de Hilbert, muni du produit scalaire < X, Y >=E(XY).

Si Φ :RRest une fonction bor´elienne telle que Φ(X) soit int´egrable (ce qui a lieu par exemple si Φ est born´ee, puisqueL(Ω)⊂L1(Ω)), on note

E[Φ(X)] = Z

Φ(X)dP = Z

R

Φ(x)dPX(x).

Dans cette formule, on a vu la loi de Φ(X) comme l’image par Φ de la loi dePX. On peut aussi utiliser la formule directe

E[Φ(X)] = Z

R

xdPΦ(X)(x),

mais alors il faut calculer la mesure PΦ(X), ce qui est parfois difficile. La fonction caract´eristique ou transform´ee de Fourierd’une v.a.r.X, est la fonction

ψX(t) = E[eitX] = Z

R

eitxPX(dx).

Elle est toujours d´efinie puisqueeitX∈L,et caract´erise la loi deX au sens suivant : Th´eor`eme 1.16 SoientX etY deux v.a.r. On a l’´equivalence

X =d Y ⇐⇒ ψX(t) =ψY(t)pour toutt∈R.

Si la transform´ee de Fourier ψX(t) appartient `a L1(dt), c’est-`a-dire si son module est int´egrable par rapport `a la mesure de Lebesgue dt, alors X a une densit´e fX donn´ee par la formule d’inversion de Fourier :

fX(x) = 1 2π

Z

−∞

e−itxψX(t)dt QuandX est positive, on peut d´efinir satransform´ee de Laplace:

ϕX(λ) = E[e−λX] pour toutλ >0, qui caract´erise aussi la loi deX :

Th´eor`eme 1.17 SoientX etY deux v.a.r. positives. On a l’´equivalence X =d Y ⇐⇒ ϕX(λ) =ϕY(λ)pour tout λ >0.

Cependant, il n’y a pas de formule d’inversion simple pour les transform´ees de Laplace comme pour les transform´ees de Fourier. Dans certains cas, on peut d´efinir les transform´ees de Laplace de variables non n´ecessairement positives :

Exemple 1.18 Transform´ee de Laplace d’une v.a. gaussienne :SoitX une variable gaussienne de loiN(m, σ2), i.e. une v.a.r. de densit´e donn´ee par

fX(x) = 1

2πσe−(x−m)2/2σ2.

On a alors E[eλX] = e(λm+λ2σ2/2) pour tout λ R. R´eciproquement, si X une v.a.r. ayant cette transform´ee de Laplace, alorsX ∼N(m, σ2).

Quand ϕX(λ) est d´efinie sur un voisinage ouvert contenant 0, leprincipe du prolongement analytique permet d’´ecrire ψX(t) =ϕX(it).Ainsi, pourX ∼N(m, σ2),on aψX(t) = e(itm−t2σ2/2).

Propri´et´es de l’esp´erance.(a) Lin´earit´e : siX, Y sont des v.a.r. int´egrables, alors pour touta, b∈R aX+bY est int´egrable etE[aX+bY] =aE[X] +bE[Y].

(b) Positivit´e : siX ≤Y p.s. alors E[X]E[Y]. En particulier, siX 0 p.s. alorsE[X]0. De plus, siX 0 p.s. et siE[X] = 0, alorsX = 0 p.s.

10 CHAPITRE 1. NOTIONS G ´EN ´ERALES DE PROBABILIT ´ES (c) In´egalit´e de Jensen : si Φ est une fonction convexe et X une v.a.r. telle que Φ(X) est int´egrable, alors

E[Φ(X)]Φ(E[X]).

En particulier, x7→xp, p 1 etx7→ ex sont des fonctions convexes et on aE[Xp] (E[X])p, p 1 et E[eX] ≥eE[X]. En revanche, x7→xp, p∈ [0,1] et x7→logx sont des fonctions concaves (soit l’op-pos´e d’une fonction convexe), et on a les in´egalit´es en sens inverse : E[Xp] (E[X])p, p [0,1] et E[logX]log(E[X]).

SoitX ∈L1; consid´erons Xn = X11|X|>n 0 p.s. quand n +∞. Comme|Xn| ≤ |X| ∈ L1, le th´eor`eme de convergence domin´ee de Lebesgue assure que

E[|Xn|] 0 quand n↑+∞. Ceci motive la d´efinition suivante :

D´efinition 1.19 Une famille{Xi, i∈I} de v.a.r. dansL1(Ω)est dite uniform´ement int´egrable (U.I.) si

sup

i∈I E[|Xi|11|Xi|>n] 0 quandn↑+∞.

On vient de voir queE[|Xi|11|Xi|>n]0 quandn↑+∞pour chaquei∈I. La subtilit´e de l’uniforme int´egrabilit´e vient de ce que l’on demande `a cette convergence d’ˆetre uniforme sur I. Remarquons cependant que s’il existeY ∈L1(Ω) telle que|Xi| ≤Y pour touti∈I, alors la famille {Xi, i∈I}est U.I. La notion d’uniforme int´egrabilit´e joue un rˆole primordial en th´eorie des martingales. Venons-en maintenant `a une d´efinition bien connue :

D´efinition 1.20 Soit(Ω,F,P) un espace de probabilit´e. On dit que deux sous-tribus F1 et F2 sont ind´ependantes si P[A∩B] = P[A]P[B] pour toutA∈C1 etB∈F2. On notera alorsF1⊥F2. Par classe monotone, remarquons que pour que F1 et F2 soient ind´ependantes, il faut et il suffit que P[A∩B] =P[A]P[B] pour toutA∈C1et B∈C2,o`uCi est une famille stable par intersection finie et telle queσ(Ci) =Fi, i= 1,2.

D´efinition 1.21 Une variable al´eatoire X est ind´ependante d’une sous-tribu G si les tribus σ(X) et G sont ind´ependantes. En particulier, deux variables X et Y sont ind´ependantes si les tribus σ(X) et σ(Y)sont ind´ependantes.

Par th´eor`eme de classe monotone, on voit qu’une v.a. X est ind´ependante de la sous-tribu G si et seulement siP[A∩ {X≤x}] =P[A]P[X ≤x] pour toutx∈Ret A∈G.Ainsi, deux v.a.r.X etY sont ind´ependantes si et seulement si P[X ≤x, Y ≤y] =P[X ≤x]P[Y ≤y] pour toutx, y R. Un autre crit`ere utile est le suivant :

X⊥Y ⇐⇒ E[eitXeisY] =E[eitX]E[eisY] pour touts, t∈R.

SiXetY sont `a valeurs positives, on peut consid´erer les transform´ees de Laplace au lieu des transform´ees de Fourier. Enfin, si X et Y sont des variables ind´ependantes ayant une densit´e surR, alors le couple (X, Y) a une densit´e sur R2 donn´ee par laformule du produit:

fX,Y(x, y) = fX(x)fY(y).

D´efinition 1.22 Une famille de sous-tribus {Fi, i∈I} est ind´ependante si toutes les sous-familles finies le sont, c’est-`a-dire si

P[Ai1∩. . .∩Ain] = Yn

k=1

P[Aik] pour toutn≥2 et pour toutAik∈Fik avecik1 6=ik2 sik16=k2.

La d´efinition est identique pour une famille de variables al´eatoires. L’exercice suivant (lemme de Borel-Cantelli) est classique :

1.2. IND ´EPENDANCE, ESP ´ERANCE CONDITIONNELLE 11 Exercice 1.23 Soit{An, n≥1}une famille d’´ev´enements de (Ω,F,P). On pose

E = \

n≥1

[

k≥n

Ak

.

(a) Montrer que si la s´erie de terme g´en´eralP[An] est convergente, alorsP[E] = 0.

(b) Montrer que si la s´erie de terme g´en´eral P[An] est divergente et que si lesAn sont mutuellements ind´ependants, alors P[E] = 1.

La notion suivante jouera un rˆole fondamental dans la suite :

Th´eor`eme 1.24 Soit (Ω,F,P) un espace de probabilit´e, G une sous-tribu de F et X une v.a.r.

int´egrable. Il existe une unique v.a.r. Z G-mesurable telle que E[X11A] = E[Z11A]

pour tout A ∈G. On appelle Z l’esp´erance conditionnelle deX sachant G et on note Z =E[X |G] Elle est caract´eris´ee par

E(XG) =E(ZG),∀G,v.a. born´eeG-mesurable.

Quand X ∈L2(Ω),il existe une importante interpr´etation hilbertienne de l’esp´erance conditionnelle : E[X|G] est la projection deXsur l’espace des v.a.G-mesurables de carr´e int´egrable, c’est-`a-dire l’unique v.a.G mesurable qui minimiseE[(X−Y)2] parmi les v.a.Y qui sontG- mesurables. QuandG =σ(Y) pour une certaine v.a. Y, on note parfois E[X|G] = E[X|Y] (esp´erance conditionnelle sachant Y).

Le point important est qu’il s’agit d’une variable mesurable par rapport `a σ(Y) et donc une fonction d´eterministe deY : il existeψ:RRbor´elienne telle queE[X|Y] =ψ(Y). En g´en´eral il est cependant difficile de calculer ψexplicitement. La caract´erisation de E[X|Y] est la suivante : c’est l’unique v.a.

de la formeψ(Y) o`uψ est une fonction bor´elienne (d´efiniePY p.s.) telle que E[Xϕ(Y)] = E[ψ(Y)ϕ(Y)]

pour toute fonction ϕbor´elienne born´ee. En plus de la lin´earit´e et de la positivit´e (analogues `a celles de l’esp´erance classique), l’esp´erance conditionnelle poss`ede les propri´et´es suivantes (les ´egalit´es entre v.a. sont p.s.) :

(a)E[E[X|G]] = E[X].

(b) SiX estG-mesurable,E[X|G] =X.

(c) SiX est ind´ependante deG,E[X|G] =E[X].

(d) SiG est la tribu triviale,E[X|G] =E[X].

(e) SiG etH sont deux tribus telles queH ⊂G, alorsE[X|H ] =E[E[X|G]|H ] =E[E[X|H]|G] (propri´et´e d’emboˆıtement).

SiY estG-mesurable etXY in´egrable,E[XY |G] =YE[X|G]

(g) SiX ⊥Y et siϕ:R2Rest une fonction bor´elienne born´ee, alorsE[ϕ(X, Y)|Y] =E[ϕ(X, y)]y=Y : pour calculerE[φ(X, Y)|Y], on explicite la fonction Ψ telle que Ψ(y) =E[φ(X, y)], puis on rem-placey parY pour obtenir la v.a. Ψ(Y).

Exercice 1.25 SoitX une variable positive sur (Ω,F,P) etG une sous-tribu deF. Montrer que p.s.

(a){E[X|G] = 0} ⊂ {X= 0}. (b){X= +∞} ⊂ {E[X|G] = +∞}. Exercice 1.26 * SoitZ ∈L1(Ω,F,P).

(a) Montrer que pour toutε >0 il existeδ >0 tel queP[A]< δ =E[|X|11A]< ε.

(b) SoitG={G ⊂F}une famille de sous-tribus deF. D´eduire du (a) que la famille{E[X|G], G ∈G}

est U.I.

12 CHAPITRE 1. NOTIONS G ´EN ´ERALES DE PROBABILIT ´ES Densit´e conditionnelle : soit (X, Y) un couple de v.a.r. ayant une densit´e f(x, y). Les densit´es marginales deX etY sont donn´ees par

fX(x) = Z

R

f(x, y)dy et fY(y) = Z

R

f(x, y)dx.

Quand X Y on a la formule du produit : f(x, y) = fX(x)fY(y). Quand X et Y ne sont plus ind´ependantes, la formule du produit est remplac´ee par une formule ded´esint´egration: on pose

fX/Y=y(x) =f(x, y) fY(y)

sifY(y)6= 0 etfX/Y=y(x) = 0 sifY(y)6= 0, et on remarque que n´ecessairementf(x, y) =fX/Y=y(x)fY(y) p.s. en (x, y). En effet, sifY(y) = 0, alorsf(x, y) = 0 p.s. enxvu quef(x, y)0. La fonctionfX/Y=y(x) peut ˆetre vue comme ladensit´e conditionnelledeX sachantY =y. En effet pour toute fonctionψ me-surable born´ee on a

Z

R2

ψ(x, y)fY(y)fX/Y=y(x)dxdy = E[ψ(X, Y)] = E[E[ψ(X, Y)|Y]]

= Z

R

fY(y)E[ψ(X, y)|Y]Y=ydy d’o`u l’on d´eduit Z

R

ψ(x, y)fX/Y=y(x)dy = E[ψ(X, y)|Y]Y=y

par identification, ce qui signifie bien quefX/Y=y(x) est la densit´e conditionnelle deX sachantY =y.

On peut d´efinirfY /X=x(y), densit´e conditionnelle deY sachantX =x, de mani`ere analogue.

Dans le document ELEMENTS DE CALCUL STOCHASTIQUE (Page 8-12)