D´efinition 1.15 SoitX une v.a.r. telle que Z
On d´efinit alors l’esp´erance deX par E[X] =
Il existe des variables al´eatoires qui n’ont pas d’esp´erance, c’est-`a-dire pour lesquelles l’int´egrale R
et doncE[X] n’a pas de sens. On dit queXestint´egrablequand on peut d´efinir son esp´erance, autrement dit si|X|a une esp´erance finie. On noteL1(Ω,F,P) (ouL1(Ω) quand il n’y a pas d’ambigu¨ıt´e) l’ensemble des v.a. int´egrables. De la mˆeme fa¸con, on d´efinit
Lp(Ω,F,P) =
1.2. IND ´EPENDANCE, ESP ´ERANCE CONDITIONNELLE 9 L2(Ω,F) des v.a. de carr´e int´egrable joue un rˆole essentiel : c’est un espace de Hilbert, muni du produit scalaire < X, Y >=E(XY).
Si Φ :R→Rest une fonction bor´elienne telle que Φ(X) soit int´egrable (ce qui a lieu par exemple si Φ est born´ee, puisqueL∞(Ω)⊂L1(Ω)), on note
E[Φ(X)] = Z
Ω
Φ(X)dP = Z
R
Φ(x)dPX(x).
Dans cette formule, on a vu la loi de Φ(X) comme l’image par Φ de la loi dePX. On peut aussi utiliser la formule directe
E[Φ(X)] = Z
R
xdPΦ(X)(x),
mais alors il faut calculer la mesure PΦ(X), ce qui est parfois difficile. La fonction caract´eristique ou transform´ee de Fourierd’une v.a.r.X, est la fonction
ψX(t) = E[eitX] = Z
R
eitxPX(dx).
Elle est toujours d´efinie puisqueeitX∈L∞,et caract´erise la loi deX au sens suivant : Th´eor`eme 1.16 SoientX etY deux v.a.r. On a l’´equivalence
X =d Y ⇐⇒ ψX(t) =ψY(t)pour toutt∈R.
Si la transform´ee de Fourier ψX(t) appartient `a L1(dt), c’est-`a-dire si son module est int´egrable par rapport `a la mesure de Lebesgue dt, alors X a une densit´e fX donn´ee par la formule d’inversion de Fourier :
fX(x) = 1 2π
Z ∞
−∞
e−itxψX(t)dt QuandX est positive, on peut d´efinir satransform´ee de Laplace:
ϕX(λ) = E[e−λX] pour toutλ >0, qui caract´erise aussi la loi deX :
Th´eor`eme 1.17 SoientX etY deux v.a.r. positives. On a l’´equivalence X =d Y ⇐⇒ ϕX(λ) =ϕY(λ)pour tout λ >0.
Cependant, il n’y a pas de formule d’inversion simple pour les transform´ees de Laplace comme pour les transform´ees de Fourier. Dans certains cas, on peut d´efinir les transform´ees de Laplace de variables non n´ecessairement positives :
Exemple 1.18 Transform´ee de Laplace d’une v.a. gaussienne :SoitX une variable gaussienne de loiN(m, σ2), i.e. une v.a.r. de densit´e donn´ee par
fX(x) = 1
√2πσe−(x−m)2/2σ2.
On a alors E[eλX] = e(λm+λ2σ2/2) pour tout λ ∈ R. R´eciproquement, si X une v.a.r. ayant cette transform´ee de Laplace, alorsX ∼N(m, σ2).
Quand ϕX(λ) est d´efinie sur un voisinage ouvert contenant 0, leprincipe du prolongement analytique permet d’´ecrire ψX(t) =ϕX(it).Ainsi, pourX ∼N(m, σ2),on aψX(t) = e(itm−t2σ2/2).
Propri´et´es de l’esp´erance.(a) Lin´earit´e : siX, Y sont des v.a.r. int´egrables, alors pour touta, b∈R aX+bY est int´egrable etE[aX+bY] =aE[X] +bE[Y].
(b) Positivit´e : siX ≤Y p.s. alors E[X]≤E[Y]. En particulier, siX ≥0 p.s. alorsE[X]≥0. De plus, siX ≥0 p.s. et siE[X] = 0, alorsX = 0 p.s.
10 CHAPITRE 1. NOTIONS G ´EN ´ERALES DE PROBABILIT ´ES (c) In´egalit´e de Jensen : si Φ est une fonction convexe et X une v.a.r. telle que Φ(X) est int´egrable, alors
E[Φ(X)]≥Φ(E[X]).
En particulier, x7→xp, p ≥1 etx7→ ex sont des fonctions convexes et on aE[Xp] ≥(E[X])p, p ≥1 et E[eX] ≥eE[X]. En revanche, x7→xp, p∈ [0,1] et x7→logx sont des fonctions concaves (soit l’op-pos´e d’une fonction convexe), et on a les in´egalit´es en sens inverse : E[Xp] ≤ (E[X])p, p ∈ [0,1] et E[logX]≤log(E[X]).
SoitX ∈L1; consid´erons Xn = X11|X|>n → 0 p.s. quand n ↑ +∞. Comme|Xn| ≤ |X| ∈ L1, le th´eor`eme de convergence domin´ee de Lebesgue assure que
E[|Xn|] → 0 quand n↑+∞. Ceci motive la d´efinition suivante :
D´efinition 1.19 Une famille{Xi, i∈I} de v.a.r. dansL1(Ω)est dite uniform´ement int´egrable (U.I.) si
sup
i∈I E[|Xi|11|Xi|>n] → 0 quandn↑+∞.
On vient de voir queE[|Xi|11|Xi|>n]→0 quandn↑+∞pour chaquei∈I. La subtilit´e de l’uniforme int´egrabilit´e vient de ce que l’on demande `a cette convergence d’ˆetre uniforme sur I. Remarquons cependant que s’il existeY ∈L1(Ω) telle que|Xi| ≤Y pour touti∈I, alors la famille {Xi, i∈I}est U.I. La notion d’uniforme int´egrabilit´e joue un rˆole primordial en th´eorie des martingales. Venons-en maintenant `a une d´efinition bien connue :
D´efinition 1.20 Soit(Ω,F,P) un espace de probabilit´e. On dit que deux sous-tribus F1 et F2 sont ind´ependantes si P[A∩B] = P[A]P[B] pour toutA∈C1 etB∈F2. On notera alorsF1⊥F2. Par classe monotone, remarquons que pour que F1 et F2 soient ind´ependantes, il faut et il suffit que P[A∩B] =P[A]P[B] pour toutA∈C1et B∈C2,o`uCi est une famille stable par intersection finie et telle queσ(Ci) =Fi, i= 1,2.
D´efinition 1.21 Une variable al´eatoire X est ind´ependante d’une sous-tribu G si les tribus σ(X) et G sont ind´ependantes. En particulier, deux variables X et Y sont ind´ependantes si les tribus σ(X) et σ(Y)sont ind´ependantes.
Par th´eor`eme de classe monotone, on voit qu’une v.a. X est ind´ependante de la sous-tribu G si et seulement siP[A∩ {X≤x}] =P[A]P[X ≤x] pour toutx∈Ret A∈G.Ainsi, deux v.a.r.X etY sont ind´ependantes si et seulement si P[X ≤x, Y ≤y] =P[X ≤x]P[Y ≤y] pour toutx, y ∈R. Un autre crit`ere utile est le suivant :
X⊥Y ⇐⇒ E[eitXeisY] =E[eitX]E[eisY] pour touts, t∈R.
SiXetY sont `a valeurs positives, on peut consid´erer les transform´ees de Laplace au lieu des transform´ees de Fourier. Enfin, si X et Y sont des variables ind´ependantes ayant une densit´e surR, alors le couple (X, Y) a une densit´e sur R2 donn´ee par laformule du produit:
fX,Y(x, y) = fX(x)fY(y).
D´efinition 1.22 Une famille de sous-tribus {Fi, i∈I} est ind´ependante si toutes les sous-familles finies le sont, c’est-`a-dire si
P[Ai1∩. . .∩Ain] = Yn
k=1
P[Aik] pour toutn≥2 et pour toutAik∈Fik avecik1 6=ik2 sik16=k2.
La d´efinition est identique pour une famille de variables al´eatoires. L’exercice suivant (lemme de Borel-Cantelli) est classique :
1.2. IND ´EPENDANCE, ESP ´ERANCE CONDITIONNELLE 11 Exercice 1.23 Soit{An, n≥1}une famille d’´ev´enements de (Ω,F,P). On pose
E = \
n≥1
[
k≥n
Ak
.
(a) Montrer que si la s´erie de terme g´en´eralP[An] est convergente, alorsP[E] = 0.
(b) Montrer que si la s´erie de terme g´en´eral P[An] est divergente et que si lesAn sont mutuellements ind´ependants, alors P[E] = 1.
La notion suivante jouera un rˆole fondamental dans la suite :
Th´eor`eme 1.24 Soit (Ω,F,P) un espace de probabilit´e, G une sous-tribu de F et X une v.a.r.
int´egrable. Il existe une unique v.a.r. Z G-mesurable telle que E[X11A] = E[Z11A]
pour tout A ∈G. On appelle Z l’esp´erance conditionnelle deX sachant G et on note Z =E[X |G] Elle est caract´eris´ee par
E(XG) =E(ZG),∀G,v.a. born´eeG-mesurable.
Quand X ∈L2(Ω),il existe une importante interpr´etation hilbertienne de l’esp´erance conditionnelle : E[X|G] est la projection deXsur l’espace des v.a.G-mesurables de carr´e int´egrable, c’est-`a-dire l’unique v.a.G mesurable qui minimiseE[(X−Y)2] parmi les v.a.Y qui sontG- mesurables. QuandG =σ(Y) pour une certaine v.a. Y, on note parfois E[X|G] = E[X|Y] (esp´erance conditionnelle sachant Y).
Le point important est qu’il s’agit d’une variable mesurable par rapport `a σ(Y) et donc une fonction d´eterministe deY : il existeψ:R→Rbor´elienne telle queE[X|Y] =ψ(Y). En g´en´eral il est cependant difficile de calculer ψexplicitement. La caract´erisation de E[X|Y] est la suivante : c’est l’unique v.a.
de la formeψ(Y) o`uψ est une fonction bor´elienne (d´efiniePY p.s.) telle que E[Xϕ(Y)] = E[ψ(Y)ϕ(Y)]
pour toute fonction ϕbor´elienne born´ee. En plus de la lin´earit´e et de la positivit´e (analogues `a celles de l’esp´erance classique), l’esp´erance conditionnelle poss`ede les propri´et´es suivantes (les ´egalit´es entre v.a. sont p.s.) :
(a)E[E[X|G]] = E[X].
(b) SiX estG-mesurable,E[X|G] =X.
(c) SiX est ind´ependante deG,E[X|G] =E[X].
(d) SiG est la tribu triviale,E[X|G] =E[X].
(e) SiG etH sont deux tribus telles queH ⊂G, alorsE[X|H ] =E[E[X|G]|H ] =E[E[X|H]|G] (propri´et´e d’emboˆıtement).
SiY estG-mesurable etXY in´egrable,E[XY |G] =YE[X|G]
(g) SiX ⊥Y et siϕ:R2→Rest une fonction bor´elienne born´ee, alorsE[ϕ(X, Y)|Y] =E[ϕ(X, y)]y=Y : pour calculerE[φ(X, Y)|Y], on explicite la fonction Ψ telle que Ψ(y) =E[φ(X, y)], puis on rem-placey parY pour obtenir la v.a. Ψ(Y).
Exercice 1.25 SoitX une variable positive sur (Ω,F,P) etG une sous-tribu deF. Montrer que p.s.
(a){E[X|G] = 0} ⊂ {X= 0}. (b){X= +∞} ⊂ {E[X|G] = +∞}. Exercice 1.26 * SoitZ ∈L1(Ω,F,P).
(a) Montrer que pour toutε >0 il existeδ >0 tel queP[A]< δ =⇒E[|X|11A]< ε.
(b) SoitG={G ⊂F}une famille de sous-tribus deF. D´eduire du (a) que la famille{E[X|G], G ∈G}
est U.I.
12 CHAPITRE 1. NOTIONS G ´EN ´ERALES DE PROBABILIT ´ES Densit´e conditionnelle : soit (X, Y) un couple de v.a.r. ayant une densit´e f(x, y). Les densit´es marginales deX etY sont donn´ees par
fX(x) = Z
R
f(x, y)dy et fY(y) = Z
R
f(x, y)dx.
Quand X ⊥ Y on a la formule du produit : f(x, y) = fX(x)fY(y). Quand X et Y ne sont plus ind´ependantes, la formule du produit est remplac´ee par une formule ded´esint´egration: on pose
fX/Y=y(x) =f(x, y) fY(y)
sifY(y)6= 0 etfX/Y=y(x) = 0 sifY(y)6= 0, et on remarque que n´ecessairementf(x, y) =fX/Y=y(x)fY(y) p.s. en (x, y). En effet, sifY(y) = 0, alorsf(x, y) = 0 p.s. enxvu quef(x, y)≥0. La fonctionfX/Y=y(x) peut ˆetre vue comme ladensit´e conditionnelledeX sachantY =y. En effet pour toute fonctionψ me-surable born´ee on a
Z
R2
ψ(x, y)fY(y)fX/Y=y(x)dxdy = E[ψ(X, Y)] = E[E[ψ(X, Y)|Y]]
= Z
R
fY(y)E[ψ(X, y)|Y]Y=ydy d’o`u l’on d´eduit Z
R
ψ(x, y)fX/Y=y(x)dy = E[ψ(X, y)|Y]Y=y
par identification, ce qui signifie bien quefX/Y=y(x) est la densit´e conditionnelle deX sachantY =y.
On peut d´efinirfY /X=x(y), densit´e conditionnelle deY sachantX =x, de mani`ere analogue.