• Aucun résultat trouvé

Définition de l’espérance conditionnelle

Dans le document Modélisation de phénomènes aléatoires : (Page 125-129)

l’espérance conditionnelle en s’inspirant du cas discret

P(X =x|Y=y) = lim

ε→0P X∈[x−ε,x+ε]

Y∈[y−ε,y+ε]

en général il n’est pas facile de donner un sens à ces expressions et nous allons renoncer à cette approche intuitive pour utiliser le point de vue de l’approximation quadratique illustré dans le cas discret.

9.2 Définition de l’espérance conditionnelle

Cette section résume quelques résultats nécessaires pour généraliser l’espérance condi-tionnelle aux variables à valeurs dans Rn. Les preuves complètes figurent dans les an-nexes A et B.

SoitX : Ω Rune variable aléatoire à valeurs dans R. On souhaite attribuer une probabilité aux évènements de la forme{X6 a}pour toutadeR, mais aussi évaluer la probabilité des complémentaires et des intersections entre tous ces ensembles. Ceci nous amène à définir la notion deσ-algèbre.

Définition 9.1 (σ-algèbre). Une σ-algèbre A sur un espace Ωest une famille d’évènements satisfaisant les trois propriétés suivantes :

(i) Ωappartient àA.

(ii) Si A est dansAalors Acest dansA.

(iii) Toute réunion dénombrable d’évènements deAappartient àA.

SiCest une collection d’évènements on noteraσ(C)la plus petiteσ-algèbre contenantC. On dira queσ(C)est laσ-algèbre engendrée parC.

DansR, laσ-algèbre engendrée par les intervalles de la forme]−∞,a]est laσ-algèbre borélienne et sera notéeBR(voir aussi (A.1) en annexe). PourRn, laσ-algèbre borélienne

BRnest engendrée par les ensembles de la forme⊗n

i=1]−∞,ai].

Uneσ-algèbre constitue le bon cadre théorique pour définir une mesure de probabilité (cf. théorème A.7). On appelle alorsespace de probabilitéle triplet(Ω,A,P)oùAest une

σ-algèbre surΩet P : A → [0, 1]est une mesure de probabilité. SiAest uneσ-algèbre sur Ω, on dira que la variable X : Ω → Rn est mesurable par rapport à A(on abrège souvent parA-mesurable), si tous les évènements{X∈ B}pourB∈ BRn appartiennent àA, i.e.σ(X)⊂ A. On peut ainsi mesurerP({X∈ B}).

Lesσ-algèbres considérées dans ce cours seront souvent construites à partir de va-riables aléatoires et serviront à décrire l’information codée par ces vava-riables. SiXest une variable aléatoire à valeurs dansR, il est naturel de considérer laσ-algèbre engendrée par les ensembles de la forme{X6a}. On la noteraσ(X). On remarquera queσ(X)contient aussi tous les évènements de la forme{X ∈ B}pourBappartenant àBR. Plus

générale-ment, siX = (X1, . . . ,Xn)est une variable aléatoire à valeurs dansRn, alors laσ-algèbre

σ(X)associée est engendrée par les évènements de la forme {X ∈ B}pourB apparte-nant àBRn. Cetteσ-algèbre est aussi notéeσ(X1, . . . ,Xn)car elle décrit la collection desn variables aléatoiresX1, . . . ,Xn.

126 CHAPITRE 9. ESPÉRANCE CONDITIONNELLE Le résultat suivant permet de représenter facilement toutes les variables aléatoires mesurables par rapport àσ(X).

Lemme 9.2. On considère deux variables aléatoires sur (Ω,A,P): Y à valeurs dans(E,E)et W à valeurs dansR. Alors W est mesurable par rapport àσ(Y)si et seulement s’il existe une fonction mesurable f :E7→ Rtelle que W= f(Y).

Cette caractérisation des variablesσ(X)-mesurables sera fondamentale pour la suite et sa démonstration se trouve au lemme B.4.

Le formalisme précédent va nous permettre de définir la notion d’espérance condi-tionnelle pour des variables aléatoires à valeurs dansRcomme une projection orthogo-nale en s’inspirant des variables aléatoires à valeurs dans un espace discret. Considérons un espace de probabilité(Ω,A,P)et deux variablesXetYà valeurs dansR, mesurables par rapport àA. On suppose queXest dansL2, i.e. queE(X2)< ∞. Le lemme 9.2 per-met d’affirmer que les variables mesurables par rapport à σ(Y) sont de la forme h(Y) où h : R 7→ R est une fonction mesurable. On cherche à approcher X en fonction des variables du sous-espace

H =nh(Y); hfonction mesurable telle que E(h(Y)2)<∞o. (9.4) Comme Hest un sous-espace vectoriel fermé, on peut définir la projection orthogonale deXsur Hpour le produit scalairehZ,Wi= E(Z W). On note cette projectionE(X|Y) (cf. figure 9.1) et elle satisfait la relation d’orthogonalité pour touth(Y)dansH

E X−E(X|Y) )h(Y)=0 ⇔ E X h(Y) =E E(X|Y)h(Y) . (9.5) X H E(X|Y) 0 1/2 1 x y

FIGURE9.1 –L’espérance conditionnelleE(X|Y)s’interprète comme la projection orthogonale

au sensL2de X surH (schéma de gauche). Le schéma de droite représente la densité fX,Y de l’exemple (9.7).

Un calcul identique à celui fait en (9.3) dans le cas discret montre queE(X|Y)est la meilleure prédiction possible deX(au sensL2) par la variableY

inf

h∈HE X−h(Y)2

=E X2

E E(X|Y)2 .

9.2. DÉFINITION DE L’ESPÉRANCE CONDITIONNELLE 127 Par ailleurs toutes les variables mesurables par rapport àσ(Y)s’écrivent sous la forme h(Y); la variableE(X|Y)est doncσ(Y)-mesurable. On utilisera aussi la notation équiva-lenteE(X|σ(Y)) =E(X|Y)pour insister sur le fait que le conditionnement par rapport à Yrevient à conditionner par rapport à toute l’information dans laσ-algèbreσ(Y).

Cette stratégie s’étend aux variables aléatoires intégrables.

Théorème 9.3. Soit X une variable aléatoireA-mesurable appartenant àL1(A,P), i.e. telle que E(|X|)< ∞. On considèreF ⊂ Aune autreσ-algèbre. Il existe une unique variable aléatoire Z (définie presque sûrement) telle que

(a) Z estF-mesurable, (b) E(|Z|)< ∞,

(c) Pour toute variable aléatoire W bornée etF-mesurable alorsE(XW) =E(ZW). On définitl’espérance conditionnellede X sachantF parE(X|F):=Z.

La propriété (c) est l’analogue de la condition d’orthogonalité (9.5), mais l’espaceH

est réduit aux variables aléatoires bornées et F-mesurables. Le théorème précédent se déduit facilement du cas L2 en approchant la variable X par des variables dansL2, la preuve est faite en annexe (cf. théorème B.25).

Dans la pratique, on possède une information sur des variables aléatoiresY1, . . . ,Yk et on cherche à déterminer l’espérance conditionnelle sachant{Y1, . . . ,Yk}. On note

E(X|Y1, . . . ,Yk):=E(X|F),

oùF = σ(Y1, . . . ,Yk)est laσ-algèbre engendrée parY1, . . . ,Yk. Dans ce cas, on déduit du lemme 9.2 que la propriété (c) du théorème 9.3 est équivalente à

∀h∈L(BRk), E X h(Y1, . . . ,Yk)

=E E(X|Y1, . . . ,Yk)h(Y1, . . . ,Yk)

(9.6) oùL(BRk)est l’ensemble des fonctions boréliennes bornées.

L’espérance conditionnelleE(X|Y)fournit une prédiction sur X sachantY. On dis-tingue deux cas extrêmes :

— SiY = cest constante. Laσ-algèbre associée se réduit à σ(Y) = {∅,Ω}, c’est la plus petiteσ-algèbre et elle correspond à l’absence totale d’information. La condi-tion (a) du théorème 9.3 dit que Zest déterministe, i.e.Z = E(Z), et la condition d’orthogonalité (c) permet d’identifier cette constanteE(X) =E(Z) =Z. Dans ce cas, l’espérance conditionnelle se confond avec l’espéranceE(X|Y) =E(X). — SiY = X, toute l’information surXest connue. Appliquons la condition

d’ortho-gonalité (c) du théorème 9.3 à la fonction1F+ avecF+={X−Z>0} ∈σ(X) E((X−Z)1F+) =E((X−Z)1{XZ>0}) =0 ⇒ (X−Z)+=0 p.s. De même avec F = {X−Z 6 0} ∈ σ(X) on obtient (X−Z) = 0 presque sûrement. AinsiE(X|Y) =Xet les autres conditions (a) et (b) sont aussi vérifiées. Il s’agit de la meilleure prédiction possible deX(sachantX!).

128 CHAPITRE 9. ESPÉRANCE CONDITIONNELLE Espérance conditionnelle pour des variables à densité.

Revenons maintenant sur le cas particulier des variables à densité. Supposons que le couple(X,Y)soit à valeurs dansR2et admette une distribution absolument continue par rapport à la mesure de Lebesgue dansR2, de densité f(X,Y)(x,y)dxdy. Définissons la loi marginale deYobtenue par intégration par rapport à la variablex

fY(y) =

Z

f(X,Y)(x0,y)dx0 et pour fY(y)>0, la probabilité conditionnelle par

fX|Y=y(x) = f(X,Y)(x,y) fY(y) =

f(X,Y)(x,y)

R

f(X,Y)(x0,y)dx0

que l’on interprète comme l’analogue de (9.1) dans ce contexte. Il est clair que pour tout yfixé, la fonction fX|Y=y(x)définit une densité surRet on peut lui associer

E(X|Y =y) =

Z

x fX|Y=y(x)dx.

Comme dans le cas discret, E(X|Y) = ϕ(Y) est une fonction de Y et elle définit une variable aléatoire E(X|Y) appelée espérance conditionnelle de X sachant Y. La condi-tion d’orthogonalité(c)du théorème 9.3 se vérifie aussi par un calcul direct : pour toute fonctionh:RRbornée E(E(X|Y)h(Y)) = Z dy fY(y)h(y) Z x fX|Y=y(x)dx = Z Z x h(y) f(X,Y)(x,y)dxdy = E(X h(Y)) où on a utilisé le théorème de Fubini. On retrouve ainsi la propriété (9.6).

Pour conclure prenons l’exemple de la densité

∀x,y∈[0, 1]2, fX,Y(x,y) =2 1{x61/2,y>1/2}+1{x>1/2,y61/2}

(9.7) représentée figure 9.1. Le calcul des marginales permet de voir que les variables considé-rées séparément sont uniformément distribuées sur[0, 1]

∀x,y∈[0, 1], fX(x) =1, fY(y) =1.

Par contre, la probabilité conditionnelle deXsachantYest ou bien uniforme sur[0, 1/2] ou bien sur[1/2, 1]

fX|Y=y(x) =2 1{x61/2,y>1/2}+1{x>1/2,y61/2}

. L’espérance conditionnelle est donnée par

E(X|Y) = 1

41{Y>1/2}+3

Dans le document Modélisation de phénomènes aléatoires : (Page 125-129)