cours 19, le mercredi 30 mars 2011
Moments
Soit X une variable al´eatoire (en abr´eg´e : v.a.) sur un espace de probabilit´e (Ω,F,P) ; pour tout entiern≥1, lemoment d’ordrende X est l’esp´erance E Xnde la puissance Xn (sous-r´eserve d’existence, garantie par la finitude du hhmoment absoluii, E|X|n <+∞).
On peut consid´erer pour tout r´eel p >0 la quantit´e E|X|p
finie ou ´egale `a +∞.
Lemme. La fonction
p → E|X|p1/p
est croissante sur ]0,+∞[.
Preuve. —On commence par comparer les valeurs en 1 etr >1 ; on introduit l’exposant conjugu´es d´efini par 1/s= 1−1/ret on trouve d’apr`es l’in´egalit´e de H¨older, pour toute variable al´eatoire Y positive
E Y = Z
Ω
Y(ω).1 dP(ω)≤Z
Ω
Y(ω)rdP(ω)1/rZ
Ω
1sdP(ω)1/s
=
=
E Yr1/r
P(Ω)1/s
=
E Yr1/r
;
on traite le cas g´en´eral 0 < p < q < +∞ en introduisant r = q/p > 1 et Y = |X|p; alors Yr =|X|q et l’in´egalit´e pr´ec´edente donne
E|X|p ≤ E|X|qp/q
,
d’o`u le r´esultat.
Ainsi, pour une probabilit´e P, on a les inclusions
L∞(Ω,F,P)⊂L2(Ω,F,P)⊂L1(Ω,F,P).
Exercice. Si X est une variable al´eatoire presque sˆurement born´ee, montrer qu’on a l’´egalit´ekXk∞ = limp→+∞kXkp.
Couple de variables al´eatoires. Loi jointe
Si X,Y sont deux variables al´eatoires r´eelles d´efinies sur (Ω,F,P), on peut consid´erer l’application hhcoupleii
ω∈Ω→(X(ω),Y(ω))∈ R2
qui est F-mesurable `a valeurs dans (R2,BR ⊗ BR) = (R2,BR2). La loi jointe du couple (X,Y), ou simplement loi du couple, est la probabilit´e P(X,Y) sur (R2,BR ⊗ BR) = (R2,BR2) qui est la mesure image de la probabilit´e P par l’application couple (X,Y),
∀B∈ BR2, P(X,Y)(B) = P (X,Y) ∈B . La hhformule de transfertiipour le couple dit que
Ef(X,Y) = Z
R2
f(x, y) dP(X,Y)(x, y)
pour toute fonction bor´elienne f : R2 → [0,+∞], ou plus g´en´eralement pour toute fonction F-mesurable r´eelle ou complexe f telle que f(X,Y) soit P-int´egrable.
Marginales de la loi jointe
Si Q est une loi de probabilit´e sur (R2,BR2), on appelle lois marginales de Q les deux images Q1 et Q2 de la mesure Q par les deux projections de R2 sur R donn´ees par les deux applications coordonn´ees,
π1: (x1, x2)∈R2 →x1, π2 : (x1, x2)∈R2 →x2. Les deux mesures Qj =πj(Q),j = 1,2 sont des probabilit´es sur (R,B).
Si X et Y sont deux variables al´eatoires r´eelles sur (Ω,F,P) et si on compose l’application couple (X,Y) `a valeurs dansR2avec la premi`ere projectionπ1deR2 surR, on retrouve X (et Y avec la deuxi`eme projection). Il en r´esulte que l’image de P(X,Y) par la premi`ere projection est la loi PX de X. De mˆeme l’image de P(X,Y) par la deuxi`eme projection π2 est la loi PY de Y. La connaissance de la loi du couple est (c’est pas ´etonnant) une donn´ee plus pr´ecise que les simples lois de chacune des v.a.
Exemple. On peut obtenir de tr`es nombreuses lois sur le carr´e [0,1]2 dont les deux marginales sont ´egales `a la mesure de Lebesgue sur [0,1], par exemple la loi duhhcoupleii (U1,U1), port´ee par la diagonale u1 = u2 du carr´e, ou bien la mesure de Lebesgue du carr´e, si le couple (U1,U2) est form´e de deux variables uniformes ind´ependantes (d´efinition juste apr`es).
Covariance
Si X et Y sont deux variables al´eatoires r´eelles de carr´e int´egrable d´efinie sur (Ω,F,P), elles sont en particulier int´egrables, et on peut consid´erer les variablescentr´ees (c’est-`a- dire d’int´egrale nulle) X−E X et Y−E Y, qui sont encore dans L2, et enfin le produit scalaire de ces derni`eres, qu’on appelle la covariance de X et Y,
Cov(X,Y) = E(X−E X)(Y−E Y).
En d´eveloppant on obtient Cov(X,Y) = E(XY)−(E X)(E Y).
Quand Y = X, on obtient Cov(X,X) = Var(X)≥0, et ce cas est certainement le cas o`u Y d´epend le plus ´etroitement de X ; on dit que X et Y sont positivement corr´el´ees quand Cov(X,Y) > 0, et non corr´el´ees quand la covariance est nulle. La covariance s’exprime `a partir de la loi jointe, par exemple par
Cov(X,Y) = Z
R2
x−
Z
R2
udP(X,Y)(u, v) y−
Z
R2
vdP(X,Y)(u, v)
dP(X,Y)(x, y).
VI.2. Ind´ependance
VI.2.1. Ind´ependance de deux tribus ou de v.a.
D´efinition. On suppose donn´e un espace de probabilit´e (Ω,F,P). Deux ´ev´enements A,B∈ F sont ind´ependants si P(A∩B) = P(A)P(B).
On v´erifie qu’alors Ac et B, A et Bc, Ac et Bc sont ´egalement ind´ependants. Si on note que A = ∅ et A = Ω sont ind´ependants de tout autre ´ev´enement B, on voit que tous les ´ev´enements de la tribu (`a quatre ´el´ements ∅,A,Ac,Ω) engendr´ee par A sont ind´ependants des ´ev´enements de la tribu engendr´ee par B.
D´efinition.Deux sous-tribusA,B ⊂ F sont ind´ependantes si tous les ´ev´enements A∈ A et B∈ B sont ind´ependants.
Si X est une variable al´eatoire sur Ω, lasous-tribu engendr´ee parX, not´eeσ(X) ⊂ F est la tribu X−1(B), image inverse par X de la tribu bor´elienne. Si X1, . . . ,Xn sont des v.a. sur Ω, la tribu σ(X1, . . . ,Xn) engendr´ee par X1, . . . ,Xn est la plus petite tribu contenant toutes les tribus σ(Xj), j = 1, . . . , n, ou de fa¸con ´equivalente, contenant tous les ensembles (Xj ∈Bj), j = 1, . . . , net Bj bor´elien de R.
D´efinition.Deux v.a. X et Y sont ind´ependantes si les tribus engendr´eesσ(X) et σ(Y) sont ind´ependantes.
Comme tous les ´ev´enements de la tribu σ(X) sont de la forme {X∈A}, o`u A varie dans BR, et de mˆeme pour σ(Y), cela revient `a dire que
∀A,B∈ BR, P {X∈A}&{Y ∈B}
= P {X ∈A}
P {Y ∈B}
.
Exemple. Si Ω = [0,1]2 et si P est la mesure de Lebesgue sur le carr´e, les variables al´eatoires X et Y d´efinies par X(x, y) =x et Y(x, y) =y sont ind´ependantes.
Proposition. Deux variables al´eatoires r´eelles X,Y sur (Ω,F,P)sont ind´ependantes si et seulement si la loi jointe est le produit tensoriel des lois,
P(X,Y) = PX⊗PY.
V´erification. — Les deux v.a. sont ind´ependantes si et seulement si pour tous les sous- ensembles bor´eliens A,B de R, on a
PX(A) PY(B) = P(X∈A)P(Y ∈B) = P (X∈A) & (Y∈B)
= P(X,Y) (X,Y) ∈A×B , et l’´egalit´e entre les termes extrˆemes est la caract´erisation de la mesure produit PX⊗PY. Exemple : soient U1,U2, deux variables uniformes sur [0,1], ind´ependantes, et con- sid´erons la variable al´eatoire X = inf(U1,U2). Calculons la loi de X, l’esp´erance de X.
On peut tout de suite calculer l’esp´erance par une premi`ere m´ethode. Comme U1 et U2 sont ind´ependantes, la loi jointe est le produit tensoriel de deux copies de la loi uniforme 1[0,1](x) dx, donc
E X = E inf(U1,U2) = Z
R2
inf(u1, u2)1[0,1](u1) du11[0,1](u2) du2. On peut appliquer Fubini positif,
E X = Z Z
inf(u1, u2)1[0,1](u1)1[0,1](u2) du1 du2
= Z
R
Z u2
0
u1du1+u2 Z 1
u2
du1
1[0,1](u2) du2 = Z 1
0
u22/2 +u2(1−u2) du2
= Z 1
0
(u−u2/2) du=hu2 2 − u3
6 i1
0 = 1/2−1/6 = 1/3.
On va maintenant d´eterminer la loi de X. Puisque X = inf(U1,U2), les valeurs de X sont clairement dans [0,1] presque sˆurement. Soit x entre 0 et 1 ; si X > xc’est que U1
et U2 sont > x toutes les deux, donc par ind´ependance, la probabilit´e de l’´ev´enement (X> x) = (U1 > x) & (U2 > x) est ´egale au produit
P(U1 > x)P(U2 > x) = P(U1 > x)2
=Z +∞
x
1[0,1](t) dt2
= (1−x)2;
la fonction de r´epartition de X est FX(x) = 1−(1−x)2 sur [0,1], FX(x) = 0 si x ≤ 0 et FX(x) = 1 six ≥1. La fonction FX est continue et de classe C1 par morceaux ; il en r´esulte que la loi de X admet pour densit´e la d´eriv´ee fXde FX, ´egale `afX(x) = 2(1−x) sur [0,1], et ´egale `a 0 en dehors de [0,1]. On peut alors retrouver l’esp´erance de l’inf, qu’on avait d´ej`a calcul´ee par Fubini :
E X = Z
R
xdPX(x) = Z
R
xfX(x) dx=
= 2 Z 1
0
x(1−x) dx=h
x2−2x3/3i1
x=0 = 1−2/3 = 1/3.
Dans le mˆeme genre
Si T est une v.a. exponentielle de param`etre λ >0 et si t ≥0, on a P(T> t) =
Z +∞
t
λe−λx dx=h
−e−λxi+∞
t = e−λt.
On en d´eduit la loi de l’inf de deux variables exponentielles ind´ependantes T1 et T2, de param`etres λ1, λ2 :
P(inf(T1,T2)> t) = P (T1 > t) & (T2 > t)
=
= P(T1> t)P(T2 > t) = e−λ1te−λ2t = e−(λ1+λ2)t.
On trouve donc que T = inf(T1,T2) suit une loi exponentielle de param`etreα =λ1+λ2, dont on a calcul´e l’esp´erance, ´egale `a 1/α. Dans le cas o`u λ1 =λ2 = λ, le temps moyen d’attente 1/(2λ) du premier bus arriv´e parmi deux hhbus exponentielsii ind´ependants de param`etre λ est la moiti´e du temps d’attente moyen d’un seul (cela semble bien naturel ; mais le premier exercice montre que le r´esultat ne serait pas vrai pour deshhbus uniformesii).
Remarque. La loi exponentielle est hhsans m´emoireii : on commence une exp´erience au temps 0, attendant un certain ´ev´enement al´eatoire qui se produira au temps T>0, o`u la variable al´eatoire T suit la loi exponentielle de param`etre λ > 0. Mais en fait, l’observateur a rat´e le d´ebut et il commence `a attendre au temps t > 0 ; quelle est la loi du temps S = T−t restant `a attendre, sachant que l’´ev´enement ne s’est pas encore produit `a l’instant t? On trouve
P(S> u)
P(T > t) = P(T> t+u)
P(T> t) = e−λ(t+u)/e−λt = e−λu = P(T> u),
donc : la loi conditionnelle de T−t, sachant que T> t, est la mˆeme que la loi de T.
Ind´ependance et esp´erance
Th´eor`eme.SiX etY sont deux variables al´eatoires r´eelles ind´ependantes, et sif, g sont bor´eliennes positives, alors
E f(X)g(Y)
= Ef(X)
Eg(Y) . En particulier, E |X| |Y|
= E|X|
E|Y|
. Si X,Y sont ind´ependantes et int´egrables, alors XY est int´egrable et
E(XY) = (E X) (E Y).
Preuve. — Si X et Y sont ind´ependantes, on sait que la loi P(X,Y) du couple est la probabilit´e sur (R2,BR2) ´egale au produit tensoriel des deux lois PX et PY. On a donc par mesure image puis Fubini positif
Ef(X)g(Y) = Z
R2
f(x)g(y) dP(X,Y)(x, y) = Z
R2
f(x)g(y) dPX(x)dPY(y)
= Z
R
f(x)Z
R
g(y) dPY(y)
dPX(x) =Z
R
f(x) dPX(x)Z
R
g(y) dPY(y)
= Ef(X) Eg(Y).
Si on prend f(x) = g(x) = |x|, on obtient le deuxi`eme point de l’´enonc´e. Si X,Y sont int´egrables, il r´esulte du point pr´ec´edent que XY est int´egrable, et le r´esultat final est obtenu par Fubini (au lieu de Fubini positif). On peut aussi raisonner en d´ecoupant XY = (X+−X−)(Y+−Y−), appliquer le cas positif et regrouper : mais c’est bien ainsi qu’on d´emontre Fubini g´en´eral `a partir de Fubini positif.
Si X et Y sont r´eelles, ind´ependantes et de carr´e int´egrable, il est clair que les variables centr´ees X−E X et Y−E Y sont encore ind´ependantes : en effet, l’´ev´enement {X−E X∈A}s’´ecrit comme {X∈A + E X}, o`u A + E X est le bor´elien de R obtenu en translatant A de la valeur E X ; cet ´ev´enement est donc ind´ependant de {Y ∈B + E Y}, pour tous A,B bor´eliens.
Puisque X−E X et Y−E Y sont ind´ependantes et de moyenne nulle, il r´esulte de ce qui pr´ec`ede que
Cov(X,Y) = E(X−E X)(Y−E Y) = 0.
On obtient aussi, sous les mˆemes hypoth`eses, la relation importante Var(X + Y) = Var(X) + Var(Y),
qui n’est rien d’autre qu’une version de l’´egalit´e de Pythagore pour les vecteurs ortho- gonaux.
Remarque. Les deux variables al´eatoires X et Y sont ind´ependantes si et seulement si pour toutes les fonctions f, g bor´eliennes positives sur R, on a
(∗∗) Ef(X)g(Y) = Ef(X) Eg(Y).
Preuve. —Le th´eor`eme pr´ec´edent montre que la condition (∗∗) est n´ecessaire pour avoir l’ind´ependance. Inversement, on suppose (∗∗) et on prend f = 1A, g =1B, A,B ∈ BR; alors
P(X∈A) P(Y ∈B) = E1A(X)
E1B(Y)
= E1A(X)1B(Y) = P (X∈A) & (Y∈B) , d’o`u le r´esultat : X et Y sont ind´ependantes.
VI.2.2. Ind´ependance de familles de tribus ou de v.a.
Si on veut d´efinir l’ind´ependance de trois ´ev´enements A,B et C, il ne suffit pas de demander qu’ils soient ind´ependants deux `a deux : la bonne notion est de demander que toutes les intersections possibles,
A∩B, B∩C, C∩A, A∩B∩C
aient une probabilit´e ´egale au produit des probabilit´es. Pour une famille plus large, on demandera aussi que toutes les intersections finies possibles v´erifient la condition.
D´efinition. Soit (Ω,F,P) un espace de probabilit´e ; on dit que les classes D1,D2, . . . ,Dn de parties de Ω, contenues dans F, sont ind´ependantes si pour sous-ensemble J⊂ {1, . . . , n} et tous Aj ∈ Aj, j ∈ J, on a
P \
j∈J
Aj
=Y
j∈J
P(Aj).
On dit que les classes (Di)i∈I contenues dans F sont ind´ependantes si toutes les sous- familles finies (Dj)j∈J sont ind´ependantes.
Si on a affaire `a des sous-tribusA1,A2,. . . ,AndeF, on n’a pas besoin de mentionner le sous-ensemble J⊂ {1, . . . , n}: il suffit de prolonger le choix des Aj, donn´es pourj ∈J, en posant Ak = Ω quand k /∈J, et alors
A1∩A2∩. . .∩An = \
j∈J
Aj,
n
Y
j=1
P(Aj) =Y
j∈J
P(Aj).
Les tribus A1, . . . ,An sont donc ind´ependantes si et seulement si, pour tous A1, . . . ,An tels que Aj ∈ Aj, j = 1, . . . , n, on a
P\n
j=1
Aj
=
n
Y
j=1
P(Aj).
D´efinition.Soit (Ω,F,P) un espace de probabilit´e ; on dit que les v.a. X1,X2, . . . ,Xn sont ind´ependantes si les tribusσ(X1), σ(X2), . . . , σ(Xn) sont ind´ependantes ; cela revient
`a dire que pour tous bor´eliens B1, . . . ,Bn de R, on a P\n
j=1
{Xj ∈Bj}
=
n
Y
j=1
P(Xj ∈Bj).
On dit que les v.a. (Xi)i∈I d´efinies sur (Ω,F,P) sont ind´ependantes si toutes les sous- familles finies sont ind´ependantes. On dira aussi qu’une variable al´eatoire X est ind´e- pendante d’une sous-tribu A si les tribus σ(X) et A sont ind´ependantes.
Lemme 1. Soit (Ω,F,P) un espace de probabilit´e ; si un ´ev´enement A ∈ F est ind´e- pendant de tous les ´ev´enements C ∈ C d’une classe C ⊂ F stable par intersection finie, alors A est ind´ependant de la tribu engendr´ee σ(C).
Preuve. — Consid´erons les deux mesures µ et ν sur (Ω,F) d´efinies par dµ(ω) =1A(ω) dP(ω), dν(ω) = P(A) dP(ω).
Pour tout ensemble B∈ F, µ(B) =
Z
Ω
1B1AdP = Z
Ω
1B∩AdP = P(B∩A) ; ν(B) = P(A) P(B).
Ces deux mesures ont la mˆeme masse totale,
µ(Ω) = P(Ω∩A) = P(A), ν(Ω) = P(A) P(Ω) = P(A),
et elles co¨ıncident sur la classe C, d’apr`es l’hypoth`ese d’ind´ependance,
∀C∈ C, µ(C) = P(C∩A) = P(C) P(A) =ν(C).
D’apr`es un lemme d’unicit´e de mesure vu au chapitre III (ce lemme r´esulte du th´eor`eme de classe monotone), on d´eduit que µ = ν sur la tribu σ(C) engendr´ee par C, ce qui donne le r´esultat voulu.
Lemme 2.Soient (Ω,F,P)un espace de probabilit´e, et C1, . . . ,Cn des classes de parties de Ω, stables par intersection finie et contenues dans F; si les classes C1, . . . ,Cn sont ind´ependantes, alors les classes C2, . . . ,Cn, σ(C1) sont ind´ependantes.
Preuve. — Fixons J⊂ {2, . . . , n} et un ´el´ement Cj dans Cj pour tout j ∈ J ; posons A = \
j∈J
Cj.
Alors A est ind´ependant de la classe C1 : en effet, pour tout C1 ∈ C1, on a P(C1∩A) = P \
j∈J∪{1}
Cj
= P(C1)Y
j∈J
P(Cj) = P(C1)P(A).
Puisque A est ind´ependant de la classeC1, stable par intersection finie, il r´esulte du lemme pr´ec´edent que A est ind´ependant de la tribu engendr´ee σ(C1) : pour tous les ensembles B1 ∈σ(C1) (y compris B1 = Ω qui revient `a ne rien s´electionner), tout J⊂ {2, . . . , n}et tous les Cj ∈ Cj, j ∈J, on a
P \
j∈J
Cj
∩B1
= P \
j∈J
Cj
P(B1) =Y
j∈J
P(Cj)
P(B1), ce qui termine la preuve.
Proposition. Soient (Ω,F,P) un espace de probabilit´e, et C1, . . . ,Cn des classes de parties de Ω, stables par intersection finie et contenues dansF ; si les classes C1, . . . ,Cn sont ind´ependantes, alors les tribus engendr´ees σ(C1), . . . , σ(Cn) sont ind´ependantes.
Preuve. — Il suffit d’appliquernfois le lemme pr´ec´edent : de l’ind´ependance des classes C1, . . . ,Cn, stables par intersection finie, on passe `a l’ind´ependance de
C2, . . . ,Cn, σ(C1) ;
mais on a `a nouveau des classes stables par intersection finie, donc les classes C3, . . . ,Cn, σ(C1), σ(C2)
sont ind´ependantes ; et en continuant ainsi on arrive `a l’ind´ependance de σ(C1), . . . , σ(Cn).
Corollaire. Pour que les variables al´eatoires X1, . . . ,Xn soient ind´ependantes, il (faut et il) suffit que pour tout sous-ensemble J de {1, . . . , n} et tout choix de r´eels (cj)j∈J, on ait
(∗) P \
j∈J
{Xj > cj}
= Y
j∈J
P(Xj > cj).
Preuve. — Pour chaque j = 1, . . . , n, d´esignons par Cj la classe de tous les ensembles de la forme
{Xj > c}= X−1j ]c,+∞[
,
o`u c varie dans R. Chacune de ces classes est contenue dans F, stable par intersection finie. La propri´et´e (∗) ´enonc´ee dans le corollaire signifie que les classes C1, . . . ,Cn sont ind´ependantes. Il r´esulte de la proposition pr´ec´edente que les tribus engendr´ees sont ind´ependantes ; or on sait que
σ(Cj) =σ(Xj), ce qui termine la preuve.
D´eveloppement dyadique
On sait que tout nombre r´eel x tel que 0≤x <1 peut se repr´esenter sous la forme x=
+∞
X
n=1
εn
2n,
o`u εn = 0,1 est obtenu en d´eveloppant x en base 2. On va montrer que les hhd´ecimales dyadiquesii (εn)n>1 peuvent ˆetre consid´er´ees comme une suite de variables al´eatoires ind´ependantes.
D´efinissons une fonctionϕsurR, qui ne prend que les valeurs 0 et 1, en posantϕ(x) = 0 sur [0,1[ et ϕ(x) = 1 sur [1,2[, et en disant que ϕest p´eriodique de p´eriode 2 sur R; on a donc
ϕ=X
j∈Z
1[2j−1,2j[, et on a aussi
{x∈R:ϕ(x) = 0}=[
j∈Z
[2j,2j+ 1[,
c’est-`a-dire que ϕ(x) = 0 si et seulement si la partie enti`ere de x est paire. On consid`ere l’espace Ω = [0,1[, muni des bor´eliens et de la mesure de Lebesgue (qui est une probabilit´e sur cet espace Ω). Pour tout entier n≥1 et toutω∈Ω, on pose
Xn(ω) =ϕ(2nω) ;
on va montrer que ces v.a. forment une suite (infinie) (Xn)n>1 de variables al´eatoires ind´ependantes.
Identifions la loi de Xn : la v.a. Xn ne prend que les valeurs 0,1, et elle les prend avec probabilit´e 1/2 ; en effet, l’ensemble (Xn= 0) est l’ensemble des ω r´eels tels que 0≤ω <1 et ϕ(2nω) = 0, donc c’est l’ensemble des ω ∈ Ω pour lesquels il existe j ∈ Z tel que 2j ≤2nω <2j+ 1 ; on a 0≤2nω <2j+ 1 qui entraˆınej≥0 et 2j≤2nω <2n qui entraˆıne j <2n−1, donc
2nω ∈ [
0≤j<2n−1
[2j,2j+ 1[
ce qui montre que
{Xn = 0}= [
0≤j<2n−1
[2j2−n,(2j+ 1)2−n[ ;
l’ensemble {Xn = 0} est form´e de 2n−1 intervalles disjoints, chacun de longueur 2−n, par cons´equent
P(Xn = 0) = 2n−12−n = 1/2.
Comme Xn ne prend que les valeurs 0 et 1, on a aussi P(Xn = 1) = 1/2.
On va montrer par r´ecurrence sur n ≥ 1 les deux affirmations suivantes : la tribu Fn
engendr´ee par X1, . . . ,Xn est engendr´ee par la partition Πn =([j2−n,(j+ 1)2−n[)0≤j<2n de Ωen 2n atomes, etXn est ind´ependante de Fn−1.
Quand n= 1, la tribu F1 est engendr´ee par X1, qui prend la valeur 0 sur [0,1/2[ et la valeur 1 sur [1/2,1[ ; la partition Π1 de [0,1[ est form´ee de [0,1/2[ et [1/2,1[ ; la tribu F1 engendr´ee par X1contient les quatre ensembles engendr´es par cette partition, `a savoir vide, plein et les deux intervalles pr´ec´edents : c’est la tribu engendr´ee par la partition Π1. Il est naturel de poser F0 ={∅,Ω}, et n’importe quelle variable al´eatoire, en particulier X1, est ind´ependante de cette tribuhhgrossi`ereiiF0. Le cas n= 1 est r´egl´e.
Supposons la propri´et´e vraie `a l’ordren: tout ensemble A de la tribuFn est de la forme A =[
j∈J
Aj, o`u Aj = [j2−n,(j+ 1)2−n[,
0≤j <2n et o`u J est un sous-ensemble de{0, . . . ,2n−1}. La tribuFn+1est la plus petite tribu qui contienne tous les ensembles de la forme (Xk ∈Bk) o`u Bk est un bor´elien de R et k= 1, . . . , n+ 1. La tribu Fn contient d´ej`a tous ces ensembles pour k ≤n, on va voir comment il faut la raffiner pour traiter Xn+1 aussi. Comme Xn+1 ne prend que les valeurs 0 et 1, il suffit de garantir que l’ensemble (Xn+1= 0) soit dans la tribuFn+1: on obtiendra (Xn+1 = 1) par compl´ementaire ; les autres ensembles de la forme (Xn+1 ∈ Bn+1) sont ∅ et Ω, qui sont d´ej`a dans Fn, donc dans Fn+1.
L’ensemble (Xn+1= 0) est la r´eunion pour 0≤j <2n des ensembles
Aj∩(Xn+1= 0) ={ω : (j2−n ≤ω <(j+ 1)2−n) & (Xn+1(ω) = 0)}.
Sij2−n ≤ω <(j+ 1)2−n et Xn+1(ω) =ϕ(2n+1ω) = 0, on sait que 2j≤2n+1ω <2j+ 2 et que 2n+1ω appartient `a un intervalle pair [2i,2i+ 1[ qui ne peut ˆetre que [2j,2j+ 1[. On conclut que
Aj∩(Xn+1= 0) = [2j2−n−1,(2j+ 1)2−n−1[.
On voit donc que l’ensemble (Xn+1 = 0) est r´eunion de certains des intervalles de la parti- tion Πn+1. Inversement, la tribuFn+1 doit contenirFn, donc contenir tous les ensembles Aj, 0≤j <2n, donc tous les
Aj∩(Xn+1= 0) = [2j2−n−1,(2j+ 1)2−n−1[ et tous les
Aj∩(Xn+1= 1) = [(2j+ 1)2−n−1,(2j+ 2)2−n−1[.
On voit donc que Fn+1 contient tous les ensembles de la partition Πn+1, et co¨ıncide par cons´equent avec la tribu engendr´ee par Πn+1; cette partition a 2n+1 atomes et la tribu (finie) Fn+1 contient 22n+1 ensembles.
Pour montrer que Xn+1 est ind´ependante deFn, on doit montrer que P(A & (Xn+1 = 0))= P(A) P(Xn+1= 0) = P(A)/2 pour tout A∈ Fn; comme tout A∈ Fn est de la forme A =S
j∈JAj, r´eunion disjointe, il suffit de le faire sur chaque bout Aj,j ∈J. Mais on vient de voir que
Aj∩(Xn+1= 0) = [2j2−n−1,(2j+ 1)2−n−1[ qui est de longueur
2−n−1= 2−n×1
= P(Aj) P(Xn+1= 0).
On a montr´e que Xn+1 est ind´ependante deFn et termin´e la r´ecurrence.
Terminons la preuve de l’ind´ependance des Xn : si N entier quelconque est donn´e, ainsi que des bor´eliens (Bk), k = 1, . . . ,N, on note que par la preuve pr´ec´edente, l’ensemble (XN∈BN) est ind´ependant de T
1≤k<N(Xk ∈Bk) qui est dans la tribu FN−1, donc
P \
1≤k≤N
(Xk ∈Bk)
= P
\
1≤k<N
(Xk ∈Bk)
& (XN ∈BN)
= P \
1≤k<N
(Xk ∈Bk)
P(XN∈BN), et en recommen¸cant avec N−1,N−2, . . . ,2 on termine avec
P \
1≤k≤N
(Xk ∈Bk)
=
N
Y
k=1
P(Xk ∈Bk).
Ainsi, on a prouv´e que la suite (Xn)n>1 est une suite de v.a. ind´ependantes.
Remarque. En alg`ebre lin´eaire, on peut traduire l’ind´ependance lin´eaire d’une suite de vecteurs (vn)n>1 en disant que pour tout n≥1,
vn ∈/ Vect(v1, . . . , vn−1)
(o`u Vect() est interpr´et´e comme {0} quand n−1 = 0). De fa¸con analogue, on traduit l’ind´ependance d’une suite de variables al´eatoires (Xn)n>1 en disant que pour toutn≥1, la v.a. Xn est ind´ependante de la tribu engendr´ee par X1, . . . ,Xn−1.
Remarque(un peu pr´ematur´ee). Par construction les Xn(ω) sont les hhd´ecimalesiide la num´eration binaire, donc pour tout ω de [0,1[ on a l’´egalit´e
ω=
+∞
X
n=1
2−nXn(ω).
On a ainsi construit la variable al´eatoireω∈Ω→ω∈R, de loi uniforme sur [0,1], `a partir d’une suite de v.a. de Bernoulli p = 1/2 ind´ependantes. On pourrait se convaincre que la loi d’une s´erie de Bernoulli ne d´epend pas de la r´ealisation particuli`ere (on peut calculer toutes les probabilit´es des valeurs des sommes partielles de la s´erie grˆace `a l’ind´ependance).
Ainsi, pour toute sous-suite des (Xn) pr´ec´edentes,
+∞
X
k=1
2−kXnk
est une variable uniforme sur [0,1].
A partir d’une suite de Bernoulli ind´ependantes, on peut donc construire une suite` (Um)m>0 d’uniformes ind´ependantes (utiliser le fait que N ∼ N×N, et le fait que des variables construites `a partir de paquets disjoints pris dans une suite ind´ependante restent ind´ependantes), donc des tas d’autres suites ind´ependantes, par exemple des Bernoulli de param`etrep6= 1/2 en consid´erant Ym=1[0,p](Um).