1 G´ en´ eralit´ es, rappels
Rappel : d´efinition de v.a, loi
D´efinition 1 (V.a, loi). Soit (Ω,F,P) un espace probabilis´e, et (E,E) un espace mesurable.
Une l’application X : Ω→ E mesurable (i.e. telle que pour tout ´el´ement B ∈ E, X−1(B)∈ F), est appel´ee variable al´eatoire `a valeurs dans E.
La mesure de probabilit´e PX sur E, telle que PX(B) = P(X−1(B)) (la mesure-image de P par X) est appel´ee la loi de X.
Lorsque E = R,E = B(R) on dit que X est une variable al´eatoire r´eelle (v.a.r).
Lorsque E = Rd,E = B(Rd), on dit que X est un vecteur al´eatoire d- dimensionnel.
Lorsque X et Y sont deux v.a telles que P(X = Y) = 1, on note par exemple X ∼Y et on dit que X etY sont indistinguables.
L’indistinguabilit´e est une relation d’´equivalence, et il souvent pratique de travailler avec les classes, i.e. `a indistinguabilit´e pr`es.
Une remarque importante
Une variable al´eatoire X et sa loi PX sont des objets math´ematiques de nature diff´erente. Plus pr´ecis´ement, `a toute variable al´eatoire correspond une loi, mais deux variables distinctes peuvent avoir la mˆeme loi.
Cependant de nombreuses quantit´es et objets math´ematiques avec les- quels nous allons travailler (par exemple lorsque X est une v.a.r, la probabi- lit´e de {X ≥ 2}, ses moments, sa fonction de r´epartition) ne d´ependent de X qu’`a travers sa loi.
Une remarque importante
En r´ealit´e, il est assez rare qu’on donne une variable al´eatoire (ou mˆeme le triplet (Ω,F,P)) de mani`ere explicite. C’est l’usage de se passer d’une telle construction.
Un ´enonc´e est donc susceptible de d´emarrer par exemple par ”soit X une v.a. de loi exponentielle de param`etre λ >0”. En r´ealit´e, ce genre d’´enonc´e ne fait que pr´eciser laloi deX.
Attention cependant que si ce mˆeme ´enonc´e introduit plus loin ”une va- riable Y, uniforme sur [0,1], ind´ependante de X”, l’´enonc´e pr´ecise alors non seulement la loi de X et de Y, mais celle de (X, Y).
Classe monotone
Pour caract´eriser la loi PX sur E, il suffit de connaˆıtre PX sur une classe C ⊂ P(E) stable par intersection, et qui engendre E.
Autrement dit, pour une telle classeC,
si on aPX(C) = PY(C) pour tout C ∈ C, alorsPX =PY. Rappel : esp´erance, th´eor`eme de transfert
D´efinition 2 (esp´erance). Soit X une variable al´eatoire `a valeurs dans E, f une application (E,E)→ (R,B(R)) mesurable, positive ou PX-int´egrable, on d´efinit
E[f(X)] :=
Z
Ω
f(X(ω))dP(ω) = Z
E
f(x)dPX(x).
Tous les r´esultats du cours d’int´egration s’appliquent : l’esp´erance est lin´eaire, positive, v´erifie TCM, Fatou, TCD, Jensen, etc... On y revient plus loin dans le cadre des v.a.r. (sans perte de g´en´eralit´e : remarquez que f(X) ci-dessus est une v.a.r)
2 Variables al´ eatoires r´ eelles
Fonction de r´epartition
Dans tout ce paragraphe on travaille avec des variables al´eatoires r´eelles (v.a.r)
D´efinition 3(fonction de r´epartition). La fonction de r´epartition de la v.a.r X est d´efinie par
FX : (
R→[0,1]
x→P(X ≤x)
La fonctionFX caract´erise la loi deX, autrement dit FX =FY ⇒PX = PY.
C’est ce que nous avons rappel´e plus haut, puisque C ={(−∞, x], x∈R} est stable par intersections finies et engendre les bor´eliens.
Fonction de r´epartition
Th´eor`eme 1 (caract´erisation fct de r´epart). La fonction de r´epartition FX d’une v.a.r X est croissante, continue `a droite, elle tend vers 0 en −∞ et vers 1 en +∞. R´eciproquement, toute fonction v´erifiant ces propri´et´es est la fonction de r´epartition d’une v.a.r
Fonction de r´epartition
Pour la r´eciproque, on se donne F v´erifiant les propri´et´es et on introduit H:
( (0,1)→R
t →inf{x:F(x)≥t}.
La fonction H s’appelle la r´eciproque g´en´eralis´ee de F, elle est telle que F(x0)≥t0 ⇔H(t0)≤x0.
Il est alors ais´e de d´emontrer que si U ∼ Unif[0,1], alors X = H(U) a pour fonction de r´epartition F :
P(X ≤x) =P(H(U)≤x) = P(F(x)≥U) =F(x).
La preuve de la r´eciproque est constructive : elle fournit un algorithme permettant de simuler une variable de fonction de r´epartition explicite.
Au moins pour ceux qui font l’option A, ´ecrire un programme permettant de simuler une variable de fonction de r´epartition donn´ee semble ˆetre un exercice indispensable.
Esp´erance, variance, covariance
D´efinition 4 (Esp´erance, Variance, Covariance). Si X est une v.a.r P- int´egrable (i.e. sif =IdestPX-int´egrable) on d´efinitE[X] := R
ΩX(ω)dP(ω) = R
ExdPX(x).
Si X2 est P-int´egrable, on note Var(X) = E[(X −E[X]2) = E[X2]− (E[X])2.
Enfin si X, Y sont deux v.a.r telles que X, Y et XY sont P-int´egrable (c’est en particulier le cas si X2, Y2 sont P-int´egrables), on note
Cov(X, Y) = E[(X−E[X])(Y −E[Y])]
Evidemment Cov(X, X) = Var(X). La covariance est une forme bilin´eaire, sym´etrique, positive sur l’ensemble des variables de carr´e int´egrable, mais elle n’est bien sˆur pas d´efinie, puisqu’une variable p.s. constante est de variance nulle.
Espaces Lp (rappels d’int´egration)
D´efinition 5 (Espaces Lp). Pour p ≥ 1 on note Lp(Ω,F,P) := {Xv.a.r : E[|X|p]<∞}, et
Lp(Ω,F,P) :=Lp(Ω,F,P)/∼.
On note par ailleurs L∞(Ω,F,P) :={X v.a.r, p.s born´ee}, et L∞(Ω,F,P) :=L∞(Ω,F,P)/∼.
Espaces Lp (rappels d’int´egration)
Si X ∈ Lp(Ω,F,P) on d´efinit ||X||p := E[|X|p]1/p. Si X ∈ L∞(Ω,F,P) on d´efinit ||X||∞ := inf{M :P(|X| ≤M) = 1}.
Th´eor`eme 2 (Lp Banach). Pour tout p∈ [1,+∞], (Lp(Ω,F,P),|| · ||p) est un espace de Banach (i.e un e.v.n complet).
Remarque : pourp= 2 la norme|| · ||2 surL2 est issue du produit scalaire hX, Yi := E[XY] (qui co˝ıncide avec la covariance sur le sous-espace des variables centr´ees). On a donc Cauchy-Schwarz, et en particulier lecoefficient de corr´elation
ρ(X, Y) := Cov(X, Y) pVar(X)Var(Y)
est toujours situ´e dans [−1,1]. Ce coefficient prend la valeur 1 ou −1 ssi Y est p.s. une transformation lin´eaire de X (cf le cas d’´egalit´e dans Cauchy- Schwarz).
L’in´egalit´e triangulaire permettant de v´erifier que|| · ||p est une norme est appel´ee in´egalit´e de Minkowski, elle se d´emontre soit directement via Jensen, ou sans doute plus facilement via l’in´egalit´e de H˝older qui elle-mˆeme d´ecoule de Jensen ou Young. On rappelle ci-apr`es les in´egalit´es de H˝older et Jensen.
La compl´etude d´ecoule quant `a elle du th´eor`eme de Riesz-Fischer.
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 3 (In´egalit´e de Jensen). Soit X ∈ L1, I un intervalle de R tel que P(X ∈I) = 1, et φ:I →R convexe. Alors
E[Φ(X)]≥Φ(E[X]).
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 4 (In´egalit´e de H˝older). Soient 1 ≤ p, q ≤ +∞ tels que 1/p+ 1/q= 1, X ∈Lp, Y ∈Lq, alors XY ∈L1 et
E[|XY|]≤ ||X||p||Y||q
Cons´equence : Sip < q etX ∈Lq,||X||p ≤ ||X||q. On a lahi´erarchie des normes etLq ⊂Lp.
Remarque : Pour p=q = 2 on obtient `a nouveau l’in´egalit´e de Cauchy- Schwarz.
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 5 (TCM). Soit (Xn, n≥0)une suite croissante de v.a `a valeurs dans R+. Alors
n→∞lim E[Xn] =E[ lim
n→∞Xn].
En particulier, si Xn ∈ L1 pour tout n, limXn ∈ L1 si et seulement si limE[Xn]<∞
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 6 (”lemme” de Fatou). Soit (Xn, n ≥ 0) suite de variables al´eatoires `a valeurs dans R+. Alors
lim inf
n→∞ E[Xn]≥E[lim inf
n→∞ Xn].
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 7 (TCD, version 1). Soit (Xn, n ≥ 0) une suite de v.a.r telle que P(Xn→X) = 1 (i.e. Xn converge p.s. vers X). On suppose qu’il existe Y ∈L1 telle que pour tout n, |Xn| ≤Y p.s. Alors X est int´egrable et
E[|Xn−X|] −→
n→∞0
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 8 (TCD, version 2 — preuve + tard). Soit(Xn, n≥0)une suite de v.a.r telle que pour tout ε > 0, P(|Xn−X| > ε) → 0 (i.e. Xn converge en probabilit´e versX). On suppose qu’il existe Y ∈L1 telle que pour toutn,
|Xn| ≤Y p.s. Alors X est int´egrable et E[|Xn−X|] −→
n→∞0
Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)
Th´eor`eme 9 (TCD, version 2 — preuve + tard). begintheorem [TCD, ver- sion 1] Soit (Xn, n ≥ 0) une suite de v.a.r telle que pour tout ε > 0, P(|Xn−X| > ε) → 0 (i.e. Xn converge en probabilit´e vers X). On sup- pose qu’il existe Y ∈ L1 telle que pour tout n, |Xn| ≤ Y p.s. Alors X est int´egrable et
E[|Xn−X|] −→
n→∞0 Propri´et´es de l’esp´erance d’une v.a.r
Th´eor`eme 10 (In´egalit´e de Markov). Soit h : R+ → R+ croissante, telle que h(|X|)∈L1. Alors pour tout a≥0 tel que h(a)>0,
P(|X| ≥a)≤ E[h(|X|)]
h(a) .
Preuve :{|X| ≥a} ⊂ {h(|X|)≤h(a)}car h est croissante. Donc h(a)1{|X|≥a} ≤h(|X|)1{|X|≥a} ≤h(|X|),
o`u on utilise quehest positive pour obtenir la deuxi`eme in´egalit´e. On conclut par positivit´e de l’esp´erance.
3 Variables al´ eatoires usuelles discr` etes
Les variables qui suivent sont `a valeurs dans N. Notons que pourX v.a.
`
a valeurs dans N, etf :N→R positive ou telle queP
k∈N|f(k)|P(X =k)<
∞, on a
E[f(X)] = Z
N
xdPX(x) = X
k∈N
f(k)P(X =k).
La simulation d’une variableX `a valeurs dansNet telle que P(X =k) = pk peut ˆetre effectu´ee, en g´en´eral, de la mani`ere suivante.
On tire U ∼Unif[0,1], et on introduit un compteur k intialement `a 0, et une quantit´es initialement `ap0. Tant que la condition U > sest v´erifi´ee, on ajoute 1 au compteur k, puispk `a la quantit´es. Quand la boucle termine, la valeur du compteur est attribu´ee `a X.
Variable de Bernoulli(p)
Soitp∈[0,1]. On dit queX ∼Ber(p) lorsque (X est `a valeurs dans{0,1}
et)
P(X = 1) = 1−P(X = 0) =p.
Cet exemple n’a rien d’anodin. Quelque soit A ∈ F, 1A est une variable de Bernoulli (de param`etre P(A)).
On a E[X] =p,Var(X) =p(1−p),E[tX] =tp+ (1−p), t≥0.
Simulation: SiU ∼Unif[0,1],1{U >1−p} ∼Ber(p) (c’est d’ailleursHX(U), o`u HX(t) = inf{x : FX(t) ≥ x}). Evidemment la variable 1{U≤p} suit
´
egalement cette mˆeme loi.
Variable Binˆomiale(n, p)
Soient n ∈ N∗, p ∈ [0,1]. On dit que X ∼ Bin(n, p) lorsque (X est `a valeurs dans {0,1, ..., n} et)
P(X =k) = n
k
pk(1−p)n−k, k∈ {0, ..., n}
Si les (ξi,1 ≤ i ≤ n) sont i.i.d suivant la loi de Bernoulli de param`etre p, alors X = Pn
i=1ξi ∼ Bin(n, p). Autrement dit, X d´enombre les succ`es lors de n essais ind´ependants, dont la proba de succ`es individuel estp.
Simulation : Si (U1, ..., Un) sont des variables i.i.d suivant la loi uniforme[0,1], Pn
i=11{Ui≤p} ∼Bin(n, p).
On aE[X] =np,Var(X) = np(1−p),E[tX] = (tp+ (1−p))n, t ≥0. On a
´
egalement pour tout k ∈N∗,E[X(X−1). . .(X−k+ 1)] =n(n−1). . .(n− k+ 1)pk
Variable G´eom´etrique(p)
Soit p ∈ (0,1]. On dit que X ∼ Geom(p) lorsque (X est `a valeurs dans N∗ et)
P(X =k) = (1−p)k−1p, k∈N∗
Si les (ξi, i ≥ 1) sont i.i.d suivant la loi de Bernoulli de param`etre p, alors X = inf{i ≥ 1 : ξi = 1} ∼ Geom(p). Autrement dit, X est le temps de premier succ`es dans une suite d’essais ind´ependants, la proba de succ`es d’un essai ´etant p.
Simulation: Si les (Ui, i≥1) sont i.i.d suivant la loi uniforme[0,1], inf{i≥ 1 :1{Ui≤p}} ∼Geom(p). Il suffit donc d’utiliser une boucle ”while”.
Variable G´eom´etrique(p)
On aE[X] = 1/p,Var(X) = 1−pp2 ,E[tX] = 1−(1−p)tpt , t∈[0,1/(1−p)). On a
´
egalement pour k ≥1E[X(X−1). . .(X−k+ 1)] =k!(1−p)pkk−1.
A noter par ailleurs (voir l’exo 1 du td) que X est la seule variable `a valeurs dans N∗ qui v´erifie la propri´et´e d’absence de m´emoire :
quels que soientk, ` entiers naturels
P(X > k+`|X > k) = P(X > `).
Variable Uniforme{1, ..., n}
Soitn ∈N∗. On dit queX ∼Unif{1, ..., n}lorsque (X est `a valeurs dans {1, ..., n} et)
P(X =k) = 1/n, k ∈ {1, ..., n}
Simulation : Si U ∼Unif[0,1],dnUee ∼Unif{1, ..., n}.
On a E[X] = n+12 ,Var(X) = n212−1,E[tX] = n1t−t1−tn+1, t∈[0,1).
Variable Poisson(λ)
Soit λ > 0. On dit queX ∼Poisson(λ) ou encore X ∼ P(λ) lorsque (X est `a valeurs dans N∗ et)
P(X =k) = exp(−λ)λk k!
On a E[X] = Var(X) = λ,E[tX] = exp(λ(t −1)), t ≥ 0. De plus pour k ∈N∗, E[X(X−1). . .(X−k+ 1)] =λk.
Somme de Poisson ind´ependantes est Poisson
Th´eor`eme 11(Somme de Poisson ind´ependantes).Supposons que les(Xi)i≥1
forme une suite de variables ind´ependantes, avec Xk ∼ Poisson(λk), et que Λ =P
k≥1λk <∞. Alors X =P
i≥1Xi suit une loi de Poisson de param`etre Λ.
Preuve : e.g. via les fonctions g´en´eratrices, cf le paragraphe sur les lois jointes.
Boˆıte de peinture
Th´eor`eme 12 (Boˆıte de peinture). Soient (Xi)i≥1 des variables i.i.d suivant une loi sur N∗ avec pk := P(X1 = k), et N ∼ Poisson(λ). On pose Nk :=
PN
i=11{Xi=k}, k≥1. Alors les(Ni)i≥1 sont ind´ependantes et pour toutk ≥1, Nk ∼Poisson(λpk).
Preuve : voir exo 4 td.
Loi des ´ev´enements rares
Lle pb 1 de la feuille de td permet d’´etablir la loi des ´ev´enements rares : Th´eor`eme 13(Loi des ´ev´enements rares). Pourn∈N, on consid`ere(ξn,m,0≤ m ≤ n) des variables de Bernoulli ind´ependantes, de param`etres respectifs pn,m,0 ≤ m ≤ n), et la variable Xn = Pn
k=1ξn,m. Si, lorsque n → ∞, max0≤m≤npn,m →0, Pn
k=1pn,m →λ, alors pour tout j ∈N,
P(Xn=j) −→
n→∞exp(−λ)λj j!.
On dira que la suite de variables (Xn) converge en loi vers X ∼Poisson(λ).
Variable Hyperg´eom´etrique(N, n, k)
SoientN, n, k des entiers strictement positifs, avecn≤N, k ≤N. On dit que X ∼HyperGeom(N, n, k) lorsque (X est valeurs dans {0, ..., k} et)
P(X =i) =
n i
N−n
k−i
N k
, i∈ {0, ..., k}
La variable X apparaˆıt par exemple dans un mod`ele d’urne, contenant N boules, dont n rouges : X est le nombre de boules rouges tir´ees lors d’un tirage simultan´e et uniforme de k boules.
On a E[X] = knN,Var(X) = kn(NN2−n)(N−k)(N−1) , et pour k ∈ N∗, E[X(X − 1). . .(X−j+ 1)] = n(n−1)...(n−j+1)k(k−1)...(k−j+1)
N(N−1)...(N−j+1) . D’autres variables discr`etes usuelles
On peut citer par exemple
— la loi multinˆomiale, sur laquelle on reviendra dans le paragraphe sur les lois jointes.
— la loi de Pascal, la loi Binˆomiale n´egative (une sommeSkdekg´eom´etriques ind´ependantes de mˆeme param`etrepsuit une loi de Pascal(k, p),Sk−k suit une loi Binˆomiale n´egative de mˆemes param`etres),
— les lois stables discr`etes (d´efinies `a travers leurs fonctions g´en´eratrices),
`
a queues lourdes.
— la loi de Benford, pour la statistique du premier chiffre apparaissant des donn´ees distribu´ees suivant une loi de Pareto
4 Variables al´ eatoires r´ eelles usuelles ` a den- sit´ e
Variable r´eelle `a densit´e (par rapport `a la mesure de Lebesgue) La notion de mesure (et donc de loi) poss´edant une densit´e par rapport
`
a une mesure de r´ef´erence est plus g´en´erale, on y reviendra plus loin. On se contente ici de consid´erer des variables r´eelles dont la loi poss`ede une densit´e par rapport `a la mesure de Lebesgue λ surR.
Par usage, lorsqu’on dit qu’une loi est ”`a densit´e” sans pr´eciser la mesure de r´ef´erence, c’est que cette derni`ere est la mesure de Lebesgue.
Variable r´eelle `a densit´e (par rapport `a la mesure de Lebesgue) D´efinition 6. Lorsque, pour une fonction fX positive, int´egrable, on peut
´ ecrire
FX(x) = Z x
−∞
fX(t)dt, ∀x∈R on dit que X poss`ede ”la” densit´e fX.
Dans ce cas on a pour tout B ∈ B(R), PX(B) = R
BfX(t)dt, et en parti- culier R
RfX(t)dt= 1.
La densit´e fX caract´erise ´evidemment la loi de X.
Dans la d´efinition on devrait, en toute rigueur, dire ”une” densit´e au lieu de ”la” densit´e. En effet, on peut avoir pour tout B ∈ B(R), R
BfX(t)dt = R
Bf˜X(t)dt sans que ˜fX = fX (de sorte que ˜fX est ´egalement densit´e de X d’apr`es la d´efinition).
A noter cependant queR
BfX(t)dt =R
Bf˜X(t)dtest ´equivalent `aR
R|fX(t)−
f˜X(t)|dt = 0, ou encore `a λ({x : fX(t) 6= ˜fX(t)} = 0 (autrement dit, fX et f˜X co˝ıncident en dehors d’un ensemble de mesure de Lebesgue nul, i.e. sont
´
egalesλ-presque partout). Evidemment ceci d´efinit une relation d’´equivalence sur l’espace des fonctions positives, Lebesgue-int´egrables. L’article d´efini ”la”
est donc `a comprendre ”`a cette relation d’´equivalence pr`es”.
La densit´e d’une variable al´eatoire est donc n’importe quel repr´esentant de cette classe d’´equivalence, et le choix de ce repr´esentant est arbitraire. Ainsi la fonction 1[0,1] tout comme la fonction 1(0,1) sont toutes deux ”la” densit´e d’une variable uniforme sur [0,1]. La fonction 1[0,1]\C, o`u C est l’ensemble de Cantor sur [0,1], l’est ´egalement, mˆeme si ce choix est ´evidemment moins usuel.
Variable uniforme
Soienta < bdes r´eels. On dit queX ∼Unif[a, b] lorsqueX a pour densit´e fX avec
fX(x) = 1
b−a1[a,b](x), x∈R
On a E[X] = a+b2 , Var(X) = (b−a)12 2, pour n ∈ N∗, E[Xn] = b(n+1)(b−a)n+1−an+1. Enfin, pour t∈R (ou mˆeme C),
E[exp(tX)] =
(1 sit = 0
etb−eta
t(b−a) sinon . Variable exponentielle
Soit λ >0, on dit queX ∼exp(λ) lorsque X a pour densit´e fX avec fX(x) = λexp(−λx)1{x≥0}, x∈R
On a alors pour tout t ∈ R, FX(t) = (1 −exp(−λt))1{t≥0}, et HX(u) =
−λ1log(1−u), u∈(0,1).
Simulation : Si U ∼Unif[0,1],−1λlog(1−U)∼exp(λ).
On a ´egalement pour n ≥ 0, E[Xn] = λn!n, Var(X) = λ12, et pour tout t >−λ,
E[exp(−tX)] = λ t+λ.
La loi exponentielle est ´egalement caract´eris´ee par l’absence de m´emoire (cf exo 1 td). Cela la rend en particulier indispensable pour d´efinir des chaˆınes de Markov `a temps continu.
Minimum d’exponentielles ind´ependantes
Th´eor`eme 14 (Minimum d’exponentielles ind´ependantes). Soit I un en- semble d’indices fini ou d´enombrable, et(Xi)i∈I des variables ind´ependantes, avec Xk ∼ exp(λk). On suppose que P
i∈Iλi = Λ < ∞, et on pose X = infi∈IXi. Alors cet infimum est p.s. atteint en une unique valeur al´eatoire K ∈I, de plusK etX sont ind´ependantes, avecX ∼exp(λ) et P(K =i) =
λi
Λ, i∈I.
Preuve : exercice 3 du td
Sommes d’exponentielles i.i.d et processus Poisson
Th´eor`eme 15 (Processus de Poisson). Soient (Xi, i≥1)des variables i.i.d suivant la loi exponentielle de param`etre λ > 0. Pour t ≥ 0, on d´efinit Nt := max{n ≥ 1 : Pn
i=1Xi ≤ t}. Alors pour t ≥ 0, Nt ∼ Poisson(λt). De plus si t0 = 0 et (tn)n≥0 est strictement croissante, (Ntn −Ntn−1)n≥1 forme une suite de variables ind´ependantes avec, pour tout n ∈N∗, Ntn−Ntn−1 ∼ Poisson(λ(tn−tn−1)).
On dit que(Nt, t≥0) est un processus de Poisson de param`etre λ.
voir l’exercice 6 du td.
Loi normale standard
Soit µ ∈ R, σ > 0, on dit que Z ∼ N(0,1) (ou encore que Z suit la loi normale centr´ee r´eduite, ou encore la loi normale standard) lorsqueZ a pour densit´e fZ avec
fZ(x) = exp(−f racx22)
√2π , x∈R. On a pour n∈N,E[Z2n] = (2n)!2nn! =Qn
k=1(2k−1), E[Z2n+1] = 0, et pour tout t ∈R(et mˆeme pour tout t∈C, E[exp(tZ)] = exp(t2/2).
Loi normale standard : simulation
Th´eor`eme 16(Box-M˝uller). Soient(U1, U2)i.i.d suivant la loi uniforme[0,1].
On pose R =p
−2 ln(U1), θ = 2πU2 et (X, Y) = (Rcos(θ), Rsin(θ)). Alors X et Y sont ind´ependantes, et identiquement distribu´ees suivant la loi nor- male centr´ee r´eduite.
I.p.p gaussienne
Th´eor`eme 17 (I.p.p gaussienne). Z ∈ N(0,1) ssi pour tout g :R→R, C1, telle que E[|g0(Z)|]<∞, alors E[|Zg(Z)|]<∞ et E[g0(Z)−Zg(Z)] = 0.
Id´ee de preuve: Pour le sens direct on remarque d’abord que sig0(Z)∈L1, on a g(z) exp(−z2)/2→0 lorsque |z| → ∞, et une i.p.p fournit alors
Z
R
g0(z) exp(−z2/2)dz = Z
R
zg(z) exp(−z2/2)dz.
Pour la contrapos´ee, on retrouve par une r´ecurrence ais´ee que Z a les mo- ments d’une normale centr´ee r´eduite, et on verra plus loin (paragraphe sur la transform´ee de Laplace) que dans ce cas pr´ecis, ceci suffit pour caract´eriser la loi de Z.
Loi normale
Soit Z ∼ N(0,1), µ∈R, σ >0, on dit que X =µ+σZ ∼ N(µ, σ2), elle a pour densit´e fX telle que
fX(x) = 1 σ√
2π exp
−(x−µ)2 2σ2
, x∈R.
On dit queXsuit une loi normale (ou gaussienne) centr´ee enµet de variance σ2.
Le calcul de la densit´e de X provient de ce que, pour toute fonction φ :R→Rborn´ee mesurable, il vient par le changement de variablesx= z−µσ
E[φ(X)] = E[φ(µ+σZ)] = Z
R
φ(µ+σz)exp(−z22)
√2π dz
= Z
R
φ(x) exp
−(x−µ)2σ22
σ√
2π dx
Somme de gaussiennes ind´ependantes
Th´eor`eme 18. Soient(X1, . . . , Xn)ind´ependantes, avecXi ∼ N(µi, σi2),1≤ i≤n. Alors Pn
i=1Xi ∼ N(µ, σ2) o`u µ=Pn
i=1µi, σ2 =Pn i=1σ2i.
On prouve facilement ce r´esultat `a l’aide des transform´ees de Laplace ou les fonctions caract´eristiques, que nous introduirons plus loin.
On d´eduit que siµi =µ,σi =σ pour touti≥1, on d´eduit que pour tout n ≥1,
1 σ√
n
n
X
i=1
Xi−nµ
!
∼ N(0,1),
de sorte que le TCL est particuli`erement facile `a ´etablir dans ce cas particu- lier.
Loi de Cauchy
On dit que X ∼ Cauchy(1) (ou encore que X suit une loi de Cauchy standard) lorsque X a densit´e fX avec
fX(x) = 1 π
1
1 +x2, x∈R A noter que X /∈L1.
Simulation : siθ ∼Unif(−π/2, π/2), X = tan(θ)∼Cauchy(1).
Siα >0 et Y =αX, on dit queY ∼Cauchy(α), et alors Y a densit´e fY telle que
fY(y) = α π
1 y2+α2. On a FY(t) = 12 +π1 arctan(t/α), t∈R
Loi de Cauchy : quelques propri´et´es
On calculera plus tard E[exp(itX)] = exp(−α|t|), et on verra que ceci implique en particulier qu’une somme de variables de Cauchy ind´endantes reste Cauchy, et le param`etre de la somme est ´egal `a la somme des param`etres.
En particulier si les (Xi)i≥1 sont i.i.d suivant une loi de Cauchy standard, 1
n
n
X
i=1
Xi ∼Cauchy(1).
Ainsi la somme normalis´ee de variables de Cauchy ne converge pas presque sˆurement, et ne v´erifie donc pas la loi des grands nombres.
On peut ´egalement ´etablir que si X ∼Cauchy(1), 1/X ´egalement.
Par ailleurs si Z1, Z2 sont i.i.d suivant la loi normale centr´ee r´eduite,
Z1
Z2 ∼Cauchy(1).
Loi Gamma
Soit a > 0, λ > 0, on dit que X ∼ Γ(a, λ) lorsque X poss`ede la densit´e fX telle que
fX(x) = λa
Γ(a)xa−1exp(−λx)1{x>0}, x∈R A noter que la loi Γ(1, λ) est exactement la loi exp(λ).
Le carr´e d’une gaussienne standard est distribu´e suivant la loi Gamma(1/2,1/2).
On a E[X] = aλ, Var(X) = λa2.
Par ailleurs, on verra que si les (Xi,1 ≤ i ≤ n) sont ind´ependantes, et Xi ∼Γ(ai, λ),1≤i≤n alors Pn
i=1Xi ∼Γ(Pn
i=1ai, λ).
En particulier, la somme den variables i.i.d suivant une loi exponentielle de param`etre λ suit une loi Gamma de param`etres n, λ. La somme du carr´e de n gaussiennes i.i.d, standards suit une loi Gamma de param`etre n/2,1/2 (on l’appelle ´egalement loi du χ2 `a n degr´es de libert´e).
Loi Beta
Soita >0, b >0, on dit que X ∼Beta(a, b) lorsqueX poss`ede la densit´e fX telle que
fX(x) = Γ(a+b)
Γ(a)Γ(b)xa−1(1−x)b−11(0,1)(x), x∈R
On verra (paragraphe sur les lois jointes) que siX ∼Γ(a, λ), ind´ependante de Y ∼ Γ(b, λ), alors X+YX ) est ind´ependante de X + Y et suit une loi Beta(a, b).
Et bien d’autres
De nombreuses autres lois poss´edant une densit´e par rapport `a la mesure de Lebesgue peuvent ˆetre qualifi´ees d’usuelles : par exemple la loi de Pareto (dont la densit´e s’exprime comme une puissance n´egative de x au del`a d’un seuil), et les lois qui apparaissent en th´eorie des extrˆemes (loi de Gumbel, loi de Fr´echet, loi de Weibull). Voir la feuille d’exercices pour plus de d´etails.
5 Variables al´ eatoires ind´ ependantes
Famille de variables al´eatoires ind´ependantes
Definition 1. SoientI un ensemble quelconque d’indices etXi : (Ω,F,P)→ (Ei,Ei), i∈I des v.a. On dit que les (Xi)i∈I sont ind´ependantes ssi les tribus (σ(Xi))i∈I le sont, i.e.
∀J ⊂I, J fini , ∀(Aj)j∈J ∈Y
j∈J
Ej,
P
\
j∈J
{Xj ∈Aj}
!
=Y
j∈J
P(Xj ∈Aj).
Les images de v.a. ind´ependantes restent ind´ependantes
Proposition 1. Soient (Xi, i∈I) des variables ind´ependantes comme dans la d´efinition ci-dessus, fi : (Ei,Ei) → (Fi,Fi), i ∈ I des applications mesu- rables, et Yi =fi(Xi), i∈I. Alors les (Yi, i∈I) sont ind´ependantes.
Preuve : Pour touti∈I,
σ(Yi) = {Xi−1(fi−1(B)), B ∈ Fi} ⊂σ(Xi).
Regroupement par paquets
Proposition 2. Soient (Xi, i ∈ I) des variables ind´ependantes, (Ik)k∈K
une partition de I, et Yk = (Xi, i ∈ Ik), k ∈ K. Alors les (Yk)k∈K sont ind´ependantes.
Preuve : D´ecoule directement du th´eor`eme de regroupement par paquets pour des tribus ind´ependantes.
Exemple d’application des deux propositions: On suppose que (X1, X2, X3, X4) sont ind´ependantes, et on pose Y1 :=X1+X3 et Y2 :=X22−cos(X4).
Par regroupement par paquets Z1 = (X1, X3) et Z2 = (X2, X4) sont ind´ependantes. Et doncY1 =f1(Z1) etY2 =f2(Z2) sont ´egalement ind´ependantes.
Caract´erisation de l’ind´ependance via classe monotone
Th´eor`eme 19 (Ind´ependance et classe monotone). Soient I un ensemble quelconque d’indices et Xi : (Ω,F,P) → (Ei,Ei), i ∈ I des v.a. On suppose que pour tout i ∈ I, Ci ⊂ Ei est un π-syst`eme tel que σ(Ci) = Ei. Alors les (Xi, i∈I) sont ind´ependantes ssi
∀J ⊂I, J fini , ∀(Aj)j∈J ∈Y
j∈J
Cj,
P
\
j∈J
{Xj ∈Aj}
!
=Y
j∈J
P(Xj ∈Aj).
Preuve
Si J = {i1, ..., in}, l’ensemble des Ai1 ∈ Ei1 tels que pour tous Aik ∈ Cik,2 ≤ k ≤ n on a P
T
j∈J{Xj ∈Aj}
=Q
j∈JP(Xj ∈ Aj) est une classe monotone, qui contientCi1 par hypoth`ese. Par th´eor`eme de classes monotones c’est donc Ei1. Autrement dit l’´egalit´e
P
\
j∈J
{Xj ∈Aj}
!
=Y
j∈J
P(Xj ∈Aj) s’´etend `a Ai1 ∈ Ei1,Aik ∈ Cik,2≤k ≤n.
Une deuxi`eme application du th´eor`eme permet d’´etendre l’´egalit´e `a tout Ai1 ∈ Ei1, Ai2 ∈ Ei2 Aik ∈ Cik,3≤k ≤n, etc...
Lan-i`eme application du th´eor`eme permet de conclure.
Le cas des v.a.r
Corollaire 1. Soient(Xi, i∈I)des v.a. r´eelles. Les(Xi)i∈I sont ind´ependantes ssi pour tout J ⊂I, J fini et pour tous (tj)j∈J ∈RJ
P
\
j∈J
{Xj ≤tj}
!
=Y
j∈J
P(Xj ≤tj).
En particulier, les n variables r´eelles (X1, ..., Xn) sont ind´ependantes ssi pour tout (t1, ..., tn)∈Rn,
P(X1 ≤t1, ..., Xn ≤tn) =
n
Y
i=1
P(Xi ≤ti).
Ind´ependance : la loi jointe est la loi produit
Th´eor`eme 20(Loi jointe est loi produit). Les v.a.Xi : (Ω,F,P)→(Ei,Ei),1≤ i≤n sont ind´ependantes ssi
P(X1,...,Xn)=PX1 ⊗ · · · ⊗PXn
Ci-dessus,PX1⊗· · ·⊗PXn est l’unique mesure sur l’espace produitE1×· · ·×En muni de la tribu produit E1⊗ · · · ⊗ En := σ(A1×. . . An, Ai ∈ Ei,1≤i≤n) telle que pour tous Ai ∈ Ei,1≤i≤n,
PX1 ⊗ · · · ⊗PXn(A1× · · · ×An) = PX1(A1). . .PXn(An).
Ind´ependance : la loi jointe est la loi produit
Preuve de ⇒ : Supposons les (Xi,1 ≤ i ≤ n) ind´ependantes, et Ai ∈ Ei,1≤i≤n, on a
P(X1,...,Xn)(A1× · · · ×An) = P(X1 ∈A1, . . . , Xn ∈An) =
n
Y
i=1
PXi(Ai), de sorte queP(X1,...,Xn)etPX1⊗ · · · ⊗PXn co¨ıncident surC ={A1× · · · ×An: Ai ∈ Ei,1≤i≤n}. OrC est un π-syst`eme qui engendreE1⊗ · · · ⊗ En ce qui fournit la conclusion souhait´ee grˆace au lemme d’unicit´e des mesures.
Preuve de⇐: Triviale. Si l’´egalit´e des mesures est v´erifi´ee surE1⊗· · ·⊗En, elle l’est en A1× · · · ×An.
Crit`ere d’ind´ependance via calcul d’esp´erances
Th´eor`eme 21 (Ind´ependance via esp´erances). Les (Xi)i∈I (comme dans la d´efinition initiale) sont ind´ependantes ssi quelque soient J ⊂ I fini, fj : (Ej,Ej)→(R,B(R)) mesurable, PXj-int´egrable, j ∈J,
E
"
Y
j∈J
fj(Xj)
#
=Y
j∈J
E[f(Xj)].
En particulier les variables (X1, ..., Xn) sont ind´ependantes ssi pour toutes fi : (Ei,Ei)→(R,B(R)) mesurable,PXi-int´egrable, 1≤i≤n,
E
" n Y
i=1
fi(Xi)
#
=
n
Y
i=1
E[f(Xi)].
Preuve
Quitte `a num´eroter les ´el´ements deJ, et all´eger les notations, il suffit de d´emontrer le cas particulier ´enonc´e `a la suite du th´eor`eme.
Preuve de ⇐ : Pour Ai ∈ Ei, i ∈ {1, ..., n}, l’´egalit´e souhait´ee vient en posant fi =1{Ai},1≤i≤n.
Preuvede⇒: En utilisant le th´eor`eme qui pr´ec`ede, puis Fubini, on trouve que
E
" n Y
i=1
fi(Xi)
#
= Z
E1×···×En
n
Y
i=1
fi(xi)
!
dP(X1,...,Xn)(x1, ..., xn)
= Z
E1×···×En
n
Y
i=1
fi(xi)
!
dPX1(x1). . . dPXn(xn)
=
n
Y
i=1
Z
Ei
fi(xi)dPXi(xi) =
n
Y
i=1
E[fi(Xi)]
Ind´ependance et covariance
Une cons´equence de ce qui pr´ec`ede est que siXetY sont des v.a.r dansL2 ind´ependantes, on a Cov(X, Y) =E[XY]−E[X]E[Y] = 0, et Var(X+Y) = Var(X) + Var(Y) + 2Cov(X, Y) = Var(X) + Var(Y).
La contrapos´ee est fausse.
Par exemple si X ∼ N(0,1), ε ∼ Rademacher(1/2) ind´ependante de X, et Y =εX ∼ N(0,1), on a
Cov(X, Y) =E[XY] =E[ε]E[X2] = 0,
mais X et Y ne sont pas ind´ependantes, puisque P(X = Y) = 1/2 (cette probabilit´e serait nulle si les variables ´etaient ind´ependantes). On peut aussi se convaincre de la non-ind´ependance de X etY en ´ecrivant par exemple
P(X ≥1, Y ≥1) = 1
2P(X ≥1)6=P(X ≥1)P(Y ≥1) = P(X ≥1)2. Le contre-exemple pr´ec´edent se g´en´eralise ais´ement. Si X est une v.a.r centr´ee,ε ∼Rademacher(1/2) ind´ependante deX, etY =εX, alors on aura
Cov(X, Y) = 0. PourtantX n’est ind´ependante de Y que lorsqu’on aX ≡0 ou P(X =α) = P(X =−α) = 1/2 pour un α >0.
Il n’y a pas vraiment de surprise : Cov(X, Y) = 0 indique seulement que (X−E[X])(Y −E[Y]) est centr´ee.
L’ind´ependance deX etY est une condition beaucoup plus forte, puis- qu’elle signifie quepour toutefonctionfsatisfaisant une condition d’int´egrabilit´e, la variable (f(X)−E[f(X)])(f(Y)−E[f(Y)]) est centr´ee.
Th´eor`eme 22. Soient(Xi)1≤i≤n des variables al´eatoires `a valeurs resp. dans E1, ..., En, resp. munis des tribus E1, ...,En. On suppose queP(X1,...,Xn) =µ1⊗
· · · ⊗µn. Alors les (Xi)1≤i≤n sont ind´ependantes et PXi(·) = µµi(·)
i(Ei).
Preuve
Remarquons tout d’abord que 1 =P(X1,...,Xn)(E1×· · ·×En) = Qn
j=1µj(Ej), de sorte que pour i fix´e,Q
j6=iµj(Ej) = µ 1
i(Ei). Fixons alors i, et B ∈ Ei, on a
P(Xi ∈B) = P({Xi ∈B} ∩ {Xj ∈Ej, j 6=i})
= µi(B)Y
j6=i
µj(Ej) = µi(B) µi(Ei), de sorte qu’on a bien PXi(·) = µµi(·)
i(Ei), comme souhait´e.
Mais alors, pourAi ∈ Ei,1≤i≤n(en utilisant `a nouveau queQn
i=1µj(Ej) = 1),
P(X1 ∈A1, ..., Xn ∈An) =
n
Y
i=1
µi(Ai) =
n
Y
i=1
µi(Ai) µi(Ei) =
n
Y
i=1
PXi(Ai).
Somme de v.a ind´ependantes et convolution
D´efinition 7. SoientX, Y deux variables al´eatoires `a valeurs dans un espace E muni de l’addition, ind´ependantes. Alors PX+Y =:PX ∗PY.
La mesure PX ∗ PY est appel´ee produit de convolution de PX et PY. Comme X +Y : (Ω,F,P) → (E,E) est la compos´ee de (X, Y) avec f :
(E2 →E
(x, y)→x+y, la d´efinition ci-dessus correspond `a la d´efinition classique du produit de convolution de mesures : PX ∗ PY est la mesure image de PX ⊗PY par f.
6 Variables discr` etes, ` a densit´ e : cas g´ en´ eral
6.1 Variables discr` etes
Variables discr`etes : d´efinition g´en´erale
D´efinition 8 (Variable discr`ete). Soit E un ensemble fini ou d´enombrable, muni de la tribu E.
(i) On appelle variable discr`ete toute application mesurable(Ω,F,P)dans (E,E).
(ii) On appelle ´egalement variable discr`ete une application mesurable(Ω,F,P) dans (A,A) avec A⊃E, A ⊃ E et P(X /∈E) = 0.
Remarques :
— Mˆeme si c’est un l´eger abus de langage dans le deuxi`eme cas, on dira qu’une telle X est une variable al´eatoire discr`ete `a valeurs dans E.
— Le plus souvent on munitE de la tribu de ses parties, i.e. on travaille avecE =P(E). On fait cette hypoth`ese dans la suite.
Loi d’une variable discr`ete
Soit X v.a. discr`ete `a valeurs dans E,E =P(E).
La loi deX est enti`erement d´etermin´ee par ses atomes : PX =X
x∈E
P(X =x)δx. Autrement dit pour tout A∈ P(E),
PX(A) =X
x∈A
P(X =x).
En pratique, on d´ecrit souvent PX en donnant la valeur deP(X =x), x∈ E.
Fonction d’une v.a discr`ete, esp´erance
Soit X v.a. discr`ete `a valeurs dans E, f : (E,E) → (E0,E0) mesurable.
Alors f(X) est une variable discr`ete `a valeurs dans E0. Si f est `a valeurs r´eelles, on a
E[f(X)] =X
x∈E
f(x)P(X =x) = X
y∈E0
yP(f(X) =y).
V.a. discr`etes, caract´erisation de l’ind´ependance
Th´eor`eme 23 (Ind´ependance de v.a. discr`ete). Les v.a. discr`etes (Xi,1 ≤ i≤n), `a valeurs respectives dans les Ei,1≤i≤n, munis resp. de leur tribu des parties, sont ind´ependantes ssi quels que soient(x1, ..., xn)∈E1×· · ·×En, on a
P(X1 =x1, . . . , Xn =xn) =
n
Y
i=1
P(Xi =xi).
Preuve: l’implication ⇒est ´evidente en prenantAi ={xi}.
R´eciproquement, on peut appliquer le th´eor`eme de caract´erisation de l’ind´ependance par des π-syst`emes avecCi ={{xi}, xi ∈Ei}.
Somme de variables enti`eres, ind´ependantes
Soit X,Y, ind´ependantes, `a valeurs dans Z. Alors pour tout n∈Z, P(X+Y =n) =X
k∈Z
P(X =k)P(Y =n−k)
6.2 Densit´ es, variables ` a densit´ e
D´efinition 9(Mesure de densit´ef par rapport `aµ). Soit(E,E, µ)un espace mesur´e, etf : (E,E)→(R+,B(R+))une application positive, mesurable. On d´efinit la mesure sur (E,E) :
ν:
( E →[0,+∞]
A→R
Af dµ.
On dit que ν est la mesure de densit´e f par rapport `a µ et on note f =: dµdν.
Th´eor`eme 24 (Unicit´e de la densit´e `a indistinguabilit´e pr`es). Si ν est σ- finie, et si f et g sont toutes deux des densit´es de ν par rapport `a µ, alors f et g co¨ıncident µ-presque partout.
Preuve : Soit A := {x ∈ E : f(x) > g(x)} qui est dans E car f et g, et donc f −g sont mesurables.
Si ν est σ-finie, on peut consid´erer (En) ∈ EN telle que En % E et ν(En)<∞.
On aν(A∩En) =R
A∩Enf(x)dµ(x) = R
A∩Eng(x)dµ(x)<∞ de sorte que R
A∩En(f(x)−g(x))dµ(x) = 0, et donc µ(A∩En) = 0.
En faisant tendre n vers l’infini on d´eduit µ({x : f(x) > g(x)}) = 0, et donc par un raisonnement sym´etrique,µ({x:f(x)6=g(x)}) = 0.
Th´eor`eme 25(Esp´erance et variables `a densit´e). Soitg : (E,E)→(R,B(R)) mesurable, positive ou ν-int´egrable, et f = dνdµ. Alors
Z
E
g(x)dν(x) = Z
E
g(x)f(x)dµ(x).
En particulier, si ν est la loi de la variable X, on a
E[g(X)] = Z
E
g(x)f(x)dµ(x).
Preuve : C’est la d´efinition de mesure de densit´e f pour g = 1A. Par lin´earit´e de l’int´egrale, on a aussi l’´egalit´e pour g ´etag´ee quelconque, puis pour g positive par TCM et enfin pour g = g+−g− int´egrable, `a nouveau par lin´earit´e.
Remarque ´edifiante
SiXest discr`ete, `a valeurs dansE, alors sa loiPX a densit´ef :
( E →R+
x→P(X =x) par rapport `a µ = P
x∈Eδx, la mesure de comptage sur E. Le r´esultat pr´ec´edent permet d’ailleurs de retrouver que pour tout g : E → R PX- int´egrable
E[g(X)] = Z
E
g(x)f(x)dµ(x) =X
x∈E
g(x)P(X =x).
Le concept de loi `a densit´e par rapport `a une mesure de r´ef´erence est donc tr`es g´en´eral.
Densit´e par rapport `a mesure de Lebesgue
Il n’en reste pas moins que lorsqu’on parle d’une variable X, `a valeurs dans Rd, de densit´e fX, sans pr´eciser la mesure de r´ef´erence, c’est que cette mesure de r´ef´erence est la mesure de Lebesgue surRd. Le r´esultat pr´ec´edent permet dans ce cas d’´ecrire, pour tout g :Rd→R PX-int´egrable
E[g(X)] = Z
Rd
g(x)fX(x)dx.
Densit´es marginales de (X, Y) `a densit´e dans le plan
D´efinition 10 (Densit´es marginales d’une variable R2 `a densit´e). Soient X, Y `a valeurs r´eelles telles que Z := (X, Y), `a valeurs dans R2 poss`ede la densit´e h. Alors X poss`ede la densit´e fX telle que
fX(x) = Z
R
h(x, y)dy, x∈R,
qu’on appelle aussi densit´e marginale de la premi`ere coordonn´ee de Z. De mˆeme Y poss`ede la densit´e fY telle que fY(y) = R
Rh(x, y)dx, y ∈R, qu’on appelle aussi densit´e marginale de la deuxi`eme coordonn´ee de Z.
Densit´es marginales
V´erification: Pour tout g :R→R, born´ee mesurable, on a par Fubini, E[g(X)] =
Z
R
Z
R
g(x)h(x, y)dxdy= Z
R
g(x)fX(x)dx.
Remarque : Attention, il est possible que X et Y poss`edent des densit´es sans que (X, Y) en poss`ede. Par exemple siX ∼ N(0,1) et X =Y.
Densit´es marginales : cas g´en´eral
D´efinition 11(Densit´e marginale : cas g´en´eral). SoientX1, ..., Xn `a valeurs respectives dans E1, ..., En, telles que X := (X1, . . . , Xn), `a valeurs dans E = E1 × · · · ×En et muni de la tribu produit poss`ede la densit´e f par rapport `a la mesure produit µ=µ1⊗ · · · ⊗µn (o`u µi est une mesure sur Ei,
1 ≤ i ≤ n). Alors pour tout i ∈ {1, ..., n}, la variable Xi poss`ede la densit´e fi par rapport `a µi, o`u pour xi ∈Ei,
fi(xi) = Z
E1×···×Ei−1×Ei+1×···×En
f(x1, ..., xn)Y
j6=i
dµj(xj).
On appelle aussi fi la densit´e marginale de la i-`eme coordonn´ee de X.
D´efinition 12(Densit´es marginales : un autre exemple). SoientX `a valeurs dans Rn, Y `a valeurs dans Rp telles que Z := (X, Y), `a valeurs dans Rn+p poss`ede la densit´e h. Alors X poss`ede la densit´e fX telle que
fX(x) = Z
Rp
h(x, y)dy, x∈Rn,
qu’on appelle aussi densit´e marginale des n premi`eres coordonn´ees de Z. De mˆeme Y poss`ede la densit´e fY telle que fY(y) = R
Rnh(x, y)dx, y ∈ Rp, qu’on appelle aussi densit´e marginale des p derni`eres coordonn´ees de Z.
Densit´e et ind´ependance (mesure de r´ef´erence Lebesgue)
Th´eor`eme 26 (Densit´e et ind´ependance). (i) Si X `a valeurs dans Rn, admet la densit´ef telle quef(x1, ..., xn) = f1(x1). . . fn(xn),(x1, ..., xn)∈ Rn, o`u pour tout i∈ {1, ..., n}, fi est positive mesurable, alors
— Pour tout i ∈ {1, ..., n} la densit´e marginale de Xi est cifi, o`u ci =R
Rn−1
Q
j6=ifj(xj)dxj
= R
Rfi(xi)dxi−1
.
— Les variables (X1, ..., Xn) sont ind´ependantes
(ii) Si pour i ∈ {1, ..., n}, Xi a densit´e fi et les variables (X1, ..., Xn) sont ind´ependantes, alors X a densit´e fX (par rapport `a λn) telle que fX(x1, ..., xn) = Qn
i=1fi(xi), (x1, ..., xn)∈Rn. Densit´e et ind´ependance
Preuve de (i) : Soit g :R→R bor´elienne born´ee. Par Fubini, E[g(Xi)] =
Z
R
g(xi)fi(xi) Z
Rn−1
Y
j6=i
fj(xj)dxj
!
= Z
R
g(xi)cifi(xi)dxi, et donc Xi a la densit´e cifi. Comme cette densit´e est d’int´egrale 1 sur R on obtient ´egalement l’autre expression pour ci. Puisque f est une densit´e on trouve ´egalement que Qn
i=1ci = 1.
Densit´e et ind´ependance
Si lesgi :R→R, i∈ {1, ..., n} sont bor´eliennes born´ees, on a, par ce qui pr´ec`ede, puis `a nouveau Fubini
E
" n Y
i=1
gi(Xi)
#
= Z
Rn n
Y
i=1
gi(xi)
!
f(x1, ..., xn)dx1. . . dxn
= Z
Rn n
Y
i=1
gi(xi)
n
Y
i=1
cifi(xi)dxi
!
=
n
Y
i=1
Z
R
gi(xi)cifi(xi)dxi
=
n
Y
i=1
E[gi(Xi)]
Densit´e et ind´ependance
Preuve de (ii): Si les gi :R→R,i ∈ {1, ..., n} sont bor´eliennes born´ees, on a, toujours par Fubini (et en remontant le calcul pr´ec´edent)
E
" n Y
i=1
gi(Xi)
#
=
n
Y
i=1
Z
R
gi(xi)cifi(xi)dxi
= Z
Rn n
Y
i=1
gi(xi)
!
f(x1, ..., xn)dx1. . . dxn
= E
" n Y
i=1
gi(Xi)
#
et on conclut comme dans la preuve du th´eor`eme de caract´erisation de l’ind´ependance par les esp´erances.
Densit´e et ind´ependance : g´en´eralisation
Th´eor`eme 27 (Densit´e et ind´ependance : cas g´en´eral). Soit E =E1×En, muni de la tribu produit et une mesure produit µ=µ1⊗ · · · ⊗µn.
(i) Si X `a valeurs dans E, admet la densit´e f par rapport `a µ telle que f(x1, ..., xn) = f1(x1). . . fn(xn),(x1, ..., xn) ∈ E1 × · · · ×En, o`u pour tout i∈ {1, ..., n}, fi est positive mesurable, alors
— Pour touti∈ {1, ..., n} la densit´e marginale deXi par rapport `aµi
estcifi, o`uci =R
Q
j6=iEj
Q
j6=ifj(xj)dµj(xj)
= R
Eifi(xi)dµi(xi)−1
.
— Les variables (X1, ..., Xn) sont ind´ependantes
(ii) Si pour i∈ {1, ..., n}, Xi a densit´e fi par rapport `a µi et les variables (X1, ..., Xn)sont ind´ependantes, alors X a densit´e fX par rapport `a µ telle que fX(x1, ..., xn) = Qn
i=1fi(xi), (x1, ..., xn)∈Rn. Somme de variables ind´ependantes `a valeurs Rd, `a densit´e
Th´eor`eme 28. On suppose que X et Y sont des v.a, `a valeurs dans Rd, ind´ependantes, et de densit´es respectives fX, fY. Alors X + Y a densit´e fX+Y =fX ∗fY, i.e.
fX+Y(u) =fx∗fY(u) = Z
Rd
fX(x)fY(u−x)dx, u∈Rd. Somme de variables ind´ependantes `a valeurs Rd, `a densit´e
Preuve : Puisque X et Y sont ind´ependantes, (X, Y) a densit´e (x, y) → fX(x)fY(y) sur R2d. Soit alors h:Rd→R mesurable, positive, en effectuant le changement de variables (x, y)→(x, x+y), et Fubini, on obtient
E[h(X+Y)] = Z
Rd×Rd
h(x+y)fX(x)fY(y)dxdy
= Z
Rd
h(u) Z
Rd
fX(x)fY(u−x)dx
du,
ce qui conduit `a la conclusion souhait´ee.
Densit´e par rapport `a Lebesgue et fonction de r´epartition Th´eor`eme 29. Soit X une v.a.r.
(i) Si X a densit´e fX, alors pour tout t ∈ R, FX(t) = Rt
−∞fX(x)dx (en particulier FX est absolument continue)
(ii) Si FX est absolument continue (et donc λ-p.p d´erivable), alors X a densit´e FX0 , o`u FX0 (t) := 0 en tout point de non-d´erivabilit´e de FX. Remarque : Il faut bien faire attention que (ii) requiert l’absolue conti- nuit´edeF. AvoirF continue etλ-p.p d´erivable ne suffit pas `a garantir l’exis- tence d’une densit´e pourX. En effet siX ∼Unif(C), o`uC est l’ensemble de Cantor sur [0,1], sa fonction de r´epartition F (´egalement appel´e escalier du diable) est continue, λ-p.p d´erivable, pourtant la loi de X est ´etrang`ere `a λ.