• Aucun résultat trouvé

2 Variables aléatoires réelles

N/A
N/A
Protected

Academic year: 2022

Partager "2 Variables aléatoires réelles"

Copied!
42
0
0

Texte intégral

(1)

1 G´ en´ eralit´ es, rappels

Rappel : d´efinition de v.a, loi

D´efinition 1 (V.a, loi). Soit (Ω,F,P) un espace probabilis´e, et (E,E) un espace mesurable.

Une l’application X : Ω→ E mesurable (i.e. telle que pour tout ´el´ement B ∈ E, X−1(B)∈ F), est appel´ee variable al´eatoire `a valeurs dans E.

La mesure de probabilit´e PX sur E, telle que PX(B) = P(X−1(B)) (la mesure-image de P par X) est appel´ee la loi de X.

Lorsque E = R,E = B(R) on dit que X est une variable al´eatoire r´eelle (v.a.r).

Lorsque E = Rd,E = B(Rd), on dit que X est un vecteur al´eatoire d- dimensionnel.

Lorsque X et Y sont deux v.a telles que P(X = Y) = 1, on note par exemple X ∼Y et on dit que X etY sont indistinguables.

L’indistinguabilit´e est une relation d’´equivalence, et il souvent pratique de travailler avec les classes, i.e. `a indistinguabilit´e pr`es.

Une remarque importante

Une variable al´eatoire X et sa loi PX sont des objets math´ematiques de nature diff´erente. Plus pr´ecis´ement, `a toute variable al´eatoire correspond une loi, mais deux variables distinctes peuvent avoir la mˆeme loi.

Cependant de nombreuses quantit´es et objets math´ematiques avec les- quels nous allons travailler (par exemple lorsque X est une v.a.r, la probabi- lit´e de {X ≥ 2}, ses moments, sa fonction de r´epartition) ne d´ependent de X qu’`a travers sa loi.

Une remarque importante

En r´ealit´e, il est assez rare qu’on donne une variable al´eatoire (ou mˆeme le triplet (Ω,F,P)) de mani`ere explicite. C’est l’usage de se passer d’une telle construction.

Un ´enonc´e est donc susceptible de d´emarrer par exemple par ”soit X une v.a. de loi exponentielle de param`etre λ >0”. En r´ealit´e, ce genre d’´enonc´e ne fait que pr´eciser laloi deX.

Attention cependant que si ce mˆeme ´enonc´e introduit plus loin ”une va- riable Y, uniforme sur [0,1], ind´ependante de X”, l’´enonc´e pr´ecise alors non seulement la loi de X et de Y, mais celle de (X, Y).

(2)

Classe monotone

Pour caract´eriser la loi PX sur E, il suffit de connaˆıtre PX sur une classe C ⊂ P(E) stable par intersection, et qui engendre E.

Autrement dit, pour une telle classeC,

si on aPX(C) = PY(C) pour tout C ∈ C, alorsPX =PY. Rappel : esp´erance, th´eor`eme de transfert

D´efinition 2 (esp´erance). Soit X une variable al´eatoire `a valeurs dans E, f une application (E,E)→ (R,B(R)) mesurable, positive ou PX-int´egrable, on d´efinit

E[f(X)] :=

Z

f(X(ω))dP(ω) = Z

E

f(x)dPX(x).

Tous les r´esultats du cours d’int´egration s’appliquent : l’esp´erance est lin´eaire, positive, v´erifie TCM, Fatou, TCD, Jensen, etc... On y revient plus loin dans le cadre des v.a.r. (sans perte de g´en´eralit´e : remarquez que f(X) ci-dessus est une v.a.r)

2 Variables al´ eatoires r´ eelles

Fonction de r´epartition

Dans tout ce paragraphe on travaille avec des variables al´eatoires r´eelles (v.a.r)

D´efinition 3(fonction de r´epartition). La fonction de r´epartition de la v.a.r X est d´efinie par

FX : (

R→[0,1]

x→P(X ≤x)

La fonctionFX caract´erise la loi deX, autrement dit FX =FY ⇒PX = PY.

C’est ce que nous avons rappel´e plus haut, puisque C ={(−∞, x], x∈R} est stable par intersections finies et engendre les bor´eliens.

(3)

Fonction de r´epartition

Th´eor`eme 1 (caract´erisation fct de r´epart). La fonction de r´epartition FX d’une v.a.r X est croissante, continue `a droite, elle tend vers 0 en −∞ et vers 1 en +∞. R´eciproquement, toute fonction v´erifiant ces propri´et´es est la fonction de r´epartition d’une v.a.r

Fonction de r´epartition

Pour la r´eciproque, on se donne F v´erifiant les propri´et´es et on introduit H:

( (0,1)→R

t →inf{x:F(x)≥t}.

La fonction H s’appelle la r´eciproque g´en´eralis´ee de F, elle est telle que F(x0)≥t0 ⇔H(t0)≤x0.

Il est alors ais´e de d´emontrer que si U ∼ Unif[0,1], alors X = H(U) a pour fonction de r´epartition F :

P(X ≤x) =P(H(U)≤x) = P(F(x)≥U) =F(x).

La preuve de la r´eciproque est constructive : elle fournit un algorithme permettant de simuler une variable de fonction de r´epartition explicite.

Au moins pour ceux qui font l’option A, ´ecrire un programme permettant de simuler une variable de fonction de r´epartition donn´ee semble ˆetre un exercice indispensable.

Esp´erance, variance, covariance

D´efinition 4 (Esp´erance, Variance, Covariance). Si X est une v.a.r P- int´egrable (i.e. sif =IdestPX-int´egrable) on d´efinitE[X] := R

X(ω)dP(ω) = R

ExdPX(x).

Si X2 est P-int´egrable, on note Var(X) = E[(X −E[X]2) = E[X2]− (E[X])2.

Enfin si X, Y sont deux v.a.r telles que X, Y et XY sont P-int´egrable (c’est en particulier le cas si X2, Y2 sont P-int´egrables), on note

Cov(X, Y) = E[(X−E[X])(Y −E[Y])]

(4)

Evidemment Cov(X, X) = Var(X). La covariance est une forme bilin´eaire, sym´etrique, positive sur l’ensemble des variables de carr´e int´egrable, mais elle n’est bien sˆur pas d´efinie, puisqu’une variable p.s. constante est de variance nulle.

Espaces Lp (rappels d’int´egration)

D´efinition 5 (Espaces Lp). Pour p ≥ 1 on note Lp(Ω,F,P) := {Xv.a.r : E[|X|p]<∞}, et

Lp(Ω,F,P) :=Lp(Ω,F,P)/∼.

On note par ailleurs L(Ω,F,P) :={X v.a.r, p.s born´ee}, et L(Ω,F,P) :=L(Ω,F,P)/∼.

Espaces Lp (rappels d’int´egration)

Si X ∈ Lp(Ω,F,P) on d´efinit ||X||p := E[|X|p]1/p. Si X ∈ L(Ω,F,P) on d´efinit ||X|| := inf{M :P(|X| ≤M) = 1}.

Th´eor`eme 2 (Lp Banach). Pour tout p∈ [1,+∞], (Lp(Ω,F,P),|| · ||p) est un espace de Banach (i.e un e.v.n complet).

Remarque : pourp= 2 la norme|| · ||2 surL2 est issue du produit scalaire hX, Yi := E[XY] (qui co˝ıncide avec la covariance sur le sous-espace des variables centr´ees). On a donc Cauchy-Schwarz, et en particulier lecoefficient de corr´elation

ρ(X, Y) := Cov(X, Y) pVar(X)Var(Y)

est toujours situ´e dans [−1,1]. Ce coefficient prend la valeur 1 ou −1 ssi Y est p.s. une transformation lin´eaire de X (cf le cas d’´egalit´e dans Cauchy- Schwarz).

L’in´egalit´e triangulaire permettant de v´erifier que|| · ||p est une norme est appel´ee in´egalit´e de Minkowski, elle se d´emontre soit directement via Jensen, ou sans doute plus facilement via l’in´egalit´e de H˝older qui elle-mˆeme d´ecoule de Jensen ou Young. On rappelle ci-apr`es les in´egalit´es de H˝older et Jensen.

La compl´etude d´ecoule quant `a elle du th´eor`eme de Riesz-Fischer.

(5)

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 3 (In´egalit´e de Jensen). Soit X ∈ L1, I un intervalle de R tel que P(X ∈I) = 1, et φ:I →R convexe. Alors

E[Φ(X)]≥Φ(E[X]).

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 4 (In´egalit´e de H˝older). Soient 1 ≤ p, q ≤ +∞ tels que 1/p+ 1/q= 1, X ∈Lp, Y ∈Lq, alors XY ∈L1 et

E[|XY|]≤ ||X||p||Y||q

Cons´equence : Sip < q etX ∈Lq,||X||p ≤ ||X||q. On a lahi´erarchie des normes etLq ⊂Lp.

Remarque : Pour p=q = 2 on obtient `a nouveau l’in´egalit´e de Cauchy- Schwarz.

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 5 (TCM). Soit (Xn, n≥0)une suite croissante de v.a `a valeurs dans R+. Alors

n→∞lim E[Xn] =E[ lim

n→∞Xn].

En particulier, si Xn ∈ L1 pour tout n, limXn ∈ L1 si et seulement si limE[Xn]<∞

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 6 (”lemme” de Fatou). Soit (Xn, n ≥ 0) suite de variables al´eatoires `a valeurs dans R+. Alors

lim inf

n→∞ E[Xn]≥E[lim inf

n→∞ Xn].

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 7 (TCD, version 1). Soit (Xn, n ≥ 0) une suite de v.a.r telle que P(Xn→X) = 1 (i.e. Xn converge p.s. vers X). On suppose qu’il existe Y ∈L1 telle que pour tout n, |Xn| ≤Y p.s. Alors X est int´egrable et

E[|Xn−X|] −→

n→∞0

(6)

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 8 (TCD, version 2 — preuve + tard). Soit(Xn, n≥0)une suite de v.a.r telle que pour tout ε > 0, P(|Xn−X| > ε) → 0 (i.e. Xn converge en probabilit´e versX). On suppose qu’il existe Y ∈L1 telle que pour toutn,

|Xn| ≤Y p.s. Alors X est int´egrable et E[|Xn−X|] −→

n→∞0

Propri´et´es de l’esp´erance d’une v.a.r (rappels d’int´egration)

Th´eor`eme 9 (TCD, version 2 — preuve + tard). begintheorem [TCD, ver- sion 1] Soit (Xn, n ≥ 0) une suite de v.a.r telle que pour tout ε > 0, P(|Xn−X| > ε) → 0 (i.e. Xn converge en probabilit´e vers X). On sup- pose qu’il existe Y ∈ L1 telle que pour tout n, |Xn| ≤ Y p.s. Alors X est int´egrable et

E[|Xn−X|] −→

n→∞0 Propri´et´es de l’esp´erance d’une v.a.r

Th´eor`eme 10 (In´egalit´e de Markov). Soit h : R+ → R+ croissante, telle que h(|X|)∈L1. Alors pour tout a≥0 tel que h(a)>0,

P(|X| ≥a)≤ E[h(|X|)]

h(a) .

Preuve :{|X| ≥a} ⊂ {h(|X|)≤h(a)}car h est croissante. Donc h(a)1{|X|≥a} ≤h(|X|)1{|X|≥a} ≤h(|X|),

o`u on utilise quehest positive pour obtenir la deuxi`eme in´egalit´e. On conclut par positivit´e de l’esp´erance.

3 Variables al´ eatoires usuelles discr` etes

Les variables qui suivent sont `a valeurs dans N. Notons que pourX v.a.

`

a valeurs dans N, etf :N→R positive ou telle queP

k∈N|f(k)|P(X =k)<

∞, on a

E[f(X)] = Z

N

xdPX(x) = X

k∈N

f(k)P(X =k).

(7)

La simulation d’une variableX `a valeurs dansNet telle que P(X =k) = pk peut ˆetre effectu´ee, en g´en´eral, de la mani`ere suivante.

On tire U ∼Unif[0,1], et on introduit un compteur k intialement `a 0, et une quantit´es initialement `ap0. Tant que la condition U > sest v´erifi´ee, on ajoute 1 au compteur k, puispk `a la quantit´es. Quand la boucle termine, la valeur du compteur est attribu´ee `a X.

Variable de Bernoulli(p)

Soitp∈[0,1]. On dit queX ∼Ber(p) lorsque (X est `a valeurs dans{0,1}

et)

P(X = 1) = 1−P(X = 0) =p.

Cet exemple n’a rien d’anodin. Quelque soit A ∈ F, 1A est une variable de Bernoulli (de param`etre P(A)).

On a E[X] =p,Var(X) =p(1−p),E[tX] =tp+ (1−p), t≥0.

Simulation: SiU ∼Unif[0,1],1{U >1−p} ∼Ber(p) (c’est d’ailleursHX(U), o`u HX(t) = inf{x : FX(t) ≥ x}). Evidemment la variable 1{U≤p} suit

´

egalement cette mˆeme loi.

Variable Binˆomiale(n, p)

Soient n ∈ N, p ∈ [0,1]. On dit que X ∼ Bin(n, p) lorsque (X est `a valeurs dans {0,1, ..., n} et)

P(X =k) = n

k

pk(1−p)n−k, k∈ {0, ..., n}

Si les (ξi,1 ≤ i ≤ n) sont i.i.d suivant la loi de Bernoulli de param`etre p, alors X = Pn

i=1ξi ∼ Bin(n, p). Autrement dit, X d´enombre les succ`es lors de n essais ind´ependants, dont la proba de succ`es individuel estp.

Simulation : Si (U1, ..., Un) sont des variables i.i.d suivant la loi uniforme[0,1], Pn

i=11{Ui≤p} ∼Bin(n, p).

On aE[X] =np,Var(X) = np(1−p),E[tX] = (tp+ (1−p))n, t ≥0. On a

´

egalement pour tout k ∈N,E[X(X−1). . .(X−k+ 1)] =n(n−1). . .(n− k+ 1)pk

Variable G´eom´etrique(p)

Soit p ∈ (0,1]. On dit que X ∼ Geom(p) lorsque (X est `a valeurs dans N et)

P(X =k) = (1−p)k−1p, k∈N

(8)

Si les (ξi, i ≥ 1) sont i.i.d suivant la loi de Bernoulli de param`etre p, alors X = inf{i ≥ 1 : ξi = 1} ∼ Geom(p). Autrement dit, X est le temps de premier succ`es dans une suite d’essais ind´ependants, la proba de succ`es d’un essai ´etant p.

Simulation: Si les (Ui, i≥1) sont i.i.d suivant la loi uniforme[0,1], inf{i≥ 1 :1{Ui≤p}} ∼Geom(p). Il suffit donc d’utiliser une boucle ”while”.

Variable G´eom´etrique(p)

On aE[X] = 1/p,Var(X) = 1−pp2 ,E[tX] = 1−(1−p)tpt , t∈[0,1/(1−p)). On a

´

egalement pour k ≥1E[X(X−1). . .(X−k+ 1)] =k!(1−p)pkk−1.

A noter par ailleurs (voir l’exo 1 du td) que X est la seule variable `a valeurs dans N qui v´erifie la propri´et´e d’absence de m´emoire :

quels que soientk, ` entiers naturels

P(X > k+`|X > k) = P(X > `).

Variable Uniforme{1, ..., n}

Soitn ∈N. On dit queX ∼Unif{1, ..., n}lorsque (X est `a valeurs dans {1, ..., n} et)

P(X =k) = 1/n, k ∈ {1, ..., n}

Simulation : Si U ∼Unif[0,1],dnUee ∼Unif{1, ..., n}.

On a E[X] = n+12 ,Var(X) = n212−1,E[tX] = n1t−t1−tn+1, t∈[0,1).

Variable Poisson(λ)

Soit λ > 0. On dit queX ∼Poisson(λ) ou encore X ∼ P(λ) lorsque (X est `a valeurs dans N et)

P(X =k) = exp(−λ)λk k!

On a E[X] = Var(X) = λ,E[tX] = exp(λ(t −1)), t ≥ 0. De plus pour k ∈N, E[X(X−1). . .(X−k+ 1)] =λk.

(9)

Somme de Poisson ind´ependantes est Poisson

Th´eor`eme 11(Somme de Poisson ind´ependantes).Supposons que les(Xi)i≥1

forme une suite de variables ind´ependantes, avec Xk ∼ Poisson(λk), et que Λ =P

k≥1λk <∞. Alors X =P

i≥1Xi suit une loi de Poisson de param`etre Λ.

Preuve : e.g. via les fonctions g´en´eratrices, cf le paragraphe sur les lois jointes.

Boˆıte de peinture

Th´eor`eme 12 (Boˆıte de peinture). Soient (Xi)i≥1 des variables i.i.d suivant une loi sur N avec pk := P(X1 = k), et N ∼ Poisson(λ). On pose Nk :=

PN

i=11{Xi=k}, k≥1. Alors les(Ni)i≥1 sont ind´ependantes et pour toutk ≥1, Nk ∼Poisson(λpk).

Preuve : voir exo 4 td.

Loi des ´ev´enements rares

Lle pb 1 de la feuille de td permet d’´etablir la loi des ´ev´enements rares : Th´eor`eme 13(Loi des ´ev´enements rares). Pourn∈N, on consid`ere(ξn,m,0≤ m ≤ n) des variables de Bernoulli ind´ependantes, de param`etres respectifs pn,m,0 ≤ m ≤ n), et la variable Xn = Pn

k=1ξn,m. Si, lorsque n → ∞, max0≤m≤npn,m →0, Pn

k=1pn,m →λ, alors pour tout j ∈N,

P(Xn=j) −→

n→∞exp(−λ)λj j!.

On dira que la suite de variables (Xn) converge en loi vers X ∼Poisson(λ).

Variable Hyperg´eom´etrique(N, n, k)

SoientN, n, k des entiers strictement positifs, avecn≤N, k ≤N. On dit que X ∼HyperGeom(N, n, k) lorsque (X est valeurs dans {0, ..., k} et)

P(X =i) =

n i

N−n

k−i

N k

, i∈ {0, ..., k}

(10)

La variable X apparaˆıt par exemple dans un mod`ele d’urne, contenant N boules, dont n rouges : X est le nombre de boules rouges tir´ees lors d’un tirage simultan´e et uniforme de k boules.

On a E[X] = knN,Var(X) = kn(NN2−n)(N−k)(N−1) , et pour k ∈ N, E[X(X − 1). . .(X−j+ 1)] = n(n−1)...(n−j+1)k(k−1)...(k−j+1)

N(N−1)...(N−j+1) . D’autres variables discr`etes usuelles

On peut citer par exemple

— la loi multinˆomiale, sur laquelle on reviendra dans le paragraphe sur les lois jointes.

— la loi de Pascal, la loi Binˆomiale n´egative (une sommeSkdekg´eom´etriques ind´ependantes de mˆeme param`etrepsuit une loi de Pascal(k, p),Sk−k suit une loi Binˆomiale n´egative de mˆemes param`etres),

— les lois stables discr`etes (d´efinies `a travers leurs fonctions g´en´eratrices),

`

a queues lourdes.

— la loi de Benford, pour la statistique du premier chiffre apparaissant des donn´ees distribu´ees suivant une loi de Pareto

4 Variables al´ eatoires r´ eelles usuelles ` a den- sit´ e

Variable r´eelle `a densit´e (par rapport `a la mesure de Lebesgue) La notion de mesure (et donc de loi) poss´edant une densit´e par rapport

`

a une mesure de r´ef´erence est plus g´en´erale, on y reviendra plus loin. On se contente ici de consid´erer des variables r´eelles dont la loi poss`ede une densit´e par rapport `a la mesure de Lebesgue λ surR.

Par usage, lorsqu’on dit qu’une loi est ”`a densit´e” sans pr´eciser la mesure de r´ef´erence, c’est que cette derni`ere est la mesure de Lebesgue.

Variable r´eelle `a densit´e (par rapport `a la mesure de Lebesgue) D´efinition 6. Lorsque, pour une fonction fX positive, int´egrable, on peut

´ ecrire

FX(x) = Z x

−∞

fX(t)dt, ∀x∈R on dit que X poss`ede ”la” densit´e fX.

(11)

Dans ce cas on a pour tout B ∈ B(R), PX(B) = R

BfX(t)dt, et en parti- culier R

RfX(t)dt= 1.

La densit´e fX caract´erise ´evidemment la loi de X.

Dans la d´efinition on devrait, en toute rigueur, dire ”une” densit´e au lieu de ”la” densit´e. En effet, on peut avoir pour tout B ∈ B(R), R

BfX(t)dt = R

BX(t)dt sans que ˜fX = fX (de sorte que ˜fX est ´egalement densit´e de X d’apr`es la d´efinition).

A noter cependant queR

BfX(t)dt =R

BX(t)dtest ´equivalent `aR

R|fX(t)−

X(t)|dt = 0, ou encore `a λ({x : fX(t) 6= ˜fX(t)} = 0 (autrement dit, fX et f˜X co˝ıncident en dehors d’un ensemble de mesure de Lebesgue nul, i.e. sont

´

egalesλ-presque partout). Evidemment ceci d´efinit une relation d’´equivalence sur l’espace des fonctions positives, Lebesgue-int´egrables. L’article d´efini ”la”

est donc `a comprendre ”`a cette relation d’´equivalence pr`es”.

La densit´e d’une variable al´eatoire est donc n’importe quel repr´esentant de cette classe d’´equivalence, et le choix de ce repr´esentant est arbitraire. Ainsi la fonction 1[0,1] tout comme la fonction 1(0,1) sont toutes deux ”la” densit´e d’une variable uniforme sur [0,1]. La fonction 1[0,1]\C, o`u C est l’ensemble de Cantor sur [0,1], l’est ´egalement, mˆeme si ce choix est ´evidemment moins usuel.

Variable uniforme

Soienta < bdes r´eels. On dit queX ∼Unif[a, b] lorsqueX a pour densit´e fX avec

fX(x) = 1

b−a1[a,b](x), x∈R

On a E[X] = a+b2 , Var(X) = (b−a)12 2, pour n ∈ N, E[Xn] = b(n+1)(b−a)n+1−an+1. Enfin, pour t∈R (ou mˆeme C),

E[exp(tX)] =

(1 sit = 0

etb−eta

t(b−a) sinon . Variable exponentielle

Soit λ >0, on dit queX ∼exp(λ) lorsque X a pour densit´e fX avec fX(x) = λexp(−λx)1{x≥0}, x∈R

On a alors pour tout t ∈ R, FX(t) = (1 −exp(−λt))1{t≥0}, et HX(u) =

λ1log(1−u), u∈(0,1).

(12)

Simulation : Si U ∼Unif[0,1],−1λlog(1−U)∼exp(λ).

On a ´egalement pour n ≥ 0, E[Xn] = λn!n, Var(X) = λ12, et pour tout t >−λ,

E[exp(−tX)] = λ t+λ.

La loi exponentielle est ´egalement caract´eris´ee par l’absence de m´emoire (cf exo 1 td). Cela la rend en particulier indispensable pour d´efinir des chaˆınes de Markov `a temps continu.

Minimum d’exponentielles ind´ependantes

Th´eor`eme 14 (Minimum d’exponentielles ind´ependantes). Soit I un en- semble d’indices fini ou d´enombrable, et(Xi)i∈I des variables ind´ependantes, avec Xk ∼ exp(λk). On suppose que P

i∈Iλi = Λ < ∞, et on pose X = infi∈IXi. Alors cet infimum est p.s. atteint en une unique valeur al´eatoire K ∈I, de plusK etX sont ind´ependantes, avecX ∼exp(λ) et P(K =i) =

λi

Λ, i∈I.

Preuve : exercice 3 du td

Sommes d’exponentielles i.i.d et processus Poisson

Th´eor`eme 15 (Processus de Poisson). Soient (Xi, i≥1)des variables i.i.d suivant la loi exponentielle de param`etre λ > 0. Pour t ≥ 0, on d´efinit Nt := max{n ≥ 1 : Pn

i=1Xi ≤ t}. Alors pour t ≥ 0, Nt ∼ Poisson(λt). De plus si t0 = 0 et (tn)n≥0 est strictement croissante, (Ntn −Ntn−1)n≥1 forme une suite de variables ind´ependantes avec, pour tout n ∈N, Ntn−Ntn−1 ∼ Poisson(λ(tn−tn−1)).

On dit que(Nt, t≥0) est un processus de Poisson de param`etre λ.

voir l’exercice 6 du td.

Loi normale standard

Soit µ ∈ R, σ > 0, on dit que Z ∼ N(0,1) (ou encore que Z suit la loi normale centr´ee r´eduite, ou encore la loi normale standard) lorsqueZ a pour densit´e fZ avec

fZ(x) = exp(−f racx22)

√2π , x∈R. On a pour n∈N,E[Z2n] = (2n)!2nn! =Qn

k=1(2k−1), E[Z2n+1] = 0, et pour tout t ∈R(et mˆeme pour tout t∈C, E[exp(tZ)] = exp(t2/2).

(13)

Loi normale standard : simulation

Th´eor`eme 16(Box-M˝uller). Soient(U1, U2)i.i.d suivant la loi uniforme[0,1].

On pose R =p

−2 ln(U1), θ = 2πU2 et (X, Y) = (Rcos(θ), Rsin(θ)). Alors X et Y sont ind´ependantes, et identiquement distribu´ees suivant la loi nor- male centr´ee r´eduite.

I.p.p gaussienne

Th´eor`eme 17 (I.p.p gaussienne). Z ∈ N(0,1) ssi pour tout g :R→R, C1, telle que E[|g0(Z)|]<∞, alors E[|Zg(Z)|]<∞ et E[g0(Z)−Zg(Z)] = 0.

Id´ee de preuve: Pour le sens direct on remarque d’abord que sig0(Z)∈L1, on a g(z) exp(−z2)/2→0 lorsque |z| → ∞, et une i.p.p fournit alors

Z

R

g0(z) exp(−z2/2)dz = Z

R

zg(z) exp(−z2/2)dz.

Pour la contrapos´ee, on retrouve par une r´ecurrence ais´ee que Z a les mo- ments d’une normale centr´ee r´eduite, et on verra plus loin (paragraphe sur la transform´ee de Laplace) que dans ce cas pr´ecis, ceci suffit pour caract´eriser la loi de Z.

Loi normale

Soit Z ∼ N(0,1), µ∈R, σ >0, on dit que X =µ+σZ ∼ N(µ, σ2), elle a pour densit´e fX telle que

fX(x) = 1 σ√

2π exp

−(x−µ)22

, x∈R.

On dit queXsuit une loi normale (ou gaussienne) centr´ee enµet de variance σ2.

Le calcul de la densit´e de X provient de ce que, pour toute fonction φ :R→Rborn´ee mesurable, il vient par le changement de variablesx= z−µσ

E[φ(X)] = E[φ(µ+σZ)] = Z

R

φ(µ+σz)exp(−z22)

√2π dz

= Z

R

φ(x) exp

(x−µ)22

σ√

2π dx

(14)

Somme de gaussiennes ind´ependantes

Th´eor`eme 18. Soient(X1, . . . , Xn)ind´ependantes, avecXi ∼ N(µi, σi2),1≤ i≤n. Alors Pn

i=1Xi ∼ N(µ, σ2) o`u µ=Pn

i=1µi, σ2 =Pn i=1σ2i.

On prouve facilement ce r´esultat `a l’aide des transform´ees de Laplace ou les fonctions caract´eristiques, que nous introduirons plus loin.

On d´eduit que siµi =µ,σi =σ pour touti≥1, on d´eduit que pour tout n ≥1,

1 σ√

n

n

X

i=1

Xi−nµ

!

∼ N(0,1),

de sorte que le TCL est particuli`erement facile `a ´etablir dans ce cas particu- lier.

Loi de Cauchy

On dit que X ∼ Cauchy(1) (ou encore que X suit une loi de Cauchy standard) lorsque X a densit´e fX avec

fX(x) = 1 π

1

1 +x2, x∈R A noter que X /∈L1.

Simulation : siθ ∼Unif(−π/2, π/2), X = tan(θ)∼Cauchy(1).

Siα >0 et Y =αX, on dit queY ∼Cauchy(α), et alors Y a densit´e fY telle que

fY(y) = α π

1 y22. On a FY(t) = 12 +π1 arctan(t/α), t∈R

Loi de Cauchy : quelques propri´et´es

On calculera plus tard E[exp(itX)] = exp(−α|t|), et on verra que ceci implique en particulier qu’une somme de variables de Cauchy ind´endantes reste Cauchy, et le param`etre de la somme est ´egal `a la somme des param`etres.

En particulier si les (Xi)i≥1 sont i.i.d suivant une loi de Cauchy standard, 1

n

n

X

i=1

Xi ∼Cauchy(1).

(15)

Ainsi la somme normalis´ee de variables de Cauchy ne converge pas presque sˆurement, et ne v´erifie donc pas la loi des grands nombres.

On peut ´egalement ´etablir que si X ∼Cauchy(1), 1/X ´egalement.

Par ailleurs si Z1, Z2 sont i.i.d suivant la loi normale centr´ee r´eduite,

Z1

Z2 ∼Cauchy(1).

Loi Gamma

Soit a > 0, λ > 0, on dit que X ∼ Γ(a, λ) lorsque X poss`ede la densit´e fX telle que

fX(x) = λa

Γ(a)xa−1exp(−λx)1{x>0}, x∈R A noter que la loi Γ(1, λ) est exactement la loi exp(λ).

Le carr´e d’une gaussienne standard est distribu´e suivant la loi Gamma(1/2,1/2).

On a E[X] = aλ, Var(X) = λa2.

Par ailleurs, on verra que si les (Xi,1 ≤ i ≤ n) sont ind´ependantes, et Xi ∼Γ(ai, λ),1≤i≤n alors Pn

i=1Xi ∼Γ(Pn

i=1ai, λ).

En particulier, la somme den variables i.i.d suivant une loi exponentielle de param`etre λ suit une loi Gamma de param`etres n, λ. La somme du carr´e de n gaussiennes i.i.d, standards suit une loi Gamma de param`etre n/2,1/2 (on l’appelle ´egalement loi du χ2 `a n degr´es de libert´e).

Loi Beta

Soita >0, b >0, on dit que X ∼Beta(a, b) lorsqueX poss`ede la densit´e fX telle que

fX(x) = Γ(a+b)

Γ(a)Γ(b)xa−1(1−x)b−11(0,1)(x), x∈R

On verra (paragraphe sur les lois jointes) que siX ∼Γ(a, λ), ind´ependante de Y ∼ Γ(b, λ), alors X+YX ) est ind´ependante de X + Y et suit une loi Beta(a, b).

Et bien d’autres

De nombreuses autres lois poss´edant une densit´e par rapport `a la mesure de Lebesgue peuvent ˆetre qualifi´ees d’usuelles : par exemple la loi de Pareto (dont la densit´e s’exprime comme une puissance n´egative de x au del`a d’un seuil), et les lois qui apparaissent en th´eorie des extrˆemes (loi de Gumbel, loi de Fr´echet, loi de Weibull). Voir la feuille d’exercices pour plus de d´etails.

(16)

5 Variables al´ eatoires ind´ ependantes

Famille de variables al´eatoires ind´ependantes

Definition 1. SoientI un ensemble quelconque d’indices etXi : (Ω,F,P)→ (Ei,Ei), i∈I des v.a. On dit que les (Xi)i∈I sont ind´ependantes ssi les tribus (σ(Xi))i∈I le sont, i.e.

∀J ⊂I, J fini , ∀(Aj)j∈J ∈Y

j∈J

Ej,

P

\

j∈J

{Xj ∈Aj}

!

=Y

j∈J

P(Xj ∈Aj).

Les images de v.a. ind´ependantes restent ind´ependantes

Proposition 1. Soient (Xi, i∈I) des variables ind´ependantes comme dans la d´efinition ci-dessus, fi : (Ei,Ei) → (Fi,Fi), i ∈ I des applications mesu- rables, et Yi =fi(Xi), i∈I. Alors les (Yi, i∈I) sont ind´ependantes.

Preuve : Pour touti∈I,

σ(Yi) = {Xi−1(fi−1(B)), B ∈ Fi} ⊂σ(Xi).

Regroupement par paquets

Proposition 2. Soient (Xi, i ∈ I) des variables ind´ependantes, (Ik)k∈K

une partition de I, et Yk = (Xi, i ∈ Ik), k ∈ K. Alors les (Yk)k∈K sont ind´ependantes.

Preuve : D´ecoule directement du th´eor`eme de regroupement par paquets pour des tribus ind´ependantes.

Exemple d’application des deux propositions: On suppose que (X1, X2, X3, X4) sont ind´ependantes, et on pose Y1 :=X1+X3 et Y2 :=X22−cos(X4).

Par regroupement par paquets Z1 = (X1, X3) et Z2 = (X2, X4) sont ind´ependantes. Et doncY1 =f1(Z1) etY2 =f2(Z2) sont ´egalement ind´ependantes.

(17)

Caract´erisation de l’ind´ependance via classe monotone

Th´eor`eme 19 (Ind´ependance et classe monotone). Soient I un ensemble quelconque d’indices et Xi : (Ω,F,P) → (Ei,Ei), i ∈ I des v.a. On suppose que pour tout i ∈ I, Ci ⊂ Ei est un π-syst`eme tel que σ(Ci) = Ei. Alors les (Xi, i∈I) sont ind´ependantes ssi

∀J ⊂I, J fini , ∀(Aj)j∈J ∈Y

j∈J

Cj,

P

\

j∈J

{Xj ∈Aj}

!

=Y

j∈J

P(Xj ∈Aj).

Preuve

Si J = {i1, ..., in}, l’ensemble des Ai1 ∈ Ei1 tels que pour tous Aik ∈ Cik,2 ≤ k ≤ n on a P

T

j∈J{Xj ∈Aj}

=Q

j∈JP(Xj ∈ Aj) est une classe monotone, qui contientCi1 par hypoth`ese. Par th´eor`eme de classes monotones c’est donc Ei1. Autrement dit l’´egalit´e

P

\

j∈J

{Xj ∈Aj}

!

=Y

j∈J

P(Xj ∈Aj) s’´etend `a Ai1 ∈ Ei1,Aik ∈ Cik,2≤k ≤n.

Une deuxi`eme application du th´eor`eme permet d’´etendre l’´egalit´e `a tout Ai1 ∈ Ei1, Ai2 ∈ Ei2 Aik ∈ Cik,3≤k ≤n, etc...

Lan-i`eme application du th´eor`eme permet de conclure.

Le cas des v.a.r

Corollaire 1. Soient(Xi, i∈I)des v.a. r´eelles. Les(Xi)i∈I sont ind´ependantes ssi pour tout J ⊂I, J fini et pour tous (tj)j∈J ∈RJ

P

\

j∈J

{Xj ≤tj}

!

=Y

j∈J

P(Xj ≤tj).

En particulier, les n variables r´eelles (X1, ..., Xn) sont ind´ependantes ssi pour tout (t1, ..., tn)∈Rn,

P(X1 ≤t1, ..., Xn ≤tn) =

n

Y

i=1

P(Xi ≤ti).

(18)

Ind´ependance : la loi jointe est la loi produit

Th´eor`eme 20(Loi jointe est loi produit). Les v.a.Xi : (Ω,F,P)→(Ei,Ei),1≤ i≤n sont ind´ependantes ssi

P(X1,...,Xn)=PX1 ⊗ · · · ⊗PXn

Ci-dessus,PX1⊗· · ·⊗PXn est l’unique mesure sur l’espace produitE1×· · ·×En muni de la tribu produit E1⊗ · · · ⊗ En := σ(A1×. . . An, Ai ∈ Ei,1≤i≤n) telle que pour tous Ai ∈ Ei,1≤i≤n,

PX1 ⊗ · · · ⊗PXn(A1× · · · ×An) = PX1(A1). . .PXn(An).

Ind´ependance : la loi jointe est la loi produit

Preuve de ⇒ : Supposons les (Xi,1 ≤ i ≤ n) ind´ependantes, et Ai ∈ Ei,1≤i≤n, on a

P(X1,...,Xn)(A1× · · · ×An) = P(X1 ∈A1, . . . , Xn ∈An) =

n

Y

i=1

PXi(Ai), de sorte queP(X1,...,Xn)etPX1⊗ · · · ⊗PXn co¨ıncident surC ={A1× · · · ×An: Ai ∈ Ei,1≤i≤n}. OrC est un π-syst`eme qui engendreE1⊗ · · · ⊗ En ce qui fournit la conclusion souhait´ee grˆace au lemme d’unicit´e des mesures.

Preuve de⇐: Triviale. Si l’´egalit´e des mesures est v´erifi´ee surE1⊗· · ·⊗En, elle l’est en A1× · · · ×An.

Crit`ere d’ind´ependance via calcul d’esp´erances

Th´eor`eme 21 (Ind´ependance via esp´erances). Les (Xi)i∈I (comme dans la d´efinition initiale) sont ind´ependantes ssi quelque soient J ⊂ I fini, fj : (Ej,Ej)→(R,B(R)) mesurable, PXj-int´egrable, j ∈J,

E

"

Y

j∈J

fj(Xj)

#

=Y

j∈J

E[f(Xj)].

En particulier les variables (X1, ..., Xn) sont ind´ependantes ssi pour toutes fi : (Ei,Ei)→(R,B(R)) mesurable,PXi-int´egrable, 1≤i≤n,

E

" n Y

i=1

fi(Xi)

#

=

n

Y

i=1

E[f(Xi)].

(19)

Preuve

Quitte `a num´eroter les ´el´ements deJ, et all´eger les notations, il suffit de d´emontrer le cas particulier ´enonc´e `a la suite du th´eor`eme.

Preuve de ⇐ : Pour Ai ∈ Ei, i ∈ {1, ..., n}, l’´egalit´e souhait´ee vient en posant fi =1{Ai},1≤i≤n.

Preuvede⇒: En utilisant le th´eor`eme qui pr´ec`ede, puis Fubini, on trouve que

E

" n Y

i=1

fi(Xi)

#

= Z

E1×···×En

n

Y

i=1

fi(xi)

!

dP(X1,...,Xn)(x1, ..., xn)

= Z

E1×···×En

n

Y

i=1

fi(xi)

!

dPX1(x1). . . dPXn(xn)

=

n

Y

i=1

Z

Ei

fi(xi)dPXi(xi) =

n

Y

i=1

E[fi(Xi)]

Ind´ependance et covariance

Une cons´equence de ce qui pr´ec`ede est que siXetY sont des v.a.r dansL2 ind´ependantes, on a Cov(X, Y) =E[XY]−E[X]E[Y] = 0, et Var(X+Y) = Var(X) + Var(Y) + 2Cov(X, Y) = Var(X) + Var(Y).

La contrapos´ee est fausse.

Par exemple si X ∼ N(0,1), ε ∼ Rademacher(1/2) ind´ependante de X, et Y =εX ∼ N(0,1), on a

Cov(X, Y) =E[XY] =E[ε]E[X2] = 0,

mais X et Y ne sont pas ind´ependantes, puisque P(X = Y) = 1/2 (cette probabilit´e serait nulle si les variables ´etaient ind´ependantes). On peut aussi se convaincre de la non-ind´ependance de X etY en ´ecrivant par exemple

P(X ≥1, Y ≥1) = 1

2P(X ≥1)6=P(X ≥1)P(Y ≥1) = P(X ≥1)2. Le contre-exemple pr´ec´edent se g´en´eralise ais´ement. Si X est une v.a.r centr´ee,ε ∼Rademacher(1/2) ind´ependante deX, etY =εX, alors on aura

(20)

Cov(X, Y) = 0. PourtantX n’est ind´ependante de Y que lorsqu’on aX ≡0 ou P(X =α) = P(X =−α) = 1/2 pour un α >0.

Il n’y a pas vraiment de surprise : Cov(X, Y) = 0 indique seulement que (X−E[X])(Y −E[Y]) est centr´ee.

L’ind´ependance deX etY est une condition beaucoup plus forte, puis- qu’elle signifie quepour toutefonctionfsatisfaisant une condition d’int´egrabilit´e, la variable (f(X)−E[f(X)])(f(Y)−E[f(Y)]) est centr´ee.

Th´eor`eme 22. Soient(Xi)1≤i≤n des variables al´eatoires `a valeurs resp. dans E1, ..., En, resp. munis des tribus E1, ...,En. On suppose queP(X1,...,Xn)1

· · · ⊗µn. Alors les (Xi)1≤i≤n sont ind´ependantes et PXi(·) = µµi(·)

i(Ei).

Preuve

Remarquons tout d’abord que 1 =P(X1,...,Xn)(E1×· · ·×En) = Qn

j=1µj(Ej), de sorte que pour i fix´e,Q

j6=iµj(Ej) = µ 1

i(Ei). Fixons alors i, et B ∈ Ei, on a

P(Xi ∈B) = P({Xi ∈B} ∩ {Xj ∈Ej, j 6=i})

= µi(B)Y

j6=i

µj(Ej) = µi(B) µi(Ei), de sorte qu’on a bien PXi(·) = µµi(·)

i(Ei), comme souhait´e.

Mais alors, pourAi ∈ Ei,1≤i≤n(en utilisant `a nouveau queQn

i=1µj(Ej) = 1),

P(X1 ∈A1, ..., Xn ∈An) =

n

Y

i=1

µi(Ai) =

n

Y

i=1

µi(Ai) µi(Ei) =

n

Y

i=1

PXi(Ai).

Somme de v.a ind´ependantes et convolution

D´efinition 7. SoientX, Y deux variables al´eatoires `a valeurs dans un espace E muni de l’addition, ind´ependantes. Alors PX+Y =:PX ∗PY.

La mesure PX ∗ PY est appel´ee produit de convolution de PX et PY. Comme X +Y : (Ω,F,P) → (E,E) est la compos´ee de (X, Y) avec f :

(21)

(E2 →E

(x, y)→x+y, la d´efinition ci-dessus correspond `a la d´efinition classique du produit de convolution de mesures : PX ∗ PY est la mesure image de PX ⊗PY par f.

6 Variables discr` etes, ` a densit´ e : cas g´ en´ eral

6.1 Variables discr` etes

Variables discr`etes : d´efinition g´en´erale

D´efinition 8 (Variable discr`ete). Soit E un ensemble fini ou d´enombrable, muni de la tribu E.

(i) On appelle variable discr`ete toute application mesurable(Ω,F,P)dans (E,E).

(ii) On appelle ´egalement variable discr`ete une application mesurable(Ω,F,P) dans (A,A) avec A⊃E, A ⊃ E et P(X /∈E) = 0.

Remarques :

— Mˆeme si c’est un l´eger abus de langage dans le deuxi`eme cas, on dira qu’une telle X est une variable al´eatoire discr`ete `a valeurs dans E.

— Le plus souvent on munitE de la tribu de ses parties, i.e. on travaille avecE =P(E). On fait cette hypoth`ese dans la suite.

Loi d’une variable discr`ete

Soit X v.a. discr`ete `a valeurs dans E,E =P(E).

La loi deX est enti`erement d´etermin´ee par ses atomes : PX =X

x∈E

P(X =x)δx. Autrement dit pour tout A∈ P(E),

PX(A) =X

x∈A

P(X =x).

En pratique, on d´ecrit souvent PX en donnant la valeur deP(X =x), x∈ E.

(22)

Fonction d’une v.a discr`ete, esp´erance

Soit X v.a. discr`ete `a valeurs dans E, f : (E,E) → (E0,E0) mesurable.

Alors f(X) est une variable discr`ete `a valeurs dans E0. Si f est `a valeurs r´eelles, on a

E[f(X)] =X

x∈E

f(x)P(X =x) = X

y∈E0

yP(f(X) =y).

V.a. discr`etes, caract´erisation de l’ind´ependance

Th´eor`eme 23 (Ind´ependance de v.a. discr`ete). Les v.a. discr`etes (Xi,1 ≤ i≤n), `a valeurs respectives dans les Ei,1≤i≤n, munis resp. de leur tribu des parties, sont ind´ependantes ssi quels que soient(x1, ..., xn)∈E1×· · ·×En, on a

P(X1 =x1, . . . , Xn =xn) =

n

Y

i=1

P(Xi =xi).

Preuve: l’implication ⇒est ´evidente en prenantAi ={xi}.

R´eciproquement, on peut appliquer le th´eor`eme de caract´erisation de l’ind´ependance par des π-syst`emes avecCi ={{xi}, xi ∈Ei}.

Somme de variables enti`eres, ind´ependantes

Soit X,Y, ind´ependantes, `a valeurs dans Z. Alors pour tout n∈Z, P(X+Y =n) =X

k∈Z

P(X =k)P(Y =n−k)

6.2 Densit´ es, variables ` a densit´ e

D´efinition 9(Mesure de densit´ef par rapport `aµ). Soit(E,E, µ)un espace mesur´e, etf : (E,E)→(R+,B(R+))une application positive, mesurable. On d´efinit la mesure sur (E,E) :

ν:

( E →[0,+∞]

A→R

Af dµ.

On dit que ν est la mesure de densit´e f par rapport `a µ et on note f =: .

(23)

Th´eor`eme 24 (Unicit´e de la densit´e `a indistinguabilit´e pr`es). Si ν est σ- finie, et si f et g sont toutes deux des densit´es de ν par rapport `a µ, alors f et g co¨ıncident µ-presque partout.

Preuve : Soit A := {x ∈ E : f(x) > g(x)} qui est dans E car f et g, et donc f −g sont mesurables.

Si ν est σ-finie, on peut consid´erer (En) ∈ EN telle que En % E et ν(En)<∞.

On aν(A∩En) =R

A∩Enf(x)dµ(x) = R

A∩Eng(x)dµ(x)<∞ de sorte que R

A∩En(f(x)−g(x))dµ(x) = 0, et donc µ(A∩En) = 0.

En faisant tendre n vers l’infini on d´eduit µ({x : f(x) > g(x)}) = 0, et donc par un raisonnement sym´etrique,µ({x:f(x)6=g(x)}) = 0.

Th´eor`eme 25(Esp´erance et variables `a densit´e). Soitg : (E,E)→(R,B(R)) mesurable, positive ou ν-int´egrable, et f = . Alors

Z

E

g(x)dν(x) = Z

E

g(x)f(x)dµ(x).

En particulier, si ν est la loi de la variable X, on a

E[g(X)] = Z

E

g(x)f(x)dµ(x).

Preuve : C’est la d´efinition de mesure de densit´e f pour g = 1A. Par lin´earit´e de l’int´egrale, on a aussi l’´egalit´e pour g ´etag´ee quelconque, puis pour g positive par TCM et enfin pour g = g+−g int´egrable, `a nouveau par lin´earit´e.

Remarque ´edifiante

SiXest discr`ete, `a valeurs dansE, alors sa loiPX a densit´ef :

( E →R+

x→P(X =x) par rapport `a µ = P

x∈Eδx, la mesure de comptage sur E. Le r´esultat pr´ec´edent permet d’ailleurs de retrouver que pour tout g : E → R PX- int´egrable

E[g(X)] = Z

E

g(x)f(x)dµ(x) =X

x∈E

g(x)P(X =x).

Le concept de loi `a densit´e par rapport `a une mesure de r´ef´erence est donc tr`es g´en´eral.

(24)

Densit´e par rapport `a mesure de Lebesgue

Il n’en reste pas moins que lorsqu’on parle d’une variable X, `a valeurs dans Rd, de densit´e fX, sans pr´eciser la mesure de r´ef´erence, c’est que cette mesure de r´ef´erence est la mesure de Lebesgue surRd. Le r´esultat pr´ec´edent permet dans ce cas d’´ecrire, pour tout g :Rd→R PX-int´egrable

E[g(X)] = Z

Rd

g(x)fX(x)dx.

Densit´es marginales de (X, Y) `a densit´e dans le plan

D´efinition 10 (Densit´es marginales d’une variable R2 `a densit´e). Soient X, Y `a valeurs r´eelles telles que Z := (X, Y), `a valeurs dans R2 poss`ede la densit´e h. Alors X poss`ede la densit´e fX telle que

fX(x) = Z

R

h(x, y)dy, x∈R,

qu’on appelle aussi densit´e marginale de la premi`ere coordonn´ee de Z. De mˆeme Y poss`ede la densit´e fY telle que fY(y) = R

Rh(x, y)dx, y ∈R, qu’on appelle aussi densit´e marginale de la deuxi`eme coordonn´ee de Z.

Densit´es marginales

V´erification: Pour tout g :R→R, born´ee mesurable, on a par Fubini, E[g(X)] =

Z

R

Z

R

g(x)h(x, y)dxdy= Z

R

g(x)fX(x)dx.

Remarque : Attention, il est possible que X et Y poss`edent des densit´es sans que (X, Y) en poss`ede. Par exemple siX ∼ N(0,1) et X =Y.

Densit´es marginales : cas g´en´eral

D´efinition 11(Densit´e marginale : cas g´en´eral). SoientX1, ..., Xn `a valeurs respectives dans E1, ..., En, telles que X := (X1, . . . , Xn), `a valeurs dans E = E1 × · · · ×En et muni de la tribu produit poss`ede la densit´e f par rapport `a la mesure produit µ=µ1⊗ · · · ⊗µn (o`u µi est une mesure sur Ei,

(25)

1 ≤ i ≤ n). Alors pour tout i ∈ {1, ..., n}, la variable Xi poss`ede la densit´e fi par rapport `a µi, o`u pour xi ∈Ei,

fi(xi) = Z

E1×···×Ei−1×Ei+1×···×En

f(x1, ..., xn)Y

j6=i

j(xj).

On appelle aussi fi la densit´e marginale de la i-`eme coordonn´ee de X.

D´efinition 12(Densit´es marginales : un autre exemple). SoientX `a valeurs dans Rn, Y `a valeurs dans Rp telles que Z := (X, Y), `a valeurs dans Rn+p poss`ede la densit´e h. Alors X poss`ede la densit´e fX telle que

fX(x) = Z

Rp

h(x, y)dy, x∈Rn,

qu’on appelle aussi densit´e marginale des n premi`eres coordonn´ees de Z. De mˆeme Y poss`ede la densit´e fY telle que fY(y) = R

Rnh(x, y)dx, y ∈ Rp, qu’on appelle aussi densit´e marginale des p derni`eres coordonn´ees de Z.

Densit´e et ind´ependance (mesure de r´ef´erence Lebesgue)

Th´eor`eme 26 (Densit´e et ind´ependance). (i) Si X `a valeurs dans Rn, admet la densit´ef telle quef(x1, ..., xn) = f1(x1). . . fn(xn),(x1, ..., xn)∈ Rn, o`u pour tout i∈ {1, ..., n}, fi est positive mesurable, alors

— Pour tout i ∈ {1, ..., n} la densit´e marginale de Xi est cifi, o`u ci =R

Rn−1

Q

j6=ifj(xj)dxj

= R

Rfi(xi)dxi−1

.

— Les variables (X1, ..., Xn) sont ind´ependantes

(ii) Si pour i ∈ {1, ..., n}, Xi a densit´e fi et les variables (X1, ..., Xn) sont ind´ependantes, alors X a densit´e fX (par rapport `a λn) telle que fX(x1, ..., xn) = Qn

i=1fi(xi), (x1, ..., xn)∈Rn. Densit´e et ind´ependance

Preuve de (i) : Soit g :R→R bor´elienne born´ee. Par Fubini, E[g(Xi)] =

Z

R

g(xi)fi(xi) Z

Rn−1

Y

j6=i

fj(xj)dxj

!

= Z

R

g(xi)cifi(xi)dxi, et donc Xi a la densit´e cifi. Comme cette densit´e est d’int´egrale 1 sur R on obtient ´egalement l’autre expression pour ci. Puisque f est une densit´e on trouve ´egalement que Qn

i=1ci = 1.

(26)

Densit´e et ind´ependance

Si lesgi :R→R, i∈ {1, ..., n} sont bor´eliennes born´ees, on a, par ce qui pr´ec`ede, puis `a nouveau Fubini

E

" n Y

i=1

gi(Xi)

#

= Z

Rn n

Y

i=1

gi(xi)

!

f(x1, ..., xn)dx1. . . dxn

= Z

Rn n

Y

i=1

gi(xi)

n

Y

i=1

cifi(xi)dxi

!

=

n

Y

i=1

Z

R

gi(xi)cifi(xi)dxi

=

n

Y

i=1

E[gi(Xi)]

Densit´e et ind´ependance

Preuve de (ii): Si les gi :R→R,i ∈ {1, ..., n} sont bor´eliennes born´ees, on a, toujours par Fubini (et en remontant le calcul pr´ec´edent)

E

" n Y

i=1

gi(Xi)

#

=

n

Y

i=1

Z

R

gi(xi)cifi(xi)dxi

= Z

Rn n

Y

i=1

gi(xi)

!

f(x1, ..., xn)dx1. . . dxn

= E

" n Y

i=1

gi(Xi)

#

et on conclut comme dans la preuve du th´eor`eme de caract´erisation de l’ind´ependance par les esp´erances.

Densit´e et ind´ependance : g´en´eralisation

Th´eor`eme 27 (Densit´e et ind´ependance : cas g´en´eral). Soit E =E1×En, muni de la tribu produit et une mesure produit µ=µ1⊗ · · · ⊗µn.

(i) Si X `a valeurs dans E, admet la densit´e f par rapport `a µ telle que f(x1, ..., xn) = f1(x1). . . fn(xn),(x1, ..., xn) ∈ E1 × · · · ×En, o`u pour tout i∈ {1, ..., n}, fi est positive mesurable, alors

— Pour touti∈ {1, ..., n} la densit´e marginale deXi par rapport `aµi

estcifi, o`uci =R

Q

j6=iEj

Q

j6=ifj(xj)dµj(xj)

= R

Eifi(xi)dµi(xi)−1

.

(27)

— Les variables (X1, ..., Xn) sont ind´ependantes

(ii) Si pour i∈ {1, ..., n}, Xi a densit´e fi par rapport `a µi et les variables (X1, ..., Xn)sont ind´ependantes, alors X a densit´e fX par rapport `a µ telle que fX(x1, ..., xn) = Qn

i=1fi(xi), (x1, ..., xn)∈Rn. Somme de variables ind´ependantes `a valeurs Rd, `a densit´e

Th´eor`eme 28. On suppose que X et Y sont des v.a, `a valeurs dans Rd, ind´ependantes, et de densit´es respectives fX, fY. Alors X + Y a densit´e fX+Y =fX ∗fY, i.e.

fX+Y(u) =fx∗fY(u) = Z

Rd

fX(x)fY(u−x)dx, u∈Rd. Somme de variables ind´ependantes `a valeurs Rd, `a densit´e

Preuve : Puisque X et Y sont ind´ependantes, (X, Y) a densit´e (x, y) → fX(x)fY(y) sur R2d. Soit alors h:Rd→R mesurable, positive, en effectuant le changement de variables (x, y)→(x, x+y), et Fubini, on obtient

E[h(X+Y)] = Z

Rd×Rd

h(x+y)fX(x)fY(y)dxdy

= Z

Rd

h(u) Z

Rd

fX(x)fY(u−x)dx

du,

ce qui conduit `a la conclusion souhait´ee.

Densit´e par rapport `a Lebesgue et fonction de r´epartition Th´eor`eme 29. Soit X une v.a.r.

(i) Si X a densit´e fX, alors pour tout t ∈ R, FX(t) = Rt

−∞fX(x)dx (en particulier FX est absolument continue)

(ii) Si FX est absolument continue (et donc λ-p.p d´erivable), alors X a densit´e FX0 , o`u FX0 (t) := 0 en tout point de non-d´erivabilit´e de FX. Remarque : Il faut bien faire attention que (ii) requiert l’absolue conti- nuit´edeF. AvoirF continue etλ-p.p d´erivable ne suffit pas `a garantir l’exis- tence d’une densit´e pourX. En effet siX ∼Unif(C), o`uC est l’ensemble de Cantor sur [0,1], sa fonction de r´epartition F (´egalement appel´e escalier du diable) est continue, λ-p.p d´erivable, pourtant la loi de X est ´etrang`ere `a λ.

Références

Documents relatifs

Si M est un num´ eraire, on peut ´ evaluer la valeur V t d’une strat´ egie en terme de ce num´ eraire, soit V t /M

La diff´ erence entre le th´ eor` eme et sa r´ eciproque tient aux conclusions et aux hypoth` eses : Pour montrer que deux droites sont parall` eles, on utilise le th´ eor` eme de

Dans le cas pr´ esent, la part du cuisinier serait de trois pi` eces, mais les pirates se querellent et six d’entre eux sont tu´ es, ce qui porte la part du cuisinier ` a quatre

On consid`ere un triangle quelconque ABC et deux points M et N situ´es respectivement sur les cˆ ot´es [AB] et [AC] tels que (M N)//(BC).. Prouver que le rapport des aires des

Le premier th´ eor` eme permet de mieux comprendre les parties compactes d’un espace de fonctions continues tandis que le second permet de donner des parties denses dans un espace

Th`emes d’analyse pour l’agr´egation, St´ephane GONNORD &amp; Nicolas TOSEL, page

Comme f est continue sur [0, 1] (compact) elle est born´ee et atteint

[r]