• Aucun résultat trouvé

3 Variables aléatoires réelles

N/A
N/A
Protected

Academic year: 2022

Partager "3 Variables aléatoires réelles"

Copied!
9
0
0

Texte intégral

(1)

Aide Mémoire de Probabilité

1 Probabilités ensemblistes

• Ωensemble des résultats possibles

• Atribu : stable par union et stable par complémentaire

– siΩdénombrable alorsA=P(Ω)ensemble des parties deΩ – siΩnon dénombrable⊂RkalorsA=B(Rk)tribu de Borel deRk

• Pfonction probabilité : P:A → [0,1]

A 7→ P(A)

• (Ω,A,P)espace de probabilité

• Probabilité uniforme (cas fini) : P:P(Ω) → [0,1]

A 7→ P(A) =Card(A)Card(Ω)

• Axiomatique de Kolmogorov : 1. P(Ω) = 1

2. P(∪i∈IAi) =P

i∈IP(Ai)si lesAisont disjoints deux à deux.

en particulierP(A∪B) =P(A) +P(B)siAetBsont disjoints

⇒ raisonnement sur les ensembles disjoints (notamment partition) puis pas- sage aux probabilités

• Dénombrement :

– Nombre d’arrangements dekéléments parmiN

∗ AkN = (N)k =(N−k)!N! =N×(N−1)×...×(N−k+ 1)

∗ tous différents = sans remise

∗ ordre est important

∗ ex: tiercé

– Nombre de combinaisons dekéléments parmiN

∗ CNk = Nk

=Ak!kN =k!(N−k)!N!

∗ tous différents = sans remise

∗ ordre n’est pas important

∗ ex: loto

– Nombre de permutations dekéléments :n! =Akk

(2)

• Reconnaître le modèle avec ou sans remise – Modèle avec remise (multi-nominal)

∗ Ω = {suites ordonnées dek boules parmiN avec répétition (avec remise)}={(x1, ..., xk)∈ {1, ..., N}k}

∗ Card(Ω) =Nk

∗ La probabilité à chaque tirage/lancé est toujours la même entre lesN possibilités :pi,∀i∈N

∗ ex1:klancées d’une pièce truquéeN = 2avecp1=petp2= 1−p

⇒loi Binomial de paramètresketp.

∗ ex2 :klancées de dés deN faces avecp= N1 si équilibré – Modèle sans remise = tous différents

∗ Ω = {suites ordonnées de k boules parmi N sans répétition (tous différents)}={(x1, ..., xk)∈ {1, ..., N}k| ∀i6=j, xi6=xj}

∗ Card(Ω) =AkN

∗ La probabilité change à chaque tirage/lancé étant donné qu’il n’y a pas de remise=⇒modèle plus complexe.

∗ ex: tirerkcartes sans remise dans un jeu deN cartes; sélectionnerk étudiants dans une promo deN

∗ ex:N = 2: loi hypergéométrique

∗ SiNest très grand : modèle sans remise = modèle avec remise (la non remise ne modifie quasiment pas la probabilité)

La définition deΩest un point critique des problèmes :

• Souvent considérer un ordre dans les tirages, les lancées alors qu’il n’en existe pas forcément et ensuite considérer les différents cas (permutations,....).

• Souvent ne pas considérer la couleur des boules ou d’autres caractéristiques dans Ωet les considérer toutes distinctes (même si elles ont la même couleur) pour obtenir une loi de probabilité uniforme : P(A) = Card(A)Card(Ω). Dans un second temps, on dénombre les combinaisons, arrangements ou permutations.

2 Probabilités conditionnelles

• P(A|B) =P(A∩B) P(B)

⇒P(A|B)P(B) =P(B|A)P(A)

• Probabilités totales : siBipartition deΩ P(A) = X

i∈I

P(A|Bi)P(Bi)

= X

i∈I

P(A∩Bi)

• AetBsont indépendants⇐⇒P(A∩B) =P(A)×P(B)

P(B)6=0

⇐⇒ P(A|B) =P(A)

• (Ai)i∈Imutuellement indépendants⇐⇒ ∀J ⊂I,P(∩i∈JAi) =Q

i∈JP(Ai)

• mutuellement indépendants=⇒deux à deux indépendants (réciproque fausse)

(3)

3 Variables aléatoires réelles

Ajout d’une notion d’ordre (d’une mesure) dansΩ X: Ω → R

ω 7→ X(ω) =x

(Ω,A,P)avecX=⇒(R,B(R),PX)

4 façon différentes et équivalentes de définir une variable aléatoire réelleX: 1. Fonction densité deX

• discret : n’admet pas de densité.

On définit la loi en donnant la valeur de la probabilité en chaque point : {(xi,P(X =xi))}i∈I

=⇒diagramme en bâtons.

• continu : fX:R → R+

x 7→ fX(x) fonction intégrable : Z

R

fX(x)dx= 1

• Support de la loi deX : ensemble des valeurs deRsur lesquellesfXest non nulle :DX=Supp(X) ={x∈R, fX(x)>0}.

On note1DX(x) = 1six∈ DXet= 0sinon, la fonction support.

• on note : X ∈ DX presque sûrement (p.s.) ou presque partout (p.p.) si P(X ∈ DX) = 1.

2. Fonction de répartition deX: FX :R → [0,1]

x 7→ FX(x) =PX(]− ∞;x]) =P(X 6x)

• discret :FX(x) = X

xi6x

P(X=xi).

• continu :FX(x) = Z x

−∞

fX(x)dx= Z x

−∞

fX(x)1DX(x)dx= Z

]−∞,x]∩DX

fX(x)dx c’est l’intégrale defX, elle est croissante.

⇒ P(a6X 6b) =FX(b)−FX(a)

⇒ P(X =a) = 0, ∀a∈R

⇒ FX(−∞) = 0etFX(+∞) = 1 3. Fonction quantile deX:

←−

FX :]0,1[ → R p 7→ ←−

FX(p) = inf{x∈R|FX(x)> p}

c’est grosso-modo l’inverse de la fonction de répartition,FX−1quand celle-ci ex- iste.

=⇒la médiane est la valeur dextelle queF(x) = 1/2.

4. Fonction caractéristique deX: ϕX :R → C

t 7→ ϕX(t) =E(eitX)

=⇒ϕ(k)X (0) =ikE(Xk)

• Espérance deX= moyenne deX; c’est un réel:E(X)∈R – discret :E(X) =P

i∈IxiP(X=xi) – continue:E(X) =R

RxfX(x)dx

– P(A) =E(1A) =⇒P(X > t) =E(1]t;+∞[)

(4)

• Linéarité sur les intégrales=⇒linéarité sur les espérance : – E(aX+b) =aE(X) +b

– E(X+Y) =E(X) +E(Y)

• Changement de variable :Y =g(X) – E(Y) =

Z

R

g(x)fX(x)dx

– Sigconvexe alorsg(E(X))6E(g(X)) – ∀y∈R, FY(y) =P(X ∈g−1(]− ∞;y]))

– Sigbijective telle queg0(x)6= 0alors∀y∈R, fY(y) =|(g−1)0(y)|fX(g−1(y))

• Variance deX: moyenne de l’écart à la moyenne au carré; c’est un réel positif : V ar(X)∈R+

V ar(X) =E((X−E(X))2) =E(X2)−(E(X))2=−ϕ00X(0) + (ϕ0X(0))2 SiV ar(X) = 0alorsXest un variable aléatoire constante.

• Écart type deX:σX=p

V ar(X)⇒mêmes unité que les valeurs deX.

• Moment non centré d’ordrepdeX:mp=E(Xp) =ϕ

(p) X (0)

ip ∈R

• Moment centré d’ordrepdeX:µp=E((X−E(X))p)∈R

• Inégalité de Tchebychev :P(|X−E(X)|>a)6 V ar(X) a2 Lois classiques à connaître et reconnaître :

• Lois discrètes :

– Loi Uniforme sur{1, ..., n}

– Loi de Bernoulli de paramètrep∈[0,1](1 lancé à pile ou face)

– Loi Binomiale de paramètresn∈N∗etp∈]0,1[(nlancés à pile ou face) – Loi Géométrique de paramètrep∈]0,1[

– Loi de Poisson de paramètreλ >0

• Lois continues :

– Loi Uniforme sur l’intervalle[a, b]

– Loi Exponentielle de paramètreλ >0

– Loi Normale (loi Gaussienne) de paramètres(µ, σ2)

(5)

4 Vecteurs aléatoires réelles

Simple généralisation des définitions pourdvariables aléatoires réelles.

Notions nouvelles uniquement à propos de la (in)dépendance entre lois : covariance...

X= (X1, ..., Xd) : (Ω,A) → (Rd,B(Rd))

ω 7→ X(ω) = (X1(ω), ..., Xd(ω)) loi jointe Simple généralisation des définitions :

• Probabilité d’un événement :

PX(A) =P(X1,...,Xd)(A1×...×Ad) =P(X1∈A1, ..., Xd∈Ad)

• Fonction de répartition deX: FX:Rd → [0,1]

t 7→ FX(t) =F(X1,...,Xd)(t1, ..., td) =P(X16t1, ..., Xd6td)

• Fonction de densité deX: fX:Rd → R+

t 7→ fX(t1, ..., td) = ∂d

∂t1...∂td

FX(t1, ..., td) avec

Z

Rd

fX(t1, ..., td)dt1...dtd= Z

DX

fX(t)dt=1 etDXsupport deX.

FX(t1, ..., td) = Z t1

−∞

...

Z td

−∞

fX(t1, ..., td)dt1...dtd

PX(A) = Z

A

fX(t)dt= Z

A

fX(t)1DXdt= Z

A∩DX

fX(t)dt

• Fonction caractéristique deX: φX:Rd → C

t 7→ φX(t1, ..., td) =E(eiht,Xi)

• Espérance deX:E(X) = (E(X1), ..., E(Xd))∈Rd

• i-ème loi marginale deX: projection/intégration deXsur sai-ème composante : – fXi(x) =

Z

Rd−1

fX(x1, ..., xi−1, x, xi+1, ...xd)dx1...dxi−1dxi+1...dxd

DansR2:fX(x) = Z

R

f(X,Y)(x, y)dy

– FXi(ti) =FX(+∞, ..., ti, ...,+∞)(écriture non formelle) – ϕXi(ti) =φX(0, ...,0, ti,0...,0)

•XetY sont indépendantes ⇐⇒ P(X ∈A, Y ∈B) =P(X∈A)×P(Y ∈B), ∀A, B

continue

⇐⇒ f(X,Y)(x, y) =fX(x)fY(y), ∀(x, y)∈R2

discret

⇐⇒ P(X =xi, Y =yi) =P(X=xi)P(Y =yi), ∀(xi, yj)

XetY sont des v.a.r. indépendantes=⇒





E(XY) =E(X)E(Y)

V ar(X+Y) =V ar(X) +V ar(Y)

∀t∈R, ϕX+Y(t) =ϕX(t)ϕY(t)

∀t, s∈R, ϕ(X,Y)(t, s) =ϕX(t)ϕY(s)

=⇒généralisation au vecteur de dimensiond.

(6)

• Changement de variable :Y =g(X)

Sigbijective de classeC1ainsi que sont inverse et|Jg−1(y)| 6= 0alors fY(y) =|Jg−1(y)|fX(g−1(y))1g(DX)(y)

cas où(U, V) =g(X, Y)

f(U,V)(u, v) =|Jg−1(u, v)|f(X,Y)(g−1(u, v))1g(D(X,Y))(u, v) cas deZ =X+Y,fX+Y(z) =R

f(X,Y)(u−v, v)dv

• Covariance du couple(X, Y):Cov(X, Y) =E((X−E(X))(Y −E(Y))) Cov(X, X) =V ar(X)

Cov(X, Y) =Cov(Y, X)

Cov(X, Y) =E(XY)−E(X)E(Y) Cov(X, a) = 0, ∀a∈R

Forme bilinéaire enX,Y :Cov(aX+b, cY +d) =acCov(X, Y) V ar(X±Y) =V ar(X) +V ar(Y)±Cov(X, Y)

V ar(aX+bY +c) =a2V ar(X) +b2V ar(Y) + 2abCov(X, Y)

Matrice de covariance deX= (X1, ..., Xd):Cov(X) = (Cov(Xi, Xj))16i,j6d

• Coefficient de corrélation (linéaire) deXetY (XetY de carré intégrable):

ρXY = Cov(X, Y) pV ar(X)V ar(Y) ρXY = 0:XetY sont non corrélées

XY|61

XY|= 1⇐⇒XetY sont colinéaires (relation affine entreXetY)

5 Lois et espérance conditionnelle

Conditionnement par 6= Conditionnement par rapport à un rapport à une variable aléatoire événement (valeur d’une variable aléatoire)

• Loi conditionnelle sachant un événement

– Loi conditionnelle deY sachantX =xi(cas discret) :

∀xi,∀yi, PY|X=xi(yi) =P(Y =yi|X =xi) = P(Y =yi, X=xi) P(X =xi) Théorème des probabilités totales :

P(X =xi) =X

j

P(X=xi|Y =yi)P(Y =yi)

– Loi conditionnelle deY sachantX =x(cas continu) :

∀x,∀y, fY|X=x(y) =fY(y|X =x) = f(X,Y)(x, y) fX(x)

(7)

• Espérance conditionnelle sachant un événement :

– Espérance conditionnelle de la v.a.g(X, Y)sachantX =xi(cas discret) : E(g(X, Y)|X=xi) =X

j

g(xi, yj)P(Y =yi|X=xi)

– Espérance conditionnelle de la v.a.g(X, Y)sachantX=x(cas continu) : E(g(X, Y)|X =x) =

Z

R

g(xi, yj)fY|X=x(y)dy

• Espérance conditionnelle de la v.a.Y sachant la v.a.X,E(Y|X): E(Y|X =x) =g(x) =⇒ E(Y|X) =g(X)

g=E(Y|X) :X → R

x 7→ g(x) =E(Y|X=x)

Attention !!E(Y)∈RmaisE(Y|X)est une v.a. qui dépend de la v.a.X(c-à-d la fonctiong(X)).

• Variance conditionnelle de la v.a.Y sachant la v.a.X,V ar(Y|X): V ar(Y|X =x) =h(x) =⇒ V ar(Y|X) =h(X)

De mêmeV ar(Y) ∈ Rmais V ar(Y|X)est une v.a. fonction de la v.a. X, h(X).

• Les lois conditionnelles coïncident avec les lois marginales

• Théorème de l’espérance totale : siY intégrable alors E(Y) =E(E(Y|X))

• Théorème de la variance totale : siY de carré intégrable alors V ar(Y) =E(V ar(Y|X)) +V ar(E(Y|X))

• ∀fonctionsgbornée ethtel queh(Y)intégrable, on : E(g(X)h(Y)|X) =g(X)E(h(Y)|X)

=⇒ E(g(X)|X) =g(X)

(8)

6 Vecteurs aléatoires gaussiens

• X = (X1, ..., Xd) vecteur aléatoire gaussien Nd(m,Γ) avec m vecteur es- pérance (vecteur moyenne) etΓmatrice de covariance desXiij =Cov(Xi, Xj) Γest une matrice symétrique semi-défini positiveΓ = (Cov(Xi, Xj))i,j

• Γdiagonale=⇒lesXisont non corrélées (Cov(Xi, Xj) = 0, ∀i6=j)

• X= (X1, ..., Xd)∼ Nd(m,Γ) =⇒ ∀i= 1...d, Xi∼ N(miii) La réciproque est fausse sauf si lesXisont indépendants

• X∼ Nd(m,Γ)

Y=a+P Xaveca∈RketP ∈Mk×d(R)

⇒Y∼ Nk(a+Pm, PΓPT)

• X1, ..., Xnindépendants⇒X1, ..., Xnnon corrélées

La réciproque est fausse sauf siX= (X1, ..., Xn)est un vecteur gaussien

7 Convergences des variables aléatoires

• (Xi)i∈Nindépendantes identiquement distribuées (i.i.d.)

⇐⇒indépendantes et toutes de même loi queX:L(X) =L(Xi), ∀i

• une v.a. estX intégrable⇐⇒E(|X|)<+∞

• une v.a. estX de carre intégrable⇐⇒E(X2)<+∞

• Convergence presque sûre ou convergence forte : Xn

−−→p.s. X ⇐⇒P

ω∈Ω : lim

n→+∞Xn(ω) =X(ω)

= 1

• Convergence en probabilité :

XnP→X ⇐⇒ ∀, lim

n→+∞P(|Xn−X|>) = 0

De plus : XnP→X Yn

P→Y )

=⇒





g(Xn)−P→g(X), ∀gcontinue aXn+bYn

P→aX+bY, ∀a, b∈R ZXnP→ZX, ∀Zv.a.r. finie p.s.

• Convergence dansLp: Xn

Lp

−−→X ⇐⇒ lim

n→+∞E(|Xn−X|p) = 0 Convergence en moyenne quadratique (c-à-d dansL2) :

Xn

−−−→m.q. X⇐⇒ lim

n→+∞E |Xn−X|2

= 0

De plus :

n→+∞lim E(Xn) =m

n→+∞lim V ar(Xn) = 0 )

=⇒Xn−−−→m.q. m(v.a. constante)

(9)

• Convergence en loi (la plus faible, la plus utilisée) : Xn

−→L X ⇐⇒ lim

n→+∞FXn(t) =FX(t)

⇐⇒ lim

n→+∞E(g(Xn)) =E(g(X)), ∀gbornée, continue

⇐⇒ lim

n→+∞ϕXn(t) =ϕX(t) Convergence des lois mais pas des variables aléatoires :

. Xn

−→L X ;Xn−X −→L 0

Une v.a. discrète/continue peut converger en loi vers un v.a. continue/discrète De plus : Xn

−→L X Yn−→L a

)

=⇒ (

Xn+Yn

L→X+a XnYnP→aX

• Dominance des convergences :

Xn

−−→p.s. X=⇒ Xn

Lp

−−→X =⇒Xn Lq

−−→X (q6p) =⇒Xn L1

−−→X=⇒ XnP→X =⇒Xn−→L X

• Loi faible des Grands Nombres (LfGN) (Xi)i∈Ni.i.d.(L(X) =L(Xi)) X intégrable

=⇒Sn

n = 1 n

n

X

i=1

Xi

P→E(X)

• Loi Forte des Grands Nombres (LFGN) (Xi)i∈Ni.i.d.(L(X) =L(Xi)) X intégrable

=⇒ Sn

n = 1 n

n

X

i=1

Xi−−→p.s. E(X)

• Théorème Central Limite (TCL) SoitSn=Pn

i=1Xi

(Xi)i∈Ni.i.d.(L(X) =L(Xi)) X de carré intégrable

=⇒ Sn−nE(X) pnV ar(X)

−→ NL (0,1)

(Xi)i∈Ni.i.d.(L(X) =L(Xi))

Sn

n

−→L S

)

=⇒

E(X) = 0 E(X2)<∞ S=N(0,1)

• Astuce :

∀Xv.a.r. et∀x∈R,1{X6x}∼ B(p)avecp=P(X6x) =FX(x), doncE(1{X6x}) =petV ar(1{X6x}) =p(1−p)

Références

Documents relatifs

Déduire de la question précédente une méthode générale de simulation de variables aléatoires réelles et l’appliquer au cas d’une variable

On effectue deux tirages successifs avec remise dans cette urne en notant à chaque fois la couleur de la boule obtenue (donc deux issues possibles).. Comme ce sont des tirages

Remarque : Le th´ eor` eme de Bochner, dont la preuve utilise le th´ eor` eme de L´ evy (voir le dernier chapitre du cours) permet d’assurer la r´ eciproque, et plus pr´ ecis´

Autrement dit, F X définit la répartition aléatoire de X et permet ainis d’expliquer le terme de v.a.r.. • Évidemment, ce résultat est

PREPA COURCELLES 2° année Compléments sur les variables aléatoires réelles quelconques1. Indépendance de deux variables aléatoires réelles quelconques

Exercice 13 La longueur des pièces produites par une machine de type A varie selon une loi normale avec espérance 8mm et variance 4mm, et la longueur de celles produites par une

Comme on peut (probablement …) s’y attendre, ce sont un calcul de variance (celui de la variable V n ) et celui de la covariance de la deuxième question qui sont les plus

[r]