Probabilités
Espaces probabilisés
(Ω,A ,P) où Ω est l’univers, A ⊂ P (Ω) une tribu, P : A → [0,1] une probabilité.
Tribu
A est une tribu lorsque Ω ∈A A ∈A =⇒ A ∈ A (An) ∈A N =⇒ [ n∈N An∈A Conséquences: ∈A et \ n∈N An∈A .
Probabilité
Pest une probabilité lorsque P(Ω) = 1 si i , j ⇒ Ai∩Ai = , P [ n∈N An =X n∈N P(An).
Conséquences: P() = 0 P(A) = 1 − P(A) P(A ∪ B) = P(A) + P(B) − P(A ∩ B) A ⊂ B =⇒ P(A) 6 P(B)
Théorèmes de limite monotone
• Si An⊂An+1, P [ n∈N An = lim P(An). • Si An+1⊂An, P \ n∈N An = lim P(An). Conséquences: P [ n∈N An = lim P(Bn) avec Bn= n [ k=0 Ak et P \ n∈N An = lim P(Cn) avec Cn= n \ k=0 Ak.
Univers dénombrable
Si Ω =nωn n∈ N oest dénombrable on peut choisirA = P (Ω) et définir P en posant P({ωn}) = pnavec pn>0 et
X
n
pn= 1.
Conditionnement
Laprobabilité conditionnelle PB(A) = P(A | B) est définie par : P(A ∩ B) = P(A | B)P(B).
(Bi)i∈Iest unsystème complet d’événements lorsque i , j =⇒ Bi∩Bj= et
[
i∈I
Bi= Ω.
Formule des probabilités totales: si (Bi)i∈Iest uns.c.e., P(A) =
X
i∈I
P(A | Bi)P(Bi).
Formule de Bayes: si (Bi)i∈Iest uns.c.e., P(Bi|A) =
P(A | Bi)P(Bi) P
j∈I
P(A | Bj)P(Bj).
Indépendance
A et B sontindépendants lorsque P(A ∩ B) = P(A)P(B). Conséquence: P(A | B) = P(A), P(B | A) = P(B). Les (An) sontindépendants lorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩Ank) = P(An1) · · · P(Ank).
Variables aléatoires
X : Ω → R est unevariable aléatoire réelle lorsque pour tout x ∈ R, X−1({x}) ∈A . X est discrète lorsque X(Ω) est fini ou dénombrable. Loi de X: si X(Ω) =nxn n∈ N o , etX n
pn= 1 avec pn>0, il existe une probabilité P telle que P(X = xn) = pn.
Couple de variables aléatoires
La loiconjointe de X et de Y est la loi de (X, Y) ; les lois marginales de (X, Y) sont les lois de X et de Y. On a :
P(X = x) = X y∈Y(Ω) P(X = x et Y = y) et P(Y = y) = X x∈X(Ω) P(X = x et Y = y)
X et Y sontindépendantes lorsque P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendantes lorsque pour tout k ∈ N
∗
et tout n1< · · · < nk,
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
Lemme des coalitions: si X1, . . . , Xnsont mutuellement indépendantes, les variables f (X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
Espérance, variance
Si X(Ω) =nxn n∈ N
o
, X possèdeun moment d’ordre k lorsqueXxknP(X = xn) converge absolument. Si X possède un moment d’ordre 1, E(X) =
+∞
X
n=0
xnP(X = xn).
Si X possède un moment d’ordre 2, V (X) = E(X − E(X))2= E(X2) − E(X)2et σ(X) =pV(X). Si X et Y possèdent un moment d’ordre 2, cov(X, Y) = E(XY) − E(X)E(Y).
Propriétés de l’espérance
•E(λX + Y) = λE(X) + E(Y) •X > 0 ⇒ E(X) > 0 •X 6 Y ⇒ E(X) 6 E(Y) •X et Y indépendantes ⇒ E(XY) = E(X)E(Y) Théorème de transfert: Ef (X)= +∞ X n=0 f (xn)P(X = xn). Inégalité de Cauchy-Schwarz : E(XY) 6 q E(X2)E(Y2).
Formule alternative lorsque X est à valeurs dans N : E(X) =X
n>1 P(X > n).
Propriétés de la variance
• V(aX + b) = a2V(X) ; • V(X, Y) = V (X) + 2 cov(X, Y) + V (Y) ; • V Xn k=1 Xk = n X k=1 V(Xk) + 2 X i<j cov(Xi, Xj) ;• Si X1, . . . , Xnsont deux à deux indépendantes, V (X1+ · · · + Xn) = V (X1) + · · · + V (Xn) ;
• le coefficient de correlation ρ(X, Y) =cov(X, Y)
σ(X)σ(Y)vérifie |ρ(X, Y)| 6 1 (Cauchy-Schwarz).
Série génératrice
Si X est à valeurs dans N, GX(t) =
X
n∈N
P(X = n)tn. Si X et Y sont indépendantes, GX+Y(t) = GX(t)GY(t). X admet un moment d’ordre 1 ssi GXest dérivable en 1, et dans ce cas E(X) = G
0 X(1).
X admet un moment d’ordre 2 ssi GXest deux fois dérivable en 1, et dans ce cas V (X) = G 00 X(1) + G 0 X(1) − G 0 X(1)2.
Inégalités de concentration
Markov Si X > 0 possède un moment d’ordre 1, P(X > a) 6E(X)
a
Bienaymé-Tchebychev Si X possède un moment d’ordre 2, P
X− E(X) >α 6V(X) α2
Loi faible des grands nombres Si (Xn) est une suite de variables aléatoires indépendantes et de même loi,
P 1 n n X k=1 Xk−m > 6 σ 2 n2 avec m = E(X) et σ= σ(X)