• Aucun résultat trouvé

Mesures de probabilité

N/A
N/A
Protected

Academic year: 2022

Partager "Mesures de probabilité"

Copied!
14
0
0

Texte intégral

(1)

Probabilités

Jean-Romain Heu

2014

(2)

2

(3)

Chapitre 1

Mesures de probabilité

1.1 Dénitions et exemples

Dénition 1.1.1. Soit Ωun ensemble.

Une mesure de probabilité (ou distribution de probabilité) est une application dénie sur une partieF deP(Ω) de la formeP:F →[0,1]et telle que P(Ω) = 1.

SiAetBsont deux parties disjointes deΩ, alorsP(A∪B) =P(A)+P(B). Et plus généralement, si(An)est une suite de parties deux à deux disjointes

deΩ, alors

P([

n∈N

An) =X

n∈N

P(An).

On dit que (Ω,F,P)est un espace probabilisé. L'ensemble Ω est appelé univers et les éléments deF sont appelés événements.

Dénition 1.1.2. On dit qu'une mesure de probabilité sur Ω est discrète si l'ensemble Ωest un ensemble ni ou dénombrable.

On parle de mesure de probabilité continue pour les mesures dénies sur R à partir d'une fonction de densité. Ce sont les mesures de probabilitésP de la forme suivante : pour tout intervalle[a, b]deR,

P([a, b]) = Z b

a

f(x)dx, où f est une fonction positive telle que R+∞

−∞ f(x)dx = 1. La fonction f est appelée densité de probabilité deP.

Proposition 1.1.1. Soit (Ω,F,P)un espace probabilisé et soient A et B des événements.

P( ¯A) = 1−P(A)

P(A∪B) =P(A) +P(B)−P(A∩B)

3

(4)

4 CHAPITRE 1. MESURES DE PROBABILITÉ Exemple 1. Soient0kndeux entiers. On lance une pièce biaiséenfois de suite.

Quelle est la probabilité d'obtenir exactementkfois pile ?

Il faut commencer par se donner un espace probabilisé. Un événement est ici le résultat denlancers. L'universest donc l'ensemble desn-uplets à valeurs dans{P, F}. Il contient 2n éléments.

Il faut ensuite dénir une mesure de probabilité surP(Ω). Commeest un ensemble dis- cret (et même ni), il sut de dénir la probabilité de chaque élément deΩ. Notonspla pro- babilité d'obtenir pile pour un lancer de la pièce. Alors1−pest la probabilité d'obtenir face. On peut considérer que lesnlancers sont indépendants. Alors la probabilité d'obtenir la séquence P P F P est p2(1p)p. On dénit alors la probabilité d'unn-upletX = (x1, x2, . . . , xn) parP(X) =pj(1p)n−j j est le nombre deP dans len-upletX etnjle nombre de F. On a ainsi déni un espace probabilisé : connaissant la probabilité de chaque élément on connaît la probabilité de chaque partie de.

Répondons maintenant à la question. NotonsAkl'évènement il y a exactementkpiles . Il y a nk

façons de choisir lesk lancers faisantP parmi lesnlancers, les autres lancers faisantF. Il y a donc nk

n-uplets contenant exactementkfoisP. Chacun de cesn-uplets a une probabilitépk(1p)n−k. AinsiAkest une partie deayant nk

éléments ayant tous la même probabilité. Donc la probabilité d'obtenir exactement k fois pile en nlancers est P(Ak) = nk

pk(1p)n−k.

Remarque : chaquen-uplet decontient exactementkpiles oùkest un entier compris entre 0 etn. AinsiΩ =Fn

k=0Ak etP(Ω) =Pn k=1

n k

pk(1p)n−k= (1 + (1p))n= 1en utilisant la formule du binôme de Newton. Le résultat obtenu est cohérent !

1.2 Probabilités conditionnelles et événements in- dépendants

Dénition 1.2.1. Soit(Ω,F,P)un espace probabilisé. SoientA etB des évé- nements avecP(B)6= 0.

On appelle probabilité conditionnelle de A sachantB le nombre PB(A) =P(A|B) = P(A∩B)

P(B) .

Remarque 1.2.1. L'application A 7→PB(A) dénit une nouvelle mesure de probabilité sur Ωqui est portée par B. Et elle permet de dénir une probabilité sur P(B). Cette mesure de probabilité est la restriction de la probabilitéP àB renormalisée par la mesure deB.

Proposition 1.2.1. Formule de Bayes :

P(B|A) = P(A|B)P(B) P(A) . P(A) =P(B)P(A|B) +P( ¯B)P(A|B).¯

Dénition 1.2.2. Deux événementsA etB sont indépendants si P(A∩B) =P(A)P(B), ou encore si PB(A) =P(A).

On peut le reformuler ainsi : siAetBsont indépendants, le fait d'être dans B ou pas n'a pas d'inuence sur la probabilité d'être dans A (et de même en inversantAet B).

(5)

Chapitre 2

Variables aléatoires

2.1 Dénitions

Dénition 2.1.1. Soit (Ω,F,P) un espace probabilisé. On appelle variable aléatoire toute applicationX : Ω→R.

Une telle variable permet de dénir une mesure de probabilitéPX surRpar

∀A⊂R,PX(A) =P(X−1(A)) =P(X ∈A).

Remarque 2.1.1. La plupart des distributions de probabilités sont dénies sur des parties Ω deR et dénissent naturellement une variable aléatoire par X(ω) =ω.

Exemple : le résultat d'un lancer de dé.

Une variable aléatoire est parfaitement dénie par l'ensemble des valeurs qu'elle prend et leurs probabilités associées. On dispose de deux façons de re- présenter une variable aléatoire :

Dénition 2.1.2. SoitX une variable aléatoire. On appelle fonction de ré- partition deX la fonction

FX: R → [0,1]

x 7→ PX(]− ∞, x]) =P(X ≤x).

Remarque 2.1.2. FX est une fonction croissante aveclimx→−∞FX(x) = 0 et limx→+∞FX(x) = 1.

Si la variableX est discrète,FX est constante par morceaux ; si X est conti- nue,FX est continue.

Dénition 2.1.3. Soit X une variable discrète.

On appelle fonction de densité de X la fonction dénie par fX : R → [0,1]

x 7→ PX(x).

SoitX une variable continue.

La densité deX est la fonction positive fX telle que∀a, b∈R PX([a, b]) =

Z b

a

fX(x)dx.

5

(6)

6 CHAPITRE 2. VARIABLES ALÉATOIRES Remarque 2.1.3. LorsqueX est une variable continue, la probabilité de prendre une valeur précise est nulle : P(X =x) = 0. Mais en terme de calcul innité- simal, on peut interpréter la densité de X ainsi :P(X =x) =fX(x)dx. Proposition 2.1.1. Si X est une variable continue, alors

FX0 =fX.

2.2 Propriétés

2.2.1 Espérance

Dénition 2.2.1. Soit X une variable aléatoire discrète à valeurs dans {xi; i∈I}. On appelle espérance deX le nombre réel déni par

E(X) =X

i∈I

xiP(xi) Si X est continue, son espérance est dénie par

E(X) = Z

R

xf(x)dx,

oùf est la densité de X.

Ce nombre n'est déni que si l'intégrale ou la somme sont dénies et conver- gentes.

L'espérance représente la valeur moyenne de la variable X. C'est la moyenne des valeurs prises parX pondérées par leurs probabilités.

Proposition 2.2.1. SoientX et Y des variables aléatoires d'espérances nies etλun réel. Alors

E(X+Y) =E(X) +E(Y), E(λX) =λE(X).

Théorème 2.2.2. de transfert

Soit X une variable aléatoire de densité f et soit ϕ : R → R. Alors la composéeϕ(X)est une variable aléatoire dont l'espérance est donnée par

E(ϕ(X)) = Z +∞

−∞

ϕ(x)f(x)dx.

2.2.2 Variance

Dénition 2.2.2. Soit X une variable discrète d'espérance nie.

On appelle variance de X le nombre positif déni par V(X) =σ2(X) =X

i∈I

(xi−E(X))2P(xi).

Si X est continue de densitéf, sa variance est donnée par V(X) =σ2(X) =

Z +∞

−∞

(x−E(X))2f(x)dx.

(7)

2.2. PROPRIÉTÉS 7 Autrement dit,V(X) =E((X−E(X))2).

On appelle écart-type de X la racine carrée de sa variance : σ(X) = pV(X).

L'écart-type mesure l'écart moyen quadratique entre les valeurs prises parX et sa moyenne.

Proposition 2.2.3. Soit X une variable admettant une variance eta etb des réels. Alors

V(X) =E(X2)−E(X)2, V(aX+b) =a2V(X).

Si X et Y sont indépendantes (voir plus bas), V(X+Y) =V(X) +V(Y) (et aussiV(X−Y) =V(X) +V(Y)).

2.2.3 Couples de variables

Soit (Ω,F,P) un espace probabilisé. Un couple de variables aléatoires est la donnée de deux variables dénies surΩ.

Dénition 2.2.3. Soient X et Y deux variables aléatoires. Elles sont indé- pendantes si,

∀A, B⊂R, P(X∈A etY ∈B) =P(X∈A)×P(Y ∈B).

Proposition 2.2.4. Si deux variables continues X et Y de densités fX et fY

sont indépendantes, alors la loi du couple (X, Y) est donnée par la fonction (x, y)7→fX(x)fY(y). Autrement dit, pour tout ensembleA deR2,

P(A) = Z Z

A

fX(x)fY(y)dxdy.

(8)

8 CHAPITRE 2. VARIABLES ALÉATOIRES

(9)

Chapitre 3

Mesures de probabilités classiques

On dit que deux variables aléatoires X etY suivent la même loi si elles ont la même fonction de densité. Cela ne signie pas qu'elles prennent les mêmes valeurs simultanément mais que chaque valeur a la même probabilité d'appa- raître pourX et pourY.

Nous présentons dans ce chapitre les fonctions de densité (autrement dit les lois de probabilités) les plus classiques à partir desquelles on décrit la majorité des phénomènes aléatoires.

3.1 Lois discrètes

3.1.1 Loi de Bernouilli

Soitp∈[0,1].

On dit qu'une variable aléatoireX suit la loi de Bernouilli de paramètrep si sa densité est donnée par

f(1) =p, f(0) = 1−p.

On noteX ∼ B(p). On a

E(X) =p, V(X) =p(1−p).

La loi de Bernouilli est la loi permettant de décrire le jeu de pile ou face avec une pièce biaisée.

3.1.2 Loi binomiale

Soitp∈[0,1]etn∈N.

On dit qu'une variable aléatoire X suit la loi binomiale de paramètresnet psi sa densité est donnée par

∀k∈ {0,1, . . . , n}, f(k) = n

k

pk(1−p)n−k. 9

(10)

10 CHAPITRE 3. MESURES DE PROBABILITÉS CLASSIQUES On noteX ∼ B(n, p).

On a

E(X) =np, V(X) =np(1−p).

Si on lance une pièce biaisée nfois (les lancers sont indépendants), et si on noteX le nombre de pile obtenus, alorsX suit une loi binomiale.

De manière générale, on dit que la loi binomiale est la loi permettant de décrire le nombre de succès obtenus lors d'une expérience répétée.

Cette loi présente cependant un défaut : lorsquenest très grand, les coe- cients binomiaux sont diciles à calculer et la loi binomiale devient numérique- ment dicile à utiliser. On l'approche alors par d'autres lois de probabilité.

3.1.3 Loi géométrique

Soitp∈[0,1].

On dit qu'une variable aléatoire X suit la loi géométrique de paramètrepsi sa densité est donnée par

∀n∈N, f(n) =p(1−p)n−1. On noteX ∼ G(p).

On a

E(X) =1

p, V(X) =1−p p2 .

Si on lance une pièce biaisée jusqu'à ce qu'on obtienne pile et si on note X le nombre de lancers eectués, alorsX suit une loi géométrique.

De manière générale, on dit que la loi géométrique est la loi du premier succès .

3.1.4 Loi de Poisson

Soitλ∈R+.

On dit qu'une variable aléatoire X suit la loi de Poisson de paramètreλ si sa densité est donnée par

∀n∈N, f(n) =e−λλn n!. On noteX ∼ P(λ).

On a

E(X) =λ, V(X) =λ.

La loi de Poisson permet de décrire dans plusieurs contextes le nombre d'événements qui peuvent se produire durant un intervalle de temps donné.

Exemples : le nombre d'usagers arrivant à un guichet de la Poste entre 9h et 10h ; le nombres d'atomes radioactifs se désintégrant durant une minute.

La loi de Poisson est également appelée loi des événements rares . La raison est la suivante : si pest petit, la loi binomiale B(n, p) est proche de la loi de Poisson P(np). En pratique, pour n grand et p petit, les termes de la densité de la loi binomiale sont diciles à calculer et on peut les approcher par les termes de la densité de la loi de Poisson, plus faciles à utiliser.

(11)

3.2. LOIS CONTINUES 11

3.2 Lois continues

3.2.1 Loi uniforme

Soientaet bdansRaveca < b.

On dit qu'une variable aléatoire X suit la loi uniforme sur l'intervalle[a, b]

si sa densité est donnée par

∀x∈R, f(x) = 1

b−a1[a,b](x).

On noteX ∼ U([a, b]). On a

E(X) = a+b

2 , V(X) = (b−a)2 12 .

La fonction rand des logiciels de calcul permet de simuler des variables sui- vant des lois uniformes. Mais elle permet également de simuler n'importe quelle loi continue pour peu que l'on connaisse sa fonction de répartition :

Proposition 3.2.1. SoitF une fonction de répartition continue. Soit X une variable aléatoire suivant la loi uniformeU([0,1]).

Soit Y = F−1(X). Alors Y suit la loi de probabilité de fonction de répar- tionF.

Ainsi, si on veut simuler une variable aléatoire de fonction de répartition F, on tire des nombres x1, . . . , xn avec la fonction rand. Alors les nombres F−1(x1), . . . , F−1(xn)donnent un échantillon simulé avec la loi voulue.

3.2.2 Loi exponentielle

Soitλ∈R+.

On dit qu'une variable aléatoire X suit la loi exponentielle de paramètre λ si sa densité est donnée par

∀x∈R, f(x) =e−λx1R+(x).

On noteX ∼ E(λ). On a

E(X) = 1

λ, V(X) = 1 λ2. La loi exponentielle est une loi sans mémoire :

∀t0 > t >0, P(X > t0|X > t) =P(X > t0−t).

Elle permet de modéliser la durée de vie de composants électroniques. Elle permet également de modéliser des temps d'attente. On peut modéliser par une loi exponentielle la variableT donnant le temps passé à un guichet de la Poste.

On peut également modéliser par une loi exponentielle le temps séparant les arri- vées à la Poste de deux usagers successifs. La loi exponentielle est naturellement liée à la loi de Poisson.

(12)

12 CHAPITRE 3. MESURES DE PROBABILITÉS CLASSIQUES

3.2.3 Loi gaussienne

Soient m∈Retσ∈R+.

On dit qu'une variable aléatoireX suit la loi gaussienne de paramètresmet σ2 si sa densité est donnée par

∀x∈R, f(x) = 1 σ√

2πe

(x−m)2 2 .

Cette loi est également appelée loi normale. On noteX∼ N(m, σ2). On a

E(X) =m, V(X) =σ2.

Si m = 0, on parle de loi normale centrée et la loi N(0,1) est appelée loi normale centrée réduite.

On dispose de tables numériques pour la loi normale centrée réduite. On peut s'y ramener facilement :

SiX ∼ N(m, σ2), alors X−m

σ ∼ N(0,1).

La loi normale intervient dans le théorème central limite. Pour résumer, ce théorème arme que la loi d'une somme de variables indépendantes de même loi est proche (quand le nombre de variables aléatoires est grand) d'une loi normale. Par exemple, la loi binomialeB(n, p)est très proche, pourngrand de la loi normaleN(np, np(1−p)).

3.2.4 Loi du khi 2

Soit n∈N. SoientX1, X2, . . . , Xn nvariables indépendantes de même loi N(0,1). SoitX=

n

X

i=1

Xi2.

On appelle loi duχ2à ndegrés de liberté la loi de la variableX. La densité de cette loi est dénie par

fX(x) = 1

2n2Γ(n2)tk2−1et2.

On dispose de tables numériques pour ces lois. On a E(X) =n, V(X) = 2n

La loi du χ2 est très utilisée en statistiques. Elle permet d'estimer des va- riances, d'eectuer des tests d'adéquation à une loi ou encore des tests d'indé- pendance entre deux variables aléatoires.

(13)

Chapitre 4

Théorèmes limites

On eectue un grand nombre de tirages indépendants d'une même variable aléatoire. On souhaite décrire les comportements limites des tirages ainsi obte- nus. Par exemple, lorsqu'on lance un grand nombre de fois une pièce, on s'attend à obtenir à peu près autant de pile que de face . Nous allons justier cela et mesurer de manière probabiliste ce à peu près autant .

4.1 Théorèmes

Théorème 4.1.1. Inégalités de Markov et de Bienaymé-Tchebychev SoitXune variable aléatoire à valeurs positives d'espérance nie. Soita >0. Alors

P(X≥a)≤ E(X) a .

Soit X une variable aléatoire ayant une espérance et une variance nies.

Soita >0. Alors

P(|X−E(X)|> a)≤V(X) a2 .

Autrement dit, la probabilité queXsoit très éloignée de sa moyenne ne peut pas être très grande.

Théorème 4.1.2. Loi faible des grands nombres

Soit (Xk)k∈N une suite de variables aléatoires indépendantes et de même loi (i.i.d.). On les suppose d'espérance m et de variance σ2 nies. Alors, pour toutε >0,

n→+∞lim P

X1+X2+· · ·+Xn

n −m

> ε

= 0.

Théorème 4.1.3. Loi forte des grands nombres

Soit (Xk)k∈N une suite de variables aléatoires indépendantes et de même loi. Soitmleur espérance. Alors

n→+∞lim

X1+X2+· · ·+Xn

n =m presque sûrement. Précisément, cela signie

P

n→+∞lim

X1+X2+· · ·+Xn

n =m

= 1.

13

(14)

14 CHAPITRE 4. THÉORÈMES LIMITES Théorème 4.1.4. Théorème central limite

Soit (Xk)k∈N une suite de variables aléatoires i.i.d. d'espérance m et de variance σ2 nies. NotonsSn=X1+X2+· · ·+Xn.

Quand n tend vers +∞, la suite Sn−nm σ√

n converge en loi vers la loi nor- maleN(0,1).

Reformulations : le théorème signie qu'à la limite, les probabilités sont données par la densitéfN de la loi normale :

n→+∞lim P

aSnnm σ

n b

= Z b

a

1 σ

e

(x−m)2 2 dx.

Ou encore :

n→+∞lim P

Snnm σ

n α

=FN(α),

FN désigne la fonction de répartition de la loi normaleN(0,1). La table de la loi normale donne les valeurs deFN.

La loi forte des grands nombres signie que la suite des moyennes de tirages aléatoires indépendants d'une même loi converge vers la moyenne théorique de cette loi. Le théorème central limite permet de mesurer (avec des probabilités) l'écart entre les termes de la suite et cette limite.

Utilisation du théorème : en pratique, quand nest assez grand (n 30), le théorème permet d'approcher la loi deSnpar une loi normale :

Sn∼ N(nm, nσ2) et Snnm σ

n =

Sn n m

σ n

∼ N(0,1).

Par exemple, la loi binomiale étant une somme de Bernouilli indépendantes, on peut approcher pourngrand, cette loi par une loi normale :

B(n, p)∼ N(np, np(1p)).

Ainsi, siS∼ B(100,12), on peut approcher la loi deSparS∼ N(50,25)et on obtient alors

S−50

5 ∼ N(0,1). Alors

P(40S60) = P

4050

5 S50

5 6050 5

FN(2)FN(−2) = 2FN(2)1 = 0,9545.

La valeur exacte estP60 k=40 1

2100 100

k

; elle est plus dicile à calculer.

4.2 Applications

Parmi les applications classiques de la loi forte des grands nombres, citons la méthode de Monte Carlo pour le calcul numérique d'intégrale.

Théorème 4.2.1. Soitf une fonction intégrable déinie sur un intervalle[a, b]. Soient x1, x2, . . . , xn, . . . des tirages indépendants de la loi uniforme sur [a, b]. Alors la suite 1

n

n

X

i=1

f(xi)converge presque sûrement vers 1 b−a

Z b

a

f(x)dx. Le théorème central limite est le résultat théorique qui permet en statistiques de dénir la notion d'intervalle de conance. L'application la plus usuelle est sans doute le sondage.

Références

Documents relatifs

Ce qui montre de façon rigoureuse que lorsque l'on lance un grand nombre de fois une pièce de monnaie bien équilibrée, on a une chance sur deux en moyenne que la pièce tombe sur

2- Sachant que la consommation journalière moyenne observée dans l’échantillon est de 12 cigarettes, donner un intervalle de con…ance bilatéral à 90% pour m:?. 3- Quelle est

Caluler la probabilité pour ette mahine de tomber en panne plus d'une fois au ours d'un mois de trente jours2. Le par est omposé de n = 200 mahines et la probabilité pour une de

Démontrer que la somme de n variables aléatoires indépendantes deux à deux suivant la loi de Poisson de paramètre λ est une loi de Poisson dont on précisera le

Comme on peut (probablement …) s’y attendre, ce sont un calcul de variance (celui de la variable V n ) et celui de la covariance de la deuxième question qui sont les plus

et suffisantes pour les déviations modérées par rapport aux ensembles fermés des sommes de variables aléatoires vectorielles indépendantes de..

Somme de variables aléatoires www.mathGM.fr Les savoir-faire Le problème du chapitre Variables aléatoires X +Y et aX Variables aléatoires indépendantes Somme de variables

On a constaté qu’en moyenne, sur un grand nombre de plats testés sortant de l’usine, 1,5 % des plats ne supportent pas une telle température et cassent. On choisit au hasard 200