Complément de formation Statistiques Variables Aléatoires Discrètes
Mohamad Ghassany
École supérieure d’ingénieurs Léonard-de-Vinci
1. Introduction aux probabilités
2. Notion de variable aléatoire réelle 3. Variables aléatoires discrètes
4. Moments d’une variable aléatoire discrète 5. Couple de variables aléatoires discrètes
6. Loi Uniforme DiscrèteU(n)
7. Loi de BernoulliB(p)
8. Loi BinomialeB(n, p)
9. Loi de PoissonP(λ)
10. Loi Géométrique ou de PascalG(p)
11. Loi Binomiale NégativeBN(r, p)
1
Introduction aux probabilités
Hasard
Exemple fondamental: Considérons le jeu du lancé d’un dé.
I Expérience aléatoireε: “lancer un dé équilibré”←−Action.
I Univers: l’ensemble de tous les résultats possibles de cette expérience aléatoire Ω ={1,2,3,4,5,6}
I Evénements: Dans cette expérience aléatoire, on peut s’intéresser à des événements plus complexes qu’un simple résultat élémentaire.
I L’ensemble de parties deΩ, appeléP(Ω), est l’ensemble des sous-ensembles deΩ.
I UnefamilleAde parties(i.e. de sous ensembles) deΩ. Ces parties sont appelées des événements. On dit que l’événementAs’est réalisé si et seulement si le résultatωdeΩqui s’est produit appartient àA.
I Tribu: On appelletribusurΩ, toute familleAde parties deΩvérifiant:
1. Ω∈ A.
2. siA∈ A, alorsA¯∈ A.
3. si(An)n∈Nest une suite d’éléments deA, alors
S
n∈N
An∈ A.
I (Ω,A)est unespace probibilisable.
2
Notions sur les Evénements
I Soit(Ω,A)un espace probibilisable:
• L’ensembleAest appelétribu des événements. Les éléments deAs’appellent lesévénements.
• L’événementΩest appeléévénement certain. L’événement∅est appeléévénement impossible.
I Opérations sur les événements. SoientAetBdeux événements:
• A¯est l’événementcontrairedeA(on note aussiAc).A¯= Ω\A.
A¯se réalise si et seulement siAne se réalise pas.
• A∩Best l’événement «AetB».
A∩Bse réalise lorsque les deux événements se réalisent.
• A∪Best l’événement «AouB».
A∪Bse réalise lorsque au moins un des deux événements se réalise.
I Incompatibilité:AetBsont incompatibles si leur réalisation simultanée est impossible: A∩B=∅.
I Implication: AimpliqueBsignifie que siAse réalise, alorsBse réalise aussi:A⊂B.
3
I Soit(Ω,A)un espace probabilisable. On appelleprobabilitésur(Ω,A), toute application P :A →R
vérifiant:
1. ∀A∈ A, P(A)≥0.
2. P(Ω) = 1.
3. ∀(An)n∈N∗∈ AN∗, une suite d’éléments deAdeux à deux incompatibles, on a:
P(
[
n∈N∗
An) =
+∞
X
n=1
P(An)
I Le triplet(Ω,A, P)est appeléespace probabilisé.
4
Probabilité: Propriétés
1. P(∅) = 0.
2. P(A1∪A2) =P(A1) +P(A2)−P(A1∩A2).
3. SiA1etA2 sont incompatibles,A1∩A2=∅,P(A1∪A2) =P(A1) +P(A2).
4. P(A1∪A2∪A3) =P(A1) +P(A2) +P(A3)−P(A1∩A2)−P(A1∩A3)−P(A2∩A3) +P(A1∩A2∩A3).
5. P( ¯A) = 1−P(A).
6. P(B\A) =P(B)−P(B∩A).
7. A⊂B⇒P(A)≤P(B).
Probabilité uniforme surΩfini
I SoitΩun univers fini. On dit queP est laprobabilité uniformesur l’espace probabilisable(Ω, P(Ω))si:
∀ω, ω0∈Ω, P({ω}) =P({ω0}) On dit aussi qu’il y aéquiprobabilitédes événements élémentaires.
I Soit(Ω,P(Ω), P)un espace probabilisé fini. SiP est la probabilité uniforme, alors
∀A∈ A, P(A) =Card(A) Card(Ω)
5
I Soit(Ω,A, P)une espace probabilisé etB∈ Atel queP(B)>0. L’applicationPB définie surApar:
PB(A) =P(A|B) =P(A∩B)
P(B) , ∀A∈ A
est une probabilité sur(Ω,A); elle est appelée laprobabilité conditionnellesachantB. C’est la probabilité pour que l’événementAse produise sachant que l’événementBs’est produit.
I Remarque:(A|B)n’est pas un événement! On utilise la notationP(A|B)par simplicité, mais c’estPB(A) qui est correcte.
I Formule des probabilités composées:
P(A∩B) =P(A|B)P(B) =P(B|A)P(A)
I Formule des probabilités totales:
• ∀A∈ A, P(A) =P(A∩B) +P(A∩B)¯
• On appellesystème complet d’événements (SCE), toute partition dénombrable deΩformée d’éléments deA; c-à-d tout ensemble dénombrable d’événements, deux à deux incompatibles et dont l’union dénombrable est l’événement certain.
• Soit(Bn)n≥0unSCEdeΩ. On a:
∀A∈ A, P(A) =
X
n≥0
P(A∩Bn)
I Indépendance: Les événementAetBsont indépendants ssiP(A∩B) =P(A)P(B).
6
Formule de Bayes
Première formule de Bayes
Soit(Ω,A, P)une espace probabilisé. Pour tous événementsAetBtels queP(A)6= 0etP(B)6= 0, on a:
P(B|A) = P(A|B)P(B) P(A)
Deuxième formule de Bayes
Soit(Ω,A, P)une espace probabilisé et(Bn)n≥0 unSCEdeΩt.q. pour toutn≥0P(Bn)6= 0. On a pour toutA∈ At.q. P(A)6= 0
P(Bi|A) = P(A|Bi)P(Bi)
P
n≥0P(A|Bn)P(Bn) ∀i≥0
7
Notion de variable aléatoire réelle (v.a.r.)
Définition
Soientεune expérience aléatoire et(Ω,A, P)un espace probabilisé lié à cette expérience. Dans de nombreuses situations, on associe à chaque résultatω∈Ωun nombre réel notéX(ω); on construit ainsi une applicationX: Ω→R. Historiquement,εétait un jeu etX représentait le gain du joueur.
Exemple: Jeu de dé
Un joueur lance un dé équilibré à 6 faces numérotées de 1 à 6, et on observe le numéro obtenu.
I Si le joueur obtient 1, 3 ou 5, il gagne 1 euro.
I S’il obtient 2 ou 4, il gagne 5 euros.
I S’il obtient 6, il perd 10 euros.
8
Analyse
I ε: “lancer d’un dé équilibré”.
I Ω ={1,2,3,4,5,6}.
I A=P(Ω).
I P l’équiprobabilité sur(Ω,A).
SoitXl’application deΩdansRqui à toutω∈Ωassocie le gain correspondant.
On a donc
I X(1) =X(3) =X(5) = 1
I X(2) =X(4) = 5
I X(6) =−10
On dit queX est unevariable aléatoiresurΩ.
9
Notion de variable aléatoire réelle (v.a.r.)
On peut s’intéresser à la probabilité de gagner 1 euro:
⇒ X(ω) = 1.
I ce qui se réalise si et seulement siω∈ {1,3,5}.
I La probabilité cherchée est doncP({1,3,5}) = 1/2.
I On écrira aussiP(X= 1) = 1/2.
On pourra donc considérer l’événement:
{X= 1}={ω∈Ω/X(ω) = 1}={ω∈Ω/X(ω)∈ {1}}=X−1({1})={1,3,5}.
On aura du même:
I P(X= 5) = 1/3.
I P(X=−10) = 1/6.
10
On peut présenter les probabilités précédentes dans un tableau:
xi -10 1 5
pi=P(X=xi) 1/6 1/2 1/3 Cela revient à considérer un nouvel ensemble d’événements élémentaires:
ΩX=X(Ω)={−10,1,5}
et à munir cet ensemble de la probabilitéPX définie par le tableau desP(X=xi)ci dessus. Cette nouvelle probabilité s’appelleloi de la variable aléatoireX.
Remarquer que
P(
[
xi∈ΩX
{X=xi}) =
X
xi∈ΩX
P(X=xi) =1
11
Variables aléatoires discrètes
Définition
On dit qu’une variable aléatoire réelle (v.a.r.)X estdiscrète(v.a.r.d.) si l’ensemble des valeurs que prendX est fini ou infini dénombrable.
Si on supposeX(Ω)l’ensemble des valeurs deXqui admet un plus petit élémentx1. Alors la v.a.r.d. Xest entièrementdéfiniepar:
I L’ensembleX(Ω)des valeurs prises parX, rangées par ordre croissant: X(Ω) ={x1, x2, . . . , xi, . . .}avec x1≤x2≤. . .≤xi≤. . ..
I Laloi de probabilitédéfinie surX(Ω)par
pi=p(xi) =P(X=xi) ∀i= 1,2, . . .
Remarques:
I B⊂R,P(X∈B) =
P
i/xi∈Bp(xi).
I P(a < X≤b) =
P
i/a<xi≤bp(xi).
I p(xi)≥0et
P
∞i=1p(xi) = 1.
I SiX ne prend qu’un petit nombre de valeurs, cette loi est généralement présentée dans un tableau.
12
Fonction de répartition d’une v.a.d
Définition
On appelle fonction de répartition de la v.a.X, qu’on noteF(a)de la v.a.r.d.X, ouFX(a), la fonction définie pour tout réela,−∞< a <∞, par
F(a) =P(X≤a) =
X
i/xi≤a
P(X=xi)
Cette valeur représente la probabilité de toutes les réalisations inférieures ou égales au réela.
Propriétés
1. C’est une fonction en escalier (constante par morceaux).
2. F(a)≤1car c’est une probabilité.
3. F(a)est continue à droite.
4. lim
a→−∞F(a) = 0et lim
a→∞F(a) = 1
La fonction de répartition caractérise la loi deX, autrement dit: FX=FY si et seulement si les variables aléatoiresX etY ont la même loi de probabilité.
13
Tous les calculs de probabilité concernantX peuvent être traités en termes de fonction de répartition. Par exemple,
P(a < X≤b) =F(b)−F(a) pour touta < b
On peut mieux s’en rendre compte en écrivant{X≤b}comme union des deux événements incompatibles {X≤a}et{a < X≤b}, soit
{X≤b}={X≤a} ∪ {a < X≤b}
et ainsi
P(X≤b) =P(X≤a) +P(a < X≤b) ce qui établit l’égalité ci dessus.
Remarque
On peut déduire deF les probabilités individuelles par:
pi=P(X=xi) =F(xi)−F(xi−1) pour1≤i≤n 14
Fonction de répartition et probabilités sur X
Exemple
On joue trois fois à pile ou face⇒
I Ω ={P, F}3.
I card(Ω) =|Ω|= 23= 8.
SoitXla variable aléatoire “nombre de pile obtenus”⇒X(Ω) ={0,1,2,3}.
I Calculons par exempleP(X= 1).
I X−1(1) ={(P, F, F),(F, P, F),(F, F, P)}.
⇒ P(X= 1) =38
En procédant de la même façon, on obtient la loi de probabilité deX:
k 0 1 2 3
P(X=k) 1/8 3/8 3/8 1/8
15
La fonction de répartition deXest donc donnée par:
F(x) =
0 six <0 1/8 si0≤x <1 1/2 si1≤x <2 7/8 si2≤x <3 1 six≥3
On peut présenter la fonction de répartition dans le tableau de la loi de probabilité deX:
k 0 1 2 3
P(X=k) 1/8 3/8 3/8 1/8 FX(x) 1/8 1/2 7/8 1
16
Fonction de répartition et probabilités sur X
Le graphe de cette dernière est représentée dans la figure suivante:
-1 0 1 2 3 4
x F(x) 01/81/27/81
Figure 1:Fonction de répartition
17
Une autre représentation de la fonction de répartition:
-1 0 1 2 3 4
x F(x) 01/81/27/81
Figure 2:Fonction de répartition
18
La variable aléatoire indicatrice
Définition
SoitAun événement quelconque. On appellevariable aléatoire indicatricede cet événementA, la variable aléatoire notéeX=1A et définie par:
X(ω) =
1 siω∈A 0 siω∈A¯Ainsi:
I P(X= 1) =P(A) =p
I P(X= 0) =P( ¯A) = 1−p
La fonction de répartition deXest donc donnée par:
F(x) =
(
0 six <01−p si0≤x <1
1 six≥1
19
Exemple
I SoitUune urne contenant 2 boules blanches et 3 boules noires.
I On tire une boule au hasard.
I SoitA:“obtenir une boule blanche”.
I SoitX la variable indicatrice deA.
Déterminez la loi de probabilité deXainsi que sa Fonction de répartition.
La loi de probabilité deX est
k 0 1
P(X=k) 35 25 et sa fonction de répartition est:
F(x) =
(
0 six <03/5 si0≤x <1 1 six≥1
20
Moments d’une variable aléatoire
discrète
Définition
Pour une variable aléatoire discrèteX de loi de probabilitép(.), on définit l’espérance deX, notéeE(X), par l’expression
E(X) =
X
i∈N
xip(xi)
En termes concrets, l’espérance deX est la moyenne pondérée des valeurs queXpeut prendre, les poids étant les probabilités que ces valeurs soient prises.
Exemples
1. Dans l’exemple où on joue 3 fois à pile ou face. L’espérance deX=“nombre de pile obtenus” est égal à:
E(X) = 0×1 8+ 1×3
8+ 2×3 8+ 3×1
8 = 1.5 2. Pour la variable aléatoire indicatrice deA:
E(X) = 0×P(X= 0) + 1×P(X= 1) =P(A) =p
Ceci signifie que l’espérance de la variable indicatrice pour l’événementAest égale à la probabilité queA
se produise. 21
Espérance d’une fonction d’une variable aléatoire
Théorème
Si X est une variable aléatoire discrète pouvant prendre ses valeurs parmi les valeursxi,i≥1, avec des probabilités respectivesp(xi), alors pour toute fonction réellegon a
E(g(X)) =
X
i
g(xi)p(xi)
Exemple
SoitXune variable aléatoire qui prend une des trois valeurs{−1,0,1}avec les probabilités respectives
P(X=−1) = 0.2 P(X= 0) = 0.5 P(X= 1) = 0.3 CalculerE(X2).
22
Solution
Première approche: SoitY =X2. La distribution deY est donnée par
P(Y = 1) =P(X=−1) +P(X= 1) = 0.5 P(Y = 0) =P(X= 0) = 0.5
Donc
E(X2) =E(Y) = 1(0.5) + 0(0.5) = 0.5 Deuxième approche: En utilisant le théorème
E(X2) = (−1)2(0.2) + 02(0.5) + 12(0.3)
= 1(0.2 + 0.3) + 0(0.5) = 0.5
Remarque
0.5 =E(X2)6= (E(X))2= 0.01
23
Linéarité de l’espérance
Propriétés
1. E(X+a) =E(X) +a, a∈R résultat qui se déduit de:
X
i
pi(xi+a) =
X
i
pixi+
X
i
api=
X
i
pixi+a
X
i
pi=
X
i
pixi+a
2. E(aX) =aE(X), a∈R il suffit d’écrire:
X
i
piaxi=a
X
i
pixi
3. E(X+Y) =E(X) +E(Y),X etY étant deux variables aléatoire.
On peut résumer ces trois propriétés en disant que l’espérance mathématique est linéaire:
E(λX+µY) =λE(X) +µE(Y), ∀λ∈R,∀µ∈R.
24
Définition
Il s’agit d’un indicateur mesurant la dispersion des valeursxique peut prendre la v.a.X et son espérance E(X). On appellevariancede X, que l’on noteV(X), la quantité, lorsqu’elle existe,
V(X) =E
(X−E(X))2
C’est l’espérance mathématique du carré de la v.a. centréeX−E(X).
Remarque
On peut établir une autre formule pour le calcul deV(X):
V(X) =E(X2)−E2(X) Or:
V(X) =E
X2−2XE(X) +E2(X)
=E(X2)−E[2XE(X)] +E[E2(X)]
=E(X2)−2E2(X) +E2(X)
=E(X2)−E2(X)
25
Variance
Exemple
On chercheV(X)oùXest le nombre obtenu lors du jet d’un dé équilibré.
On a vu précédemment queE(X)= 72. De plus,
E(X2)=
X
i
x2ip(xi)
= 12
16
+ 22
16
+ 32
16
+ 42
16
+ 52
16
+ 62
16
=
16
(91) = 91 6 Et donc
V(X)=E(X2)−E2(X)
= 91 6 −
72
2=35
12 26
Propriétés
1. V(X)≥0
2. ∀a∈R, V(X+a) =V(X) en effet:
V(X+a) =E
[X+a−E(X+a)]2
=E
[X+a−E(X)−a]2
=E
[X−E(X)]2
=V(X) 3. ∀a∈R, V(aX) =a2V(X)
en effet:
V(aX) =E
[aX−E(aX)]2
=E
[aX−aE(X)]2
=E
a2[X−E(X)]2
=a2
E[X−E(X)]2
=a2V(X)
27
Ecart-type
Définition
La racine carrée deV(X)est appelée l’écart-typedeX, qui se noteσX1. On a
σX=
p
V(X)
σXs’exprime dans les mêmes unités de mesure que la variable aléatoireX.
I L’écart type sert à mesurer la dispersion d’un ensemble de données.
I Plus il est faible, plus les valeurs sont regroupées autour de la moyenne.
I Exemple: La répartition des notes d’une classe. Plus l’écart type est faible, plus la classe est homogène.
I L’espérance et l’écart-type sont reliés par l’inégalité de Bienaymé-Tchebychev.
1ouσ(X), ou tout simplementσ.
28
Théorème
SoitXune variable aléatoire d’espéranceµet de varianceσ2. Pour toutε >0, on a l’inégalité suivante:
P(|X−E(X)| ≥ε)≤ σ2 ε2
Remarque
On peut l’écrire autrement. Soitk=ε/σ.
P(|X−E(X)| ≥kσ)≤ 1 k2 Importance
Cette inégalité relie la probabilité pourX de s’écarter de sa moyenneE(X), à sa variance qui est justement un indicateur de dispersion autour de la moyenne de la loi. Elle montre quantitativement que “plus l’écart type est faible, plus la probabilité de s’écarter de la moyenne est faible”.
Inégalité de Markov
SoitXune variable aléatoire à valeur non négatives. Pour tout réela >0 P(X > a)≤E(X)
a 29
Moments non centrés et centrés
Définition
On appellemoment non centréd’ordrer∈N∗deX la quantité, lorsqu’elle existe:
mr(X) =
X
i∈N
xrip(xi) =E(Xr).
Définition
Lemoment centréd’ordrer∈N∗est la quantité, lorsqu’elle existe:
µr(X) =
X
i∈N
pi[xi−E(X)]r=E[X−E(X)]r.
Remarque
Les premiers moments sont:
I m1(X) =E(X), µ1(X) = 0.
I µ2(X) =V(X) =m2(X)−m21(X).
30
discrètes
Couple de variables aléatoires discrètes
Nous avons traité jusqu’ici des variables isolées. Or, il est souvent nécessaire de considérer des événements relatifs à deux variables simultanément, ou même à plus de deux variables.
Définition
SoitXetY deux variables aléatoires réelles discrètes, définies sur un espace probabilisé(Ω,A, P)et que X(Ω) ={x1, x2, . . . , xl}etY(Ω) ={y1, y2, . . . , yk},letk∈N.
Laloi du couple(X, Y)est entièrement définie par les probabilités:
pij=P(X=xi;Y =yj) =P({X=xi} ∩ {Y =yj}) On a
pij≥0 et
l
X
i=1 k
X
j=1
pij= 1
Le couple(X, Y)s’appelle variable aléatoire à deux dimensions et peut prendrel×kvaleurs.
31
Les probabilitéspijpeuvent être présentées dans un tableau à deux dimensions qu’on appelle table de probabilité conjointe:
Table 1:Table de probabilité conjointe
X\Y y1 y2 . . . yj . . . yk
x1 p11 p12 p1j p1k
x2 p21 p22 p2j p2k
.. .
xi pi1 pi2 pij pik
.. .
xl pl1 pl2 plj plk
A la première ligne figure l’ensemble des valeurs deY et à la première colonne figure l’ensemble des valeurs de X. La probabilitépij=P(X=xi;Y =yj)est à l’intersection de laieet de lajecolonne.
32
Exemple de couple de variables aléatoires
Exemple
On tire au hasard 3 boules d’une urne contenant 3 boules rouges, 4 blanches et 5 noires.X etY désignent respectivement le nombre de boules rouges et celui de boules blanches tirées. Déterminer la loi de probabilité conjointe du couple(X, Y).
Solution
I ε: “tirer 3 boules d’une urne contenant 12 boules”.
I |Ω|=C123 = 220.
I X(Ω) ={0,1,2,3}etY(Ω) ={0,1,2,3}.
I p(X= 0, Y = 0) =p(0,0) =C35/C123 =22010.
I p(0,1) =C14C52/C123 = 22040.
I p(1,0) =C13C52/C123 = 22030.
33
Exemple
On tire au hasard 3 boules d’une urne contenant 3 boules rouges, 4 blanches et 5 noires.X etY désignent respectivement le nombre de boules rouges et celui de boules blanches tirées. Déterminer la loi de probabilité conjointe du couple(X, Y).
Solution
Table 2:Table de probabilité conjointe
X\Y 0 1 2 3
0 22010 22040 22030 2204 1 22030 22060 22018 0
2 22015 22012 0 0
3 2201 0 0 0
34
Lois marginales
Lorsqu’on connaît la loi conjointe des variables aléatoiresXetY, on peut aussi s’intéresser à la loi de probabilité deXseule et deY seule. Ce sont les lois de probabilité marginales.
I Loi marginale deX:
pi.=P(X=xi) =P[{X=xi} ∩Ω] =
k
X
j=1
pij ∀i= 1,2, . . . , l
I Loi marginale deY:
p.j=P(Y =yj) =P[Ω∩ {Y =yj}] =
l
X
i=1
pij ∀j= 1,2, . . . , k
On peut calculer les lois marginales dans directement depuis la table de la loi conjointe.
35
Table 3:Table de probabilité conjointe avec les lois marginales
X\Y y1 y2 . . . yj . . . yk Marginale deX
x1 p11 p12 p1j p1k p1.
x2 p21 p22 p2j p2k p2.
.. .
xi pi1 pi2 pij pik pi.
.. .
xl pl1 pl2 plj plk pl.
Marginale deY p.1 p.2 p.l p.k 1
36
Exemple: Détermination des lois marginales
Exemple
On tire au hasard 3 boules d’une urne contenant 3 boules rouges, 4 blanches et 5 noires.X etY désignent respectivement le nombre de boules rouges et celui de boules blanches tirées. Déterminer les lois marginales de XetY.
Solution
Table 4:Table de probabilité conjointe
X\Y 0 1 2 3 pi.=P(X=xi)
0 22010 22040 22030 2204 22084
1 22030 22060 22018 0 108220
2 22015 22012 0 0 22027
3 2201 0 0 0 2201
p.j=P(Y =yj) 22056 112220 22048 2204 1
37
Définition
Pour chaque valeuryjdeY telle quep.j=P(Y =yj)6= 0on peut définir la loi conditionnelle deXsachant Y =yjpar
pi/j=P(X=xi/Y =yj) =P(X=xi;Y =yj) P(Y =yj) = pij
p.j
∀i= 1,2, . . . , l
De même on définit la loi deY sachantX=xipar
pj/i=P(Y =yj/X=xi) = P(X=xi;Y =yj) P(X=xi) =pij
pi.
∀j= 1,2, . . . , k
38
Indépendance de variables aléatoires
Définition
On dit que deux v.a.r.d sont indépendantes si et seulement si
P(X=xi;Y =yj) =P(X=xi)P(Y =yj) ∀i= 1,2, . . . , letj= 1,2, . . . , k On montre que
P({X∈A} ∩ {Y ∈B}) =P({X∈A})P({Y ∈B}) ∀AetB∈ A
Propriétés
Soit deux v.a.r.d.X etY, 1. E(X+Y) =E(X) +E(Y)
2. SiX etY sont indépendantes alorsE(XY) =E(X)E(Y). Mais la réciproque n’est pas toujours vraie.
39
Définition
SoitXetY deux v.a.r.d. On appellecovariancedeX et deY la valeur si elle existe de
Cov(X, Y) =E[(X−E(X))(Y −E(Y))] =
X
i
X
j
(xi−E(X))(yj−E(Y))pij
qu’on peut calculer en utilisant la formule suivante
Cov(X, Y) =E(XY)−E(X)E(Y)
Propriétés
I Cov(X, Y) =Cov(Y, X)
I Cov(aX1+bX2, Y) =aCov(X1, Y) +bCov(X2, Y)
I V(X+Y) =V(X) +V(Y) + 2Cov(X, Y)
I SiX etY sont indépendantes alors
• Cov(X, Y) = 0(la réciproque n’est pas vraie)
• V(X+Y) =V(X) +V(Y)(la réciproque n’est pas vraie) 40
Coefficient de corrélation linéaire
Définition
On appelle coefficient de corrélation linéaire deX et deY la valeur définie par
ρ=ρ(X, Y) = Cov(X, Y)
p
V(X)V(Y)=Cov(X, Y) σXσY
On peut montrer que
−1≤ρ(X, Y)≤1
Interprétation deρ
I Le coefficient de corrélation est une mesure du degré de linéarité entreX etY.
I Les valeurs deρproches de1ou−1indiquent une linéarité quasiment rigoureuse entreXetY.
I Les valeurs deρproche de 0 indiquent une absence de toute relation linéaire.
I Lorsqueρ(X, Y)est positif,Y a tendance à augmenter siXen fait autant.
I Lorsqueρ(X, Y)<0,Y a tendance à diminuer siXaugmente.
I Siρ(X, Y) = 0, on dit que ces deux statistiques sont non corrélées. 41
Loi Uniforme Discrète
Définition
Une distribution de probabilité suit une loi uniforme lorsque toutes les valeurs prises par la variable aléatoire sont équiprobables. Sinest le nombre de valeurs différentes prises par la variable aléatoire alors on a:
P(X=xi) = 1
n ∀i∈ {1, . . . , n}
On ditX∼ U(n).
Exemple
La distribution des chiffres obtenus au lancer de dé (si ce dernier est non pipé) suit une loi uniforme dont la loi de probabilité est la suivante :
xi 1 2 3 4 5 6
P(X=xi) 16 16 16 16 16 16
42
Cas particulier
Dans le cas particulier d’une loi uniforme discrète où chaque valeur de la variable aléatoireX correspond à son rang, i.e.xi=i∀i∈ {1, . . . , n}, on a:
E(X) = n+ 1
2 et V(X) = n2−1 12 Démonstration
La démonstration de ces résultats est établie en utilisant les égalités:
n
X
i=1
i= n(n+ 1)
2 et
n
X
i=1
i2=n(n+ 1)(2n+ 1)
6 .
Vous avez la démonstration de ces égalités dans l’Annexe.
Exemple
L’exemple du lancer du dé: on peut calculer directement les moments deX:
E(X) =6 + 1
2 = 3.5 et V(X) =62−1 12 =35
12'2.92.
43
Loi de Bernoulli B(p)
Variable Indicatrice
SoitAun événement quelconque; on appelle v.a. indicatrice de l’événementA, la v.a. définie parX=1A, c’est à dire:
X(ω) =1A(ω) =
0 siω∈A¯ 1 siω∈A AinsiX(Ω) ={0,1}avec:P(X= 1) =P{ω∈Ω/X(ω) = 1}=P(A) =p
P(X= 0) =P{ω∈Ω/X(ω) = 0}=P( ¯A) = 1−P(A) =q avecp+q= 1
Définition
On dit queX suit une loi de Bernoulli de paramètrep=P(A), ce qu’on écrit symboliquementX∼ B(p).
Une distribution de Bernoulli est associée à la notion “épreuve de Bernoulli”, qui est une épreuve aléatoire à deux issues: succès (X= 1) et échec (X= 0).
44
Loi de Bernoulli B(p)
Fonction de répartition de loi de Bernoulli
F(x) =
(
0 six <01−p si0≤x <1 1 six≥1.
Espérance de loi de Bernoulli
E(X)= 1×P(A) + 0×P( ¯A) =P(A) =p
Variance de loi de Bernoulli
V(X)=E(X2)−E2(X) =p−p2=p(1−p)=pq car
E(X2) = 12×P(A) + 02×P( ¯A) =P(A) =p
45
Loi Binomiale B(n, p)
I Décrite pour la première fois parIsaac Newtonen 1676 et démontrée pour la première fois par le mathématicien suisseJacob Bernoullien 1713.
I La loi binomiale est l’une des distributions de probabilité les plus fréquemment rencontrées en statistique appliquée.
I On exécutenépreuvesindépendantesdeBernoulli.
I Chaque épreuve appour probabilité de succès et1−ppour probabilité d’échec.
A A A¯ A A¯ . . . A¯ A A
S S E S E . . . E S S
I X=le nombre de succèssur l’ensemble desnépreuves.
I X dépend de deux paramètresnetp.
46
S S E S E . . . E S S
I X=le nombre de succèssur l’ensemble desnépreuves.
I X(Ω) ={0,1, . . . ,n}
P(X=k) = n k
pk(1−p)n−k 0≤k≤nI n k
est le nombre d’échantillons de taillencomportant exactementksuccès, de probabilitépk, indépendamment de l’ordre, et doncn−kéchecs, de probabilité(1−p)n−k.I On écritX∼ B(n, p).
Remarque
Une variable de Bernoulli n’est donc qu’une variable binomiale de paramètres(1, p).
X∼ B(p) ⇐⇒ X∼ B(1, p)
47
Triangle de Pascal & Binôme de Newton
Triangle de Pascal
n k
= n−1 k−1 + n−1 k ∀n≥1et1≤k≤n−1n= 6 n= 5 n= 4 n= 3 n= 2 n= 1 n= 0
0 1 2 3 4 5 6
1 6 15 20 15 6 1 1 5 10 10 5 1
1 4 6 4 1
1 3 3 1
1 2 1
1 1 1
Binôme de Newton
(x+y)n=
n
X
k=0
n k
xn−kykCette formule permet de vérifier que la loiBinomialeest une loi de probabilité:
n
X
k=0
P(X=k) =
n
X
k=0
n k
pk(1−p)n−k= [p+ (1−p)]n= 148
Exemple
On jettecinq pièces équilibrées. Les résultats sont supposés indépendants. Donner la loi de probabilité de la variableX qui comptele nombre de piles obtenus.
Solution
I X=nombre de piles (succès).
I n= 5.
I p= 1/2.
I X∼ B(5,1
2).
I X(Ω) ={0,1, . . . ,5}
I P(X= 0) = 50
12
01−1
2
5−0=321
I P(X= 1) = 51
12
11−1
2
4=325
I P(X= 2) = 52
12
21−1
2
3=1032
I P(X= 3) = 53
12
31−1
2
2=1032
I P(X= 4) = 54
12
41−1
2
1=325
I P(X= 5) = 55
12
51−1
2
0=321 49
Moments de la loi Binomiale
SiX∼ B(n, p)alorsE(X) =npetV(X) =np(1−p) Démonstration
Première approche: On associe à chaque épreuvei,1≤i≤n, une v.a. de Bernoulli.
1A=Xi=
1 siAest réalisé 0 siA¯est réalisé On peut écrire alors:X=P
ni=1Xi=X1+X2+. . .+Xn
Donc
E(X)=E
n
X
i=1
Xi
!
=
n
X
i=1
E(Xi) =np
et V(X)=V
n
X
i=1
Xi
!
=
n
X
i=1
V(Xi) =np(1−p)
car les v.a.Xisont indépendantes. 50
Deuxième approche: Calcul direct.
I E(X) =
P
n k=0k nkpk(1−p)n−k=. . .=np
I V(X) =E(X2)−E2(X)
I Pour obtenirE(X2)par un procédé de calcul identique, on passe par l’intermédiaire du moment factorielE[X(X−1)].
I V(X) =E(X2)−E2(X) =E[X(X−1)] +E(X)−E2(X)
I E[X(X−1)] =
P
nk=0k(k−1)k!(n−k)!n! pk(1−p)n−k=. . .=n(n−1)p2
I V(X) =n(n−1)p2+np−(np)2=np(1−p)
51
Loi Binomiale B(n, p)
Exemple
Le nombre de résultats pile apparus au cours denjets d’une pièce de monnaie suit une loi binomialeB(n,1/2):
P(X=k) = n k
1
2
k12
n−k=
n k
2n, 0≤k≤n avecE(X) =n/2etV(X) =n/4.
Exemple
Le nombreNde boules rouges apparues au cours dentirages avec remise dans une urne contenant deux rouges, trois vertes et une noire suit une loi binomialeB(n,1/3):
P(N=k) = n k
1
3
k23
n−k= n k
2n−k3n , 0≤k≤n avecE(X) =n/3etV(X) = 2n/9.
Remarque
SiX1∼ B(n1,p)etX2∼ B(n2,p), les v.a.X1etX2étantindépendantes, alorsX1+X2∼ B(n1+n2,p).
Ceci résulte de la définition d’une loi binomiale puisqu’on totalise ici le résultat den1+n2 épreuves
indépendantes. 52
Loi de Poisson P (λ)
Définition
Une v.a.X suit une loi de Poisson de paramètreλ >0si c’est une variable à valeurs entières,X(Ω) =N, donc avec une infinité de valeurs possibles, de probabilité:
P(X=k) =e−λλk
k!, k∈N
Cette loi ne dépend qu’un seul paramètre réel positifλ, avec l’écriture symboliqueX∼ P(λ).
Remarque
ex=
+∞
X
i=0
xi i!
Donc
∞
X
k=0
P(X=k) =
∞
X
k=0
e−λλk k! =e−λ
∞
X
k=0
λk
k! =e−λeλ= 1
53
SiX∼ P(λ)alorsE(X) =λetV(X) =λ Espérance de loi de Poisson
E(X) =
∞
X
k=0
kP(X=k)
=. . .
=λ.
Variance de loi de Poisson
I On calcule d’abordE(X2) =
P
∞k=0k2P(X=k) =. . .=λ(λ+ 1).
Ensuite
V(X) =λ(λ+ 1)−λ2=λ
54
Loi de Poisson P (λ)
Exemple
I X=nombre de micro-ordinateurs vendus chaque jour dans un magasin.
I On supposeX∼ P(5).
I La probabilité associée à la vente de 5 micro-ordinateurs est P(X= 5) =e−555
5! =e−5'0.1755
I La probabilité de vendre au moins 2 micro-ordinateurs est P(X≥2) = 1−
e−550
0!+e−551 1!
'0.9596
I Le nombre moyen de micro-ordinateurs vendus chaque jour dans le magasin est égal à 5 puisque E(X) =λ= 5.
Propriétés
SiXetY sont deux variablesindépendantessuivant des lois de Poisson,X∼ P(λ) et Y ∼ P(µ), alors leur somme suit aussi une loi de Poisson:X+Y ∼ P(λ+µ).
55
Sin→ ∞etp→0alorsX:B(n, p)∼ P(λ).
Remarque
Une bonne approximation est obtenue sin≥50etnp≤5.
Dans ce contexte, la loi de Poisson est souvent utilisée pour modéliser le nombre de succès lorsqu’on répète un très grand nombre de fois une expérience ayant une chance très faible de réussir par une loi de Poisson.
Applications de la loi de Poisson
I Le nombre d’individus dépassant l’âge de 100 ans dans une communauté.
I Le nombre de faux numéros téléphoniques composés en un jour.
I Le nombre de clients pénétrant dans un bureau de poste donné en l’espace d’un jour.
I Le nombre de particulesαémises par un matériau radioactif pendant un certain laps de temps.
La v.a. dans ces exemples est répartie de manière approximativement poissonienne car: on approxime par là une variable binomiale.
56
Loi Géométrique ou de Pascal G(p)
I ε:“On répéte l’épreuve de Bernoulli jusqu’à avoir le premier succès”.
I Exemple:
A¯ A¯ A¯ A¯ A¯ . . . A¯ A¯ A E E E E E . . . E E S
I Chaque épreuve appour probabilité de succès et1−ppour probabilité d’échec.
I X=“le nombre d’épreuves effectuées”.
E E E E E . . . E E
| {z }
k−1
S
I X(Ω) =N∗={1,2,3, . . .}. On ditX∼ G(p).
I ∀k∈N∗ P(X=k) = (1−p)k−1p
I Attention: ParfoisX=“nombre d’épreuves effectuéesavantobtenir le premier succès”. Dans ce cas X(Ω) =N. On ditX∼ G(p)surN.
I Cette loi peut servir à modéliser des temps de vie, ou des temps d’attente, lorsque le temps est mesuré de manière discrète (nombre de jours par exemple).
I Série entière:
P
∞k=0xk= 1/(1−x) pour |x|<1
I
P
∞k=1P(X=k) =
P
∞k=1(1−p)k−1p=p
P
∞j=0(1−p)j
P
∞k=1(1−p)k−1p=p
P
∞j=0(1−p)j= p1−(1−p)1 = 1
57
Moments de loi Géométrique
Espérance de loi Géométrique
I E(X) =
P
∞k=1kP(X=k) =
P
∞k=1kp(1−p)k−1=p
P
∞k=1k(1−p)k−1
I Série entière:
P
∞k=0xk= 1/(1−x) pour |x|<1
I Dérivée première de la série entière:
P
∞k=1kxk−1= 1/(1−x)2
I DoncE(X)=[1−(1−p)]p 2 =1p
En d’autres termes, si des épreuves indépendantes ayant une probabilitépd’obtenir un succès sont réalisés jusqu’à ce que le premier succès se produise, le nombre espéré d’essais nécessaires est égal à1/p. Par exemple, le nombre espéré de jets d’un dé équilibré qu’il faut pour obtenir la valeur 1 est 6.
58
Variance de loi Géométrique
I V(X) =E(X2)−E2(X) =E[X(X−1)] +E(X)−E2(X). Or,
E[X(X−1)] =
∞
X
k=2
k(k−1)p(1−p)k−1
=p(1−p)
∞
X
k=2
k(k−1)(1−p)k−2
I Dérivée première de la série entière:
P
∞k=1kxk−1= 1/(1−x)2
I Dérivée seconde de la série entière:
P
∞k=2k(k−1)xk−2= 2/(1−x)3
I DoncE[X(X−1)] =[1−(1−p)]2p(1−p)3 = 2(1−p)p2
I Et alorsV(X)=E[X(X−1)] +E(X)−E2(X) =1−pp2 .
59
Loi Binomiale Négative BN (r, p)
I ε:“On répéte l’épreuve de Bernoulli jusqu’à obtenir un total dersuccès”.
I Exemple avecr= 3:
A¯ A A¯ A¯ A¯ A A¯ A¯ A E S E E E S E E S
I Mais on peut obtenirrsuccèsd’autres façons:
S E E E E E S E S E E E E S E S E S
I Chaque épreuve appour probabilité de succès et1−ppour probabilité d’échec.
I DésignonsX=“le nombre d’épreuves nécessaires pour attendre cerésultat”.
r−1succèsetk−réchecs
z }| {
E S E E E S E E S
| {z }
X=k I X(Ω) ={r, r+ 1, r+ 2, . . .}. On ditX∼ BN(r, p).
I ∀k∈X(Ω),
P(X=k) = k−1 r−1
pr(1−p)k−r60
G(p) = BN(1, p)
I ε:“On répéte l’épreuve de Bernoulli jusqu’à obtenir un total dersuccès”.
I Soit,
E . . . E S E . . . E S. . . E. . . E S
I Soit,Y1 le nombre d’épreuves nécessaires jusqu’au premier succès,Y2le nombre d’épreuves
supplémentaires nécessaires pour obtenir un deuxième succès,Y3 celui menant au 3ème et ainsi de suite.
I Càd,
E . . . E S
| {z }
Y1
E . . . E S
| {z }
Y2
. . .
|{z}
...
E . . . E S
| {z }
Yr
I Les tirages étants indépendantes et ayant toujours la même probabilité de succès, chacune des variables Y1, Y2, . . . , Yr est géométriqueG(p).
I X=“le nombre d’épreuves nécessaires à l’obtention dersuccès”=Y1+Y2+. . .+Yr.
I Donc,
E(X) =E(Y1) +E(Y2) +. . .+E(Yr) =
r
X
i=1
1 p = r
p et
V(X) =
r
X
i=1
V(Yi) =r(1−p) p2 car lesYisont indépendantes.
61