cours 15
3.4 LOIS DISCRÈTE 2
Au dernier cours, nous avons vu
E (X ) Var(X ) P (X = k )
np npq
✓ n k
◆
p
kq
n kq
k 1p 1
p
1 p p
2r (1 p) p
2r p
✓ k 1 r 1
◆
p
rq
k rX ⇠ B (n; p)
Binomiale
X ⇠ G(p) Géométrique
X ⇠ BN (r, p) Binomiale négative
Loi
Aujourd’hui, nous allons voir
✓ Loi de Poisson
✓ Loi hypergéométrique
Loi de poisson
P (X = k ) =
k
k ! e
Une variable aléatoire pouvant prendre pour valeurs 0, 1, 2, 3, …
avec paramètre
est dite loi de Poisson
= p(k )
X ⇠ P ( )
X
1 k=0P (X = k) =
X
1 k=0k
k ! e
= e
X
1 k=0k
k!
= e e = 1
On peut vérifier que cette loi est bien une loi de probabilité
e
x=
X
1 k=0x
kk !
La série de Taylor de e
xUn des intérêts qu’on porte à la loi de Poisson est dû au fait que dans certaines situations elle permet d’obtenir une approximation de la loi
binomiale.
Soit X ⇠ B (n, p)
tel que n est grand et p est petit de telle sorte que soit moyen. np
par exemple n = 100 p = 1
25 np = 4
Considérons X ⇠ B (n, p)
avec les conditions précédentes et posons np = = ) p =
n
= n!
k !(n k )!
✓ n
◆
k✓
1 n
◆
n k= n(n 1) · · · (n k + 1)
k !
✓ n
◆
k✓
1 n
◆
n k= n(n 1) · · · (n k + 1)
n
kk
k!
✓
1 n
◆
n k=
✓ n k
◆
p
k(1 p)
n kP (X = k)
Considérons X ⇠ B (n, p)
avec les conditions précédentes et posons np = = ) p =
n
= n(n 1) · · · (n k + 1)
n
kk
k !
✓
1 n
◆
n kP (X = k)
= n(n 1) · · · (n k + 1)
n
kk
k !
1
n n1
n kn
lim
!1n(n 1) · · · (n k + 1)
n
k= 1
n(n 1) · · · (n k + 1)
n
k⇡ 1
Considérons X ⇠ B (n, p)
avec les conditions précédentes et posons np = = ) p =
n
P (X = k) = n(n 1) · · · (n k + 1)
n
kk
k !
1
n n1
n kn
lim
!1✓
1 n
◆
n= e
n
lim
!1✓
1 n
◆
k= 1
✓
1 n
◆
k⇡ 1
✓
1 n
◆
n⇡ e
n(n 1) · · · (n k + 1)
n
k⇡ 1
Considérons X ⇠ B (n, p)
avec les conditions précédentes et posons np = = ) p =
n
P (X = k) = n(n 1) · · · (n k + 1)
n
kk
k !
1
n n1
n k✓
1 n
◆
k⇡ 1
✓
1 n
◆
n⇡ e
n(n 1) · · · (n k + 1)
n
k⇡ 1
⇡
k
k ! e
X ⇠ P ( )
= e
X
1 k=0k
k
k ! = e
X
1 k=1k
k
k !
= e
X
1 k=1k 1
(k 1)! = e
X
1 k=1k 1
(k 1)!
= e
X
1 t=0t
t! = e e =
t = k 1
k = 1 = ) t = 0
=
X
1 k=0k
k
k ! e E (X )
p(k) =
k
k ! e
= Var(X ) = E (X
2) E (X )
2E (X ) = E (X
2)
2=
X
1 k=0k
2k
k! e = e
X
1 k=1k
k 1
(k 1)!
= e
X
1 k=1(k 1 + 1)
k 1
(k 1)!
= e
X
1 k=1
(k 1)
k 1
(k 1)! +
k 1
(k 1)!
= e
"
1X
k=1
(k 1)
k 1
(k 1)! +
X
1 k=1k 1
(k 1)!
# E (X
2)
X ⇠ P ( ) p(k) =
k
k ! e
E (X ) =
= e
"
1X
k=1
(k 1)
k 1
(k 1)! +
X
1 k=1k 1
(k 1)!
#
= e
"
1X
k=1
(k 1)
k 1
(k 1)! + e
#
= e
"
1X
k=2
(k 1)
k 1
(k 1)! + e
#
= e
"
1X
k=2
k 2
(k 2)! + e
# E (X
2)
X ⇠ P ( ) p(k) =
k
k ! e
Var(X ) = E (X
2) E (X )
2= E (X
2)
2E (X ) =
= e
"
1X
k=2
k 2
(k 2)! + e
#
= e
"
1X
t=0
t
t! + e
#
= e ⇥
e + e ⇤
= e e [ + 1]
= [ + 1] =
2+ E (X
2)
=
X ⇠ P ( ) p(k) =
k
k ! e
Var(X ) = E (X
2) E (X )
2= E (X
2)
2t = k 2
=
Var(X ) = E (X
2) E (X )
2E (X )
= E (X
2)
2=
2+ E (X
2)
=
2+
2= X ⇠ P ( ) p(k) =
k
k ! e
Voici quelques exemples de variable aléatoire qui suivent une loi de Poisson
• Le nombre de coquilles par page d’un livre.
• Le nombre d’individus dépassant l’âge de100 ans dans une ville.
• Le nombre de maisons vendu par un agent d’immeuble par jour.
• Le nombre de particules alpha émis par un élément radioactif par seconde
• Le nombre de postes devenu vacant dans une école par an.
Dans ces cas on utilise pour la valeur moyenne
Exemple On a mesuré qu’une matière radioactive émet en
moyenne 2,3 particules par seconde par gramme.
Quelle est la probabilité qu’au plus 3 particules soient émises?
↵
↵ Ici le nombre d’atomes par gramme est grand n
et la probabilité qu’un atome se désintègre est petite. p = 2, 3 n
= 2, 3
P (X 3) = f (0) + f (1) + f (2) + f (3)
= e
2,3+ (2, 3)e
2,3+ (2, 3)
22 e
2,3+ (2, 3)
36 e
2,3X ⇠ P (2, 3) f (k ) = (2, 3)
kk! e
2,3⇡ 0, 7993
Faites les exercices suivants
# 25 à 32
Loi hypergéométrique
Considérons l’expérience aléatoire consistant à piger sans remise boules d’une urne en contenant . n
X : le nombre de boules succès pigé.
N
Il y a deux types de boules. On nomme les d’un type succès et les autre échec
pN qN
X ⇠ H (n, p, N )
La loi d’une telle variable aléatoire est dite suivre une
loi hypergéométrique
X ⇠ H (n, p, N )
P (X = k ) =
✓ pN k
◆✓ qN n k
◆
✓ N n
◆
Le nombre de façons de piger boules parmi est
✓ N n
◆
n N
✓ pN k
◆✓ qN n k
◆ le nombre de façons de piger succès k
donc
X ⇠ H (n, p, N )
E (X ) = np Var(X ) = npq N n N 1 Ici nous ne démontrera pas comment on a obtenu
l’espérance et la variance
Exemple Un groupe de calcul différentiel est composé de 10 étudiants en science humaine et de 20 étudiants en science de la nature.
L’enseignant sélectionne au hasard 8 étudiants. Quelle est la
probabilité d’avoir sélectionné 5 étudiants en science de la nature?
=
✓ 20 5
◆✓ 10 3
◆
✓ 30 8
◆ P (X = 5)
X ⇠ H
✓
8, 2
3 , 30
◆
Faites les exercices suivants
# 3.33 et 3.34
Aujourd’hui, nous avons vu
E (X ) Var(X ) P (X = k )
Loi
Loi de Poisson X ⇠ P ( )
k