• Aucun résultat trouvé

L05 [V2-VàC] – Loi de Poisson, loi normale

N/A
N/A
Protected

Academic year: 2021

Partager "L05 [V2-VàC] – Loi de Poisson, loi normale"

Copied!
10
0
0

Texte intégral

(1)

9

Loi de Poisson, loi normale

5

Leçon

Niveau BTS

Prérequis Variable aléatoire, espérance, variance, théorème limite central, loi binomiale,

fonctions exponentielles

Références [14],[15]

5.1

Loi de Poisson

5.1.1 Définition

La loi de Poisson est la loi des processus assimilables au temps d’attente.

Définition 5.1 Soit λ un réel strictement positif. On appelle loi de Poisson de paramètre λ, la loi d’une variable aléatoire X discrète qui prend les valeurs k ∈ N avec les probabilités :

P(X = k) = λ

k

k!e

−λ

une telle loi est notéePois(λ).

Dv

A-t-on bien défini une variable aléatoire ? Théorème 5.2 Pour tout réel x, on a :

ex=+∞X k=0

xk k!

• Preuve La formule de Taylor, pour une fonction indéfiniment dérivable f nous donne :

f(u) = +∞ X n=0 dnf dun(0) un n!

et l’égalité, valable pour tout entier naturel n : dn(eu) dun = e u donnent le résultat. Ainsi : +∞ X k=0 P(X = k) = +∞ X k=0 λk k!e −λ = e−λ+∞X k=0 λk k! = e −λeλ = e−λ+λ= e0 = 1. 5.1.2 Valeurs caractéristiques

(2)

10 Leçon no5 Loi de Poisson, loi normale

Théorème 5.3 Soit X une variable aléatoire qui suit la loi de Poisson de paramètre λ. Alors :

E(X) = λ et Var(X) = λ. Dv • Preuve On a : E(X) =+∞X k=0 ke−λλ k k! = λe −λ+∞X k=1 λk−1 (k − 1)!= λ. E(X(X − 1)) =+∞X k=0 k(k − 1)e−λλ k k! = λ 2e−λ+∞X k=2 λk−2 (k − 2)! = λ2. Or, par linéarité de l’espérance :

E(X(X − 1) = E(X2) − E(X)

donc :

E(X2) = λ2+ λ et Var(X) = E(X2) − E(X)2= λ2+ λ − λ2= λ.

5.1.3 Somme des deux lois de Poisson

Théorème 5.4 Si X1suit une loiPois(λ1) et X2suit une loiPois(λ2) et que X1et X2sont

indépen-dantes alors X = X1+ X2suit une loiPois(λ1+ λ2). 5.1.4 Table de la loi de Poisson

Contrairement à la loi binomiale qui a 2 paramètres n et p, la loi de Poisson n’a qu’un seul paramètre λ. Ci-dessous (figure 5.1, la table donnant les valeurs numériques de P(X = k) pour différentes valeurs de λ et k.

Exemple 5.5 Soit X une variable aléatoire qui suit la loi de PoissonPois(λ), λ = 4. On a P (X =

2) = 0, 147. 

5.1.5 Exemples de situations

Exemple 5.6 — Signature de pétitions. Un militant entreprend de faire signer une pétition à l’entrée d’un supermarché. Le nombre de personnes X qu’il peut ainsi contacter est une variable aléatoire de Poisson de paramètre α. Soit p la probabilité qu’une personne ainsi sollicitée signe la pétition. On note Y le nombre total de signatures et Z le nombre total de refus de signature (X = Y + Z).

1. Soient j et k deux entiers. En distinguant les cas j > k et j ≤ k, calculer P (Y = j | X = k). 2. En déduire P(X = k, Y = j).

3. Déterminer la loi de Y . Les variables aléatoires X et Y sont-elles indépendantes ? 4. En utilisant le résultat de la question 2, déterminer la loi du couple(Y, Z). 5. Ces deux variables aléatoires sont-elles indépendantes ? Commenter.

 Exemple 5.7 — Poisson pair et impair. Soit X une variable aléatoire de Poisson de moyenne θ >0. Quelle est la probabilité que X soit pair ? impair ? 

(3)

FIGURE5.1 – Table de la loi de Poisson

5.2

Loi normale

5.2.1 Definition

Définition 5.8 Soient m un réel et σ un réel positif et non nul. On dit qu’une variable aléatoire X suit la loi normal de paramètres m et σ si elle admet pour densité de probabilité :

f(x) = 1 σ√2πe

−(x−m)2/(2σ2). On dit que X suit une loi N(m, σ).

La densité de probabilité de f est :

P(X ≤ x) = F(x) = 1 σ√2π Z x −∞e −(t−m)2/2σ2dt. On admet que : 1 σ√2π Z +∞ −∞ e −(t−m)2/2σ2dt = 1.

(4)

12 Leçon no5 Loi de Poisson, loi normale −4 −2 0 2 4 6 8 0.05 0.1 0.15 0

Propriété 5.9 Pour tout x >0, on a f(m + x) = f(m − x), donc la droite d’équation x = m est un axe de symétrie pour la courbe.

Théorème 5.10 Si X ∼ N(m, σ) alors E(X) = m et Var(X) = σ2. 5.2.2 Loi normale centrée-réduite

Soit X ∼ N(m, σ), on considère la variable Y = Xm σ . On a : P(Y < y) = P (X < σy + m) = 1 σ Z σx+m −∞ e −(t−m)2/(2σ2)dt. Effectuons le changement de variable :

u= t− m σ ⇒ du = dt σ . On obtient : P(Y < y) = 1 σ√2π Z x −∞e −u2/2σdu = 1 √2π Z x −∞e −u2/2du. Donc Y ∼ N(0, 1).

Définition 5.11 On appelle loi normale centrée-réduite ou de Laplace-Gauss, la loi N(0, 1).

Sa fonction densité est une fonction paire et son graphe admet(Oy) pour axe de symétrie.

−4 −2 0 2 4

0.2 0.4

0

Dans le cas de la loi N(0, 1), on note P (X < x) = F (x) = Π(X). Cette fonction est tabulée pour x ≥ 0.

(5)
(6)

14 Leçon no5 Loi de Poisson, loi normale

Exemple 5.12 On donne X ∼ N(0, 1). D’après la table de la loi normale centrée-réduite :

P(X < 1) = 0, 8413, P (X < 2, 55) = 0, 9946.

 Propriété 5.13— Propriété sur la loi normale centrée-réduite. Si X ∼ N(0, 1),

P(a < X < b) = √2π1

Z b a e

−x2/2dt = Π(b) − Π(a).

5.2.3 Somme de variables gaussiennes

Théorème 5.14 Si X1suit la loi N(m1, σ1,), X2suit la loi N(m2, σ2) et X1, X2indépendantes, alors

X= X1+ X2suit la loi N(m1+ m2,qσ21+ σ22).

5.3

Convergence

5.3.1 De la loi binomiale vers la loi de Poisson

Théorème 5.15 Soient p ∈ [0 , 1] et n ∈ N. Soit X suivant la loi Bin(n, p). Si n est « assez grand », si p est « assez petit » et si np n’est « pas trop grand » alors on peut approcher la loi de X par une loi de PoissonPois(np).

Les conditions d’utilisation de ce théorème sont : — n ≥ 30, p ≤ 0, 1, np ≤ 15 ;

— n ≥ 50, p ≤ 0, 1, np ≤ 10.

Exemple 5.16 Dans une entreprise, on estime que la probabilité pour un article d’être défectueux est

p = 0, 05. On prélève dans un stock de 80000 articles un échantillon de 120 unités et on s’intéresse

au nombre d’éléments défectueux dans l’échantillon.

Hypothèses : Bien que le choix des articles prélevés se fasse sans remise, on formule l’hypothèse que ce prélèvement de120 articles sur les 80000 ne modifie pratiquement pas la composition globale du stock.

Modélisation : Sous les hypothèses précédentes, une expérience élémentaire consiste à prélever un article, constater s’il est défectueux, le remplacer dans le stock. Cette expérience élémen-taire étant répétée120 fois de façon indépendantes des autres.

On note Xi pour i = 1, 2, . . . , 120 la variable aléatoire qui prend la valeur 1 si l’objet est défectueux,0 sinon.

X est la variable aléatoire qui donne le nombre d’articles défectueux dans l’échantillon de

taille120.

Il est clair que X = X1+ X2+ · · · + X120. Comme pour i = 1, 2, . . . , 120, Xisuit une loi Bern(0.05) alors Xisuit une loiBin(120, 0.05).

De plus,E(X) = np = 120 × 0, 05 = 6.

Convergence : On dresse un tableau avec quelques valeurs approchées de la loi de X et une variable Y de loi de PoissonPois(6) :

k 0 1 2 3 4 5 6 7 8 9 P(X = k) 0, 002 0, 013 0, 041 0, 087 0, 134 0, 164 0, 165 0, 141 0, 105 0, 069 P(Y = k) 0, 002 0, 015 0, 045 0, 089 0, 134 0, 161 0, 161 0, 138 0, 103 0, 69

(7)

 5.3.2 De la loi de Poisson à la loi binomiale

Théorème 5.17 SI(Xn)nest une suite de variables aléatoires indépendantes, de même loi de Poisson Pois(λ) et si Sn= X1+ · · · + Xnalors Snsuit la loi de PoissonPois(nλ).

Dv

• Preuve La démonstration se fait par récurrence sur n. — Pour n= 1, X1suit la loi de PoissonPois(λ).

— Si Sn = X1+ · · ·+Xnsuit la loi de PoissonPois(nλ), Sn+1+ Sn+ Xn+1, et vu que Snet Xn+1 sont indépendantes, que Sn suit la loi de PoissonPois(nλ) et Xn+1 la loi de PoissonPois(λ)),

Sn+ Xn+1= Sn+1suit la loi de Poisson de paramètre nλ+ λ = (n + 1)λ.

Sn suit la loi de PoissonPois(nλ) donc E(Sn) = nλ et Var(Sn) = nλ. D’après le théorème central limite, la loi de Snpeut être approximée par la loi normale N(E(Sn), Var(Sn)), c’est-à-dire N(nλ, nλ).

En pratique, lorsque λ ≥ 15, on peut approximer la loi de Poisson Pois(λ) par la loi normale N(λ, λ).

Exemple 5.18 Si X suit la loi de PoissonPois(16),

P(X = 16) = e−1616

16

16! ≈0, 0992.

En approximant la loiPois(16) par la loi N(16, 16) de fonction de répartition F , on obtient :

P(X = 16) ≈ F(16, 5) − F(15, 5) = Φ 0, 5 4  − Φ  −0, 54  = 2Φ(0, 125) − 1 ≈ 0, 0995. Le gain de temps est surtout sensible pour le calcul des valeurs de la fonction de répartition :

P(X ≤ 20) ≈ F(20, 5) = Φ

20, 5 − 16 4



= Φ(1, 125) ≈ 0, 8697

(8)
(9)

Bibliographie

[1] Problème des sept ponts de Königsberg, Wikipédia, l’encyclopédie libre.

[2] C. LE BOT, Théorie des graphes, 2006, http://blog.christophelebot.fr/

wp-content/uploads/2007/03/theorie_graphes.pdf.

[3] Coloration des graphes, Apprendre-en-ligne, http://www.apprendre-en-ligne. net/graphes-ancien/coloration/sommets.html

[4] O. GARET, Exemples de problèmes de graphes, http://iecl.univ-lorraine. fr/~Olivier.Garet/cours/graphes/graphes-documents_d_

accompagnement.pdf.

[5] E. SIGWARD& al., Odyssée Mathématiques Terminale ES/L, Hatier, 2012.

[6] Graphes probabilistes, Terminale ES spécialité.http://mathadoctes.free.fr/TES/ graphe/f4_graphe.PDF

[7] G. COSTANTINI, Probabilités (discrètes), Cours de Première S, URL : http://

bacamaths.net.

[8] P. RIBEREAU, Cours 5 Probabilités : Notion, probas conditionnelles et indépendance, URL : http://www.math.univ-montp2.fr/

[9] P. DUVAL, Probabilités, TS. URL : http://lcs.werne.lyc14.ac-caen.fr/ ~duvalp

[10] G. COSTANTINI, Probabilités : Généralités, conditionnement, indépendance, Cours de

Pre-mière S. URL :http://bacamaths.net.

[11] M. LENZEN, Leçon no3 : Coefficients binomiaux, dénombrement des combinaisons, formule

du binôme. Applications., 2011, URL :http://www.capes-de-maths.com/index. php?page=leconsNEW

[12] G. CONNAN, Une année de mathématiques en Terminale S, Ch. 14, 2009-2010, URL :http: //tehessin.tuxfamily.org

[13] G. COSTANTINI, Loi binomiale, URL :http://bacamaths.net

[14] C. SUQUET, Intégration et Probabilités Elémentaires, 2009-2010. URL : http://math. univ-lille1.fr/~ipeis/

[15] L. LUBRANO& al., Mathématiques, BTS Industriels - Groupement B et C, Dunod, 2011.

[16] G. COSTANTINI, Lois de probabilités continues. URL :http://bacamaths.net.

[17] J.-P. GOULARD, Lois de probabilités continues, TS, 2014-2015. http://blog.crdp-versailles.fr/jpgoualard/public/

TS-2014-2015-cours-loiscontinues.pdf.

[18] Probabilités 3 : Loi uniforme sur [a; b], Lycée de Font Romeu. http://www. lewebpedagogique.com/cerdagne/files/2013/02/02-Loi-uniforme. pdf

[19] Loi uniforme sur[a; b], IREM de Toulouse. URL :http://www.irem.ups-tlse.fr/ spip/IMG/pdf_LOI_UNIFORME.pdf

(10)

18 BIBLIOGRAPHIE

[21] C. SUQUET, Initiation à la Statistique, 2010. http://math.univ-lille1.fr/

~suquet/Polys/IS.pdf.

[22] J.-F. DELMAS, Modélisation stochastique, Cours de M2, 2009. URL :http://cermics. enpc.fr/~delmas/Enseig/mod-stoch.pdf

[23] L.-M. BONNEVAL, Chaînes de Markov au lycée, APMEP no503, 2013. URL : http:// publimath.irem.univ-mrs.fr/biblio/AAA13018.htm

[24] Marche aléatoire, IREM de Franche-Comte. URL : http://www-irem. univ-fcomte.fr/download/irem/document/ressources/lycee/marche/

marche-aleatoire.pdf.

[25] Marches sur Z, culturemath.ens.fr, URL : http://culturemath.ens.fr/maths/ pdf/proba/marchesZ.pdf

[26] Contributeurs à Wikipedia, Marche aléatoire, Wikipédia, l’encyclopédie libre, 2014.

[27] Marche au hasard dans les rues de Toulouse, URL : http://mappemonde.mgm.fr/ actualites/M_toulouse2.html

Références

Documents relatifs

Pour p 0,10, valeurs pour lesquelles l’approximation binomiale peut être pratiquement envisagée, des développements en série limitée permettent de calculer

Que ce soit les tirages à pile ou face (Bernoulli et de Moivre), les erreurs de mesure en astronomie (Laplace et Gauss), mais aussi la distribution des longueurs des tirs d’un

On suppose que le produit np

[r]

PARTIE A : On suppose dans cette partie que la probabilité pour qu’une pièce prélevée au hasard soit conforme est égale à 0, 9.. Soit X la variable aléatoire, qui à

La courbe bleue représente la fonction de densité d’une variable aléatoire X qui suit une loi normale N(5; 2).. Elle est aussi centrée en 5, mais est

on prélève 4 rondelles au hasard et on suppose que le stock est assez important pour que l’on puisse assimilier ce prélèvement un tirage avec remise. soit Y 1 le nombre de

L’article 38 du projet de loi créé, au sein du chapitre IX du titre II du livre II du code de l’environnement, une section 7 intitulée « Compensation des émissions de gaz à