• Aucun résultat trouvé

L03 [V2-VàC] – Variables aléatoires discrètes

N/A
N/A
Protected

Academic year: 2021

Partager "L03 [V2-VàC] – Variables aléatoires discrètes"

Copied!
12
0
0

Texte intégral

(1)

9

Variables aléatoires discrètes

3

Leçon n o Niveau Terminale S Prérequis probabilités Références [9], [10]

3.1

Loi de probabilités. Fonction de répartition

Exemple 3.1 On tire au hasard une boule dans une urne. Cette urne contient une boule rouge R, une verte V , une bleue B. On remet la boule dans l’urne et on effectue un deuxième tirage. On suppose qu’il y a équiprobabilité dans les deux tirages. Soit

Ω = {(R, R), (R, V ), (R, B), (V, R), (V, V ), (V, B), (B, B), (B, R), (B, V )} .

Il y a neuf événements élémentaires. Il y a équiprobabilité, donc la probabilité de chaque événement élémentaire est p= 1

9. La probabilité de tirer au moins une boule verte est :

q = 5

9. On fixe la règle suivante : « Si on tire une boule

— rouge, on gagne 6 euros, — verte, on gagne 1 euro, — bleue, on perd 4 euros. »

On définit ainsi une application de Ω dans R, cette application est appelée variable aléatoire. Voici les gains et perte du jeu :

Tirage 1 Tirage 2 Ω Gain (en euros)

R R (R, R) 12 R V (R, V ) 7 R B (R, B) 2 V R (V, R) 7 V V (V, V ) 2 V B (V, B) -3 B R (B, R) 2 B V (B, V ) -3 B B (B, B) -8 

Définition 3.2 Lorsque qu’à chaque événement élémentaire ω d’un universΩ, on associe un nombre réel, on dit que l’on définit une variable aléatoire (réelle). Une variable est donc une application

X: Ω → R. Elle est dite discrète si Ω ⊂ N.

Exemple 3.3 On lance trois fois une pièce non truqué et on compte le nombre de fois où on obtient « Face ». On définit ainsi une variable aléatoire X: Ω → R avec :

(2)

et

X(P P P ) = 0, X(P P F ) = 1, X(P F P ) = 1, X(F P P ) = 1 X(F F P ) = 2, X(F P F ) = 2, X(P F F ) = 2, X(F F F ) = 3.



Définition 3.4 — Loi de probabilité. Soit P une probabilité sur un univers Ω. Soit X une variable aléatoire définie surΩ telle que X(Ω) soit fini de cardinal n. Lorsqu’à chaque valeur xi(1 ≤ i ≤ n) de X on associe les probabilités pi de l’événement « X = xi», on dit que l’on définit une loi de probabilité PX de la variable aléatoire X.

Exemple 3.5 Dans l’exemple précédent, on a équiprobabilité deΩ (la probabilité d’obtenir un des événements élémentaires étant de 18). La probabilité d’obtenir 2 fois le côté face de la pièce est de :

PX(2) = P (X = 2) = 38.



Définition 3.6 — Fonction de répartition. La fonction de répartition de la variable aléatoire X est la fonction F telle que :

F : R → [0 , 1]

x 7→ F (x) = P (X ≤ x) .

Propriété 3.7 La fonction de répartition est toujours une fonction croissante et bornée par0 et 1. Exemple 3.8 Avec l’exemple précédent, on a :

— Pour x ∈ ]−∞ , 0[, on a : F(x) = 0 — Pour x ∈ ]0 , 1], on a : F(x) = 1 8 — Pour x ∈ ]1 , 2], on a : F(x) = 1 8+ 38 = 12 — Pour x ∈ ]2 , 3], on a : F(x) = 1 8 + 3 8+ 3 8 = 7 8 — Pour x ∈ ]3 , 4], on a : F(x) = 1 8+38 +38 +18 = 1. Voici la représentation graphique :

(3)

3.2 Espérance mathématique 11 0, 5 0, 75 y −3 −2 −1 1 2 3 x [ [ [ [ 

3.2

Espérance mathématique

Définition 3.9 — Espérance mathématique. SoientΩ l’univers correspondant à une expérience aléa-toire, P une probabilité sur Ω et X une variable aléatoire sur Ω telle que X(Ω) soit finia. On note {x1, . . . , xn} l’ensemble X(Ω) (c’est-à-dire l’ensemble des valeurs prises par X. L’espérance

mathématique de la variable aléatoire X est le nombré, notéE(X), défini par : E(X) =Xn

i=1

pixi = p1x1+ p2x2+ · · · + pnxn où pi= P (X = xi).

a. Si X(Ω) est infini dénombrable, l’espérance existe encore sous réserve de la convergence (absolue) de la série de terme général xnpn.

R 3.10 L’espérance est la moyenne des valeurs xipondérées par les probabilités pi.

Exemple 3.11 On reprend l’exemple de la pièce de monnaie. On a :

E(X) = 18 ×0 +38 ×1 +38 ×2 +18 ×3 = 32.



R 3.12 On pourrait aussi calculer l’espéranceE(X) en revenant aux événements élémentaires de l’univers Ω au

lieu d’utiliser les valeurs xide la variable aléatoire X :

E(X) = X

ω∈Ω

P(ω)X(ω).

(4)

donne-rait : E(X) = 18 X ω∈Ω X(ω) = 1 8[X(P P P ) + X(P P F ) + X(P F P ) + X(F P P ) + X(P F F ) + X(F P F ) + X(F F P ) + X(F F F )] = 1 8(0 + 1 + 1 + 2 + 1 + 2 + 2 + 3) = 3 2. 

Théorème 3.14— Linéarité de l’espérance. Soient X et Y deux variables aléatoires définies sur le même universΩ de cardinal fini. Soit P une probabilité sur Ω. On a :

E(X + Y ) = E(X) + E(Y ). En particulier, si b est un réel :

E(X + b) = E(X) + b et pour tout réel k,

E(kX) = kE(X). Dv

• Preuve — Démonstration du théorème3.14. On a :

E(X + Y ) = X ω∈Ω (X + Y )(ω)P (ω) = X ω∈Ω X(ω)P (ω) +X ω∈Ω Y(ω)P (ω) = E(X) + E(Y ).

En prenant Y constante égale à b, on obtient :

E(X + b) = E(X) + E(b) = E(X) + b.

De plus, E(kX) = n X i=1 kpixi= k n X i=1 pixi= kE(X).

3.3

Variance et écart-type

Définition 3.15 — Variance et écart-type. SoientΩ l’univers correspondant à une expérience aléa-toire, P une probabilité surΩ et X une variable aléatoire sur Ω telle que X(Ω) soit fini. On note {x1, . . . , xn} l’ensemble X(Ω) (c’est-à-dire l’ensemble des valeurs prises par X).

(5)

3.3 Variance et écart-type 13

— La variance de la variable aléatoire X est le nombre, notéeVar(X), défini par : Var(X) = E((X − E(X))2) =Xn

i=1

pi(xi− E(X))2

= p1(x1− E(X))2+ · · · + pn(xn− E(X))2.

— L’écart-type de la variable aléatoire X est le nombre, noté σ(X) défini par :

σ(X) =qVar(X). R 3.16

1. La variance est la moyenne des carrés des écarts à la moyenne. 2. La variance est une quantité positive, donc l’écart-type est bien défini.

Exemple 3.17 Sur le problème du comptage du côté face, on calcule la variance de X : Var(X) = 1 8  0 −382+3 8  1 −322+3 8  2 −322+1 8  3 −322= 3 4. D’où : σ(X) =qVar(X) = r3 4 = √32 . 

Exemple 3.18 Montrer que l’espéranceE(X) minimise la fonction f définie par R par :

f(x) =

n X i=1

pi(xi− x)2 mais pas la fonction g définie par :

g(x) = n X i=1 pi|xi− x| .  Dv

• Preuve — Réponse à l’exercice3.18. La fonction f est dérivable comme somme de fonctions dérivables et on a, pour tout x ∈ R :

f0(x) = −2 n X i=1 pi(xi− x) = −2 n X i=1 pixi− 2x n X i=1 pi= −2(E(X) − x). On en déduit : f0(x) ≥ 0 ⇔ x ≥ E(X).

Donc f admet un minimum enE(X) (et ce minimum est f(E(X)) = Var(X). L’espérance est donc la

quantité qui minimise la moyenne des carrés des écarts. Par contre, elle ne minimise ps la moyenne des écarts. En effet, on considère la variable aléatoire X définie par la loi suivante :

xi 0 1000

(6)

On a :

E(X) = p1x1+ p2x2= 1000

g(E(X)) = p1|x1− 1000| + p2|x2− 1000| = 90 + 90 = 180. Or :

g(0) = E(X) = 100.

Donc : g(0) < g(E(X)). Conclusion : E(X) ne minimise pas la fonction g et on peut montrer que la médiane est ce minimum.

Théorème 3.19— Formule de Koenig. La variance d’une variable aléatoire X peut se calculer avec la relation suivante :

Var(X) = E(X2) − [E(X)]2.

La variance est l’écart entre la moyenne des carrés et le carré de la moyenne. Dv

• Preuve — Démonstration de la formule de Koeing. On rappelle que l’espérance d’une variable aléatoire constante X = b est égale à la constante b. D’après la linéarité de l’espérance :

Var(X) = E((X − E(X))2) = E(X2

− 2XE(X) + E(X)2) = E(X2) − 2E(X)E(X) + E(X)2E(1)

D’oùVar(X) = E(X2) − [E(X)]2.

Exemple 3.20 On reprend l’exemple de la pièce de monnaie lancée trois fois de suite. On rappelle que X est le nombre de « face » obtenu. On a déjà calculéE(X), on calcule E(X2) :

E(X2) = 1

8 ×02+38 ×12+38 ×22+18 ×32 = 3. D’où :

Var(X) = E(X2) − [E(X)]2 = 3 −9

4 = 34.



Corollaire 3.21 — Effet d’un changement affine sur la variance et l’écart-type. Soit X une variable aléatoire. Soient a et b deux réels. On :

Var(aX + b) = a2Var(X) et σ(aX + b) = |a| σ(X).

En particulier :

Var(aX) = a2Var(X) et σ(aX) = |a| σ(X) et

Var(X + b) = Var(X) et σ(X + b) = σ(X). Dv

(7)

3.4 Exemples de variables aléatoires discrètes 15

• Preuve — Démonstration du corollaire3.21. D’après la formule de Koeing, on a : Var(aX + b) = E(a2X2+ 2abX + b2) − [E(aX + b)]2

et d’après la linéarité de l’espérance,

Var(aX + b) = a2E(X2) + 2abE(X) + b2− [aE(X) + b]2

= a2E(X2) + 2abE(X) + b2

− a2[E(X)]2− 2abE(X) − b2= a2Var(X). D’où, par passage à la racine carrée :

σ(aX + b) = |a| σ(X).

Pour montrer la particularisation, il faut remplacer dans chaque formule b = 0 et a = 1 (selon le cas que l’on veut démonter).

3.4

Exemples de variables aléatoires discrètes

3.4.1 Loi de Bernoulli

Définition 3.22 Une expérience de Bernoulli est une expérience qui n’a que deux issues possibles, l’une appelée « succès »qui a pour probabilité p, l’autre appelée « échec »qui a pour probabilité

q= 1 − p.

Définir une loi de Bernoulli de paramètre p, c’est associer une loi de probabilité discrète à cette expérience aléatoire en faisant correspondre la valeur1 à l’apparition d’un succès et 0 à celle d’un échec.

xi 1 0

P(X = xi) p 1 − p

Exemple 3.23 Si on lance un dé et qu’on nomme « succès » l’apparition de la face6, on définit la loi de Bernoulli suivante :

xi 1 0

P(X = xi) 16 56



Propriété 3.24 Soit X une variable aléatoire suivant une loi de Bernoulli B(p), alors :

— L’espérance de X vautE(X) = p. — La variance de X vautVar(X) = pq.

Exemple 3.25 Dans l’exemple précédent, on obtientE(X) = 16 etVar(X) = 365 . 

3.4.2 Loi binomiale

Définition 3.26 — Loi binomiale. La loi binomiale de paramètres n et p, notéeBin(n, p) est la loi de probabilité du nombre de succès dans la répartition de n expériences de Bernoulli de paramètres p identiques et indépendantes. Elle est définie par :

P(X = k) = n k

!

(8)

 Exemple 3.27 On lance 2 fois un dé bien équilibré. On s’intéresse à l’apparition de la face 6. Chaque lancer est une expérience de Bernoulli de paramètres 16. On obtient donc une loi binomiale Bin(2, 1/6).

nombre de succès 0 1 2 probabilité 2536 1036 361



Propriété 3.28 Soit X une variable aléatoire suivant une loi binomialeBin(n, p) alors : — L’espérance de X vautE(X) = np.

— La variance de X vautVar(X) = npq.

Exemple 3.29 Dans l’exemple précédent, on obtientE(X) = 13 etVar(X) = 185 . 

3.4.3 Loi de Poisson

La loi de Poisson modélise des situations où l’on s’intéresse au nombre d’occurrences d’un évé-nement dans un laps de temps déterminé ou dans une région donnée. Par exemple :

— nombre d’appels téléphoniques qui arrivent à un standard en x minutes, — nombre de clients qui attendent à la caisse d’un magasin,

— nombre de défauts de peinture par m2sur la carrosserie d’un véhicule. . .

Définition 3.30 La variable aléatoire X suit une loi de Poisson de paramètre λ, notéePois(λ) avec

λ >0 lorsque sa loi de probabilité vérifie :

P(X = k) = e−λλ

k

k!, ∀k ∈ N.

Exemple 3.31 On considère la variable aléatoire X mesurant le nombre de clients se présentant au guichet1 d’un bureau de poste par intervalle de temps de durée 10 minutes entre 14h30 et 16h30. On suppose que X suit la loi de Poisson de paramètre λ= 5. 

Dv — Pour λ= 5, la table de la loi de Poisson nous donne :

k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

P(X = k) 0, 007 0, 034 0, 084 0, 140 0, 176 0, 176 0, 146 0, 104 0, 065 0, 036 0, 018 0, 008 0, 003 0, 001 0, 000 — On peut aussi représenter graphiquement la loiPois(5) :

1 2 3 4 5 6 7 8 9 10 11 12 13 14 0

0.1 0.2

0

— La probabilité qu’entre14h30 et 14h40, 10 personnes exactement se présentent à ce gui-chet vaut :

(9)

3.4 Exemples de variables aléatoires discrètes 17

— La probabilité qu’entre15h20 et 15h30, au maximum 3 personnes se présentent à ce gui-chet vaut :

P(X ≤ 3) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) = 0, 265.

— La probabilité qu’entre16h00 et 16h10, 8 personnes au moins se présentent à ce guichet vaut :

P(X ≥ 8) = 1 − P(X < 8)

= 1 − [P(X = 0) + P(X = 1) + · · · + P(X = 7)] = 1 − 0, 867 = 0, 133

.

Propriété 3.32 Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ, alors l’espé-rance et la variance sont égales et valentE(X) = Var(X) = λ.

(10)
(11)

Bibliographie

[1] Problème des sept ponts de Königsberg, Wikipédia, l’encyclopédie libre.

[2] C. LE BOT, Théorie des graphes, 2006, http://blog.christophelebot.fr/ wp-content/uploads/2007/03/theorie_graphes.pdf.

[3] Coloration des graphes, Apprendre-en-ligne, http://www.apprendre-en-ligne. net/graphes-ancien/coloration/sommets.html

[4] O. GARET, Exemples de problèmes de graphes, http://iecl.univ-lorraine. fr/~Olivier.Garet/cours/graphes/graphes-documents_d_

accompagnement.pdf.

[5] E. SIGWARD& al., Odyssée Mathématiques Terminale ES/L, Hatier, 2012.

[6] Graphes probabilistes, Terminale ES spécialité.http://mathadoctes.free.fr/TES/ graphe/f4_graphe.PDF

[7] G. COSTANTINI, Probabilités (discrètes), Cours de Première S, URL : http:// bacamaths.net.

[8] P. RIBEREAU, Cours 5 Probabilités : Notion, probas conditionnelles et indépendance, URL : http://www.math.univ-montp2.fr/

[9] P. DUVAL, Probabilités, TS. URL : http://lcs.werne.lyc14.ac-caen.fr/ ~duvalp

[10] G. COSTANTINI, Probabilités : Généralités, conditionnement, indépendance, Cours de

Pre-mière S. URL :http://bacamaths.net.

[11] M. LENZEN, Leçon no3 : Coefficients binomiaux, dénombrement des combinaisons, formule

du binôme. Applications., 2011, URL :http://www.capes-de-maths.com/index. php?page=leconsNEW

[12] G. CONNAN, Une année de mathématiques en Terminale S, Ch. 14, 2009-2010, URL :http: //tehessin.tuxfamily.org

[13] G. COSTANTINI, Loi binomiale, URL :http://bacamaths.net

[14] C. SUQUET, Intégration et Probabilités Elémentaires, 2009-2010. URL : http://math. univ-lille1.fr/~ipeis/

[15] L. LUBRANO& al., Mathématiques, BTS Industriels - Groupement B et C, Dunod, 2011.

[16] G. COSTANTINI, Lois de probabilités continues. URL :http://bacamaths.net.

[17] J.-P. GOULARD, Lois de probabilités continues, TS, 2014-2015. http://blog.crdp-versailles.fr/jpgoualard/public/

TS-2014-2015-cours-loiscontinues.pdf.

[18] Probabilités 3 : Loi uniforme sur [a; b], Lycée de Font Romeu. http://www. lewebpedagogique.com/cerdagne/files/2013/02/02-Loi-uniforme. pdf

[19] Loi uniforme sur[a; b], IREM de Toulouse. URL :http://www.irem.ups-tlse.fr/ spip/IMG/pdf_LOI_UNIFORME.pdf

(12)

[21] C. SUQUET, Initiation à la Statistique, 2010. http://math.univ-lille1.fr/ ~suquet/Polys/IS.pdf.

[22] J.-F. DELMAS, Modélisation stochastique, Cours de M2, 2009. URL :http://cermics. enpc.fr/~delmas/Enseig/mod-stoch.pdf

[23] L.-M. BONNEVAL, Chaînes de Markov au lycée, APMEP no503, 2013. URL : http:// publimath.irem.univ-mrs.fr/biblio/AAA13018.htm

[24] Marche aléatoire, IREM de Franche-Comte. URL : http://www-irem. univ-fcomte.fr/download/irem/document/ressources/lycee/marche/ marche-aleatoire.pdf.

[25] Marches sur Z, culturemath.ens.fr, URL : http://culturemath.ens.fr/maths/ pdf/proba/marchesZ.pdf

[26] Contributeurs à Wikipedia, Marche aléatoire, Wikipédia, l’encyclopédie libre, 2014.

[27] Marche au hasard dans les rues de Toulouse, URL : http://mappemonde.mgm.fr/ actualites/M_toulouse2.html

Références

Documents relatifs

On est dans le deuxième cas : il a cherché la montre sur le chemin ; et on cherche la probabilité que la montre soit sur la plage sachant qu'il n'a pas trouvé la montre, c'est-à- dire

Exercices résolus (page de droite) : essayer de faire sur le cahier d’exercices sans regarder la correction dans un premier temps puis s’auto-corriger.. Il y a un exercice

Il faut donc pour chaque simulation compter le nombre de 1 dans la liste pour cela on utilisera la fonction somme (accessible dans le menu y … 9 MATH 5 ) sur Texas ou Sum

Soit X la variable aléatoire qui compte le nombre de succès dans un schéma de Bernoulli de paramètres n et p.. La loi de probabilité de X est appelée loi binomiale de paramètres n

Le but du problème 1 est l'étude du coecient de corrélation linéaire de deux variables aléatoires qu'on aborde d'abord de façon générale (partie I), puis dans un cas

Le but du problème 1 est l'étude du coecient de corrélation linéaire de deux variables aléatoires qu'on aborde d'abord de façon générale (partie I), puis dans un cas

Donc je peux remettre en cause le principe d’équiprobabilité entre Pile et Face et dire que cette pièce est déséquilibrée (au risque d’erreur de 5%)?. On joue avec un

Pour cela, on utilise la