• Aucun résultat trouvé

Chapitre II : Variables aléatoires et lois usuelles

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre II : Variables aléatoires et lois usuelles "

Copied!
23
0
0

Texte intégral

(1)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 1

Chapitre II : Variables aléatoires et lois usuelles

I – Variables aléatoires et lois de probabilités discrètes 1) Loi d’une variable aléatoire discrète

a) Définition d’une variable aléatoire discrète

Exemple1 : Un jeu de hasard se déroule selon le protocole suivant : Le joueur débourse 2 euros et lance deux dés tétraédriques parfaits. Il lit les numéros sortis (entre 1 et 4) au sommet de chacun des dés. S’il obtient un « double », le joueur récupère sa mise, et reçoit une somme, en euros, égale au total des points marqués ; sinon, il ne reçoit rien et perd sa mise.

On s’intéresse au gain (algébrique), noté 𝑋, du joueur.

On considère l’expérience aléatoire « lancer les deux dés ».

L’univers (l’ensemble des résultats possibles) de cette expérience aléatoire est l’ensemble des couples d’entiers (𝑥; 𝑦) avec 1 ≤ 𝑥 ≤ 4 et 1 ≤ 𝑦 ≤ 4 . L’univers comporte donc 16 issues possibles.

Les dés étant équilibrés, les issues obtenues sont équiprobables, de probabilité . Pour simplifier le dénombrement, on représente

les gains possibles dans un tableau à double entrée :

A chaque issue est associé un gain : (1;1)  2 (1;2)  -2 (1;3)  -2 … (4; 3)  -2 (4;4)  8

On dit alors que l’on a défini la variable aléatoire 𝑿 qui donne le gain du joueur.

Remarque : 𝑋 est une fonction : à chaque issue, elle associe le nombre qui correspond au gain du joueur.

Définition 1 : Soit E l’univers associé à une expérience aléatoire.

Définir une variable aléatoire 𝑿 sur E, c’est associer à chaque issue de E un nombre 𝑥.

b) Loi de probabilité d’une variable aléatoire discrète Exemple 2 :

Reprenons la situation de l’exemple 1

Cherchons la probabilité de « gagner 2 euros », événement noté « 𝑋 = 2 ». Cet événement est réalisé pour l’unique issue (1 ; 1) avec la probabilité . On écrit alors 𝑃(𝑋 = 2) = .

De même : 𝑃(𝑋 = 4) = 𝑃(𝑋 = 6) = 𝑃(𝑋 = 8) = .

L’événement « 𝑋 = −2 » est réalisé pour les 12 issues (𝑥; 𝑦) telles que 𝑥 ≠ 𝑦.

En raison de l’équiprobabilité, 𝑃(𝑋 = −2) = = . On regroupe ces informations dans le tableau suivant :

Ce tableau représente la loi de probabilité de 𝑿.

Dé 2

Dé 1 1 2 3 4

1 2 -2 -2 -2

2 -2 4 -2 -2

3 -2 -2 6 -2

4 -2 -2 -2 8

Gain 𝒙𝒊 -2 2 4 6 8

𝑷(𝑿 = 𝒙𝒊) 𝟏𝟐

𝟏𝟔 𝟏

𝟏𝟔 𝟏

𝟏𝟔 𝟏

𝟏𝟔 𝟏

𝟏𝟔

(2)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 2 Définition 2 : Soit 𝑋 une variable aléatoire définie sur l’univers E d’une expérience aléatoire.

On note 𝑥 (1 ≤ 𝑖 ≤ 𝑘) les différentes valeurs prises par 𝑋.

Définir la loi de probabilité de 𝑿 consiste à associer à chaque valeur 𝑥 la probabilité de l’événement

« 𝑋 = 𝑥 ».

Remarque : 𝑃(𝑋 = 𝑥 ) = 1

Dans l’exemple 2 : 12

16+ 1 16+ 1

16+ 1 16+ 1

16= 16 16= 1

Exemple 3 :

Une urne contient 5 boules numérotées de 1 à 5.

On tire deux boules successivement dans l’urne sans remise de la première boule.

Si le tirage donne deux boules impaires, le joueur gagne 5 €.

Sinon, il perd 2 euros.

Donner la loi de probabilité du gain du joueur.

D’après le tableau, il y a 6 chances sur 20 de gagner 5 € donc 𝑃(𝑋 = 5) = = Il y a également 14 chances sur 20 de perdre 2 € : 𝑃(𝑋 = −2) = =

On déduit le tableau : Boule 2

Boule 1 1 2 3 4 5

1 -2 5 -2 5

2 -2 -2 -2 -2

3 5 -2 -2 5

4 -2 -2 -2 -2

5 5 -2 5 -2

Gain 𝒙𝒊 -2 5

𝑷(𝑿 = 𝒙𝒊) 𝟏𝟎𝟕 𝟑

𝟏𝟎

(3)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 3 2) Paramètres d’une variable aléatoire discrète

a) Espérance, variance et écart-type

𝑋 est une variable aléatoire dont la loi de probabilité est donnée dans le tableau suivant :

Définition 3 :

L’espérance mathématique de 𝑿, notée 𝑬(𝑿), est la moyenne des 𝑥 :

𝐸(𝑋) = 𝑝 𝑥 + 𝑝 𝑥 + . . . + 𝑝 𝑥 = 𝑝 𝑥

La variance de 𝑿, notée 𝑽(𝑿), est la moyenne des carrés des écarts (𝑥 − 𝐸(𝑋)) :

𝑉(𝑋) = 𝑝 (𝑥 − 𝐸(𝑋))² + 𝑝 (𝑥 − 𝐸(𝑋))²+ . . . + 𝑝 (𝑥 − 𝐸(𝑋))² = 𝑝 (𝑥 − 𝐸(𝑋))²

La variance est aussi la moyenne des carrés des valeurs moins le carré de l’espérance :

𝑉(𝑋) = 𝑝 𝑥 ² + 𝑝 𝑥 ²+ . . . + 𝑝 𝑥 ² − 𝐸(𝑋) = 𝑝 𝑥 − 𝐸(𝑋)

L’écart-type de 𝑿, noté 𝝈(𝑿), est défini par : 𝜎(𝑋) = 𝑉(𝑋)

Exemple 4 : Reprenons l’exemple des deux dés tétraédriques.

𝐸(𝑋) = × (−2) + × 2 + × 4 + × 6 + × 8 = − = − = −0,25

L’espérance peut s’interpréter en disant que si on joue un grand nombre de fois, le gain moyen qu’on peut espérer est de −0,25 €.

𝑉(𝑋) = 12

16× (−2) + 1

16× 2 + 1

16× 4 + 1

16× 6 + 1

16× 8 − −1 4

=48 + 4 + 16 + 36 + 64

16 − 1

16= 167 16 𝜎(𝑋) = ≈ 3,2

Exemple 5 : Donner l’espérance, la variance et l’écart-type de la variable aléatoire de l’exemple 3.

𝐸(𝑋) = × (−2) + × 5 = = = 0,1

𝑉(𝑋) = × (−2) + × 5 − 0,1 = − 0,01 = 10,29 et donc 𝜎(𝑋) = √10,29 ≈ 3,2

Valeur 𝑥 𝑥 𝑥 … 𝑥

Probabilité 𝑝 𝑝 𝑝 … 𝑝

(4)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 4 b) Transformation affine d’une variable aléatoire discrète

Soit 𝑋 une variable aléatoire définie sur l’univers E d’une expérience aléatoire.

𝑋 prend les valeurs 𝑥 , 𝑥 , … 𝑥 .

Soient 𝑎 et 𝑏 deux nombres réels et considérons la variable aléatoire 𝑌 = 𝑎𝑋 + 𝑏.

𝑌 prend alors les valeurs 𝑦 = 𝑎𝑥 + 𝑏, 𝑦 = 𝑎𝑥 + 𝑏, … , 𝑦 = 𝑎𝑥 + 𝑏.

Propriété 1 : 𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 𝑉(𝑎𝑋 + 𝑏) = 𝑎²𝑉(𝑋) et 𝜎(𝑎𝑋 + 𝑏) = |𝑎|𝜎(𝑋) Démo : 𝐸(𝑎𝑋 + 𝑏) = 𝑝 (𝑎𝑥 + 𝑏)+ . . . + 𝑝 (𝑎𝑥 + 𝑏) = 𝑎 (𝑝 𝑥 +. . . + 𝑝 𝑥 )

( )

+ 𝑏 (𝑝 +. . . + 𝑝 )

𝑉(𝑎𝑋 + 𝑏) = 𝑝 𝑎𝑥 + 𝑏 − 𝐸(𝑎𝑋 + 𝑏) + … + 𝑝 𝑎𝑥 + 𝑏 − 𝐸(𝑎𝑋 + 𝑏)

= 𝑝 𝑎𝑥 − 𝑎𝐸(𝑋) + ⋯ + 𝑝 𝑎𝑥 − 𝑎𝐸(𝑋) = 𝑎²𝑝 (𝑥 − 𝐸(𝑋))²+. . . + 𝑎²𝑝 (𝑥 − 𝐸(𝑋))² = 𝑎²𝑉(𝑋)

II - Lois discrètes usuelles

1) Loi de BERNOULLI -Loi binomiale a) Exemple

Une urne contient 5 boules indiscernables au toucher : deux bleues, deux jaunes et une noire.

L’expérience aléatoire consiste à tirer au hasard successivement deux boules de l’urne avec remise et à noter les couleurs obtenues.

 Définition de l’épreuve :

Comme la première boule tirée est remise dans l’urne avant le deuxième tirage, la composition de l’urne est la même lors des deux tirages. L’expérience aléatoire étudiée est donc la répétition de l’épreuve « tirer au hasard une boule dans l’urne et noter sa couleur ». On répète deux fois cette épreuve.

Le résultat de la première épreuve n’a pas d’influence sur le résultat de la deuxième : les deux épreuves sont donc indépendantes. (Ce qui ne serait pas le cas s’il n’y avait pas remise …)

 Construction de l’arbre associé : 1ère boule 2e boule Issue L’expérience aléatoire peut être illustrée

par un arbre pondéré

B J B J N

𝐵

𝐽

𝑁

𝐵 𝐽 𝑁 𝐵 𝐽 𝑁 𝐵 𝐽 𝑁

2/5

2/5

1/5

2/5 2/5 1/5

2/5 2/5 1/5

2/5 2/5 1/5

(𝐵 ; 𝐵) (𝐵 ; 𝐽) (𝐵 ; 𝑁)

(𝐽 ; 𝐵) (𝐽 ; 𝐽) (𝐽 ; 𝑁) (𝑁 ; 𝐵) (𝑁 ; 𝐽) (𝑁 ; 𝑁)

(5)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 5

 Probabilité d’une issue de l’expérience :

La probabilité d’une issue s’obtient en effectuant le produit des probabilités inscrites sur le chemin représentant cette issue.

Exemple : 𝑃(𝐵; 𝑁) = × = et 𝑃(𝐵; 𝐵) = × =

Exemple 6 : Notons 𝑋 la variable aléatoire donnant le nombre de boules bleues obtenues. Déterminer sa loi de probabilité.

b) Épreuve de BERNOULLI – Loi de BERNOULLI

Définition 4 : Une épreuve de BERNOULLI est une expérience aléatoire qui admet exactement deux issues : 𝑆 (succès), de probabilité 𝑝 ∈ ]0; 1[ et 𝑆̅ (échec), de probabilité 𝑞 = 1 − 𝑝.

Exemple 7 : on lance un dé cubique parfaitement équilibré et on s’intéresse à la sortie du 6. Cette expérience est une épreuve de BERNOULLI dont l’événement 𝑆 est « sortie du 6 », 𝑝 = et 𝑞 = . Définition 5 : Dans une épreuve de BERNOULLI, notons 𝑋 la variable aléatoire qui prend la valeur 1 lorsque 𝑆 est réalisé et la valeur 0 en cas d’échec.

On dit que 𝑋 suit une loi de BERNOULLI de paramètre 𝑝.

Conséquence : 𝐸(𝑋) = 𝑝 et 𝑉(𝑋) = 𝑝(1 − 𝑝) = 𝑝𝑞

c) Schéma de BERNOULLI d’ordre 𝑛 – Loi binomiale i) Étude d’un exemple

On lance 3 fois de suite un dé cubique parfait et on s’intéresse au nombre de sorties du numéro 6 au terme de ces 3 lancers.

Cette expérience aléatoire est la répétition de l’épreuve de BERNOULLI « lancer un dé cubique parfait » avec l’issue 𝑆 « sortie du 6 » de probabilité .

1er lancer 2e lancer 3e lancer issue probabilité

𝑆

𝑆̅

𝑝

𝑞

𝑆𝑆𝑆 𝑆

𝑆 𝑆̅

𝑆̅

𝑝

𝑞

𝑝

𝑞

𝑆 𝑆̅

𝑝

𝑞

𝑆 𝑆̅

𝑝

𝑞

𝑆 𝑆̅

𝑝

𝑞

𝑆 𝑆̅

𝑝

𝑞

𝑝 =

𝑆𝑆𝑆̅ 𝑝 𝑞 = 𝑆𝑆̅𝑆

𝑆𝑆̅𝑆̅ 𝑝𝑞 = 𝑆̅𝑆𝑆

𝑆̅𝑆𝑆̅

𝑆̅𝑆̅𝑆

𝑆̅𝑆̅𝑆̅ 𝑞 = 𝑝 𝑞 =

𝑝 𝑞 =

𝑝𝑞 =

𝑝𝑞 =

𝑘 0 1

𝑃(𝑋 = 𝑘) 1 − 𝑝 𝑝

(6)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 6 On note 𝑋 la variable aléatoire qui à chaque issue associe le nombre de succès au terme des trois lancers.

𝑋 peut prendre les valeurs 0, 1, 2 ou 3.

D’après l’arbre ci-dessus : 𝑃(𝑋 = 0) = 𝑞 = , 𝑃(𝑋 = 1) = 3 × 𝑝𝑞 = …

ii) Schéma de BERNOULLI – Coefficients binomiaux

Définition 6 : On appelle schéma de BERNOULLI d’ordre 𝑛 l’expérience aléatoire qui consiste en la répétition de 𝑛 épreuves de BERNOULLI identiques et indépendantes.

L’exemple du paragraphe i) est un schéma de BERNOULLI d’ordre 3.

Définition 7 : Le nombre de chemins de l’arbre associé à un schéma de BERNOULLI d’ordre 𝑛 conduisant à 𝑘 succès pour 𝑛 répétitions est le nombre de combinaisons de 𝑘 éléments parmi 𝑛.

On rappelle que ce nombre est noté et se lit « 𝑘 parmi 𝑛 » et que les nombres entiers sont appelés coefficients binomiaux.

Exemple 8 :

D’après l’arbre, on retrouve les valeurs = = 1 et = = 3 qui ont déjà été déterminées en dénombrement dans le chapitre précédent.

iii) Loi binomiale de paramètres 𝑛 et 𝑝

Propriété 2 : On considère un schéma de BERNOULLI d’ordre 𝑛 dont la probabilité de succès à chaque épreuve est 𝑝.

La loi de probabilité de la variable aléatoire 𝑋 qui à chaque issue associe le nombre 𝑘 de succès au terme des 𝑛 épreuves est définie par : 𝑃(𝑋 = 𝑘) = 𝑝 (1 − 𝑝) où 𝑘 est un entier naturel tel que 0 ≤ 𝑘 ≤ 𝑛

On dit alors que la variable aléatoire 𝑋 suit une loi binomiale de paramètres 𝒏 et 𝒑 et on note 𝑋 ↪ ℬ(𝑛, 𝑝).

Exemple 9 :

Dans l’exemple du i), on a défini une variable aléatoire 𝑋 de loi binomiale de paramètres 3 et . Propriété 3 : Si la variable aléatoire 𝑋 suit une loi binomiale de paramètres 𝑛 et 𝑝, alors :

𝐸(𝑋) = 𝑛𝑝 𝑉(𝑋) = 𝑛𝑝(1 − 𝑝) = 𝑛𝑝𝑞 𝜎(𝑋) = 𝑛𝑝𝑞

𝑘 0 1 2 3

𝑃(𝑋 = 𝑘) 𝟏𝟐𝟓

𝟐𝟏𝟔

𝟕𝟓 𝟐𝟏𝟔

𝟏𝟓 𝟐𝟏𝟔

𝟏 𝟐𝟏𝟔

(7)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 7 Exemple 10 :

Dans l’exemple du i), 𝐸(𝑋) = 3 × = et 𝑉(𝑋) = 3 × × =

Exemple 11 :

Dans l’ensemble des étudiants de l’IUT (toutes disciplines confondues), on constate que 30 % pratiquent un sport régulièrement.

On choisit au hasard 10 étudiants de l’IUT.

On suppose que le nombre d’étudiants est suffisamment important pour assimiler ce choix à un tirage avec remise.

On note X la variable aléatoire donnant le nombre d’étudiants pratiquant un sport régulièrement.

1) Justifier que X suit une loi binomiale et préciser ses paramètres.

On considère des tirages avec remise, il y en a 10 au total et la probabilité du succès (l’étudiant choisi pratique un sport régulièrement) est de 0,3 donc la VA X suit une loi binomiale de

paramètres 10 et 0,3.

2) Quelle est la probabilité qu’aucun des 10 étudiants ne pratique un sport régulièrement ? 𝑃(𝑋 = 0) = (1 − 0,3) = 0,7 ≈ 0,0282

3) Quelle est la probabilité que seulement 2 des 10 étudiants pratiquent un sport régulièrement ? 𝑃(𝑋 = 2) ≈ 0,2335

4) Quelle est la probabilité qu’au moins un des 10 étudiants pratique un sport régulièrement ? 𝑃(𝑋 ≥ 1) = 1 − 𝑃(𝑋 = 0) = 1 − 0,0282 = 0,9748

5) Quelle est la probabilité qu’au plus 9 étudiants pratiquent un sport régulièrement ? 𝑃(𝑋 ≤ 9) = 1 − 𝑃(𝑋 = 10) ≈ 0,9999 ≈ 1

6) Quel est le nombre moyen d’étudiants pratiquant un sport régulièrement ? 𝐸(𝑋) = 𝑛 × 𝑝 = 10 × 0,3 = 3

(8)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 8 iv) Table de lecture de la loi binomiale

(9)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 9

(10)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 10

(11)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 11

(12)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 12 Exemple 12 : Utilisation des tables de lecture

a) Soit 𝑋 ↪ ℬ(8; 0,3). Déterminer les probabilités suivantes : 𝑃(𝑋 = 5)≈ 0,0467, 𝑃(𝑋 ≤ 3)≈ 08059 ,

𝑃(𝑋 > 7)= 1 − 𝑃(𝑋 ≤ 7) = 1 − 0,9999 = 0,0001,

𝑃(𝑋 < 1)= 𝑃(𝑋 = 0) ≈ 0,0576, 𝑃(𝑋 ≥ 1)= 1 − 𝑃(𝑋 < 1) = 1 − 0,0576 = 0,9424 b) Soit 𝑋 ↪ ℬ(15; 0,15). Déterminer les probabilités suivantes :

𝑃(𝑋 = 10)≈ 0, 𝑃(𝑋 ≤ 14) ≈ 1, 𝑃(𝑋 > 0)= 1 − 𝑃(𝑋 = 0) = 1 − 0,0874 = 0,9126 𝑃(𝑋 ≤ 1)≈ 0,3186, 𝑃(𝑋 ≥ 13) = 1 − 𝑃(𝑋 ≤ 12) ≈ 1 − 1 = 0

c) Soit 𝑋 ↪ ℬ(10; 0,75). Déterminer les probabilités suivantes :

𝑃(𝑋 = 2)≈ 0,0004, 𝑃(𝑋 = 7)≈ 0,2503, 𝑃(𝑋 ≤ 1)≈ 0,00003,

𝑃(𝑋 < 1)= 𝑃(𝑋 = 0) ≈ 0, 𝑃(𝑋 ≥ 9)= 1 − 𝑃(𝑋 ≤ 8) ≈ 1 − 0,7560 = 0,2440

Remarque :

Pour les probabilités 𝑝 > 0,5, on compte les échecs et non les succès (ou on lit la table de bas en haut et non de haut en bas) :

Si 𝑋 ↪ ℬ(12; 0,8), la probabilité d’échec est 0,2, pour lire 𝑃(𝑋 = 5), on doit lire la probabilité de 5 succès et donc de 12 − 5 = 7 échecs : 0,0033.

(13)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 13 Représentation graphique de la loi binomiale de paramètres 20 et 0,4 :

2) Loi de POISSON

a) Définitions

La loi de POISSON correspond aux « événements rares ».

On l’utilise fréquemment dans le cadre d’une approximation de loi binomiale dans les cas où 𝑛 (le nombre de répétitions) est assez grand (en général supérieur à 30).

Définition 8 : On considère un événement comme succès et on compte le nombre de succès obtenus dans un certain laps de temps donné.

Notons 𝑋 la variable aléatoire donnant le nombre de succès obtenus.

𝑋 peut prendre toutes les valeurs entières possibles ℕ.

Si le nombre moyen d’apparitions du succès dans le laps de temps donné est 𝜆, alors : Pour tout 𝑘 ∈ ℕ, 𝑃(𝑋 = 𝑘) = 𝑒 ×𝜆

𝑘!

Dans ce cas, on dit que 𝑋 suit la loi de POISSON de paramètre𝜆 et on note 𝑋 ↪ 𝒫(𝜆).

Enfin : 𝐸(𝑋) = 𝜆 et 𝑉(𝑋) = 𝜆.

Exemple 13 :

On note 𝑋 la variable aléatoire désignant le nombre de personnes se présentant au guichet d’une banque par période de 30 minutes. Soit 𝑋 suit la loi de POISSON de paramètre 4.

Quelle est la probabilité qu’un seul client se présente entre 9h et 9h30 ? 𝑃(𝑋 = 1) ≈ 0,0733 Quelle est la probabilité que deux clients se présentent entre 11h30 et 12h ? 𝑃(𝑋 = 2) ≈ 0,1465 Quelle est la probabilité qu’au moins un client se présente entre 14h et 14h30 ?

𝑃(𝑋 ≥ 1) = 1 − 𝑃(𝑋 = 0) = 1 − 0,0183 = 0,9817

(14)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 14 Représentation graphique de la loi de POISSON de paramètre 8 :

Représentation graphique de la loi de POISSON de paramètre 4 :

(15)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 15 b) Tables de lecture de la loi de POISSON

i) Valeurs « isolées » et « cumulées » Remarque :

Les notations 𝑝(𝑘, 𝜆) et 𝐹(𝑘) correspondent respectivement aux probabilités 𝑃(𝑋 = 𝑘) et 𝑃(𝑋 ≤ 𝑘)

(16)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 16 ii) Valeurs « isolées »

Exemple 14 : Utilisation des tables de lecture

a) Soit 𝑋 ↪ 𝒫(0,6). Déterminer les probabilités suivantes :

𝑃(𝑋 = 2)≈ 0,0988, 𝑃(𝑋 ≤ 3)≈ 0,9966, 𝑃(𝑋 > 4)= 1 − 𝑃(𝑋 ≤ 4) ≈ 1 − 0,9996 = 0,0004, 𝑃(𝑋 < 1)= 𝑃(𝑋 = 0) ≈ 0,5488, 𝑃(𝑋 ≥ 1)= 1 − 𝑃(𝑋 < 1) ≈ 1 − 0,5488 = 0,4512

b) Soit 𝑋 ↪ 𝒫(12). Déterminer les probabilités suivantes :

𝑃(𝑋 = 10)≈ 0,1048, 𝑃(𝑋 ≤ 14)≈ 0,7720, 𝑃(𝑋 > 0)= 1 − 𝑃(𝑋 = 0) ≈ 1 − 0 ≈1 𝑃(𝑋 ≤ 1)≈ 0, 𝑃(𝑋 ≥ 15) = 1 − 𝑃(𝑋 ≤ 14) ≈ 1 − 0,7720 = 0,2280

c) Soit 𝑋 ↪ 𝒫(7). Déterminer les probabilités suivantes :

𝑃(𝑋 = 2)≈ 0,0223, 𝑃(𝑋 = 7)≈ 0,1490, 𝑃(𝑋 ≤ 1)≈ 0,0073,

𝑃(𝑋 < 1)= 𝑃(𝑋 = 0) ≈ 0,0009, 𝑃(𝑋 ≥ 14) = 1 − 𝑃(𝑋 ≤ 13) ≈ 1 − 0,9872 = 0,0128 II – Variables aléatoires à densité

1) Variables aléatoires et densité

Considérons une expérience aléatoire dont l’univers Ω (ensemble des issues possibles) est muni d’une probabilité 𝑃.

Définition 9 : Une variable aléatoire 𝑋 définie sur Ω, qui peut prendre comme valeurs tous les nombres réels d’un intervalle 𝐼 de ℝ, est dite continue. On note 𝑋(Ω) = 𝐼 l’ensemble des valeurs prises par 𝑋.

Exemple 15 : On peut définir une variable aléatoire 𝑋 qui, à chaque appel à un standard téléphonique d’un service client associe le temps d’attente avant d’être mis en relation avec un conseiller client.

(17)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 17 Cette durée n’est pas nécessairement un nombre entier de minutes (ou d’heures …) et on ne peut pas théoriquement donner la durée maximale de temps d’attente (on ne tient pas compte des clients ayant raccroché avant …) : cette variable aléatoire 𝑋 est donc continue et l’intervalle 𝐼 est [0; +∞[

(0 est accepté en théorie mais on peut toujours rêver …).

Remarque : Pour tout calcul de probabilité lié à une variable continue, il est nécessaire de faire appel à une fonction définie sur ℝ, appelée densité.

Définition 10 : On appelle densité de probabilité, ou densité, toute fonction définie sur ℝ, et telle que :

∗ 𝑓 est positive sur ℝ : ∀𝑥 ∈ ℝ, 𝑓(𝑥) ≥ 0

∗ 𝑓 est continue sur ℝ (sauf éventuellement en un nombre fini de points)

∗ L’aire du domaine délimité par la courbe représentative de 𝑓 dans un repère orthogonal et l’axe des abscisses est égale à 1 (en unité d’aire).

2) Probabilité d’un événement

Définition 11 : Soit 𝑋 une variable aléatoire définie sur Ω, continue et de densité 𝑓.

La probabilité de l’événement [𝑋 ∈ 𝐽] notée 𝑃(𝑋 ∈ 𝐽), où 𝐽 est un intervalle de ℝ, est l’aire du domaine défini par : {𝑀(𝑥; 𝑦) tels que 𝑥 ∈ 𝐽 et 0 ≤ 𝑦 ≤ 𝑓(𝑥)}.

Exemple 16 :

Remarque :

Le troisième point de la définition 10 peut se traduire par 𝑃(𝑋 ∈ ℝ) = 1

Propriété 4 : Soit 𝑋 une variable aléatoire définie sur Ω, continue et de densité 𝑓 et 𝑘 un nombre réel.

La probabilité de l’événement [𝑋 = 𝑘] est nulle : 𝑃(𝑋 = 𝑘) = 0.

(18)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 18 Conséquence pratique :

Dans le calcul de probabilité d’un événement [𝑋 ∈ 𝐽], les éventuelles inégalités larges peuvent être remplacées par des inégalités strictes et inversement.

À titre d’exemple : 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃(𝑎 ≤ 𝑋 < 𝑏) = 𝑃(𝑎 < 𝑋 < 𝑏) Exemple 17 :

La production quotidienne 𝑋 d’un produit en tonnes est une variable aléatoire continue qui prend ses valeurs dans l’intervalle [0; 10] avec la densité de probabilité 𝑓 définie par :

𝑓(𝑥) = 0,006(10𝑥 − 𝑥 ) si 𝑥 ∈ [0; 10] et 𝑓(𝑥) = 0 sinon On admet que :

𝑃(𝑋 ≤ 𝑥) =

⎩⎪

⎪⎧ 0 si 𝑥 < 0 0,002(15𝑥 − 𝑥 ) si 𝑥 ∈ [0; 10]

1 si 𝑥 > 10

a) Calculer la probabilité des événements 𝐴 : « 𝑋 ≤ 7 » et 𝐵 : « La production quotidienne dépasse 6 tonnes »

𝑃(𝐴) = 𝑃(𝑋 ≤ 7) = 0,002(15 × 7 − 7 ) = 0,784

c) Calculer la probabilité de l’événement 𝐶 : « La production quotidienne est comprise entre 6 et 7 tonnes »

𝑃(𝐶) = 𝑃(6 ≤ 𝑋 ≤ 7) = 𝑃(𝑋 ≤ 7) − 𝑃(𝑋 < 6) = 0,784 − 0,002(15 × 6 − 6 ) = 0,136 3) La loi normale

a) Loi normale centrée réduite

Définition 8 : On dit que la variable aléatoire 𝑋 suit une loi normale centrée réduite lorsque sa densité 𝑓 est définie sur ℝ par :

𝑓(𝑥) = 1

√2𝜋e

On note : 𝑋 suit la loi 𝒩(0; 1) ou encore 𝑋 ↪ 𝒩(0; 1).

Remarques :

1) La fonction 𝑓 est paire, sa courbe est donc symétrique par rapport à l’axe des ordonnées.

2) L’aire du domaine situé sous la courbe et au-dessus de l’axe des abscisses vaut 1. Par symétrie, l’aire du domaine limité par l’axe des ordonnées vaut 0,5 de chaque côté : 𝑃(𝑋 ≤ 0) = 0,5 = 𝑃(𝑋 ≥ 0) Propriété 7 : Soit 𝑋 une variable aléatoire de loi normale centrée réduite, alors 𝐸(𝑋) = 0.

Remarque :

Comme dans le cadre des variables aléatoires discrètes, on définit la variance et l’écart-type de 𝑋 : La variance de 𝑋 est notée 𝑉(𝑋) et peut se définir par 𝑉(𝑋) = 𝐸(𝑋 − 𝐸(𝑋))².

L’écart-type est noté 𝜎(𝑋) et défini par 𝜎(𝑋) = 𝑉(𝑋)

(19)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 19 Vocabulaire :

Le premier paramètre de l’écriture 𝒩(0; 1) correspond à l’espérance de 𝑋, 𝐸(𝑋) = 0 : on dit que la variable aléatoire 𝑋 est centrée.

Le deuxième paramètre de l’écriture 𝒩(0; 1) correspond à l’écart-type de 𝑋, 𝜎(𝑋) = 1 : on dit que la variable aléatoire 𝑋 est réduite.

Propriété 8 : Soit 𝑋 une variable aléatoire de loi normale centrée réduite.

Pour tout réel 𝑥, on note 𝜙(𝑥) = 𝑃(𝑋 ≤ 𝑥).

𝜙(0) = 0,5

𝜙(𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝑃(𝑋 < 𝑥) 𝑃(𝑋 ≥ 𝑥) = 𝑃(𝑋 > 𝑥) = 1 − 𝜙(𝑥)

𝜙(−𝑥) = 𝑃(𝑋 < −𝑥) = 𝑃(𝑋 > 𝑥) = 1 − 𝜙(𝑥) 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝜙(𝑏) − 𝜙(𝑎)

𝑃(−𝑎 ≤ 𝑋 ≤ 𝑎) = 𝜙(𝑎) − 𝜙(−𝑎) = 𝜙(𝑎) − 1 − 𝜙(𝑎) = 2𝜙(𝑎) − 1 avec 𝑎 > 0

Table de lecture de 𝜙(𝑥) pour la loi normale centrée réduite :

(20)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 20 Exemple 18 :

Soit 𝑋 une variable aléatoire de loi normale centrée réduite.

Pour lire la probabilité 𝑃(𝑋 ≤ 1,58), on lit la probabilité au croisement de 1,5 et 0,08 à savoir 0,9429.

Donner les probabilités suivantes :

𝑃(𝑋 ≤ 1)= 0,8413 , 𝑃(𝑋 > 1)= 1 − 𝑃(𝑋 ≤ 1) = 1 − 0,8413 = 0,1587 𝑃(𝑋 ≥ 0,95)= 1 − 𝑃(𝑋 < 0,95) = 1 − 0,8289 = 0,1711

𝑃(1,25 < 𝑋 < 2,43)= 𝑃(𝑋 < 2,43) − 𝑃(𝑋 ≤ 1,25) = 0,9925 − 0,8943 = 0,0982 𝑃(𝑋 ≥ −0,56)= 𝑃(𝑋 ≤ 0,56) = 0,7123

𝑃(𝑋 ≤ −2,56)= 𝑃(𝑋 ≥ 2,56) = 1 − 𝑃(𝑋 < 2,56) = 1 − 0,9948 = 0,0052 𝑃(−1,2 < 𝑋 < 1,2)= 2𝑃(𝑋 < 1,2) − 1 = 2 × 0,8849 − 1 = 0,7698

𝑃(𝑋 = 0,67)= 0

𝑃(−1,2 < 𝑋 < 2,3)= 𝑃(𝑋 < 2,3) − 𝑃(𝑋 ≤ −1,2) = 𝑃(𝑋 < 2,3) − 𝑃(𝑋 ≥ 1,2)

= 𝑃(𝑋 < 2,3) − 1 − 𝑃(𝑋 < 1,2) = 0,9893 − 1 + 0,8849 = 0,8742

b) Loi normale

Définition 9 : On dit que la variable aléatoire 𝑋 suit la loi normale d’espérance 𝜇 et d’écart-type 𝜎 lorsque la variable aléatoire continue 𝑋 = suit la loi normale centrée réduite.

On note : 𝑋 suit la loi 𝒩(𝜇; 𝜎 ) ou encore 𝑋 ↪ 𝒩(𝜇; 𝜎 ).

Remarques :

1) La densité (pour info) associée à une variable aléatoire 𝑋 suivant la loi normale d’espérance 𝜇 et d’écart-type 𝜎 est la fonction 𝑓 définie pour tout réel 𝑥 par :

𝑓(𝑥) = 1

𝜎√2𝜋e

2) Pour tout réel 𝑥, 𝑓(𝜇 − 𝑥) = 𝑓(𝜇 + 𝑥) : la courbe de 𝑓 (en « cloche » elle aussi) est donc symétrique par rapport à la droite d’équation 𝑥 = 𝜇.

3) L’écart-type 𝜎 a un impact sur la forme de la courbe de 𝑓 : plus il est petit et plus la « cloche est haute ».

(21)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 21 Propriété 9 : Soit 𝑋 une variable aléatoire continue de loi normale 𝒩(𝜇; 𝜎 ).

1) La probabilité de l’événement [𝜇 − 𝜎 ≤ 𝑋 ≤ 𝜇 + 𝜎] est approximativement égale à 0,68.

2) La probabilité de l’événement [𝜇 − 2𝜎 ≤ 𝑋 ≤ 𝜇 + 2𝜎] est approximativement égale à 0,95.

3) La probabilité de l’événement [𝜇 − 3𝜎 ≤ 𝑋 ≤ 𝜇 + 3𝜎] est approximativement égale à 0,99.

Exemple 19 :

1) Soit 𝑋 une variable aléatoire de loi normale de paramètres 𝑚 = 100 et 𝜎 = 15.

On pose 𝑍 =𝑋 − 100

15 la variable normale centrée réduite associée à 𝑋.

Toute probabilité liée à 𝑍 est donc lisible sur le tableau page 19 (mais ce n’est pas le cas pour 𝑋) Donner les probabilités suivantes :

𝑃(𝑋 ≤ 100)= 0,5 ou encore 𝑃(𝑋 ≤ 100) = 𝑃(𝑋 − 100 ≤ 0) = 𝑃 ≤ 0 = 𝑃(𝑍 ≤ 0) = 0,5 𝑃(𝑋 > 85)= 1 − 𝑃(𝑋 ≤ 85) = 1 − 0,1587 = 0,8413

ou encore 𝑃(𝑋 > 85) = 𝑃(𝑋 − 100 > −15) = 𝑃 > −1 = 𝑃(𝑍 > −1) = 𝑃(𝑍 < 1) = 0,8413 𝑃(𝑋 ≥ 115)= 1 − 𝑃(𝑋 < 115) = 1 − 0,8413 = 0,1587

ou encore 𝑃(𝑋 ≥ 115) = 𝑃(𝑋 − 100 > 15) = 𝑃 > 1 = 𝑃(𝑍 > 1) = 1 − 𝑃(𝑍 ≤ 1) = 0,1587 𝑃(105 < 𝑋 < 125)= 𝑃(𝑋 < 125) − 𝑃(𝑋 ≤ 105) = 0,9522 − 0,6306 = 0,3216

ou encore 𝑃(105 < 𝑋 < 125) = 𝑃(5 < 𝑋 − 100 < 25) = 𝑃 0,33 < < 1,67

= 𝑃(0,33 < 𝑍 < 1,67) = (𝑍 < 1,67) − 𝑃(𝑍 ≤ 0,33) = 0,9525 − 0,6293 = 0,3232 𝑃(𝑋 ≥ 90)= 1 − 𝑃(𝑋 < 90) = 1 − 0,2525 = 0,7475

ou encore 𝑃(𝑋 ≥ 90) = 𝑃(𝑋 − 100 ≥ −10) = 𝑃 ≥ −0,67 = 𝑃(𝑍 ≥ −0,67) = 𝑃(𝑍 ≤ 0,67)

= 0,7486

𝑃(𝑋 ≤ 70)= 0,0228 ou encore 𝑃(𝑋 ≤ 70) = 𝑃(𝑋 − 100 ≤ −30) = 𝑃 ≤ −2 = 𝑃(𝑍 ≤ −2)

= 1 − 𝑃(𝑍 < 2) = 1 − 0,9772 = 0,0228

𝑃(85 < 𝑋 < 115)= 𝑃(100 − 15 < 𝑋 < 100 + 15) = 𝑃(𝜇 − 𝜎 ≤ 𝑋 ≤ 𝜇 + 𝜎) ≈ 0,68 𝑃(𝑋 = 110)= 0

𝑃(70 < 𝑋 < 130)= 𝑃(100 − 30 < 𝑋 < 100 + 30) = 𝑃(𝜇 − 2𝜎 ≤ 𝑋 ≤ 𝜇 + 2𝜎) ≈ 0,95

(22)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 22 2) Soit 𝑋 une variable aléatoire de loi normale de paramètres 𝑚 = 6 et 𝜎 = 2.

On pose 𝑍 =𝑋 − 6

2 la variable normale centrée réduite associée à 𝑋.

Toute probabilité liée à 𝑍 est donc lisible sur le tableau page 19 (mais ce n’est pas le cas pour 𝑋) Donner les probabilités suivantes :

𝑃(𝑋 ≤ 8)= 0,8413 ou encore 𝑃(𝑋 ≤ 8) = 𝑃(𝑋 − 6 ≤ 2) = 𝑃 ≤ 1 = 𝑃(𝑍 ≤ 1) = 0,8413 𝑃(𝑋 > 4)= 1 − 𝑃(𝑋 ≤ 4) = 1 − 0,1587 = 0,8413

ou encore 𝑃(𝑋 > 4) = 𝑃(𝑋 − 6 > −2) = 𝑃 > −1 = 𝑃(𝑍 > −1) = 𝑃(𝑍 < 1) = 0,8413 𝑃(𝑋 ≥ 7)= 1 − 𝑃(𝑋 < 7) = 1 − 0,6915 = 0,3085

ou encore 𝑃(𝑋 ≥ 7) = 𝑃(𝑋 − 6 ≥ 1) = 𝑃 ≥ 0,5 = 𝑃(𝑍 ≥ 0,5) = 1 − 𝑃(𝑍 < 0,5) = 0,3085 𝑃(4 < 𝑋 < 5) = 𝑃(𝑋 < 5) − 𝑃(𝑋 ≤ 4) = 0,3085 − 0,1587 = 0,1498

ou encore 𝑃(4 < 𝑋 < 5) = 𝑃(−2 < 𝑋 − 6 < −1) = 𝑃 −1 < < −0,5 = 𝑃(−1 < 𝑍 < −0,5)

= 𝑃(𝑍 < −0,5) − 𝑃(𝑍 ≤ −1) = 1 − 𝑃(𝑍 < 0,5) − 1 + 𝑃(𝑍 < 1) = 0,8413 − 0,6915 = 0,1498 𝑃(𝑋 ≤ 5)= 0,3085

ou encore 𝑃(𝑋 ≤ 5) = 𝑃(𝑋 − 6 ≤ −1) = 𝑃(𝑍 ≤ −0,5) = 1 − 𝑃(𝑍 < 0,5) = 0,3085 𝑃(4 < 𝑋 < 8) = 𝑃(6 − 2 < 𝑋 < 6 + 2) = 𝑃(𝜇 − 𝜎 ≤ 𝑋 ≤ 𝜇 + 𝜎) ≈ 0,68

𝑃(𝑋 < 7)= 0,6915

ou encore 𝑃(𝑋 < 7) = 𝑃(𝑋 − 6 < 1) = 𝑃 𝑋 − 6

2 < 0,5 = 𝑃(𝑍 < 0,5) = 0,6915 𝑃(0 < 𝑋 < 12)= 𝑃(6 − 6 < 𝑋 < 6 + 6) = 𝑃(𝜇 − 3𝜎 ≤ 𝑋 ≤ 𝜇 + 3𝜎) ≈ 0,99

c) Approximations de la loi binomiale

Lorsque 𝑛 ≥ 50 et 𝑛𝑝 ≤ 5, on peut approcher la loi binomiale de paramètres 𝑛 et 𝑝 par une loi de POISSON de paramètre 𝑛𝑝.

Lorsque 𝑛𝑝 ≥ 5 et 𝑛(1 − 𝑝) ≥ 5, on peut approcher la loi binomiale de paramètres 𝑛 et 𝑝 par une loi normale de paramètres 𝑚 = 𝑛𝑝 et 𝜎 = 𝑛𝑝(1 − 𝑝).

Exemple 20 :

1) Soit 𝑋 de loi binomiale de paramètres 400 et 0,01.

a) Déterminer un cadre d’approximation de 𝑋.

𝑛 = 400 > 50 et 𝑛 × 𝑝 = 400 × 0,01 = 4 < 5 donc on peut approcher la loi binomiale 𝑋 par une loi de POISSON de paramètre 𝜆 = 𝑛𝑝 = 4

b) Calculer 𝑃(𝑋 ≤ 6) et 𝑃(𝑋 > 5).

Avec la loi binomiale :

𝑃(𝑋 ≤ 6) = 0,8904 et 𝑃(𝑋 > 5) = 1 − 𝑃(𝑋 ≤ 5) = 1 − 0,7859 = 0,2141.

Avec l’approximation par la loi de POISSON :

𝑃(𝑋 ≤ 6) = 0,8893 et 𝑃(𝑋 > 5) = 1 − 𝑃(𝑋 ≤ 5) = 1 − 0,7851 = 0,2149

(23)

FA Vaz – DUT GEA CHAM2 – M 22 06 – Chapitre 2 Page 23 2) Soit 𝑋 de loi binomiale de paramètres 400 et 0,1.

a) Déterminer un cadre d’approximation de 𝑋.

𝑛 = 400 > 50 , 𝑛 × 𝑝 = 400 × 0,1 = 40 > 5 𝑒𝑡 𝑛 × (1 − 𝑝) = 400 × 0,9 = 360 > 5 donc on peut approcher la loi binomiale 𝑋 par une loi normale de paramètres 𝑚 = 𝑛𝑝 = 40 et 𝜎 = 𝑛𝑝(1 − 𝑝) = √36 = 6

b) Calculer 𝑃(𝑋 ≤ 46) et 𝑃(𝑋 > 34).

Avec la loi binomiale :

𝑃(𝑋 ≤ 46) = 0,8600 et 𝑃(𝑋 > 34) = 1 − 𝑃(𝑋 ≤ 34) = 1 − 0,1805 = 0,8195.

Avec l’approximation par la loi normale :

𝑃(𝑋 ≤ 46) = 0,8413 et 𝑃(𝑋 > 34) = 1 − 𝑃(𝑋 ≤ 34) = 1 − 0,1587 = 0,8413

Références

Documents relatifs

Lorsqu’on s’intéresse à une variable aléatoire pouvant prendre un grand nombre de valeurs (et même dans les autres cas !), il peut être intéressant de donner, en plus de la loi

Khintchme a démontré (*) que la classe des lois à corréla- tion normale est la seule classe finie, stable^ et de coefficient de corrélation R différent de =h i.. Nous donnerons ici

Au vu de l’interpr´etation, le fait que f soit constante sur [a, b] correspond au fait que si on choisit une point selon cette loi, on a “autant de chances” de tomber au voisinage

Dénition Une expérience aléatoire est un processus qui peut être répété, dont le résultat n'est pas connu à l'avance, mais dont l'ensemble des résultats possibles est

Définition Une expérience aléatoire est un processus qui peut être répété, dont le résultat n’est pas connu à l’avance, mais dont l’ensemble des résultats possibles

Pour les expériences qui consistent à obtenir successivement plusieurs éléments (tirer au hasard plusieurs cartes, lancer plusieurs fois un dé, etc.), on peut utiliser un arbre

Ce qui montre de façon rigoureuse que lorsque l'on lance un grand nombre de fois une pièce de monnaie bien équilibrée, on a une chance sur deux en moyenne que la pièce tombe sur

Définition 3 : On appelle épreuve de Bernoulli toute expérience aléatoire ne comportant que deux issues appelées succès, de probabilité p, ou échec, de probabilité q = 1-p.. La