Chap.15 :
SOMME DE Variables aléatoires
Partie 1 : Rappels de première
a) Variables aléatoires réelles.
On considère une expérience aléatoire dont l’univers Ω = {𝑒%; 𝑒'; 𝑒(; … ; 𝑒*} est fini et une loi de probabilité 𝑝 sur Ω.
Définition : une variable aléatoire réelle (discrète) 𝑋 sur Ω est une fonction qui à chaque issue de Ω associe un nombre réel.
Notation : 𝑎 étant un nombre réel, on note {𝑋 = 𝑎} l’événement 𝑋 prend la valeur 𝑎 et 𝑝(𝑋 = 𝑎) sa probabilité.
Exemple : une urne contient 6 boules indiscernables au toucher : trois boules rouges numérotées de 1 à 3 (𝑅%, 𝑅' et 𝑅() et trois boules vertes numérotées 0, 3 et 5 (𝑉8, 𝑉( et 𝑉9).
Un joueur mise 2 € et tire une boule au hasard. Si elle est rouge, il gagne 3 € ; si elle est verte, il gagne en euros la valeur du numéro indiqué.
L’univers associé à l’expérience aléatoire est Ω = {𝑅%, 𝑅', 𝑅(, 𝑉8, 𝑉(, 𝑉9}. Toutes les issues sont équiprobables.
La variable aléatoire 𝑋 qui, à chaque boule choisie, associe le gain en tenant compte de la mise, peut prendre comme valeur :
• 3 (en prenant 𝑉9 et en soustrayant la mise).
• 1 (en prenant une boule rouge ou la boule 𝑉( et en soustrayant la mise).
• −2 (en prenant la boule 𝑉8 et en soustrayant la mise).
L’événement 𝑋 prend la valeur 3, noté {𝑋 = 3} est réalisé lorsque le joueur tire la boule 𝑉9. Sa probabilité est 𝑝(𝑋 = 3) =%= car la probabilité de tirer au hasard la boule 𝑉9 est %=. Définition : soit 𝑋 une variable aléatoire sur Ω prenant les valeurs 𝑥%, 𝑥', … 𝑥?.
Lorsqu’à chaque valeur 𝑥@, on associe la probabilité 𝑝@ = 𝑝(𝑋 = 𝑥@), on définit la loi de probabilité de 𝑋.
Remarques :
1. La loi de probabilité d’une variable aléatoire X peut se présenter sous forme de tableau.
𝑥 𝑥% 𝑥' … 𝑥?
𝑝(𝑋 = 𝑥@) 𝑝% 𝑝' … 𝑝?
2. La somme des probabilités de toutes les valeurs prises par la variable aléatoire est égale à 1.
On a 𝑝%+ 𝑝'+ ⋯ + 𝑝? = 1.
3. ∑. est le symbole de la somme. Ainsi ∑?@E%𝑝@ = 𝑝% + 𝑝' + ⋯ + 𝑝? = 1
Exemple : dans l’exemple précédent, 𝑋 peut prendre les valeurs 3, 1 et −2. De plus, on a :
• 𝑝(𝑋 = 3) = 𝑝({𝑉9}) =%=
• 𝑝(𝑋 = 1) = 𝑝({𝑅%; 𝑅'; 𝑅(; 𝑉(}) =F== '(
• 𝑝(𝑋 = −2) = 𝑝({𝑉8}) =%
On en déduit la loi de probabilité de 𝑋 est donnée dans le tableau ci-contre. =
𝑥 −2 1 3
𝑝(𝑋 = 𝑥@) 1 6
2 3
1 6
Remarques :
1. Les notations {𝑋 ≥ 𝑎}, {𝑋 = 𝑎}, … permettent de définir des événements en lien avec les variables aléatoires.
2. Dans l’exemple, on peut calculer la probabilité de l’événement {𝑋 ≥ 0}, c’est-à-dire la probabilité que le gain soit positif, que l’on note 𝑝(𝑋 ≥ 0) : on a 𝑝(𝑋 ≥ 0) = 𝑝(𝑋 = 1) + 𝑝(𝑋 = 3) =9= b) Espérance, variance et écart-type.
Dans cette partie, 𝑋 est une variable aléatoire dont la loi de probabilité est donnée par le tableau suivant.
𝑥 𝑥% 𝑥' … 𝑥?
𝑝(𝑋 = 𝑥@) 𝑝% 𝑝' … 𝑝? Définition : l’espérance de 𝑋 est le nombre réel noté 𝐸(𝑋) défini par : 𝐸(𝑋) = 𝑝%𝑥%+ 𝑝'𝑥'+ ⋯ + 𝑝?𝑥? = ∑?@E%𝑝@𝑥@
Remarque : l’espérance se rapproche de la notion de « moyenne » en statistique.
Exemple : on considère une variable aléatoire 𝑌 dont la loi de probabilité est donnée par le tableau suivant.
𝑦@ −4 0 4 20
𝑝(𝑌 = 𝑦@) 0,5 0,2 0,2 0,1 On a : 𝐸(𝑌) = 0,5 × (−4) + 0,2 × 0 + 0,2 × 4 + 0,1 × 20 = 0,8
Remarques :
1) Lorsque 𝑋 est une variable aléatoire donnant le gain algébrique à un jeu, 𝐸(𝑋) est le gain moyen que peut espérer un joueur sur un grand nombre de parties à ce jeu.
2) Un jeu est équitable si l’espérance de la variable aléatoire donnant le gain algébrique est nulle.
Définition : la variance de 𝑋 est le nombre réel noté 𝑉(𝑋) défini par :
𝑉(𝑋) = 𝑝%N𝑥%− 𝐸(𝑋)O'+ 𝑝'N𝑥'− 𝐸(𝑋)O'+ ⋯ + 𝑝?N𝑥?− 𝐸(𝑋)O' = ∑?@E%𝑝@N𝑥@ − 𝐸(𝑋)O'
Exemple : dans l’exemple précédent, on a :
𝑉(𝑌) = 0,5(−4 − 0,8)'+ 0,2(0 − 0,8)'+ 0,1(4 − 0,8)'+ 0,1(20 − 0,8)' = 50,56 Définition : l’écart-type de 𝑋 est le nombre réel noté 𝜎(𝑋) défini par :
𝜎(𝑋) = R𝑉(𝑋)
Exemple : dans l’exemple précédent, on a 𝜎(𝑌) = R𝑉(𝑌) = R50,56 ≈ 7,11 Remarques :
1) Ces définitions sont à mettre en lien avec celles de moyenne, variance et écart-type d’une série statistique. On peut donc aussi utiliser la calculatrice ou un tableur pour déterminer l’espérance, la variance et l’écart-type si on a résumé la loi de probabilité de la variable aléatoire dans un tableau.
Numworks TI Casio
2) Comme en statistiques, l’écart-type permet de se donner une idée de la répartition des valeurs prises par une variable autour de son espérance en tenant compte des probabilités. Plus l’écart-type est grand, plus les valeurs prises par la variable aléatoire sont « éloignées » de l’espérance.
Extension :
Propriété (formule de König-Huygens) :
𝑉(𝑋) = 𝑝%(𝑥%)'+ 𝑝'(𝑥')'+ ⋯ + 𝑝?(𝑥?)' − 𝐸(𝑋)' = ∑?@E%𝑝@(𝑥@)'− N𝐸(𝑋)O'
Remarque : soient 𝑎 et 𝑏 deux réels.
𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 𝑉(𝑎𝑋 + 𝑏) = 𝑎'𝑉(𝑋) 𝜎(𝑎𝑋 + 𝑏) = |𝑎|𝜎(𝑋)
Exemple : dans l’exemple précédent, si on a 𝐸(𝑍) = 3,4, alors 𝐸(𝑍X) = 𝐸(2𝑍 − 1)
= 2𝐸(𝑍) − 1 = 2 × 3,4 − 1 = 5,8
Partie 2 : SOMMES DE VRIABLES Aléatoires
a) Variables aléatoires et opérations.
Définition : somme de variables aléatoires
On note 𝑋 + 𝑌 la variable aléatoire définie sur Ω par : (𝑋 + 𝑌)(𝜔) = 𝑋(𝜔) + 𝑌(𝜔), pour tout 𝜔 ∈ Ω.
On note 𝑎𝑋 la variable aléatoire définie sur Ω par : (𝑎𝑋)(𝜔) = 𝑎 × 𝑋(𝜔), pour tout 𝜔 ∈ Ω.
Exemple : on lance un dé jaune et un dé vert bien équilibré, comportant chacun six faces numérotées de 1 à 6. On note 𝑋 et 𝑌 les variables aléatoires donnant respectivement les résultats affichés par le dé jaune et le dé vert. On comprend intuitivement que 𝑋 + 𝑌 est la variable aléatoire donnant la somme des résultats des deux dés.
Remarque : le principe peut être généralisé à une somme de plusieurs variables aléatoires.
b) Espérance et variance.
Propriété : linéarité de l’espérance
§ 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌)
§ Pour tout nombre réel 𝑎, 𝐸(𝑎𝑋) = 𝑎𝐸(𝑋).
Démonstration :
§ On admettra ce résultat.
§ Pour tout nombre réel 𝑎 : 𝐸(𝑎𝑋) = [ 𝑎𝑥@𝑃(𝑎𝑋 = 𝑎𝑥@)
?
@E%
= 𝑎 [ 𝑥@𝑃(𝑋 = 𝑥@)
?
@E%
= 𝑎𝐸(𝑋).
Remarques : Lorsque 𝑌 est constante égale à un nombre réel 𝑏, 𝐸(𝑋 + 𝑏) = 𝐸(𝑋) + 𝑏.
Plus généralement, pour tous nombres réels 𝑎 et 𝑏, 𝐸(𝑎𝑋 + 𝑏𝑌) = 𝑎𝐸(𝑋) + 𝑏𝐸(𝑌) Le principe peut être généralisé à une somme de plusieurs variables aléatoires.
Exemple : on reprend l’exemple précédent. 𝐸(𝑋) = 1 ×%=+ 2 ×%=+ ⋯ + 6 ×%== 3,5 et 𝐸(𝑌) = 3,5.
On en déduit que 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) = 3,5 + 3,5 = 7 : cela signifie que, lorsqu’on lance deux dés, la somme obtenue est en moyenne égale à 7 si l’on répète un grand nombre de fois l’expérience.
•
•
•
Propriété : variance et écart-type
§ Lorsque 𝑋 et 𝑌 sont indépendantes, 𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌).
§ Pour tout nombre réel 𝑎, 𝑉(𝑎𝑋) = 𝑎'𝑉(𝑋).
§ Pour tout nombre réel 𝑎, 𝜎(𝑎𝑋) = |𝑎|𝜎(𝑋).
Démonstration :
§ On admettra ce résultat.
§ Pour tout nombre réel 𝑎 : 𝑉(𝑎𝑋) = 𝐸((𝑎𝑋)') − N𝐸(𝑎𝑋)O' = 𝐸(𝑎'𝑋') − N𝑎𝐸(𝑋)O'
= 𝑎'𝐸(𝑋') − 𝑎'N𝐸(𝑋)O' = 𝑎']𝐸(𝑋') − N𝐸(𝑋)O'^ = 𝑎'𝑉(𝑋).
§ Pour tout nombre réel 𝑎 : 𝜎(𝑎𝑋) = R𝑉(𝑎𝑋) = R𝑎'𝑉(𝑋) = √𝑎'× R𝑉(𝑋) = |𝑎|𝜎(𝑋).
Exemple : on considère deux variables aléatoires indépendantes sur un même univers fini telles que : 𝑉(𝑋) = 3 et 𝑉(𝑌) = 7,2. On a alors :
𝑉(𝑋 + 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) = 3 + 7,2 = 10,2 𝜎(𝑋 + 𝑌) = R𝑉(𝑋 + 𝑌) = √10,2 ≈ 3,19 𝑉(2𝑋) = 2'𝑉(𝑋) = 4𝑉(𝑋) = 4 × 3 = 12
Partie 3 : SOMMES DE VARIABLES Aléatoires identiques et indépendantes
a) Quelques rappels
Définition : épreuve et loi de Bernoulli
§ On appelle épreuve de Bernoulli toute expérience aléatoire n’ayant que deux issues possibles.
Ces deux issues sont appelées succès et échec.
§ On dit qu’une variable aléatoire 𝑋 suit une loi de Bernoulli de paramètre 𝒑 lorsque 𝑋 prend la valeur 1 en cas de succès et 0 en cas d’échec dans une épreuve de Bernoulli, où 𝑝 désigne la probabilité du succès.
Remarque : la loi de probabilité d’une variable aléatoire suivant une loi de Bernoulli de paramètre 𝑝 est donnée dans le tableau ci-contre.
Propriété : espérance, variance et écart-type d’une loi de Bernoulli
On considère une variable aléatoire 𝑋 suivant une loi de Bernoulli de paramètre 𝑝.
On a : 𝐸(𝑋) = 𝑝, 𝑉(𝑋) = 𝑝(1 − 𝑝) et 𝜎(𝑋) = R𝑝(1 − 𝑝).
Définition : schéma de Bernoulli
On appelle schéma de Bernoulli toute expérience aléatoire consistant à répéter une épreuve de Bernoulli dans des conditions identiques et indépendantes.
Définition : loi binomiale
On considère un schéma de Bernoulli consistant à répéter 𝑛 fois une épreuve de Bernoulli dans des conditions identiques et indépendantes.
On note 𝑝 la probabilité du succès dans l’épreuve de Bernoulli.
On dit que la variable aléatoire 𝑋 suit une loi binomiale de paramètres 𝒏 et 𝒑 et on note 𝑋 ↪ 𝐵(𝑛 ; 𝑝) lorsque 𝑋 compte le nombre de succès dans le schéma de Bernoulli.
Propriété : on considère un nombre entier 𝑛 et un nombre réel 𝑝 appartenant à l’intervalle [0 ; 1].
Si 𝑋 est une variable aléatoire qui suit une loi binomiale de paramètres 𝑛 et 𝑝, alors, pour tout nombre entier naturel 𝑘 tel que 0 ≤ 𝑘 ≤ 𝑛, on a :
𝑃(𝑋 = 𝑘) = j𝑛𝑘k 𝑝l(1 − 𝑝)?ml et j𝑛
𝑘k =l!×(?ml)!?!
•
•
•
𝑥@ 0 1
𝑃(𝑋 = 𝑥@) 1 − 𝑝 p
Propriété : espérance, variance et écart-type d’une loi binomiale
On considère un nombre entier 𝑛 et un nombre réel 𝑝 appartenant à l’intervalle [0 ; 1].
Si X est une variable aléatoire qui suit une loi binomiale de paramètres 𝑛 et 𝑝, alors, son espérance mathématique est 𝐸(𝑋) = 𝑛𝑝, sa variance est 𝑉(𝑋) = 𝑛𝑝(1 − 𝑝) et son écart-type est 𝜎(𝑋) = R𝑛𝑝(1 − 𝑝).
b) Loi de Bernoulli et loi binomiale Propriété : loi binomiale et somme
si 𝑋%, 𝑋', …, 𝑋? sont des variables aléatoires indépendantes suivant toutes une même loi de Bernoulli de paramètre 𝑝 alors 𝑋%+ 𝑋'+ ⋯ + 𝑋? suit une loi binomiale de paramètres 𝑛 et 𝑝.
Démonstration : pour toute variable aléatoire 𝑋@ où 𝑖 ∈ {1, 2, … , 𝑛}, si l’on considère l’évènement « Obtenir 1 » de probabilité 𝑝 comme succès alors 𝑋%+ 𝑋'+ ⋯ + 𝑋? compte le nombre de succès lors de la
réalisation des 𝑛 épreuves de Bernoulli indépendantes.
On en déduit que 𝑋% + 𝑋'+ ⋯ + 𝑋? suit une loi binomiale de paramètres 𝑛 et 𝑝.
Exemple : on considère des variables aléatoires indépendantes 𝑋%, 𝑋', …, 𝑋%8 suivant une loi de Bernoulli de paramètre 𝑝 = 0,2. D’après la propriété précédente, 𝑋 = 𝑋%+ 𝑋'+ ⋯ + 𝑋%8 suit la loi binomiale de
paramètres 𝑛 = 10 et 𝑝 = 0,2.
Propriété : décomposition
On considère une variable aléatoire 𝑋 suivant une loi binomiale de paramètre 𝑛 et 𝑝.
𝑋 peut toujours d’écrire sous la forme 𝑋 = 𝑋%+ 𝑋'+ ⋯ + 𝑋? où 𝑋%, 𝑋', …, 𝑋? sont des variables aléatoires indépendantes suivant toutes une même loi de Bernoulli de paramètre 𝑝.
Démonstration : on admettra ce résultat.
Exemple : on considère une variable aléatoire 𝑋 suivant la loi binomiale de paramètres 𝑛 = 3 et 𝑝 = 0,4.
Il existe alors trois variables aléatoires 𝑋%, 𝑋' et 𝑋( suivant la loi de Bernoulli de paramètre 𝑝 = 0,4 et telles que 𝑋 = 𝑋% + 𝑋'+ 𝑋(.
Remarque : ce résultat permet de retrouver l’espérance, la variance d’une variable aléatoire suivant une loi binomiale de paramètre 𝑛 et 𝑝. En effet, sous les conditions de la propriété précédente, on a :
𝐸(𝑋) = 𝐸(𝑋%) + 𝐸(𝑋') + ⋯ 𝐸(𝑋?) = 𝑝 + 𝑝 + ⋯ + 𝑝 = 𝑛 × 𝑝 La démonstration est analogue pour la variance.
c) Échantillon Définition : échantillon
Toute liste (𝑋%, 𝑋', … , 𝑋?) de 𝑛 variables aléatoires indépendantes suivant une même loi de probabilité est appelée échantillon de taille 𝑛 associé à cette loi (où à une variable aléatoire 𝑋 suivant cette loi).
Exemple : on lance un dé équilibré à six faces : une face porte le nombre 1, deux faces portent le nombre 2 et trois faces portent le nombre 3. On note 𝑋 la variable aléatoire donnant le nombre obtenu dont la loi est résumée dans le tableau ci-contre.
Un échantillon de taille 5 de cette loi suivie par 𝑋 est une liste de cinq variables aléatoires (𝑋%, 𝑋', 𝑋(, 𝑋F, 𝑋9) où 𝑋%, 𝑋', 𝑋(, 𝑋F, 𝑋9 suivent la même loi que 𝑋. Cela correspond concrètement à une liste de cinq résultats correspondant à cinq lancers du dé.
Définition : variables aléatoires somme et moyenne de l’échantillon
On considère un échantillon (𝑋%, 𝑋', … , 𝑋?) de taille 𝑛 d’une variable aléatoire 𝑋.
La variable aléatoire 𝑆? = 𝑋% + 𝑋'+ ⋯ + 𝑋? est appelée variable aléatoire somme de l’échantillon.
La variable aléatoire 𝑀? = r?s est appelée variable aléatoire moyenne de l’échantillon.
𝑥@ 1 2 3
𝑃(𝑋 = 𝑥@) 1 6
1 3
1 2
Propriété : espérance, variance et écart-type des variables aléatoires somme et moyenne Sous les hypothèses de la définition précédente :
§ 𝐸(𝑆?) = 𝑛𝐸(𝑋) ; 𝑉(𝑆?) = 𝑛𝑉(𝑋) et 𝜎(𝑆?) = √𝑛 × 𝜎(𝑋)
§ 𝐸(𝑀?) = 𝐸(𝑋) ; 𝑉(𝑀?) =t(u)? et 𝜎(𝑀?) =v(u)
√?
Démonstration :
§ 𝐸(𝑆?) = 𝐸(𝑋%+ 𝑋'+ ⋯ + 𝑋?) = 𝐸(𝑋%) + 𝐸(𝑋') + ⋯ + 𝐸(𝑋?) = 𝑛𝐸(𝑋) 𝑉(𝑆?) = 𝑉(𝑋%+ 𝑋' + ⋯ + 𝑋?) = 𝑉(𝑋%) + 𝑉(𝑋') + ⋯ + 𝑉(𝑋?) = 𝑛𝑉(𝑋) On en déduit que 𝜎(𝑆?) = R𝑉(𝑆?) = R𝑛𝑉(𝑋) = √𝑛 × R𝑉(𝑋) = √𝑛 × 𝜎(𝑋).
§ 𝐸(𝑀?) = 𝐸 w?%(𝑋%+ 𝑋'+ ⋯ + 𝑋?)x =?%𝐸(𝑋%+ 𝑋'+ ⋯ + 𝑋?) =%?× 𝑛𝐸(𝑋) = 𝐸(𝑋)
𝑉(𝑀?) = 𝑉 w%?(𝑋%+ 𝑋'+ ⋯ + 𝑋?)x = j?%k'𝑉(𝑋%+ 𝑋'+ ⋯ + 𝑋?) =?%y× 𝑛𝑉(𝑋) =t(u)? On en déduit que 𝜎(𝑀?) = R𝑉(𝑀?) = zt(u)? = Rt(u)
√? =v(u)
√? .