• Aucun résultat trouvé

Pré Requis - Polycopié

N/A
N/A
Protected

Academic year: 2022

Partager "Pré Requis - Polycopié"

Copied!
73
0
0

Texte intégral

(1)

Année 2017-2018

L1 É CONOMIE

M ODULE 2 - O UTILS Q UANTITATIFS

P ROBABILITÉS

Ex - UE2-2 - Statistiques et Analyse de Données 2

Julie Scholler

(2)
(3)

Table des matières

Chapitre 1 - Introduction aux probabilités 3

1.1 Cadre . . . 3

1.1.1 Expérience aléatoire . . . 3

1.1.2 Événement . . . 4

1.2 Probabilité . . . 4

1.2.1 Définition . . . 4

1.2.2 Probabilité sur un ensemble fini . . . 5

1.2.3 Loi de probabilité . . . 5

1.2.4 Loi équirépartie . . . 6

1.3 Relations entre les événements et leurs probabilités . . . 7

1.3.1 Événements particuliers . . . 7

1.3.2 Événement contraire . . . 7

1.3.3 Union et intersection d’événements . . . 8

1.3.4 Formule des probabilités totales . . . 9

1.3.5 Croissance de la probabilité . . . 10

Chapitre 2 - Conditionnement et indépendance 11 2.1 Probabilités conditionnelles . . . 11

2.1.1 Définition . . . 11

2.1.2 Calculer la probabilité d’une intersection à l’aide des probabilités conditionnelles . . . 12

2.2 Indépendance . . . 12

2.2.1 Indépendance entre deux événements . . . 12

2.2.2 Indépendance mutuelle . . . 13

2.2.3 Indépendance d’épreuves . . . 14

2.3 Arbres de probabilités . . . 14

2.4 Formule des probabilités totales (deuxième version) . . . 15

2.5 Formule deBayes . . . 16

Chapitre 3 - Variables aléatoires finies 17 3.1 Variable aléatoire . . . 17

3.1.1 Notion de variable aléatoire discrète . . . 17

3.1.2 Lois de probabilité de variables aléatoires finies . . . 18

3.1.3 Représentation d’une loi par un diagramme en bâtons . . . 19

3.1.4 Fonctions de répartition . . . 20

3.2 Moments d’une variable aléatoire finie . . . 22

3.2.1 Espérance d’une variable aléatoire finie . . . 22

3.2.2 Variance d’une variable aléatoire finie . . . 24

3.3 Couples de variables aléatoires . . . 26

3.3.1 Indépendance de deux variables aléatoires . . . 26

3.3.2 Espérance d’une somme de variables aléatoires . . . 27

3.3.3 Variance d’une somme et covariance . . . 28

Chapitre 4 - Lois de probabilités usuelles 31 4.1 Loi uniforme . . . 31

4.1.1 Définition . . . 31

4.1.2 Fonction de répartition . . . 32

4.1.3 Espérance . . . 32

4.1.4 Variance . . . 32

4.2 Loi de Bernoulli . . . 33

(4)

TABLE DES MATIÈRES

4.2.1 Définition . . . 33

4.2.2 Fonction de répartition . . . 33

4.2.3 Espérance . . . 34

4.2.4 Variance . . . 34

4.3 Loi binomiale . . . 34

4.3.1 Définition . . . 34

4.3.2 Fonction de répartition . . . 35

4.3.3 Espérance . . . 36

4.3.4 Variance . . . 36

4.3.5 Stabilité par sommes des lois binomiales . . . 37

4.4 Loi de Poisson . . . 37

Chapitre 5 - Variables aléatoires à densité et loi normale 41 5.1 Variable aléatoire à densité . . . 41

5.1.1 Densité . . . 41

5.1.2 Espérance et variance . . . 43

5.2 Loi uniforme . . . 44

5.3 Loi exponentielle . . . 46

5.4 Loi normale . . . 47

5.4.1 Introduction . . . 47

5.4.2 Loi normale centrée réduite . . . 47

5.4.3 Loi normale N(µ;σ) . . . . 48

5.4.4 Intervalle de fluctuation . . . 49

Chapitre 6 - Théorème central limite et approximations 51 6.1 Théorème central limite . . . 51

6.2 Approximation de la loi binomiale par la loi normale . . . 51

Chapitre A - Dénombrement et représentations graphiques d'événements 53 A.1 Dénombrement . . . 53

A.1.1 Règle de la somme . . . 53

A.1.2 Règle du produit . . . 53

A.1.3 Factorielle . . . 54

A.1.4 Combinaisons . . . 55

A.2 Utilisation d’un tableau d’effectifs . . . 56

A.3 Utilisation d’un diagramme de Venn . . . 57

Chapitre B - Représentations graphiques avec conditionnement 59 B.1 Utilisation d’un tableau d’effectifs . . . 59

B.2 Utilisation d’un arbre de probabilité . . . 60

B.2.1 Arbre de probabilités pour deux événements . . . 60

B.2.2 Généralisations à plusieurs événements . . . 62

Chapitre C - Intégration 65 C.1 Intégrale sur un intervalle borné . . . 65

C.2 Généralisation de l’intégrale . . . 67

Chapitre D - Calculs de probabilités avec la loi normale 69 D.1 Calcul des probabilités à la calculatrice . . . 69

D.2 Calcul des probabilités avec une table de loi . . . 69

(5)

Chapitre 1

Introduction aux probabilités

Objectifs :

• connaître et comprendre le vocabulaire probabiliste ;

• savoir écrire symboliquement un événement simple décrit en français ;

• reconnaître une situation d’équiprobabilité et savoir travailler avec ;

• calculer la probabilité d’un événement ;

• savoir utiliser des représentations (tableau, diagramme de Venn) pour calculer des probabilités.

1. Cadre

1.1. Expérience aléatoire

Définition. Expérience aléatoire

Une expérience aléatoire est une expérience qui, lorsqu’elle est reproduite dans des conditions identiques, peut conduire à plusieurs résultats (tous connusa priori) et dont on ne peut prévoir le résultat à l’avance. Les résultats d’une expérience aléatoire sont appelés les issues.

Exemples.

• Lancer de dé, tirage de boule dans une urne, lancer de pièce, tirage de carte, etc.

• Étudions un autre exemple moins classique. Considérons l’expérience aléatoire qui consiste à se rendre à l’université. Le résultat de l’expérience est le temps de trajet. D’un trajet à l’autre, ce temps n’est pas constant, il dépend des conditions de circulation. Là encore il n’est pas possible de prévoir précisément le résultat de l’expérience, tout au plus un ensemble de résultats possibles compris par exemple entre 5 et 30 minutes.

Définition. Univers

L’ensemble des issues possibles d’une expérience est appelé univers de l’expérience. Il est souvent noté Ω (oméga) ouE.

Au début, on considèrera majoritairement des univers finis, c’est-à-dire que l’on considèrera des expériences aléatoires admettant un nombre fini d’issues possibles.

Exemples.

• On lance un dé à six faces et on s’intéresse au résultat obtenu. Il y a 6 issues possibles.

L’univers associé est Ω ={1,2,3,4,5,6}.

• On lance une pièce et on note la face obtenue. Il y a deux issues possibles.

L’univers associé peut être noté Ω ={Pile, Face}.

• Pour l’exemple du temps de trajet présenté ci-dessus, on a Ω = [5; 30].

(6)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS 1.2. Événement

Définition. Événement

On considère une expérience aléatoire d’univers Ω ={x1, . . . , xn}.

On appelleévénement élémentairetout élément de Ω, etévénementtoute partie de Ω, c’est-à-dire tout sous-ensemble de l’univers Ω.

Remarque.

Pour mieux comprendre la différence entre événement élémentaire et événement quelconque, on peut raisonner en terme d’information. La donnée d’un événement élémentaire décrit entièrement le résultat d’une expérience et contient toute l’information possible, alors qu’un événement quelconque décrit partiellement le résultat d’une expérience.

Exemple.

On lance un dé équilibré à six faces. L’univers est Ω ={1,2,3,4,5,6}.

1. Les événements élémentaires sont :{1},{2},{3},{4},{5}et {6}.

2. L’événementA: « obtenir un nombre pair » est {2,4,6};

3. L’événementB : « obtenir un nombre supérieur ou égal à 3 » est {3,4,5,6}; 4. L’événementC : « obtenir un multiple de 3 » est{3,6};

5. L’événementD: « obtenir un nombre inférieur à 10 » est {1,2,3,4,5,6}= Ω ; 6. L’événementE : « obtenir un nombre strictement négatif » est l’ensemble vide∅. Remarque.

Deux événements sont particulièrement importants :

• l’événement impossible, noté∅, qui ne comporte aucune issue (par exempleE =∅).

• l’événement certain (l’univers Ω tout entier) qui comporte toutes les issues (par exempleD= Ω).

Exemple.

Lors du lancer d’un dé à six faces,

• l’événement « obtenir un nombre entier » est un événement certain ;

• l’événement « obtenir un résultat supérieur ou égal à 9 » est un événement impossible.

2. Probabilité

2.1. Définition

Dans toute la suite, on considère comme univers un ensemble fini Ω ={x1, . . . , xn}.

Définition.

Une probabilité P est une application qui, à tout événement, associe un nombre réel entre 0 et 1 vérifiant les propriétés suivantes :

1. la probabilité de l’événement certain est 1 :

P(Ω) = 1 ;

2. additivité: si deux événements A etB sontincompatibles, c’est-à-dire siAB=∅, alors P(A∪B) =P(A) +P(B).

(7)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS Remarque.

• Si vous trouvez une probabilité qui n’est pas entre 0 et 1, c’est que vous avez commis une erreur.

Dans ce cas, ilfaut le signaler et montrer que vous êtes conscient de vous être trompé.

• Attention à la nature des objets manipulés : une probabilité est uneapplication qui s’applique à un événement, c’est-à-dire à une partie de Ω, et qui renvoie un nombredans l’intervalle [0 ; 1] qui sera appelé la probabilité de l’événement considéré.

2.2. Probabilité sur un ensemble fini Soit Ω ={x1, . . . , xn}un ensemble fini non vide (n∈N?).

Proposition. Probabilité sur un ensemble fini

1. Soit Pune probabilité sur les événements de Ω. On pose ∀i∈J1, nK, pi:=P {xi}. Cette famille vérifie les deux propriétés suivantes :

∀i∈J1, nK, pi >0 et

n

X

i=1

pi= 1.

La probabilité d’un événement est alors la somme des probabilités élémentaires qui la constituent

P(A) = X

itel quexi∈A

pi = X

x∈A

P {ω}.

2. Réciproquement, si on se donne une famille de nombres réels (pi)1≤i≤ntels que

∀i∈J1, nK, pi >0 et

n

X

i=1

pi= 1,

alors en posant, pour tout entier i dans J1, nK, P({xi}) := pi, on définit sur l’ensemble des événements de Ω, une unique probabilitéP telle que, pour tout événementA,

P(A) = X

itel quexi∈A

pi.

Remarque.

Ce résultat montre que définir une probabilité sur Ω revient à définir la probabilité des événements élémentaires (de sorte que leur somme fasse 1).

Autrement dit, si l’ont connaît la probabilité des événements élémentaires, alors on peut déterminer la probabilité de n’importe quel événement.

Exemple.

La probabilité pour un lancer de pièce truquée est déterminée par la donnée de deux réels positifsp et q tels quep+q = 1.

C’est équivalent à la donnée d’un réelp tel que 06p61. On a alors nécessairement q= 1−p.

2.3. Loi de probabilité

Définition. Loi de probabilité

Définir uneloi de probabilité sur Ω, c’est associer à chaque issuexi un nombre compris entre 0 et 1, noté P(xi), de sorte que la somme de tous ces nombres soit égale à 1.

Ces nombres sont appelésprobabilités.

(8)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS

On présente souvent la loi sous forme d’un tableau.

On a P(x1) +P(x2) +· · ·+P(xn) = 1. Issues x1 x2 . . . xn

Probabilités P(x1) P(x2) . . . P(xn) Exemples.

• Lancer de dé équilibré à six faces.

Issues 1 2 3 4 5 6

Probabilités 1 6

1 6

1 6

1 6

1 6

1 6

On a bien 1 6+ 1

6+1 6 +1

6 +1 6+ 1

6 = 1.

• Lancer d’une pièce équilibrée. L’univers est Ω ={Pile, Face}.

La probabilité de tomber sur « Pile » est 0.5 et celle de tomber sur face est 0.5 : P(Pile) = 0.5 et P(Face) = 0.5.

On a bien 0.5 + 0.5 = 1.

2.4. Loi équirépartie

Définition. Équiprobabilité

Si les issues ont toutes la même probabilité, alors on dit qu’elles sont équiprobables.

La loi de probabilité est alors dite équirépartie.

Remarque.

Si on an issues possibles équiprobables, alors la probabilité d’une issue est de 1 n. Exemples.

1. Pour un dé équilibré à six faces, cette probabilité vaut 1 6. 2. Pour une pièce équilibrée, elle vaut 1

2.

3. Si on tire une carte dans un jeu de 32 cartes, elle vaut 1 32. Remarque.

On considérera la probabilité uniforme pour toute expérience aléatoire où les issues ont toutes même probabilité de réalisation. Ce sera souvent le cas en présence de :

• « choix au hasard » pour un tirage de carte ;

• « tirage au hasard » pour un tirage dans une urne ;

• « dé non pipé » pour un lancer de dé ;

• « pièce équilibrée » pour un lancer de pièce.

Proposition.

Dans le cas où les événements élémentaires sont équiprobables, on a : P(A) = nombre d’issues deA

nombre total d’issues = Card(A) Card(Ω).

(9)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS

Le calcul de probabilité dans le cadre d’une loi équirépartie revient donc à faire du dénombrement, c’est-à-dire à compter.

Exemple.

On choisit au hasard une carte dans un jeu de 32 carte. On noteC l’événement « la carte piochée est un cœur ». Alors on a :P(C) = nombre de cœurs

nombre de cartes = 4 32 = 1

8.

3. Relations entre les événements et leurs probabilités

3.1. Événements particuliers

Proposition.

Soit A un événement.

1. SiA est un événement impossible(qui ne comporte aucune issue), alorsA=∅etP(A) = 0 = P(∅).

2. Si A est un événement certain (qui comporte toutes les issues possibles), alors A = Ω et P(A) = 1 = P(Ω).

3. Pour tout événement A, la probabilitéP(A) deA vérifie 06P(A)61.

3.2. Événement contraire

Définition. Événement contraire Soit A un événement.

L’événement contraire de A, notéA et pro- noncé «A barre », est la partie de Ω constituée de toutes les issues qui ne sont pas dans A.

A A

Exemple.

On considère un lancer de pièce.

On noteA l’événement « obtenir Pile ». Alors l’événementA est « obtenir Face ».

Proposition.

Soit A un événement. Alors on aP(A) +P

A= 1 et doncP

A= 1−P(A).

Exemple.

On considère une pièce truquée pour laquelle l’événementA « obtenir Pile » est de probabilité 1 4. Alors la probabilité de l’événement A « obtenir Face » est

P(A) = 1−P

A= 1−1 4 = 3

4.

(10)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS Remarque.

Si un événementAsemble difficile à manipuler (comme par exemple une réunion d’événements non disjoints, ce qui est le cas lorsque le terme « au moins » apparaît), alors il est souvent intéressant de considérer l’événement contraireA.

Exemple.

Reprenons l’exemple des lancers successifs d’une pièce équilibrée.

Calculer directement la probabilité de l’événement « on a obtenu au moins unpileà l’issue desnlancers » est un peu long si l’on souhaite exprimer cet événement comme une union. En revanche, l’événement contraire

« on n’a obtenu que desface» est très simple.

Sa probabilité, par équiprobabilité, est 1 2n.

Ainsi, la probabilité de l’événement « on a obtenu au moins un pile» est 1−

1 2

n

.

3.3. Union et intersection d'événements Définition. Intersection de deux événements Soient A et B deux événements d’une même

expérience aléatoire.

L’événementAB (prononcé «A interB ») est l’événement dont les issues sont à la fois dans A et dansB.

A B AB

Définition. Union de deux événements Soient A et B deux événements d’une même expérience aléatoire.

L’événement AB (prononcé «A union B») est l’événement dont les issues sont dans Aou dansB (éventuellement les deux à la fois).

A B AB AB AB

Remarque.

En français, « fromage ou dessert » signifie que l’on doit choisir entre les deux sans pouvoir prendre les deux.

En mathématiques, on dit que l’événement «A ou B» est vérifié même dans le cas où A etB ont lieu tous les deux.

Théorème.

Soient Aet B deux événements. Alors on a P(A∪B) =P(A) +P(B)−P(A∩B).

A B

(11)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS

Ce théorème peut se comprendre facilement à l’aide du diagramme : pour compter les éléments dansAB, 1. on compte les élément dansA;

2. on compte les éléments dansB;

3. on retire les éléments que l’on a compté deux fois (ceux dansA et dansB).

Définition. Incompatibilité

Lorsque A et B n’ont pas d’issue en commun, on dit que A et B sont incompatibles, et on a AB=∅.

A B

Proposition.

Si deux événements Aet B sont incompatibles, alors leurs probabilités vérifient P(A∩B) = 0 et donc P(A∪B) =P(A) +P(B).

Attention, la formule ci-dessus n’est vraie que si les événements sont incompatibles.

Le résultat ci-dessus se généralise à une famille d’événements deux à deux incompatibles.

Proposition. Additivité finie

SiA1, . . . , An sont des événements deux à deux incompatibles (pour touti6=j,AiAj =∅), alors P

n

[

i=1

Ai

!

=

n

X

i=1

P(Ai).

3.4. Formule des probabilités totales

Une des idées de base du calcul des probabilités est de décomposer les événements en événements plus petits dont on connaît la probabilité. Ceci est formalisé par laformule des probabilités totales.

Proposition. Formule des probabilités totales pour deux événements Soient Aet B deux événements. Alors la formule des probabilités totales s’écrit

P(B) =P(A∩B) +P

AB.

B AB P(A∩B)

B AB P

AB

B AB P

AB

B AB P

AB P(A) A

P A

A

(12)

CHAPITRE 1. INTRODUCTION AUX PROBABILITÉS Exemple.

Un urneA contient 5 boules rouges et 2 boules blanches.

Une urneB contient 3 boules rouges et 4 boules blanches.

On lance un dé équilibré.

Si on obtient 1 ou 2, alors on tire une boule dans l’urne A.

Si on obtient 3, 4, 5 ou 6, alors on tire une boule dans l’urne B.

Calculons la probabilité d’obtenir une boule rouge.

SoitE l’événement « on obtient 1 ou 2 » et soitR l’événement « on obtient une boule rouge ».

5

7 R P(E∩R) = 1

3×5 7 = 5

21

2

7 R P

ER= 1 3×2

7 = 2 21

3

7 R P

ER= 2 3×3

7 = 6 21

4

7 R P

ER= 2

3×4 7 = 8

21 1

3 E

2

3 E

On a doncP(R) =P(E∩R) +P

ER= 5 21 + 6

21 = 11 21.

On peut généraliser ce découpage à une famille finie d’événements incompatibles recouvrants Ω.

Proposition. Formule des probabilités totales

Soit (A1, . . . , An) une famille finie d’événements incompatibles deux à deux tels que

n

[

i=1

An= Ω Alors pour tout événementB, on a laformule des probabilités totales :

P(B) =

n

X

i=1

P(B∩Ai).

B B B B B B A1

Ak

An

3.5. Croissance de la probabilité

Proposition.

Soient Aet B deux événements. Alors on a

AB =⇒P(A)6P(B).

Remarque.

SoientA etB deux événements. On a forcément

P(A∩B)6min (P(A),P(B)).

(13)

Chapitre 2

Conditionnement et indépendance

Objectifs :

• savoir modéliser une expérience aléatoire par un arbre de probabilité ;

• savoir exploiter un arbre de probabilité pour déterminer des probabilités ;

• savoir calculer la probabilité d’un événement si l’on connaît ses probabilités conditionnelles ;

• savoir montrer que des événements sont deux à deux indépendants.

Dans tout ce chapitre, on considère une expérience aléatoire et des événements A(ou encore A1, A2, . . .) et B de probabilités non nulles.

1. Probabilités conditionnelles

1.1. Définition

Définition. Probabilité conditionnelle Soient Aet B deux événements tels queP(A)6= 0.

La probabilité conditionnelle de B sachant Aest le nombre PA(B) = P(A∩B)

P(A) .

La probabilité conditionnelle deB sachantA est la probabilité que l’événementB se produise si on sait que l’événementA est réalisé.

Exemple.

On a demandé à des étudiants s’ils utilisent Facebook (F) et Twitter (T) : 1. 80% des étudiants utilisent Facebook ;

2. 50% des étudiants utilisent Twitter ;

3. 45% des étudiants utilisent Facebook et Twitter.

On choisit un étudiant au hasard. On note

T l’événement « l’étudiant utilise Twitter ».

F l’événement « l’étudiant utilise Facebook ».

On traduit les données de l’énoncé :

1. 80% = 0.8 =P(F) ; 2. 50% = 0.5 =P(T) ; 3. 45% = 0.45 =P(T∩F).

On cherche à calculer la probabilitéPT(F), c’est-à-dire la probabilité qu’un étudiant utilise Facebook, sachant qu’il utilise Twitter.

PT(F) = P(T∩F)

P(T) = 0.45

0.5 = 0.9 = 90%.

Ainsi 90% des étudiants qui utilisent Twitter utilisent également Facebook.

(14)

CHAPITRE 2. CONDITIONNEMENT ET INDÉPENDANCE 1.2. Calculer la probabilité d'une intersection à l'aide des probabilités condi-

tionnelles

Proposition. Calculer la probabilité d'une intersection Soient Aet B deux événements tels queP(A)6= 0. Alors on a

P(A∩B) =P(A)×PA(B).

C’est simplement une autre façon d’écrire la formule de la probabilité conditionnelle.

Remarque.

On a aussiP(A∩B) =P(B)×PB(A) siP(B)6= 0.

Exemple.

On effectue un sondage dans un groupe de TD. 20% des étudiants possèdent une tablettes (T).

Parmi les étudiants possédant une tablette, un sur deux possèdent un smartphone (S).

Déterminons la probabilité qu’un étudiant choisi au hasard dans ce groupe de TD possède à la fois une tablette et un smartphone.

On commence par traduire les données de l’énoncé :

1. La probabilité qu’un étudiant choisi au hasard possède une tablette estP(T) = 20% = 0.2.

2. La probabilité qu’il possède un smartphone sachant qu’il possède une tablette estPT(S) = 1 2 = 0.5.

La probabilité qu’il possède à la fois une tablette et un smartphone est

P(T∩S) =P(T)×PT(S) = 0.2×0.5 = 0.1 = 10%.

2. Indépendance

On tire une carte au hasard dans un jeu de 32 cartes. On considère les trois événements suivants :

A« la carte tirée est rouge » ;

B « la carte tirée est un cœur » ;

C « la carte tirée est un roi ».

Savoir queC est réalisé ne donne a priori aucune indication quant au fait que cette carte soit un cœur.

En revanche, si on sait queA est réalisé, alors on peut en déduire qu’on a « plus de chance » d’avoir tiré un cœur. Nous allons formaliser ces réponses intuitives.

2.1. Indépendance entre deux événements

Définition.

On dit que deux événements A etB sontindépendants siP(A∩B) =P(A)×P(B).

Dire que deux événements A et B sont indépendants signifie que savoir que l’événement A est réalisé ne donne aucune information sur la réalisation de B.

Proposition.

SiA est un événement de probabilité non nulle, alorsA etB sont indépendants si et seulement si PA(B) =P(B).

(15)

CHAPITRE 2. CONDITIONNEMENT ET INDÉPENDANCE Exemple.

On tire au hasard d’une carte d’un jeu de 32 cartes. On considère les événements suivants :A : « Tirer un as »,B « Tirer un cœur » etC : « Tirer un as rouge ».

Étudions l’indépendance deA etB : P(A) = 4

32 = 1

8, P(B) = 8 32 = 1

4 et P(A∩B) = 1 32. On a P(A∩B) =P(A)×P(B), donc les événementsAetB sont donc indépendants.

Étudions maintenant l’indépendance deB et C : P(B) =1

4, P(C) = 2 32 = 1

16 et P(B∩C) = 1 32.

On a P(B∩C)6=P(B)×P(C), donc les événementsB et C ne sont donc pas indépendants.

Remarque.

Si deux événementsA etB sont indépendants, alors A etB sont indépendants,A etB sont indépendants, etA etB sont indépendants.

Remarque.

Ne pas confondre des événements indépendants et des événements incompatibles ! Par exemple,A etAsont disjoints et ne sont pas indépendants en général : si on sait que Aest réalisé, alors on est certain que A n’est pas réalisé.

P

AA = P(∅) = 0 P(A)P

A = P(A)×(1−P(A))6= 0 en général.

Pour deux événements, le fait d’être incompatibles ne dépend pas de l’application probabilité considérée.

2.2. Indépendance mutuelle

La notion d’indépendance s’étend aux familles de plusieurs événements de la manière suivante.

Définition. Événements mutuellement indépendants

On dit que des événements A1, . . . , Ansont mutuellement indépendantssi et seulement si

∀I ⊂J1 ;nK, P

\

i∈I

Ai

!

=Y

i∈I

P(Ai).

Il faut comprendre que des événements sont mutuellement indépendants si et seulement si, le fait de savoir si certains de ces événements sont ou non réalisés ne nous donne aucune information sur la réalisation d’autres événements de cette famille.

Exemple.

Trois événementsA, B etC d’un même espace probabilisé sont mutuellement indépendants si et seulement si 1. • P(A∩B) =P(A)×P(B) ;

• P(A∩C) =P(A)×P(C) ;

• P(B∩C) =P(B)×P(C) ;

2. P(A∩BC) =P(A)×P(B)×P(C).

Remarque.

Si des événements sont mutuellement indépendants, alors ils sont indépendants deux à deux. La réciproque est fausse.

(16)

CHAPITRE 2. CONDITIONNEMENT ET INDÉPENDANCE Exemple.

On lance trois fois une pièce équilibrée. On note

A12 l’événement : « le résultat du deuxième lancer est identique à celui du premier lancer » ;

A13 l’événement : « le résultat du troisième lancer est identique à celui du premier lancer » ;

A23 l’événement : « le résultat du troisième lancer est identique à celui du deuxième lancer ».

On cherche à déterminer si ces événements sont indépendants (deux à deux et/ou mutuellement).

NotonsP etF lorsqu’un lancer donne respectivement pile etface.

• Modèle : tirage avec remise.

• Univers : Ω est l’ensemble des 3-listes d’éléments de{P, F}. Son cardinal est card(Ω) = 23 = 8.

• Probabilité : (Ω,P(Ω)) est muni de la probabilité uniforme.

Nous pouvons décrire les issues correspondant aux événementsAij :

A12={P P P, P P F, F F P, F F F} doncP(A12) = 4 8 = 1

2;

A13={P P P, P F P, F P F, F F F} doncP(A13) = 4 8 = 1

2;

A23={P P P, P F F, F P P, F F F} doncP(A23) = 4 8 = 1

2;

Nous pouvons vérifier que les événementsA12 etA13 sont indépendants : A12A13={P P P, F F F}.

Par conséquent,

P(A12A13) = 2 8 = 1

4 =P(A12)×P(A13).

On vérifie de même que les événementsA12 etA23 sont indépendants, ainsi que les événementsA13 etA23. Les trois événements A12,A13etA23 sont donc deux à deux indépendants.

Nous pouvons vérifier qu’ils ne sont par contre pas mutuellement indépendants. En effet, A12A13A23={P P P, F F F}.

On en déduit

P(A12A13A23) = 1

4 6=P(A12)×P(A13)×P(A23) = 1 8. 2.3. Indépendance d'épreuves

Définition. Indépendance d'épreuves

• On dit que deux épreuves sontindépendantessi chaque événement d’une épreuve est indépendant de chaque événement de l’autre épreuve.

• On dit que des épreuves (en nombre fini) sont mutuellement indépendantessi chaque famille finie d’événements telle qu’il y ait un événement par épreuve soit une famille d’événements mutuellement indépendants.

En pratique, on n’aura pas à prouver l’indépendance d’épreuves. L’énoncé d’un exercice posera l’indépendance.

3. Arbres de probabilités

On utilise parfois un arbre pour modéliser une expérience aléatoire.

(17)

CHAPITRE 2. CONDITIONNEMENT ET INDÉPENDANCE Proposition. Règles pour les arbres de probabilité Dans les arbres de probabilité, les propositions suivantes sont vérifiées :

1. La somme des probabilités des branches partant d’un même nœud est égale à 1.

2. La probabilité d’un chemin est égale au produit des probabilités des branches qui le composent.

3. La probabilité d’un événement est la somme des probabilités des chemins correspondant à cet événement.

PA(B) AB P(A∩B) =P(A)PA(B)

PA

B AB P(A∩B) =P(A)PA

B

PA(B) AB P

AB=P

APA(B)

PA

B AB P

AB=P

APA B

P(A) A

P A

A

Remarque.

Construire l’arbre de probabilité correspondant à une expérience est souvent utile et permet de mieux la comprendre. Pour toute expérience aléatoire où c’est possible, on écrira l’arbre de probabilité, même si ce n’est pas demandé.

4. Formule des probabilités totales (deuxième version)

Soient (A1, . . . , An) une famille d’événements incompatibles deux à deux, de probabilités non nulles, telle que

n

[

i=1

An= Ω et un événement B.

B B B B B B A1

Ak

An

On peut maintenant réécrire la formule des probabilités totales en termes de probabilités conditionnelles.

Proposition. Formule des probabilités totales, deuxième version

Soit (A1, . . . , An) une famille d’événements incompatibles deux à deux, de probabilités non nulles, telle que

n

[

i=1

An= Ω.

Pour tout événement B, la formule des probabilités totales s’écrit : P(B) =

n

X

i=1

P(Ai)PAi(B).

Remarque.

La formule des probabilités totales est souvent utilisée lorsqu’il est utile de faire une disjonction des cas.

(18)

CHAPITRE 2. CONDITIONNEMENT ET INDÉPENDANCE

5. Formule de Bayes

Proposition. Formule de Bayes

Soient Aet B deux événements de probabilités non nulles. Alors PB(A) = P(A)

P(B)PA(B),

Si (A1, . . . , An) est une famille d’événements incompatibles deux à deux, de probabilités non nulles, telle que

n

[

i=1

An= Ω, alors la formule deBayes s’écrit :

∀i∈J1, nK, PB(Ai) = P(Ai)

P(B)PAi(B) = P(Ai)·PAi(B)

n

X

j=1

P(Aj)PAj(B) .

Remarque.

La formule deBayesest souvent utilisée lorsque l’on cherche à déterminer la probabilité d’un événement sachant qu’un autre événement est réalisé et que l’on connaît la probabilité du deuxième événement sachant que le premier est réalisé.

Exemple.

Un laboratoire propose un test de dépistage d’une maladie.

• Chez une personne saine, le test est négatif, sauf dans 0,5% des cas (faux positif).

• Chez une personne malade, le test est positif, sauf dans 2% des cas (faux négatif).

Une étude épidémiologique indique qu’un français sur 10 000 est porteur de la maladie.

Calculons la probabilité pour qu’un patient ayant un test positif soit effectivement malade.

Notons

S l’événement : « le patient est sain » ;

M l’événement : « le patient est malade » ;

T+ l’événement : « le test est positif » ;

T l’événement : « le test est négatif ».

Nous pouvons calculer : P

T+ = P(S)×PS

T++P(M)×PM

T+

= 0.9999×0.005 + 0.0001×0.98

= 0.0050975

La probabilité pour qu’il soit malade, sachant que le test est positif est donc : PT+(M) = P(M)×PM T+

P(T+) = 0.0001×0.98 0.0050975 '2%

Nous pouvons donc conclure, de façon paradoxale, que lorsque le test est positif, le patient est dans près de 98% des cas un patient sain. Bien que le test soit théoriquement quasiment infaillible, il échoue donc de façon quasiment systématique lorsqu’il annonce un résultat positif ! Ce paradoxe s’explique intuitivement de façon simple : supposons que nous pratiquons le test sur 20000 personnes, dont 2 malades et 19998 personnes en bonne santé. Parmi les personnes en bonne santé, 1 sur 200 sera testé positive, soit environ 100 personnes.

Les personnes malades seront testées positives (là encore, nous arrondissons 1.96 individu en 2). Nous aurons donc 102 tests positifs, pour deux malades. Les personnes testées positives auront donc 2 chance sur 102 d’être malade (soit environ 2%), et 100 chances sur 102 d’être en bonne santé.

(19)

Chapitre 3

Variables aléatoires finies

Objectifs :

• modéliser une expérience à l’aide d’une ou plusieurs variables aléatoires ;

• déterminer la loi d’une variable aléatoire ;

• déterminer la fonction de répartition d’une variable aléatoire ;

• déterminer l’espérance et la variance d’une variance aléatoire finie ;

• comprendre ce que représentent concrètement l’espérance, la variance et l’écart-type ;

• savoir calculer la variance d’une somme de variables aléatoires indépendantes.

1. Variable aléatoire

1.1. Notion de variable aléatoire discrète

Définition.

On appellevariable aléatoire une fonction qui associe à chaque élément de Ω, c’est-à-dire à chaque issue de l’expérience, un réel. Elle est souvent notée X ou Y.

L’ensemble des valeurs que peut prendre une variable aléatoireX est appelé lesupport de X et est noté X(Ω).

On peut se représenter l’univers Ω comme l’ensemble des réalisations possibles (ou épreuves) d’une expérience aléatoire et la variable aléatoireX comme l’application qui à chaque épreuve associe le résultat ou le résumé de l’épreuve, c’est-à-dire l’information que l’on retient de chaque épreuve d’une expérience.

Exemple.

Un jeu de hasard consiste à lancer un dé équilibré à 6 faces. Le lanceur gagne la somme double de la valeur de la face obtenue si celle-ci est paire, sinon, il perd le double de la valeur indiquée par le dé.

On appelleX le gain, positif ou négatif, du joueur après un lancer.

• Ici, l’ensemble des issues possibles est Ω ={1,2,3,4,5,6}.

X est une variable aléatoire réelle telle que :

X(1) =−2,X(2) = 4, X(3) =−6,X(4) = 8, X(5) =−10 et X(6) = 12.

• Ainsi, on aX(Ω) ={−10,−6,−2,4,8,12}.

Remarque.

Il faut bien retenir que les variables aléatoires réelles sont des applications de Ω dansR.

En général, on les noteX,Y,Z,T,U,V,W, contrairement aux événements que l’on note plutôt A,B,C, E et qui sont des parties de Ω.

(20)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES

• On notera, pour tout intervalleI de R, [X∈I] l’événementω ∈Ω, X(ω)∈I .

• On notera, pour tout réelx, [X =x] l’événement ω∈Ω, X(ω) =x .

• On notera, pour tout réelx, [X 6x] l’événement ω∈Ω, X(ω)6x .

• On notera, pour tout réelx, [X >x] l’événement ω∈Ω, X(ω)>x .

• On notera, pour tous réelsaetb, [a6X 6b] l’événementω ∈Ω, a6X(ω)6b . Exemple.

On lance un dé équilibré à six faces. On considère la variable aléatoire X qui renvoie 0 si on obtient un résultat pair et 1 si on obtient un résultat impair.

X(1) =X(3) =X(5) = 1 et X(2) =X(4) =X(6) = 0 et donc

[X= 0] ={2,4,6} et [X= 1] ={1,3,5}.

1.2. Lois de probabilité de variables aléatoires finies

Définition. Loi d'une variable aléatoire

Soit X une variable aléatoire réelle définie sur l’univers Ω muni de la probabilité P.

On appelle loi de la variable aléatoire X (sous la probabilité P) l’applicationfX :X(Ω)→R définie par :

∀x∈X(Ω), fX(x) :=P

[X =x].

Remarque.

Déterminer la loi d’une variable aléatoireX définie sur l’univers Ω muni de la probabilitéPsignifie 1. déterminer l’ensembleX(Ω) des valeurs prises parX;

2. déterminer, pour chacune des valeursx dansX(Ω) la probabilité P(X=x).

Exemple.

On représente le résultat d’un lancer de dé équilibré à six faces par une variable aléatoire réelleX. Alors on a fX

4=P

X= 4= 1 6. Remarque.

Dans toute la suite, nous écrironsP(X∈A) à la place deP [X∈A].

En revanche, lorsque nous écrirons la probabilité d’une réunion, d’une intersection ou de manière générale d’une opération sur des événements, nous reprendrons la notation avec crochets.

Ainsi, on notera par exemple

P X6= 0=P

[X <0]∪[X >0].

En général, on présente la loi d’une variable aléatoireX sous la forme d’un tableau, qui récapitule les valeurs prises par X ainsi que les probabilités associées.

Valeurs de X:xi x1 x2 x3 ... xn Probabilité :P(X=xi) p1 p2 p3 ... pn

(21)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES Exemple.

Le tableau ci-dessous représente la loi du résultatX d’un dé truqué à six faces.

x 1 2 3 4 5 6

P(X =x) 1 6

1 12

1 12

1 3

1 12

1 4 Remarque.

Deux variables aléatoires peuvent avoir la même loi et être différentes.

Exemple.

On lance une pièce équilibrée.

SoitX la variable aléatoire qui renvoie 0 si la pièce tombe surpile et 1 sinon.

SoitY la variable aléatoire qui renvoie 0 si la pièce tombe surface et 1 sinon.

Alors les variables aléatoiresXetY ont même loi mais les variables aléatoires ne sont jamais égales : siX= 1, alorsY = 0 et inversement.

x 0 1

P(X=x) 1 2

1 2

x 0 1

P(Y =x) 1 2

1 2 1.3. Représentation d'une loi par un diagramme en bâtons

Graphiquement, on peut représenter la loi d’une variable aléatoire finieX définie par x x1 · · · xi · · · xn

P(X =x) p1 · · · pi · · · pn

à l’aide d’un diagramme en bâtons dont la hauteur du segment d’abscissexi est la probabilité P(X=xi).

Exemple.

Le tableau ci-dessous représente la loi du résultatX d’un dé truqué à six faces.

issuesx 1 2 3 4 5 6

probabilitésP(X=x) 1 6

1 12

1 12

1 3

1 12

1 4 On donne sa représentation par un diagramme en bâtons.

1 12

2 12

3 12

4 12

5 12

1 2 3 4 5 6

0

Résultat du dé Probabilité

(22)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES 1.4. Fonctions de répartition

Définition. Fonction de répartition

Soit X une variable aléatoire réelle définie sur l’univers Ω muni de la probabilité P.

On appellefonction de répartitionde X, et on noteFX, l’applicationFX : R→[0 ; 1] définie par

∀t∈R, FX(t) :=P(X 6t).

Exemple.

Expérience.Lancer d’une pièce truquée qui tombe sur pile avec probabilitép, sur face avec probabilitéq et sur la tranche avec probabilité 1−pq.

Univers.Ω ={P, F, T}, où P,F etT désignent respectivement Pile, Face et Tranche,

Variable aléatoire.X définie sur Ω par X(P) =−1, X(F) = 1 et X(T) = 0.

La fonction de répartition deX est alors l’applicationFX :R→[0 ; 1] définie par

FX(t) =

0 si t <−1;

p si −16t <0;

p+ (1−pq) = 1q si 06t <1;

1 si 16t.

Représentons la fonction de répartition de X (ici pour les valeurs p= 0.2 et q = 0.3).

1 1−q

p

−3 −2 −1 0 1 2 3

Donnons quelques formules permettant de calculer les probabilités d’événements simples à partir de la fonction de répartition d’une variable aléatoire.

Proposition. Calcul de probabilités à partir de la fonction de répartition Soit X une variable aléatoire finie sur l’univers Ω muni de la probabilité P.

On note X(Ω) ={x1, . . . , xn}. Alors on a

∀x < x1, FX(x) = 0

∀x∈[x1, x2[, FX(x) =P(X=x1) donc P(X =x1) =FX(x1)

∀x∈[x2, x3[, FX(x) =P(X=x1) +P(X=x2) donc P(X =x2) =FX(x2)−F(x1)

... ... ...

∀x∈[xi, xi+1[, FX(x) =P(X=x1) +· · ·+P(X=xi) donc P(X =xi) =FX(xi)−F(xi−1)

... ... ...

∀x>xn, FX(x) = 1 donc P(X =xn) =FX(xn)−F(xn−1).

(23)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES Courbe représentative

La fonction de répartition d’une variable aléatoire finieX est en escalier : elle est constante entre les valeurs prises par X. La hauteur de la ie marche est la probabilité que X soit égale àxi.

Exemple.

Le tableau ci-dessous représente la loi du résultatX d’un dé truqué à six faces.

x 1 2 3 4 5 6

P(X =x) 1 6

1 12

1 12

1 3

1 12

1 4 probabilités cumulées 1

6 1 4

1 3

2 3

3

4 1

On donne la courbe représentative de sa fonction de répartition.

1/12 2/12 3/12 4/12 5/12 6/12 7/12 8/12 9/12 10/12 11/12 12/12

1 2 3 4 5 6

0

Résultat du dé Probabilités cumulées

P(X = 1)

P(X= 2)

P(X = 3)

P(X= 4)

P(X= 5)

P(X = 6)

On voit clairement sur les exemples précédents les propriétés données dans la proposition suivante.

Proposition.

Soit FX la fonction de répartition d’une variable aléatoire réelleX.

Alors les propriétés suivantes sont vérifiées.

1. La fonction FX est croissante.

2. La limite de la fonctionFx en −∞ est 0 et sa limite en +∞ est 1 :

x7→−∞lim FX(x) = 0 et lim

x7→+∞ FX(x) = 1.

3. La fonction FX est continue à droite en tout point et admet une limite à gauche en tout point :

∀a∈R, lim

x→a+ FX(x) =FX(a) et lim

x→a FX(x) existe.

Remarque.

• Toute fonction qui vérifie ces propriétés est la fonction de répartition d’une variable aléatoire réelle.

(24)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES

• La fonction de répartitionFX caractérise la loi deX : deux variables aléatoires réellesX etY ont la même loi si et seulement si elles ont même la fonction de répartition.

En particulier, on peut déterminer la loi d’une variable aléatoire à partir de sa fonction de répartition.

• Rappelons que deux variables aléatoires peuvent avoir la même fonction de répartition et être différentes.

Exemple.

Reprenons la fonction de répartition de l’exemple de la pièce truquée.

1 0.7

0.2

−3 −2 −1 0 1 2 3

Alors on a

1. P(X = 1) =FX(1)−FX(0) = 1−0.7 = 0.3 ; 2. P(X >0) = 1−FX(−1) = 1−0.2 = 0.8 ;

3. P(−0.5< X 61) =FX(1)−FX(−1) = 0.7−0.2 = 0.5.

2. Moments d'une variable aléatoire finie

2.1. Espérance d'une variable aléatoire finie

Définition. Espérance d'une variable aléatoire finie Soit X une variable aléatoire finie sur l’univers Ω muni de la probabilité P. On appelleespérance de X, et on noteE(X), le réel

E(X) := X

x∈X(Ω)

xP(X=x).

En notantX(Ω) ={x1, . . . , xn}et, pour tout entier idansJ1 ;nK,P(X=xi) =pi, on obtient E(X) =

n

X

i=1

xiP(X=xi) =

n

X

i=1

xipi.

Remarque.

On considère la loi d’une variable aléatoire finieX définie par

x x1 · · · xi · · · xn P(X =x) p1 · · · pi · · · pn

Alors l’espérance de X est la moyenne des valeurs possibles, pondérées par leur probabilité de réalisation.

On retrouve la formule vue en statistiques : la moyenne d’une série statistique est la moyenne des valeurs possibles, pondérées par leur fréquence.

Toutes les variables aléatoires finies admettent une espérance. Ce n’est pas le cas de toutes les variables aléatoires.

Exemple.

Calculons l’espérance de la variable aléatoire X, résultat d’un dé truqué à six faces, déterminée par

x 1 2 3 4 5 6

P(X =x) 1 6

1 12

1 12

1 3

1 12

1 4

(25)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES On a

X(Ω) ={1,2,3,4,5,6}.

E(X) = X

x∈X(Ω)

xP(X=x)

= 1×P(X= 1) + 2×P(X= 2) + 3×P(X = 3) + 4×P(X = 4) + 5×P(X= 5) + 6×P(X= 6)

= 1×1

6 + 2× 1

12 + 3× 1

12 + 4× 1

3+ 5× 1

12 + 6× 1 4

= 46 12

= 23 6 . Remarque.

SoitX une variable aléatoire constante égale àa. AlorsE(X) =E(a) =a.

Proposition.

Soient X et Y deux variables aléatoires sur l’univers Ω muni de la probabilité P. et soitλ un réel.

Alors l’espérance vérifie les propriétés suivantes.

1. Linéarité de l’espérance: l’espérance est linéaire, c’est-à-dire qu’elle est

homogène:

E(λX) =λE(X) ;

additive:

E(X+Y) =E(X) +E(Y).

2. Positivité de l’espérance : si la variable aléatoireX est positive, c’est-à-dire si X(Ω)⊂R+, alors son espérance est positive :

X>0 =⇒ E(X)>0.

3. Croissance de l’espérance : si X 6Y, c’est-à-dire si pour tout ω ∈Ω, X(ω) 6 Y(ω), alors E(X)6E(Y) :

X 6Y =⇒ E(X)6E(Y).

Définition. Variable aléatoire centrée

On dit qu’une variable aléatoire X est centréesi E(X) = 0.

Sinon, on peut lui associer la variable aléatoire centrée associée à X :X−E(X).

Proposition. Théorème de transfert

SoitXune variable aléatoire finie. Soitφ:X(Ω)→R. Alorsφ(X) est une variable aléatoire d’espérance E φ(X)= X

x∈X(Ω)

φ(x)P(X =x).

(26)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES Exemple.

Calculons l’espérance de la variable aléatoire X2, où X désigne le résultat d’un dé truqué à six faces, déterminée par

x 1 2 3 4 5 6

P(X =x) 1 6

1 12

1 12

1 3

1 12

1 4 E

X2= X

x∈X(Ω)

x2P(X=x)

= 12P(X= 1) + 22P(X = 2) + 32P(X= 3) + 42P(X = 4) + 52P(X= 5) + 62P(X= 6)

= 1×1

6 + 4× 1

12 + 9× 1

12 + 16×1

3+ 25× 1

12 + 36×1 4

= 212 12 = 53

3 .

2.2. Variance d'une variable aléatoire finie

Définition. Variance d'une variable aléatoire finie

Soit X une variable aléatoire finie. On appelle variancede X, et on note V(X), le réel positif V(X) :=E

X−E(X)2>0.

Remarque.

La variance d’une variable aléatoire est toujours positive, car c’est l’espérance d’une variable aléatoire positive.

Remarque.

D’après le théorème de transfert, en notantX(Ω) ={x1, . . . , xn}, on a V(X) =

n

X

i=1

xi−E(X)2P(X=xi).

On retrouve la formule de la variance vue en statistiques.

Définition. Écart-type d'une variable aléatoire finie Soit X une variable aléatoire finie sur l’univers Ω muni de la probabilité P. On appelleécart-type deX, et on noteσ(X), le réel

σ(X) :=qV(X).

Remarque.

La variance et l’écart-type sont une mesure de la dispersion autour de l’espérance : plus ils sont petits, plus la variable aléatoire est centrée autour de son espérance.

En pratique, on calcule la variance à l’aide de la formule deKœnig-Huygens.

(27)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES Proposition. Formule de Kœnig-Huygens

Soit X une variable aléatoire sur l’univers Ω muni de la probabilitéP. Alors V(X) =E

X2−E(X)2.

Démonstration.

V(X) =E

(X−E(X))2

=E

X2−2E(X)X+ E(X)2

=E

X2−E 2E(X)X+ E(X)2 par linéarité de l’espérance

=E

X2−2E(X) E(X) + E(X)2 car 2E(X)∈R

=E

X2− E(X)2

Remarque.

En notantX(Ω) ={x1, . . . , xn}et, pour tout entier idansJ1 ;nK,P(X=xi) =pi, on obtient V(X) =

n

X

i=1

x2ipi

n

X

i=1

xipi

!2

.

On retrouve le résultat vu en statistique : la variance est la différence entre l’espérance du carré et le carré de l’espérance.

Exemple.

Calculons la variance de la variable aléatoire X, résultat d’un dé truqué à six faces, déterminée par

x 1 2 3 4 5 6

P(X =x) 1 6

1 12

1 12

1 3

1 12

1 4 On applique la formule deKœnig-Huygens

V(X) =E

X2−E(X)2 = 53 3 −

23 6

2

= 107 36 .

Proposition. Propriété de la variance

Soit X une variable aléatoire finie et soientaetb deux nombres réels. Alors on a V(aX+b) =a2V(X).

Démonstration.

V(aX+b) =E

aX+b−E(aX+b)2=E

aX+baE(X)−b2 par linéarité de l’espérance

=E

a2 X−E(X)2=a2E

X−E(X)2 par linéarité de l’espérance

=a2V(X).

(28)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES Proposition. Propriété de l'écart-type

Soit X une variable aléatoire finie et soientaetb deux nombres réels. Alors on a σ(aX+b) =|a|σ(X).

Démonstration.

σ(aX+b) = q

V(aX+b) = q

a2V(X) =

a2

q

V(X) =|a|σ(X).

Définition. Variable aléatoire réduite Soit X une variable aléatoire finie.

On dit queX est une variable aléatoireréduite si V(X) = 1.

Proposition. Variable aléatoire centrée réduite Soit X une variable aléatoire finie.

Alors la variable aléatoire X−E(X)

σ(X) est une variable aléatoire centrée réduite.

Interprétation de la variance

L’éloignement d’une variable aléatoire par rapport à son espérance est contrôlée par la variance. Ce contrôle est mis en avant dans le résultat suivant dû à Bienaymé et à Tchebychev.

SoitX une variable aléatoire finie. Alors on a

∀ε∈R?+, P

|X−E(X)|>ε6 V(X) ε2 .

Autrement dit, la probabilité que la variable aléatoire s’éloigne de son espérance est d’autant plus faible que sa variance est petite.

3. Couples de variables aléatoires

Certaines situations sont naturellement décrites par la donnée d’un couple de variables aléatoires. Par exemple, en météorologie, on peut s’intéresser au couple formé par la donnée de la température (T) et de la pression (P) atmosphériques. On est ainsi amené à étudier les deux paramètres simultanément, donc à regarder le

couple (T, P), qui est uncouple de variables aléatoires.

Remarque.

Dans ce cours, on ne manipulera pas vraiment les couples de variables aléatoires ; mais il est important de voire comment cela fonctionne afin de comprendre la notion d’indépendance entre deux variables aléatoires.

3.1. Indépendance de deux variables aléatoires

Définition.

Soient X et Y deux variables aléatoires discrètes de valeurs respectives (x1, x2, . . . , xn) et (y1, y2, . . . , yp).

Les variables aléatoires X et Y sont indépendantes si pour tous i et j tels que 1 6 i 6 n et 16j 6p :

P({X=xi} ∩ {Y =yj}) =P(X=xi)×P(Y =yj).

(29)

CHAPITRE 3. VARIABLES ALÉATOIRES FINIES Exemple.

On lance deux dés équilibrés à six faces (un rouge et un bleu). On appelleX le numéro de la face du dé bleu, etY le numéro de la face du dé rouge. On appelle S la somme des faces obtenues.

• Les variablesX etY sont indépendantes.

• Les variablesX etS ne sont pas indépendantes.

• Les variablesY etS ne sont pas indépendantes Exemple.

On donne deux variables aléatoires discrètesX etY vérifiant

P(X =−1) = 1

3, P(X = 0) = 1

6, P(X = 1) = 1

2 et Y =X2.

• Alors la loi deY est donnée par :

yi 0 1

P(Y =yi) 1 6

5 6

• Pour obtenir la loi du couple (X, Y), on calcule la probabilité obtenue pour chaque couple

H HH

HHH Y

X −1 0 1 P(Y =yi)

0 0 1

6 0 1

6

1 1

3 0 1

2

5 6 P(X=xi) 1

3 1 6

1

2 1

• On a par exempleP((−1,0)) =P((X=−1)∩(Y = 0)) = 0.

Or,P(X=−1)×P(Y = 0) = 1 3 ×1

6 = 1 18 6= 0.

Les variables aléatoiresX etY ne sont donc pas indépendantes.

3.2. Espérance d'une somme de variables aléatoires

Proposition.

On considère deux variables aléatoires discrètesX etY admettant une espérance, alors

X+Y admet l’espérance E(X+Y) =E(X) +E(Y) ;

XY admet l’espérance E(X−Y) =E(X)−E(Y).

Références

Documents relatifs

[r]

Cette valeur maximale est strictement positive donc c'est aussi la plus grande valeur de ψ sur [0, +∞[ car ψ est négative au delà de b.. La

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/1. 3 Rémy Nicolai

La fonction set.seed() permet de spécifier l’amorce du générateur de nombre aléa- toire, ce qui se révèle utile quand on veut répéter une simulation à l’identique (les

Même question pour deux variables aléatoires de même loi..

[r]

ISFA - L3 Actuariat lerouvillois@math.univ-lyon1.fr Probabilités math.univ-lyon1.fr/homes-www/lerouvillois/. Éléments de correction TD 3

On tire au hasard trois boules simultanément, et on appelle X la variable aléatoire correspondant à la somme des numéros marqués sur ces boules.. Représenter la loi de