• Aucun résultat trouvé

Probabilités et Statistiques Élémentaires

N/A
N/A
Protected

Academic year: 2022

Partager "Probabilités et Statistiques Élémentaires"

Copied!
177
0
0

Texte intégral

(1)

Probabilités et Statistiques Élémentaires

Mikael Beatriz - Alkéos Michaïl

2011-2012

(2)
(3)

Avant-Propos

Le présent cours est une introduction aux probabilités et aux statistiques suivant les grandes lignes de l’unité d’enseignement LM231.

Il s’avancera de manière progressive, des notions les plus simples aux plus complexes et chaque chapitre se terminera par une synthèse permettant d’avoir une vue plus globale sur les notions acquises au cours de celui-ci.

Sa bonne suivie nécessitera cependant certaines notions de théories autres que celle des proba- bilités, comme celle des ensembles, le dénombrement, le calcul intégral, . . . Nous avons pour cela regroupé dans des annexes les connaissances nécessaires de ces théories. Il sera mentionné au lecteur quand il devra s’y reporter.

Nous avons nous même suivi cette UE en 2011 alors que nous étions étudiants, l’année où Alexander Bulinski l’enseigna en tant que professeur invité de la Moscow State University. Nous espérons que vous serez épris par ce cours tout autant que nous l’avons été et vous souhaitons une bonne lecture.

Enfin, nous désirons exprimer notre gratitude à nos professeurs qui nous ont transmis la pas- sion des probabilités ; Alexander Bulinski, Amaury Lambert, Benjamin Guedj, Irina Kourkova, Michèle Thieullen, Sophie Laruelle et Sylvain Le Corff.

Ainsi qu’à nos professeurs non-probabilistes ; Jacques Féjoz, Jean-Marie Trépreau, Patrick Polo et Sylvie Guerre-Delabrière et au directeur de notre licence Laurent Koelblen, qui nous a énormément soutenus et encouragés.

Mikael BEATRIZ et Alkéos MICHAÏL

(4)
(5)

Table des matières

Introduction 9

I Probabilités 11

1 Introduction aux probabilités 13

1.1 L’Univers . . . 13

1.2 Algèbre des événements . . . 13

1.3 Axiomatique de Kolmogorov . . . 14

1.4 Loi de probabilité uniforme discrète . . . 19

1.5 Synthèse . . . 23

2 Indépendance et probabilité conditionnelle 25 2.1 Indépendance . . . 25

2.2 Probabilité conditionnelle . . . 28

2.2.1 Généralités . . . 28

2.2.2 Généralisation aux familles d’évènements . . . 30

2.3 Synthèse . . . 33

3 Variables aléatoires réelles discrètes 35 3.1 Variables aléatoires . . . 35

3.2 Propriétés . . . 38

3.2.1 Loi marginale . . . 38

3.2.2 Loi conditionnelle . . . 40

3.3 Fonction de répartition . . . 40

3.4 Espérance, variance et écart type . . . 43

3.4.1 Espérance . . . 43

3.4.2 Variance . . . 49

3.4.3 Ecart type . . . 53

3.5 Indépendance . . . 54

3.6 Lois . . . 56

(6)

3.6.1 Loi de Bernoulli . . . 56

3.6.2 Loi binomiale . . . 58

3.6.3 Loi géométrique . . . 63

3.6.4 Loi de Poisson . . . 69

3.7 Fonction génératrice . . . 73

3.7.1 Définition . . . 73

3.7.2 Fonction génératrice et indépendance . . . 74

3.7.3 Caractérisation de loi . . . 74

3.7.4 Calcul d’espérance et de variance . . . 78

3.8 Synthèse . . . 84

4 Variables aléatoires réelles à densité 87 4.1 Tribu borélienne . . . 87

4.2 Généralités sur les densités de probabilités . . . 88

4.3 Lois usuelles . . . 91

4.3.1 Loi uniforme . . . 91

4.3.2 Loi exponentielle . . . 92

4.3.3 Loi de Cauchy . . . 92

4.3.4 Loi normale (Laplace-Gauss) . . . 92

4.3.5 Loi du khi-carré . . . 93

4.4 Fonction de répartition . . . 93

4.5 Espérance et variance . . . 94

4.5.1 Espérance . . . 94

4.5.2 Variance . . . 99

4.6 Indépendance . . . 102

4.7 Fonction caractéristique . . . 103

4.7.1 Définition . . . 103

4.7.2 Fonction caractéristique des lois usuelles . . . 103

4.7.3 Indépendance . . . 108

4.8 Synthèse . . . 109

5 Convergence de variables aléatoires 111 5.1 Généralités . . . 111

5.1.1 Types de convergence . . . 111

5.1.2 Théorèmes fondamentaux . . . 112

5.1.3 Relation entre les différentes convergences . . . 114

5.1.4 Convergence en loi . . . 117

5.2 Théorèmes limites . . . 121

(7)

5.2.1 Loi des grands nombres . . . 121

5.3 Synthèse . . . 124

II Statistiques 127

6 Introduction aux statistiques 129 6.1 Population et individu . . . 129

6.2 Echantillon et caractère . . . 129

6.3 Fréquence et Distribution . . . 130

7 Estimation ponctuelle 133 7.1 Généralités . . . 133

7.2 Information de Fisher . . . 136

7.3 Méthode du maximum de vraisemblance . . . 136

8 Test d’hypothèse 139 8.1 Généralités . . . 139

8.2 Test du khi-carré . . . 139

III Annexes 145

A Théorie des ensembles 147 A.1 Généralités . . . 147

A.2 Opérations sur les ensembles . . . 148

A.3 Suite d’ensembles . . . 151

A.4 Produit cartésien . . . 151

A.5 Applications . . . 152

A.6 Fonction indicatrice (ou caractéristique) . . . 153

B Dénombrement 155 B.1 Cardinal . . . 155

B.2 Combinaison . . . 158

B.3 Liste . . . 161

B.4 Arrangement . . . 162

B.5 Permutation . . . 164

C Calcul intégral 167 C.1 Méthodes et propriétés . . . 167

C.1.1 Cas d’une fonction à une variable . . . 167

(8)

C.1.2 Cas d’une fonction de deux variables . . . 167 C.2 Critères de convergence . . . 168 C.3 Intégrales classiques . . . 169

D Tables statistiques 171

D.1 Table du khi-carré (χ2) . . . 171 D.2 Fonction de répartition de la loi normale centrée réduite : N(0,1) . . . 173

(9)

Introduction

« Le hasard, ce sont les lois que nous ne connaissons pas. » Émile Borel

Figure 1 – A. Kolmogorov Les probabilités sont l’étude du hasard et de l’incertain. Elle

permettent de donner un cadre formel et rigoureux aux nombreux phénomènes physique aléatoires. Les statistiques, quant à elles, con- sistent au traitement et à l’interprétation de données.

Comme le dit Emile Borel, un des fondateurs de la théorie de la mesure, le hasard est une science. Elle provient à l’origine de l’étude des jeux de hasard, notamment des jeux de dés. Bien que plusieurs grands mathématiciens, dont Pascal et Laplace, ont tenté

de formaliser ces phénomènes, il faut attendre le XXème siècle pour que la théorie moderne des probabilités, telle que nous la connaissons aujourd’hui, soit élaborée. C’est grâce aux travaux sur la théorie de l’intégration de Borel et Lebesgue, plus générale que celle de Riemann, que les prémisses de cette théorie furent posés. Par la suite ce sera grâce à Lévy, Kolmogorov, en passant par Itô, qu’elle verra le jour. Les statistiques qui sont indissociables des probabilités sont nées pour répondre à des problèmes d’ordre démographique, biologique (notamment en génétique) ou financier. Des mathématiciens comme Ronald Fisher sont restés célèbre pour leur avoir donné leur lettre de noblesse.

Figure 2 – R. Fisher

L’étude des probabilités et des statistiques a connu son es- sor au XXème siècle lorsque leur application à d’autre domaines des sciences ont été découvert : en physique (mécanique quan- tique, physique statistique), en biologie (météorologie, génétique des populations), en économie (théorie des jeux, mathématiques fi- nancières, assurances), en sociologie (démographie, sondage)... Elle constitue actuellement un champs d’étude très actif.

(10)
(11)

Première partie

Probabilités

(12)
(13)

Chapitre 1

Introduction aux probabilités

1.1 L’Univers

Définition 1.1.1 (Expérience Aléatoire). On appelle expérience aléatoire une expérience renou- velable et qui, renouvelée dans des conditions identiques, ne donne pas forcément le même résultat.

Définition 1.1.2 (Univers). L’ensemble des issues possibles d’une expérience aléatoire donnée se nomme l’univers (ou ensembles des issues). On le note : Ω. Un élément de Ω est donc une issue, et on la représente par ω.

1.2 Algèbre des événements

La compréhension de cette partie nécessite des notions de la théorie des ensembles. Toutes ces notions sont présentent dans l’annexe A.

Définition 1.2.1 (Événement aléatoire). Un événement aléatoire est une sous-expérience d’une expérience aléatoire donnée. En théorie des ensembles un événement est un sous-ensemble de Ω.

Vocabulaire 1.2.1. La théorie des probabilités peut être vue comme une manipulation d’ensembles, vu qu’un événement (ou même l’univers) n’est qu’un ensemble. La tableau ci-dessous donne les équivalences entre le vocabulaire utilisé en théorie des probabilités et en théorie des ensembles. Soit Ω un univers lié à une expérience aléatoire et soit A et B deux événements de Ω, on a :

(14)

Notation probabiliste Notation ensembliste

Résultat possible ω ∈Ω

A est un événement A ∈Ω

A⇒B A∈B

A et B A∩B

A ou B A∪B

A n’est pas réalisé Ac

A est un événement irréalisable A =∅ A est un événement certain A= Ω

A et B sont incompatibles A∩B =∅

1.3 Axiomatique de Kolmogorov

Définition 1.3.1 (Tribu ou σ-algèbre). Une famille A de parties de l’univers Ω est une tribu, si elle satisfait les trois propriétés suivantes :

• Ω∈ A

• Si A ∈ A alors Ac∈ A

• Soit (A)i∈I, une famille dénombrable1 d’éléments de A, alors S

i∈I

Ai ∈ A

Propriétés 1.3.1. SoitAune tribu d’un universΩ. Les propriétés suivantes sont des conséquences directes de la définition :

1. ∅ ∈ A.

2. Si (An)n∈N est une suite d’éléments deA alors

+∞

T

n=1

An ∈ A.

3. Si (Ai)0≤i≤N est une suite finie de N éléments de A alors

N

S

i=0

Ai ∈ A.

4. Si (Ai)0≤i≤N est une suite finie de N éléments de A alors

N

T

i=0

Ai ∈ A.

Démonstrations 1.3.1.

1. En effet, les deux premières propriétés de la définition impliquent que Ω∈ A et que Ωc∈ A, or Ωc=∅. Donc ∅ ∈ A.

2. Soit (Bn)n∈N une suite tels que : ∀n, Bn = Acn, alors par stabilité par passage au complé- mentaire (Bn)n∈N est une suite d’éléments de A. Mais alors on peut utiliser la stabilité par

1. Rappel : un ensemble est dénombrable si on peut le mettre en bijection avec une sous-partie de N. Pour simplifier, on travaillera à présent dansNsans perte de généralité

(15)

passage à la réunion dénombrable, et on obtient :

+∞

S

n=0

Bn ∈ A. En réutilisant la stabilité par passage au complémentaire on obtient : (

+∞

S

n=0

Bn)c∈ A.

Autrement dit :

+∞

T

n=0

Bnc =

+∞

T

n=0

An ∈ A.

3. Soit (Bn)n∈N une suite vérifiant : ∀n ∈ [0, N]Bn = An et ∀n > N, Bn = ∅. Alors il est immédiat que S

n∈N

Bn=

N

S

n=0

An. Mais en notant que lesBn ∈ A,∀n(∅ ∈ Acar c’est une tribu), on peut utiliser la stabilité par réunion dénombrable, ce qui nous donne que : S

n∈N

Bn ∈ A.

4. La démonstration étant la même que pour la réunion finie, nous laissons le soin au lecteur de la rédiger.

Notation 1.3.1. On note P(Ω), l’ensemble des sous-parties d’un univers Ω

Exemples 1.3.1.

• {Ω;∅} est une tribu de Ω, nommée tribu triviale En effet,

- Ω est bien inclus dans {Ω;∅}.

- Ωc=∅ ⊂ {Ω;∅} et ∅c= Ω⊂ {Ω;∅}

- Ω∪ ∅= Ω⊂ {Ω;∅}

• Soit A∈ A, alors {A, Ac,∅,Ω} est une tribu de Ω, appelée tribu engendrée par A

• P(Ω) est une tribu de Ω, nommée tribu discrète de Ω. (C’est la plus grande tribu de Ω)

Définition 1.3.2 (Espace probabilisable). On appelle espace probabilisable, le couple (Ω,A), où A est une tribu de Ω

Définition 1.3.3. (Probabilité)

Une probabilité (ou mesure de probabilité2) sur (Ω;A), est une application : P:A →[0; 1]

vérifiant les trois axiomes de Kolmogorov suivant :

2. En théorie de la mesure, une probabilité est une mesure de masse totale 1.

(16)

Axiome 1 : Pour tout évènement A de A , 0≤P(A)≤1 Axiome 2 : P(Ω) = 1

Axiome 3 : Soit (An)n∈N une suite d’événements de A deux à deux incompatibles. On a :

P([

n∈N

An) =X

n∈N

P(An)

Définition 1.3.4 (Espace probabilisé). On appelle espace probabilisé, le triplé (Ω,A,P), où A est une tribu de Ω et P une probabilité.

Propriétés 1.3.2. Soient A et B deux événements d’un univers Ω.

1. P(Ac) = 1−P(A) 2. P(∅) = 0

3. P(A∪B) = P(A) +P(B)−P(A∩B) 4. A⊂B =⇒P(A)≤P(B)

Démonstrations 1.3.2.

1. Comme A∪Ac= Ω on a :

P(A) +P(Ac) =P(A∪Ac) =P(Ω) = 1

⇒ P(A) +P(Ac) = 1

⇒ P(Ac) = 1−P(A) 2. D’après le résultat précédent on a :

P(∅) =P(Ωc)

= 1−P((Ωc)c)

= 1−P(Ω)

= 1−1

= 0

3. En remarquant que A= (A∩B)∪(A∩Bc)et que B = (B∩A)∪(B∩Ac) on en déduit que : A∪B = (A∩B)∪(A∩Bc) ∪ (B ∩A)∪(B ∩Ac)

= (A∩B)∪(A∩Bc)∪(B∩Ac)

(17)

Par conséquent :

P(A∪B) = P( (A∩B)∪(A∩Bc)∪(B∩Ac) )

=P(A∩B) +P(A∩Bc) +P(B∩Ac)

=P(A∩B) +P(A∩Bc) +P(B∩Ac) +P(B∩A)−P(B∩A)

=P( (A∩B)∪(A∩Bc) ) +P( (B∩Ac)∪(B∩A) )−P(B∩A)

=P(A) +P(B)−P(B∩A)

4. Si A ⊂B alors on a B =A∪(B ∩Ac) et on a donc : P(B) = P(A∪(B ∩Ac))

=P(A) +P(B∩Ac)−P( A∩(B∩Ac) )

=P(A) +P(B∩Ac)−P(∅)

=P(A) +P(B∩Ac)−0

=P(A) +P(B∩Ac)

Or comme d’après le premier axiome de Kolmogorov P(B∩Ac)≥0, on en déduit que : P(B)≥P(A)

Remarque 1.3.1. On a démontré que si A et B sont deux événements d’un univers Ω, alors on a P(A∪B) = P(A) +P(B)−P(A∩B).

On sait que si A et B sont disjoints alors on a P(A∩B) = P(∅) = 0.

C’est pourquoi si A et B sont disjoints on a : P(A∪B) =P(A) +P(B)

Remarque 1.3.2. La propriété P(A∪B) = P(A) +P(B)−P(A∩B) existe aussi pour plus de deux éléments. Par exemple pour 3 éléments A, B et C on a :

P(A∪B∪C) = P(A) +P(B) +P(C)−P(A∩B)−P(A∩C)−P(B∩C) La formule générale pour n éléments est donnée par la formule de Poincaré.

(18)

Proposition 1.3.1 (Formule de Poincaré). Soit n ≥ 2 et soit (Ai)1≤i≤n une suite d’événements de A. On a :

P

n

[

i=1

Ai

!

=

n

X

i=1

P(Ai)− X

1≤i<j≤n

P(Ai∩Aj)+ X

1≤i<j<k≤n

P(Ai∩Aj∩Ak)−...+ (−1)n−1 P(A1∩A2∩...∩An)

Cette formule peut aussi s’écrire :

P

n

[

k=1

Ak

!

=

n

X

k=1

(−1)k+1 X

1≤i1<...<ik≤n

P(Ai1 ∩...∩Aik)

!

Démonstration 1.3.1. La démonstration de cette formule se fait par récurrence.

Soit n ≥2 posons P(n) :

“P

n

[

i=1

Ai

!

=

n

X

i=1

P(Ai)− X

1≤i<j≤n

P(Ai∩Aj)+ X

1≤i<j<k≤n

P(Ai∩Aj∩Ak)−...+ (−1)n−1 P(A1∩A2∩...∩An)00

−→ Initialisation :

Pour n=2, on a : P(A1∪A2) =P(A1) +P(A2)−P(A1∩A2) On retrouve donc la propriété précédemment démontrée.

Donc P(2) est vrai.

−→ Hérédité :

Supposons P(n−1) vraie pour un certain n, montrons que P(n) est vraie.

On a :

(19)

P(A1 ∪...∪An) =P( (A1∪...∪An−1) ∪ An)

= [ P(A1∪...∪An−1) ] +P(An)−P( (A1 ∪...∪An−1) ∩ An)

= [ P(A1∪...∪An−1) ] +P(An)−P( (A1 ∩An)∪...∪(An−1∩An) )

= [

n−1

X

i=1

P(Ai)− X

1≤i<j≤n−1

P(Ai∩Aj) +...+ (−1)n−2 P(A1∩A2∩...∩An−1) ] +P(An)−P( (A1∩An)∪...∪(An−1∩An) )

=

n

X

i=1

P(Ai)− X

1≤i<j≤n−1

P(Ai∩Aj) +...+ (−1)n−2 P(A1∩A2∩...∩An−1)

−P( (A1∩An)∪...∪(An−1∩An) )

=

n

X

i=1

P(Ai)− X

1≤i<j≤n

P(Ai∩Aj) +...+ (−1)n−1 P(A1∩A2∩...∩An)

Donc P(n) est vraie.

−→ Conclusion :

Pour tout n≥2, P(n) est vraie.

1.4 Loi de probabilité uniforme discrète

Afin de formaliser la notion de probabilité, cette sous-partie traite l’exemple de la probabilité uniforme discrète.

Vocabulaire 1.4.1 (ensemble discret). Un ensemble est dit discret, s’il peut être mis en bijection avec une sous-partie de N. Discret est synonyme de dénombrable.

Exemples 1.4.1.

• L’ensemble {1,2,3} est discret. En effet, {1,2,3} peut être mis en bijection avec la sous partie de N, {1,2,3} ou {13,17,451}.

• L’ensembleNest discret. En effet, Npeut être mis en bijection avecNqui est une sous partie de lui même.

• L’ensemble R n’est pas discret car il ne peut pas être mis en bijection avec une sous partie de N.

(20)

Définition 1.4.1 (Loi de probabilité uniforme discrète). Soit Ω un univers discret fini. La loi de probabilité uniforme discrète, est une probabilité qui associe à chaque élément ω de l’univers Ω la même valeur.

Exemple 1.4.1. Prenons l’exemple d’un lancé de dé équilibré.

L’univers, qui est l’ensemble des issues possibles de cette expérience est donc égal àΩ ={1,2,3,4,5,6}.

Soit P la loi de probabilité uniforme discrète. On a : P(1) = 1

6 P(2) = 1

6 P(3) = 1 6

P(4) = 1

6 P(5) = 1

6 P(6) = 1 6

Ceci signifie que la probabilité d’obtenir un 1, un 2, un 3, un 4, un 5 ou un 6 en jetant ce dé est la même et vaut 16.

Exemple 1.4.2. Prenons l’exemple d’un jeu de pile ou face avec une pièce non pipée.

Notons 0, l’événement “obtenir un pile” et 1 l’événement “obtenir un face”.

L’univers, qui est l’ensemble des issues possibles de cette expérience est donc égal à Ω ={0,1}.

Soit P la loi de probabilité discrète uniforme. On a donc : P(0) = 1

2 et P(1) = 1 2

Ceci signifie que la probabilité d’obtenir un pile ou d’obtenir un face en jetant cette pièce est la même et vaut 12.

Exemple 1.4.3 (Cas général). Soit Ω un univers discret fini d’une expérience.

Soit P la loi de probabilité uniforme discrète.

Si le cardinal de Ω, Card(Ω), (c’est à dire le nombre d’éléments de Ω) vaut n alors on a :

∀ ω∈Ω, P(ω) = 1

Card(Ω) = 1 n

Proposition 1.4.1. Tout événement A étant une sous partie de l’univers Ω, on en déduit que si P est la probabilité uniforme discrète on a :

∀A⊂Ω, P(A) = Card(A)

Card(Ω) = |A|

|Ω|

(21)

Démonstration 1.4.1. En utilisant le fait que tous les ω ∈Ω sont incompatibles, on a :

P(A) =P(A∩Ω) =P [

ω∈Ω

(A∩ {ω})

!

=X

ω∈Ω

P(A∩ {ω}) = X

ω∈A

P(ω) Donc on a démontré que pour tout événement A on a : P(A) = P

ω∈AP(ω) Comme ici P est la probabilité uniforme discrète on a :

∀ω∈Ω, P(ω) = 1 Card(Ω) Donc :

P(A) =X

ω∈A

P(ω) =P(ω) +...+P(ω)

| {z } Card(A) fois

=Card(A)×P(ω) = Card(A) Card(Ω

Exemple 1.4.4 (lancé de deux dés). Prenons l’exemple d’un lancé de deux dés non pipés.

L’univers Ω, qui est l’ensemble des issues de cette expérience, est donc égal à : Ω = {(1,1); (1,2);...; (1,6); (2,1);...; (2,6); (3,1);...; (6,6)}

={1; 2; 3; 4; 5; 6} × {1; 2; 3; 4; 5; 6}

On en déduit que cette expérience possède Card({1; 2; 3; 4; 5; 6})×Card({1; 2; 3; 4; 5; 6}) = 6×6 = 36 issues.

Donc le cardinal de Ω est égal à : |Ω|= 36

En utilisant la probabilité uniforme discrète, calculons l’événement A : “Obtenir un 7” :

Pour obtenir un 7, il faut que la somme des deux dés soit égale à 7. Les issues de Ω vérifiant ceci sont :

(1,6),(2,5),(3,4),(4,3),(5,2) et (6,1) Il y a donc, 6 issues de Ω vérifiant l’événement A.

Donc le cardinal de A est égal à : |A|= 6

On en déduit que la probabilité d’obtenir un 7 en lançant deux dés est égale à : P(A) = |A|

|Ω| = 6 36 = 1

6

Exemple 1.4.5(Tirage de deux boules dans une urne en contenant trois). Prenons l’exemple d’un tirage successif et sans remise de deux boules dans une urne en contenant trois. Les trois boules contenues dans l’urne sont de différentes couleurs, il y en a une bleue, une rouge et une verte.

(22)

L’ordre dans lequel les boules sont tirés est noté.

L’univers Ω qui est l’ensemble des issues de cette expérience, est donc égal à :

Ω ={(Bleue, Rouge); (Rouge, Bleue); (Bleue, V erte); (V erte, Bleue); (Rouge, V erte); (V erte, Rouge)}

Cette expérience possède 6 issues, donc le cardinal de Ω est égal à : |Ω|= 6

En utilisant la probabilité uniforme discrète, calculons l’événement RV : “Obtenir une boule rouge et une boule verte” :

Les deux issues de Ω vérifiant l’évènement RV sont (Rouge, V erte) et (V erte, Rouge).

Donc le cardinale de RV est égal à : |RV| = 2.

On en déduit que la probabilité d’obtenir une boule rouge et une boule verte est égale à : P(RV) = |RV|

|Ω| = 2 6 = 1

3

Dans certains cas, le nombre d’éléments d’un ensemble étant difficile à calculer il est nécessaire de faire appel à la théorie du dénombrement pour calculer une probabilité.

L’annexe B contient un extrait de cette théorie.

(23)

1.5 Synthèse

Soit Ω un univers etA et B deux évènements. On a :

• P(Ω) = 1

• P(∅) = 0

• P(A) = 1−P(Ac)

• P(A∪B) = P(A) +P(B)−P(A∩B)

• Si Pest la probabilité uniforme discrète on a : P(A) = |A|

|Ω|

(24)
(25)

Chapitre 2

Indépendance et probabilité conditionnelle

La notion d’indépendance est intuitive. Pour la visualiser prenons l’exemple le plus récurrent : le lancé d’un dé. On lance deux dés et on nomme A : "Avoir un 6 avec le premier dé" et B : "Avoir un 6 avec le deuxième dé". Alors il est évident que le résultat du deuxième dé est indépendant de celui du premier. On dit alors que les deux évènements A et B sont indépendants.

Dans la même logique comment définir la probabilité conditionnelle ? C’est en réalité une notion qui encore une fois nous vient naturellement lorsqu’on se pose par exemple la question : "Quelle est la probabilité qu’il pleuve sachant qu’il y a des nuages". On peut alors analyser cette question en détachant deux évènements. Le premier serait A : "Il pleut" et le deuxième B : "Il y a des nuages", et on souhaiterait alors trouver la probabilité de A sachant B.

Nous allons formaliser dans ce chapitre ces idées en ne traitant que le cas des évènements aléatoires. Nous traiterons plus tard le cas des variables aléatoires.

2.1 Indépendance

Définition 2.1.1 (Évènements indépendants). Soit (Ω, A, P) un espace probabilisé et soit A et B deux évènements définis sur cet espace. On dit que A et B sont indépendants si et seulement si P(A∩B) = P(A)P(B).

Exemple 2.1.1(lancé de deux dés). Prenons l’exemple d’un lancé successif de deux dés non pipés.

Notons A l’évènement “obtenir un 5 avec le premier dé” et B l’évènement “obtenir un 3 avec le deuxième dé”.

Montrons que les évènements A et B sont indépendants.

L’univers Ω qui est l’ensemble des issues de cette expérience vaut : Ω ={1; 2; 3; 4; 5; 6} × {1; 2; 3; 4; 5; 6}

(26)

Donc le cardinal de Ω est égal à : |Ω|= 6×6 = 36.

L’évènement A est vérifié par les issues de Ω : (5,1),(5,2),(5,3),(5,4),(5,4)et (5,6).

Donc le cardinal de A vaut : |A|= 6

L’évènement B est vérifié par les issues de Ω : (1,3),(2,3),(3,3),(4,3),(5,3) et (6,3).

Donc le cardinal de A vaut : |B|= 6 Donc

P(A) = |A|

|Ω| = 6 36 = 1

6 et

P(B) = |B|

|Ω| = 6 36 = 1

6

L’évènement A∩B : “Obtenir un 5 avec le premier dé et un 3 avec le deuxième dé est vérifié uniquement par l’issue (5,3).

Donc le cardinal de A∩B vaut : |A∩B|= 1.

Donc

P(A∩B) = |A∩B|

|Ω| = 1 36 Or

P(A)×P(B) = 1 6 ×1

6 = 1 36

Donc comme P(A∩B) = P(A).P(B) les évènements A et B sont bien indépendants.

Définition 2.1.2 (Indépendance dans leur ensemble). Soit (Ω, A, P) un espace probabilisé et soit (Ai)i∈I une suite d’évènements aléatoires définies sur cet espace. On dit que les Ai sont indépen- dants dans leur ensemble si et seulement si pour tout J ⊂I on a :

P(\

j∈J

Aj) = Y

j∈J

P(Aj)

Exemple 2.1.2 (Lancé de trois dés). On se propose de lancer trois dés et d’étudier l’indépendance de trois évènements liés à cette expérience aléatoire. Notons :

A : "Avoir un 2 au premier lancé"

B : "Avoir un 5 au deuxième lancé"

C : "La somme des deux lancés vaut 6"

(27)

Calculons tout d’abord les probabilités de chaque évènement pris séparément. On obtient di- rectement :

P(A) = P(B) = 16 et P(C) = 365 (voir le chapitre 1 pour le détails de ce calcul).

Donc P(A)P(B)P(C) = 16 × 16 × 365 = 12965

En revanche comme, A∩B∩C =∅, on a : P(A∩B∩C) = 0.

Comme P(A)P(B)P(C) 6= P(A∩B ∩C) les évènements A, B et C ne sont pas indépendants dans leur ensemble.

Remarque 2.1.1. Attention la notion d’indépendance dans leur ensemble est très forte car elle est définie pour tout sous ensemble J de I. Donc si on a indépendance dans leur ensemble d’un certain nombres d’évènements, on a également l’indépendance deux à deux, l’indépendance trois à trois etc...

Lorsqu’on dit indépendance deux à deux, cela signifie par exemple dans le cas de trois évène- ments A, B et C que :

P(A∩B) = P(A)P(B) et P(A∩C) =P(A)P(C) et P(B∩C) = P(B)P(C)

On définie de la même manière l’indépendance trois à trois etc...

Attention : La réciproque est fausse ! Si on a l’indépendance deux à deux cela n’implique par l’indépendance dans leur ensemble.

Proposition 2.1.1 (Indépendance et complémentaire). Soit (Ω, A, P) un espace probabilisé et soit A et B deux évènements indépendants.

Alors :

– A et Bc sont indépendants – Ac et B sont indépendants – Ac et Bc sont indépendants

Démonstration 2.1.1. Démontrons la première assertion :

On a : P(A∩Bc) = P(A)−P(A∩B) (voir les rappels de théories des ensembles).

Comme A et B sont indépendants on a donc :

(28)

P(A∩Bc) = P(A)−P(A)P(B)

=P(A)(1−P(B))

=P(A)P(Bc)

Donc par définition :AetBcsont indépendants. (On démontre de la même manière la deuxième assertion)

Démontrons la troisième assertion : On a : P(Ac∩Bc) = P(Ω)−P(A∪B)

Comme A et B sont indépendants, on obtient :

P(Ac∩Bc) = 1−P(A)−P(B) +P(A∩B)

=P(Ac)−P(B) +P(A)P(B)

=P(Ac)−P(B) + (1−P(Ac))P(B)

=P(Ac)−P(Ac)P(B)

=P(Ac)(1−P(B))

=P(Ac)P(Bc)

Donc Ac et Bc sont indépendants.

2.2 Probabilité conditionnelle

2.2.1 Généralités

Définition 2.2.1 (Probabilité conditionnelle). Soit (Ω, A, P)un espace probabilisé et soit A et B deux évènements appartenant à cet espace. L’évènement A sachantB, noté A|B, et sa probabilité est définie par :

P(A|B) = P(A∩B) P(B)

Remarque 2.2.1. Tout d’abord cette définition n’a un sens que si P(B) >0. Si on a P(B) = 0 alors il est évident que : P(A|B) =P(A), mais nous reviendrons plus loin dessus.

(29)

Remarque 2.2.2 (Fondamentale). Il est très important de remarquer que d’écrire P(A|B) n’est qu’une notation. La probabilité conditionnelle doit être vu comme une probabilité prenant en argu- ment l’événement A. Ainsi l’argument ne dépend pas de B. En particulier on peut alors énoncé la proposition suivante :

Proposition 2.2.1. Soit A et B deux événéments.

P(Ac|B) = 1−P(A|B)

Remarque 2.2.3. On peut remarquer qu’on a également : P(B|A) = P(A∩B)

P(A) , à condition toujours d’avoir P(A)>0. Ce qui nous amène a écrire : P(A∩B) = P(B|A)P(A).

On obtient alors une nouvelle définition d’une probabilité conditionnelle :

Proposition 2.2.2 (deuxième définition). Soit (Ω, A, P)un espace probabilisé et soitA etB deux évènements appartenant à cet espace. Alors :

P(A|B) = P(B|A)P(A) P(B)

On peut directement voir un cas particulier important si A et B sont indépendants. Cela va nous permettre de donner une nouvelle définition de l’indépendance d’évènement.

Proposition 2.2.3 (Indépendance et probabilité conditionnelle). Soit (Ω, A, P) un espace prob- abilisé et A et B deux évènements indépendants appartenant à cet espace, alors :

P(A|B) =P(A)

Démonstration 2.2.1. Celle ci est évidente et découle directement de la définition. En effet : P(A|B) = P(A∩B)

P(B)

Or par indépendance de A et B on a : P(A∩B) = P(A)P(B).

Donc on a :

P(A|B) = P(A)P(B)

P(B) =P(A)

(30)

Théorème 2.2.1 (sur l’indépendance des évènements). Soit (Ω, A, P) un espace probabilisé et A et B deux évènements définis sur cet espace. Alors A et B sont indépendants si et seulement si :

P(A|B) =P(A)

Démonstration 2.2.2. La première implication a été démontré à la proposition précédente. Dé- montrons la réciproque qui est immédiate.

Supposons : P(A|B) =P(A). Or par définition on a : P(A|B) = P(A∩B)

P(B) . Donc on a : P(A∩B)

P(B) =P(A) Et donc : P(A∩B) = P(A)P(B)

Donc A et B sont indépendants.

Remarque 2.2.4. Ce théorème est fondamental et bien plus intuitif que la première définition de l’indépendance que nous avons vue. En effet si la probabilité de A sachant B est égale à la probabilité de A cela signifie que le fait de conditionner par B n’a aucune incidence. Donc que A et B sont bel et bien indépendants.

On a donc aussi pu prouver la remarque 2.2.1.

Exercice 2.2.1. Soit A et B deux évènements tels que : P(A)>0 etP(B)>0 et tels que A et B soient incompatibles.

Montrer que ces deux évènements ne sont pas indépendants.

2.2.2 Généralisation aux familles d’évènements

Dans notre première partie, sur les probabilités conditionnelles, nous n’avons traité que le cas où nous n’avions que deux évènements. Or très souvent il nous sera demandé d’étudier plus de deux évènements. Nous allons donc essayer de généraliser les définitions à des suites d’évènements.

Dans toute cette partie on considèrera(Ω,A,P)un espace probabilisé et(Ai)1≤i≤n une famille d’évènements appartenant à cet espace.

Théorème 2.2.2 (Probabilité conditionnelle en cascade). Si P( \

1≤i≤n−1

Ai)>0 alors : P( \

1≤i≤n

Ai) = P(A1)P(A2|A1)P(A3|A1∩A2)...P(An|A1∩...∩An−1)

(31)

Démonstration 2.2.3. La démonstration se fait par récurrence.

Soit n ≥2posons : P(i) : ”P( T

1≤i≤n

Ai) = P(A1)P(A2|A1)P(A3|A1∩A2)...P(An|A1∩...∩An−1)”

−→ Initialisation :

Pour i = 2, c’est la formule vu à la remarque 2.2.1. P(A∩B) = P(B|A)P(A).

Donc P(2) est vraie.

−→ Hérédité :

Supposons P(n−1) vraie pour un certain n, montrons que P(n) est vraie.

On a :

P( \

1≤i≤n

Ai) = P(( \

1≤i≤n−1

Ai)∩An)

=P( \

1≤i≤n−1

Ai)P(An| \

1≤i≤n−1

Ai) (en utilisant la formule pour n = 2)

Donc par hypothèse de récurrence : P( \

1≤i≤n

Ai) = P(A1)P(A2|A1)P(A3|A1∩A2)...P(An|A1∩...∩An−1)

−→ Conclusion : Pour toutn ≥2, P(n) est vraie.

Théorème 2.2.3 (Formule des probabilités totales). Soit (Ai)1≤i≤n une famille d’évènements dénombrable incompatibles deux à deux, telle que ∀i∈[1, n],P(Ai)>0 et :

P(G

i∈I

Ai) = 1 Alors pour tout évènement A∈ A on a :

P(A) =X

i∈I

P(A|Ai)P(Ai)

Démonstration 2.2.4. Tout d’abord comme les évènementsAi forment une partition de l’univers, il est évident que :

A= (A∩A1)∪...∪(A∩An)

(32)

Donc :

P(A) =

n

X

i=1

P(A∩Ai) car tous les évènements sont incompatibles par hypothèse

=

n

X

i=1

P(A|Ai)P(Ai)

Remarque 2.2.5. Un cas très souvent utilisé est le cas n = 2. Si on prend un évènement B tel que : B ∪Bc = Ω, on a bien entendu B∩Bc = ∅ par définition du complémentaire. Donc pour tout évènement A :

P(A) = P(A|B)P(B) +P(A|Bc)P(B)

Enfin nous pouvons finir ce chapitre en combinant la formule des probabilités totales à la définition d’une probabilité conditionnelle.

Théorème 2.2.4 (Théorème de Bayes). Soit (Ai)i∈I une famille d’évènements dénombrable in- compatibles deux à deux, telle que ∀i∈I, P(Ai)>0 et :

P(G

i∈I

Ai) = 1 On a : ∀A∈ A tel que P(A)>0, alors ∀i∈I :

P(Ai|A) = P(A|Ai)P(Ai) P

j∈IP(A|Aj)P(Aj)

Démonstration 2.2.5. En utilisant la définition de la probabilité conditionnelle on a : P(Ai|A) = P(Ai∩A)

P(A)

= P(A|Ai)P(Ai) P(A)

= P(A|Ai)P(Ai) P

j∈IP(A|Aj)P(Aj) (application de la formule des probabilités totales)

(33)

2.3 Synthèse

Soit Ω un univers etA et B deux évènements. On a :

• P(A|B) = P(A∩B)

P(B) = P(B|A)P(A) P(B)

• A et B sont indépendants si et seulement si : P(A∩B) =P(A).P(B)

• Si A etB sont indépendants alors : P(A|B) = P(A)et P(B|A) =P(B)

• Probabilité conditionnelle en cascade : Si P( T

1≤i≤n−1

Ai)>0 alors :

P( \

1≤i≤n

Ai) = P(A1)P(A2|A1)P(A3|A1∩A2)...P(An|A1∩...∩An−1)

• Formule des probabilités totales : P(A) = P

i∈IP(A|Ai)P(Ai)

• Théorème de Bayes : Soit(Ai)i∈I un système complet d’évènements, tel que∀i∈I,P(Ai)>0 etA un évènement tel que P(A)>0. On a :

P(Ai|A) = P(A|Ai)P(Ai) P

j∈IP(A|Aj)P(Aj)

(34)
(35)

Chapitre 3

Variables aléatoires réelles discrètes

3.1 Variables aléatoires

Définition 3.1.1 (variable aléatoire). Une variable aléatoire est une fonction X, allant d’un univers Ω dans un ensemble E.

X : Ω−→E ω −→y

Définition 3.1.2(variable aléatoire réelle). Une variable aléatoire réelleest une fonctionX, allant d’un univers Ω dans un ensemble E ⊂R

Définition 3.1.3 (variable aléatoire réelle discrète). Une variable aléatoire réelle discrète est une fonction X, allant d’un univers Ωdans un ensemble discrèt E ⊂R.

Dans ce chapitre on ne prendra que des variables aléatoires discrètes.

Notation 3.1.1. Soient A une sous partie de Ω et x un réel.

L’ensemble {ω | X(ω)∈A} est un évènement. De même, {ω | X(ω) =x} est un évènement.

Par conséquent, on peut calculer P({ω | X(ω)∈A}) et P({ω | X(ω) =x}).

Afin d’alléger les écritures on notera : P(X ∈A) à la place de P({ω | X(ω)∈A}) et P(X =x) à la place de P({ω | X(ω) =x}).

(36)

Exemple 3.1.1 (lancé d’un dé). Prenons comme exemple, une variable aléatoire X affichant le résultat d’un lancé de dé.

L’univers Ω est égal ici à {1; 2; 3; 4; 5; 6} et son cardinal est égal à : |Ω|= 6.

Les valeurs que peut prendre la variable aléatoire X sont 1,2,3,4,5 et 6.

Donc ∀ω ∈Ω, X(ω)∈ {1; 2; 3; 4; 5; 6}.

La probabilité d’obtenir un 1, vaut

P(X = 1) = 1 6 La probabilité d’obtenir un 2, vaut

P(X = 2) = 1 6 et ainsi de suite :

P(X= 3) = 1

6 P(X = 4) = 1

6 P(X = 5) = 1

6 et P(X = 6) = 1 6

Exemple 3.1.2(somme de deux dés). Prenons comme exemple, une variable aléatoireY affichant la somme obtenue après un lancé de deux dés.

L’universΩest égal ici à{1; 2; 3; 4; 5; 6}×{1; 2; 3; 4; 5; 6}et son cardinal est égal à :|Ω|= 6×6 = 36.

Les valeurs que peut prendre la variable aléatoire Y sont 2,3,4,5,6,7,8,9,10,11 et 12.

Donc ∀ω ∈Ω, X(ω)∈ {2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12}.

La probabilité d’obtenir un 2, vaut

P(X = 2) = |{(1; 1)}|

|Ω| = 1 36

La probabilité d’obtenir un 3, vaut

P(X = 3) = |{(1; 2); (2; 1)}|

|Ω| = 2 36 = 1

18

La probabilité d’obtenir un 4, vaut

P(X = 4) = |{(1; 3); (2; 2); (3; 1)}|

|Ω| = 3

36 = 1 12

(37)

...

La probabilité d’obtenir un 12, vaut

P(X = 12) = |{(6; 6)}|

|Ω| = 1 36

Vocabulaire 3.1.1. Soit(Ω;A;P)un espace probabilisé etX une variable aléatoire à valeurs dans un ensemble E.

L’ensemble des P(X =x)x∈E s’appelle la loi de X.

Exemple 3.1.3. La loi de la variable aléatoire X de l’exemple 3.0.1 est :

∀k ∈ {1; 2; 3; 4; 5; 6}, P(X =k) = 1 6

La loi de la variable aléatoire Y de l’exemple 3.0.2 est plus longue à donner, car il n’y a pas de formule générale qui s’en dégage. La loi de Y est donc :

P(Y = 2) =P(Y = 12) = 1 36 P(Y = 3) =P(Y = 11) = 1

18 P(Y = 4) =P(Y = 10) = 1

12 P(Y = 5) =P(Y = 9) = 1

9 P(Y = 6) =P(Y = 8) = 5 36 P(Y = 7) = 1

6

Proposition 3.1.1 (Fondamentale). Soit X une variabe aléatoire réelle discrète à valeur dans E.

Alors les éléments de l’ensemble {X =x}x∈E forment une partition de l’univers.

On obtient alors par σ-additivité :

X

x∈E

P(X =x) = 1

(38)

Démonstration 3.1.1. Montrons tout d’abord que les événements sont incompatibles. Soienti, j ∈ E tels que i6=j, supposons par l’absurde qu’il existe ω ∈ {X =i} ∩ {X =j}. Alors par définition (de cette notation), X(ω) =i et X(ω) =j, ce qui est absurde.

Montrons que la réunion des événements est égale à l’univers. On peut voir directement que :

[

x∈E

{X =x}={X ∈E}déf= Ω

La dénombrabilité de l’espace discret E nous permet alors d’utiliser la σ-additivité.

3.2 Propriétés

3.2.1 Loi marginale

Notation 3.2.1. La probabilité que X vaille x et que Y vaille y peut se noter indifféremment : P(X =x; Y =y) ou P(X =x∩ Y =y)

Proposition 3.2.1 (Loi marginale). Soit X une variable aléatoire à valeurs dans un ensemble EX et Y une variable aléatoire à valeurs dans un ensemble EY. On a pour tout k∈EX :

P(X =k) = X

i∈EY

P(X =k ; Y =i)

Démonstration 3.2.1. En remarquant que l’évènement {X =k} est égal à l’évènement {X=k} ∩ [

i∈EY

{Y =i}

!

(39)

on a :

P(X =k) = P {X =k} ∩ [

i∈EY

{Y =i}

! !

= P {X =k ; [

i∈EY

{Y =i}}

!

= P [

i∈EY

{X =k ; {Y =i}}

!

= X

i∈EY

P(X =k ; Y =i) (par la proposition fondamentale et l’axiome 3 de Kolmogorov)

Exemple 3.2.1. Soit Y une variable aléatoire ne prenant que trois valeurs : 1, 2 et 3.

Soit X une autre variable aléatoire à valeurs dans N telle que :

P(X = 17; Y = 1) = 0.1 P(X = 17; Y = 2) = 0.5 P(X = 17; Y = 3) = 0.2

−→ Quelle est la probabilité que X vaille 17?

On sait que Y a toutes ses valeurs dans {1; 2; 3}. En utilisant la loi marginale on a : P(X = 17) = X

k∈{1;2;3}

P(X = 17 ; Y =k)

=

3

X

k=1

P(X = 17 ; Y =k)

=P(X = 17; Y = 1) +P(X = 17; Y = 2) +P(X = 17; Y = 3)

= 0.1 + 0.5 + 0.2

= 0.8

Donc la probabilité que X vaille 17 est de 0.8.

(40)

3.2.2 Loi conditionnelle

Définition 3.2.1 (Loi conditionnelle). Soient X et Y deux variables aléatoires définies sur un même espace probabilisé.

La probabilité que X vaille x en sachant que Y vaut y est égale à : P(X =x|Y =y) = P(X =x∩Y =y)

P(Y =y)

Exemple 3.2.2 (Tirage successif). Prenons l’exemple d’un tirage successif de deux boules sans remise dans une urne contenant une boule rouge, une boule verte et une boule bleue.

Soit X la variable aléatoire rendant le résultat du premier tirage.

Soit Y la variable aléatoire rendant le résultat du second tirage.

Calculons la probabilité d’obtenir la boule bleue au second tirage en sachant qu’on a tiré la rouge au premier :

P(Y =bleue|X =rouge) = P(Y =bleue∩X =rouge) P(X =rouge) =

1 6 1 3

= 1 2

Donc nous avons une chance sur deux de tirer la boule bleue au second tirage en sachant qu’on a tiré la rouge au premier.

3.3 Fonction de répartition

Définition 3.3.1 (Fonction de répartition). Soit X une variable aléatoire réelle.

On appelle fonction de répartition de X la fonction, FX, qui à tout réel k associe : FX(k) =P(X ≤k)

Exemple 3.3.1. Soit X une variable aléatoire renvoyant la valeur d’un lancé de dé non pipé et soit FX sa fonction de répartition. Voici quelques exemples de valeurs que peut prendre FX :

– FX(18) =P(X ≤18) =P(X = 6) +P(X = 5) +...+P(X = 1) = 6× 1 6 = 1 – FX(6) =P(X ≤6) = P(X = 6) +P(X = 5) +...+P(X = 1) = 6× 1

6 = 1 – FX(3) =P(X ≤3) = P(X = 3) +P(X = 2) +P(X = 1) = 3× 1

6 = 1 2

(41)

– FX(√

2) = P(X ≤√

2) =P(X = 1) = 1 6 – FX(−5) = P(X ≤ −5) = 0

Propriétés 3.3.1. Soit X, une variable aléatoire réelle.

FX est une fonction de répartition de X si et seulement si : 1. FX est croissante sur R

2. FX est continue à droite en tout point de R 3. lim

k→−∞FX(k) = 0 4. lim

k→+∞FX(k) = 1

Démonstration 3.3.1.

1. Soient x et y deux réels tels quex < y. On a donc : ]− ∞;x]⊂]− ∞;y] et par conséquent : P(X ∈]− ∞;x])≤P(X ∈]− ∞;y])⇐⇒P(X ≤x)≤P(X ≤y)⇐⇒FX(x)≤FX(y) Donc FX est croissante sur R.

2. Montrer que FX est continue à droite en tout point de R, revient à montrer que pour tout a∈R,

x→alim

x>a

FX(x) =FX(a)⇐⇒ lim

n→+∞FX(a+ 1

n) =FX(a) Or,

n→+∞lim FX(a+ 1

n) = lim

n→+∞P(X ∈]− ∞;a+ 1 n])

=P(X ∈ \

n≥1

]− ∞;a+ 1

n]) (?)

=P(X ∈]− ∞;a])

=FX(a)

(42)

3.

k→−∞lim FX(k) = lim

k→−∞P(X ∈]− ∞;k])

=P(X ∈]− ∞;−∞]) (?)

=P(X ∈ ∅)

=P(∅)

= 0

4.

k→+∞lim FX(k) = lim

k→+∞P(X ∈]− ∞;k])

=P(X ∈]− ∞; +∞[) (?)

=P(X ∈R)

= 1

Les trois passages de cette démonstration comportant ce signe (?) font référence à deux propriétés sur les suites d’ensembles. La première propriété utilisée pour effectuer ces passages et que : Si (An)n∈N est une suite décroissante au sens de l’inclusion, c’est à dire, que :

∀n∈N, An+1 ⊆An, alors on a :

n→+∞lim P(An) =P(\

n≥0

An)

La seconde propriété est que : Si (An)n∈N est une suite croissante au sens de l’inclusion, c’est à dire, que :

∀n∈N, An ⊆An+1, alors on a :

n→+∞lim P(An) =P([

n≥0

An)

Exemple 3.3.2. La fonction F définie telle que : ∀x∈R,

( F(x) = 1 si x≥3

F(x) = 0 si x <3 est une fonction de répartition d’une variable aléatoire réelle.

En effet, F vérifie les quatre propriétés d’une fonction de répartition :

1. F vaut 0 sur ]− ∞; 3[et vaut 1 sur [3; +∞[. Donc F est croissante surR.

(43)

2. F est continue en tant que fonction constante sur ]− ∞; 3[ et sur [3; +∞[. Donc F est en particulier continue à droite sur ces deux intervalles. Vérifions qu’elle est continue à droite au point 3 :

limx→3 x>3

F(x) = 1 =F(3) Donc F est continue à droite sur ]− ∞; 3[∪{3} ∪[3; +∞[=R. Donc F est continue à droite en tout point de R.

3. Comme pour tout x <3, F(x) = 0 on a :

x→−∞lim F(x) = 0

4. Comme pour tout x≥3, F(x) = 1 on a :

x→+∞lim F(x) = 1

Exemple 3.3.3. Par contre, la fonction F définie telle que : ∀x∈R,

( F(x) = 1 si x >3 F(x) = 0 si x≤3 n’est pas une fonction de répartition d’une variable aléatoire réelle.

En effet, F, ne vérifie pas la deuxième propriété d’une fonction de répartition :

x→3lim

x>3

F(x) = 16=F(3) = 0

Donc,F n’est pas continue à droite en tout point de Ret n’est donc pas une fonction de répartition.

3.4 Espérance, variance et écart type

3.4.1 Espérance

L’espérance d’une variable aléatoire réelle est un réel approximant la valeur la plus probable que cette variable aléatoire peut prendre.

C’est à dire une estimation du résultat moyen qu’on aura au cours d’une expérience aléatoire.

Définition 3.4.1 (Espérance). Soit X une variable aléatoire discrète à valeurs dans un ensemble E.

Si la somme X

k∈E

|k|. P(X =k) est finie alors, X admet une espérance.

(44)

L’espérance est un nombre, se notant E(X) et égal à : E(X) = X

k∈E

k. P(X =k)

Vocabulaire 3.4.1. Soit X une variable aléatoire discrète à valeurs dans un ensemble E.

Si la somme X

k∈E

k.P(X =k) est finie alors on dit que X est intégrable.

Exemple 3.4.1 (Espérance d’une variable aléatoire X renvoyant le résultat d’un lancé de dé).

Prenons comme exemple, une variable aléatoire X affichant le résultat d’un lancé de dé.

Nous avons démontré précédemment que les valeurs que prend X appartiennent à {1; 2; 3; 4; 5; 6}

et que sa loi est :

∀k ∈ {1; 2; 3; 4; 5; 6}, P(X =k) = 1 6

L’ensemble{1; 2; 3; 4; 5; 6}ne comportant que6éléments finis, la somme P

k∈{1;2;3;4;5;6}

|k|.P(X =k) est une somme de 6 éléments finis, donc elle est finie et donc X admet une espérance.

Calculons l’espérance de X :

E(X) = X

k∈{1;2;3;4;5;6}

k. P(X =k)

= 1×P(X = 1) + 2×P(X = 2) + 3×P(X = 3) + 4×P(X = 4) + 5×P(X = 5) + 6×P(X = 6)

= 1× 1

6+ 2×1

6 + 3× 1

6 + 4× 1

6+ 5× 1

6+ 6× 1 6

= 1 + 2 + 3 + 4 + 5 + 6 6

= 21 6

= 7 2

(45)

Donc l’espérance de X est égale à E(X) = 7 2

Exemple 3.4.2 (Espérance d’une variable aléatoire Y renvoyant la somme d’un lancé de deux dés). Prenons comme exemple, une variable aléatoireY affichant la somme obtenue après un lancé de deux dés.

Nous avons démontré précédemment que les valeurs que prend Y appartiennent à {2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12} et que sa loi est :

P(Y = 2) =P(Y = 12) = 1 36 P(Y = 3) =P(Y = 11) = 1

18 P(Y = 4) =P(Y = 10) = 1

12 P(Y = 5) =P(Y = 9) = 1

9 P(Y = 6) =P(Y = 8) = 5 36 P(Y = 7) = 1

6

L’ensemble {2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12} ne comportant que 11 éléments finis, la somme X

k∈{2;3;4;5;6;7;8;9;10;11;12}

|k|. P(Y =k)

est une somme de 11 éléments finis, donc elle est finie et donc Y admet une espérance.

(46)

Calculons l’espérance de Y : E(Y) = X

k∈{2;3;4;5;6;7;8;9;10;11;12}

k. P(Y =k)

= 2×P(Y = 2) + 3×P(Y = 3) + 4×P(Y = 4) + 5×P(Y = 5) + 6×P(Y = 6) + 7×P(Y = 7) + 8×P(Y = 8) + 9×P(Y = 9) + 10×P(Y = 10) + 11×P(Y = 11) + 12×P(Y = 12)

= 2× 1

36+ 3× 1

18 + 4× 1

12+ 5×1

9 + 6× 5

36+ 7× 1

36 + 8× 5

36+ 9×1

9 + 10× 1

12+ 11× 1 18 + 12× 1

36

= 2 + 6 + 12 + 20 + 30 + 7 + 40 + 36 + 30 + 22 + 12

36 = 217

36 Donc l’espérance de Y est égale à E(Y) = 217

36

Propriétés 3.4.1. Soient X et Y deux variables aléatoires admettant une espérance.

1. Pour tout réel λ : E(λ) =λ

2. Linéarité : La variable aléatoire X+λ.Y admet aussi une espérance qui est égale à : E(X+λ.Y) =E(X) +E(λ.Y) = E(X) +λ.E(Y)

3. Positivité : Si X≥0 alors : (a) E(X)≥0

(b) et si de plus E(X) = 0 alors P(X = 0) = 1(c’est à dire X est une constante égale à 0).

4. Croissance : Si X ≥ Y, c’est à dire si pour toute valeur de X toute valeur de Y est inférieur, alors :

E(X)≥E(Y)

Démonstration 3.4.1.

1. Calculer l’espérance d’un réel λ, consiste à calculer l’espérance d’une variable aléatoire con- stante et égale à λ.

En prenant donc, une variable aléatoire X ne prenant qu’une unique valeur λ,

(47)

on a P(X =λ) = 1.

Par conséquent,

E(X) = X

k∈{λ}

k . P(X =k) =λ . P(X =λ) =λ . 1 =λ

2. Démontrons que E(X +Y) = E(X) +E(Y) en considérant que X a ses valeurs dans un ensemble EX ={x1, x2, x3, ...} et Y dans un ensemble EY ={y1, y2, y3, ...}.

E(X+Y) = X

i,j

(xi +yj) . P(X =xi, Y =yj)

=X

i,j

xi . P(X =xi, Y =yj) +X

i,j

yj . P(X =xi, Y =yj)

=X

i

xiX

j

P(X =xi, Y =yj) +X

j

yjX

i

P(X =xi, Y =yj)

=X

i

xi.P(X =xi) +X

j

yj.P(Y =yj)

=E(X) +E(Y)

Démontrons que E(λ.Y) = λ.E(Y) en considérant que Y a ses valeurs dans un ensemble E ={e1, e2, e3, ...}.

La variable aléatoire λ.Y a ses valeurs dans l’ensemble {λ.e1, λ.e2, ...}.

Par conséquent :

E(λ.Y) = X

k∈E

λ.k . P(λ.Y =λ.k)

=X

k∈E

λ.k . P(Y =k) (car λ.Y =λ.k ⇔Y =k)

=λ.X

k∈E

k . P(Y =k)

=λ.E(Y)

Nous venons de démontrer que E(X+Y) =E(X) +E(Y) et que E(λ.Y) =λ.E(Y).

(48)

Par conséquent : E(X+λ.Y) =E(X) +λ.E(Y).

3. (a) X ≥0 signifie que les valeurs que peut prendre X sont toutes positives.

Donc X a ses valeurs dans un ensemble E ={e1, e2, ...} tel que tout ei ≥0.

De plus, une probabilité étant toujours positive on a toujoursP(X =ei)≥0.

On a donc :

E(X) = X

k∈E

k . P(X =k)

= e1

|{z}≥0

.P(X =e1)

| {z }

≥0

+ e2

|{z}≥0

.P(X =e2)

| {z }

≥0

+ e3

|{z}≥0

.P(X =e3)

| {z }

≥0

+...

Comme E(X) est une somme d’éléments positifs, on a E(X)≥0.

(b) Si de plus E(X) = 0 alors X

k∈E

k . P(X =k) = 0.

Si on ne prend que les valeurs de E qui sont strictement positives on a toujours : X

{k∈E; k>0}

k . P(X =k) = 0

Or,

X

{k∈E; k>0}

k . P(X =k) = 0

⇐⇒ k1

|{z}

k1>0

.P(X =k1)

| {z }

≥0

+ k2

|{z}

k2>0

.P(X =k2)

| {z }

≥0

+ k3

|{z}

k3>0

.P(X =k3)

| {z }

≥0

+...= 0

⇐⇒ P(X =k1) = P(X =k2) = P(X =k3) = ...= 0 Donc ∀k ∈E, k >0, P(X =k) = 0.

Donc P(X = 0) = 1. Donc X est une constante égale à zéro.

4. X ≥Y ⇐⇒X−Y ≥0

Or, par positivité de l’espérance, X−Y ≥0 =⇒E(X−Y)≥0.

De plus, par linéarité de l’espérance, on a :

E(X−Y)≥0⇐⇒E(X)−E(Y)≥0

⇐⇒E(X)≥E(Y)

(49)

Théorème 3.4.1. Soit X une variable aléatoire à valeurs dans un ensemble E et f :E →R une fonction.

Si la somme X

k∈E

|f(k)| . P(X =k) est finie alors :

E(f(X)) =X

k∈E

f(k) . P(X =k)

Démonstration 3.4.2. La variable aléatoireX a ses valeurs dans un ensembleE, par conséquent la variable aléatoire f(X) a ses valeurs dans l’ensemble f(E).

On en déduit le calcul suivant : E(f(X)) = X

y∈f(E)

y . P(f(X) = y)

= X

y∈f(E)

 X

k∈f−1(y)

f(k) . P(X =k)

 (f−1(y) est l’antécédent de y)

=X

k∈E

f(k) . P(X =k)

Donc E(f(X)) =X

k∈E

f(k) . P(X =k).

3.4.2 Variance

La variance d’une variable aléatoire réelle est un réel approximant la dispertion des valeurs que cette variable aléatoire peut prendre autour de son espérance. La variance est donc proportionnelle à la distance des valeurs que peut prendre une variable aléatoire que peut prendre par rapport à sa valeur moyenne.

Définition 3.4.2 (Variance). SoitX une variable aléatoire discrète à valeurs dans un ensemble E.

Si la somme X

k∈E

k2. P(X =k) est finie alors, X admet une variance.

(50)

La variance est un nombre, se notant V(X) et égal à :

V(X) =E (X−E(X))2

Vocabulaire 3.4.2. Soit X une variable aléatoire discrète à valeurs dans un ensemble E.

Si la somme X

k∈E

k2. P(X =k) est finie alors on dit que X est de carré intégrable.

Propriétés 3.4.2. Soit X une variable aléatoire admettant une variance et donc une espérance.

1. V(X) =E(X2)−E(X)2

2. La variance est toujours positive.

3. Soient a et b deux réels, V(aX+b) =a2.V(X) 4. Si V(X) = 0 alors X est égale à une constante.

Démonstration 3.4.3. Avant de commencer cette démonstration il est important de remarquer que :E(E(X)) =E(X). En effet,E(X)est un réel, or on a démontré que pour tout réel λ,E(λ) =λ.

1. Par linéarité de l’espérance on a : V(X) =E

(X−E(X))2

=E

X2−2.X.E(X) +E(X)2

=E(X2)−E(2.X.E(X)) +E(E(X)2)

=E(X2)−E(2).E(X).E(E(X)) +E(X)2

=E(X2)−2.E(X).E(X) +E(X)2

=E(X2)−2.E(X)2+E(X)2

=E(X2)−E(X)2

2. Par définition, V(X) =E

(X−E(X))2 .

On sait, par positivité de l’espérance, que si une variable aléatoire Z est positive alors E(Z)≥0.

Or la variable aléatoire, (X−E(X))2, étant un carré est positive.

Donc E

(X−E(X))2

≥0.

Donc V(X)≥0

(51)

3. En utilisant la linéarité de l’espérance, on a : V(aX+b) = E (aX+b)2

−E(aX+b)2

=E a2.X2+ 2.aX.b+b2

−(a.E(X) +E(b))2

=a2.E(X2) +E(2.aX.b) +E(b2)−(a.E(X) +b)2

=a2.E(X2) + 2.a.b.E(X) +b2−(a.E(X) +b)2

=a2.E(X2) + 2.a.b.E(X) +b2− a2.E(X)2+ 2.a.b.E(X) +b2

=a2.E(X2)−a2.E(X)2

=a2. E(X2)−E(X)2

=a2.V(X) 4. Comme V(X) = E

(X−E(X))2

, on a : V(X) = 0

⇐⇒ E

(X−E(X))2

= 0

(X−E(X))2 est une variable aléatoire positive et nous venons de montrer que son espérance est nulle.

Or nous avons démontrer dans les propriétés de l’espérance que siZ est une variable aléatoire positive et que E(Z) = 0, alors Z est la fonction nulle.

Par conséquent :

(X−E(X))2 = 0

⇐⇒ X−E(X) = 0

⇐⇒ X =E(X)

Comme l’espérance E(X) est un réel, la variable aléatoire X est égale à un réel.

Donc si V(X) = 0 alors X est une constante.

Exemple 3.4.3 (Variance d’une variable aléatoire X renvoyant le résultat d’un lancé de dé).

Prenons comme exemple, une variable aléatoire X affichant le résultat d’un lancé de dé.

(52)

Nous avons démontré précédemment que la loi de X est :

∀k ∈ {1; 2; 3; 4; 5; 6}, P(X =k) = 1 6

et que son espérance est égale à E(X) = X

k∈{1;2;3;4;5;6}

k . P(X =k) = 7 2

Comme la somme X

k∈{1;2;3;4;5;6}

k2 . P(X =k) est une somme de 6 éléments, elle finie et donc X possède une variance.

Calculons la variance de X.

On sait que V(X) = E(X2)−E(X)2. Donc pour déterminer la variance de X, il suffit de déter- miner E(X2) et E(X)2.

On sait que E(X) = 7

2, doncE(X)2 = 7

2 2

= 49 4 . Déterminons E(X2).

On sait que si f est une fonction de {1; 2; 3; 4; 5; 6} dans R alors E(f(X)) = P

k∈E

f(k) . P(X =k).

En prenant la fonction :

f :{1; 2; 3; 4; 5; 6} −→R k −→k2

on a E(f(X)) =E(X2).

Références

Documents relatifs

– Un client IPV4 ne peut communiquer directement avec un serveur IPV6. – Un client IPV6 ne peut communiquer directement avec un

Pour répondre à cette demande croissante, Eliard-SPCP développe une gamme complète de semences biologiques avec des espèces pour prairie mais également pour couverts végétaux.

 Quels sont les arguments de choix entre les différentes options possibles.. ADK localisés du bas œsophage ou de la JOG, résécables à

Un, deux, trois Quatre, cinq Ca fait cinq doigts Six, sept, huit, neuf, dix Ca fait deux mains Qui se disent bonjour !.. Voici ma main Voici

Parmi ces 4 dessins, un seul représente une figure et son symétrique par rapport au centre de symétrie repéré par une croix?. Par cette symétrie, quelles sont

Pour cela l'expert judiciaire intervient à titre individuel sur la base d'une mission spécifique, souvent à titre conserva- toire pour la protection des intérêts du demandeur, ou

La pente et la largeur sont régulières, l'ablation est très faible; dans la partie supérieure de ce collecteur, l'ablation peut même être nulle... 226 LA HOUILLE BLANCHE N°

En ce qui concerne la mise en œuvre des normes de performance par le biais d’opérations à l’échelle des pays, au cours des cinq dernières années,