• Aucun résultat trouvé

R&eacutevisions probabilité discrète

N/A
N/A
Protected

Academic year: 2022

Partager "R&eacutevisions probabilité discrète"

Copied!
15
0
0

Texte intégral

(1)

Révisions : Probabilité discrète

Table des matières

1 Espace probabilisé fini 2

1.1 Evénements . . . 2

1.2 Probabilité . . . 3

2 Espace probabilisé infini 6 3 Variable aléatoire discrète 8 3.1 Définitions . . . 8

3.2 Variable aléatoireY =g(X) . . . . 9

3.3 Fonction de répartition d’une variable aléatoire discrète . . . 9

3.4 Moments d’une variable aléatoire discrète . . . 10

3.4.1 Espérance . . . 10

3.4.2 Moments d’ordre r . . . 11

4 Variables aléatoires discrètes usuelles 12 4.1 Lois discrètes finies . . . 12

4.1.1 Loi uniforme . . . 12

4.1.2 Loi de Bernoulli . . . 13

4.1.3 Loi binomiale . . . 13

4.2 Lois discrètes infinies . . . 14

4.2.1 Loi géométrique . . . 14

4.2.2 Loi de Poisson . . . 14

(2)

1 Espace probabilisé fini

On suppose, dans cette section, que Ω est fini de cardinal N. 1.1 Evénements

Définition 1.1 : Expérience aléatoire

On appelleexpérience aléatoire une expérience dont le résultat n’est pas prévisible de façon certaine.

Un événementest une affirmation sur le résultat d’une expérience aléatoire.

Exemple 1. Le lancer d’un dé équilibré à 6 faces constitue une expérience aléatoire : il existe6 résultats possibles, dont aucun n’est prévisible de façon certaine. On peut considérer l’événement "la face qui apparaît est paire".

Définition 1.2 : Univers

On appelleunivers d’une expérience aléatoire, noté Ω, l’ensemble des résultats possibles de l’expérience.

Un résultat de l’expérience est ainsi un élémentω de l’ensemble Ω.

Exemple 2. L’univers de l’expérience aléatoire consistant à lancer un dé à 6 faces est : Ω ={1,2,3,4,5,6}.

Définition 1.3 : Evénement

Un événementest ainsi une partieA de Ω, A∈ P(Ω) avec P(Ω) l’ensemble de toutes les parties de Ω.

Exemple 3. On lance un dé, et l’événement "la face qui apparaît est paire" est modélisé par {2,4,6}.

Définition 1.4 : Vocabulaire des événements

• L’événementA etB est représenté par AB.

• L’événementA ouB est représenté par AB.

• Dire que deux événements sontincompatiblessignifie queAB =∅.

Définition 1.5 : Système complet d’événements

(A1, ..., Am) est un système complet d’événements si les Ai sont deux à deux incompatibles et leur réunion fait Ω. C’est unepartition de Ω.

Exemple 4. On lance un dé, Ω ={1,2,3,4,5,6}. Les événements A1 ={2,4}, A2={1,5,6} et A3 ={3}

forment un système complet d’événements.

(3)

1.2 Probabilité Définition 1.6 : Tribu

Soit A ⊂ P(Ω), autrement dit A est un ensemble d’événements. Dire que A est une tribu (ou une σ-algèbre) de Ω signifie que

• Ω∈ A.

• SiA∈ A, alors son événement contraire ¯A∈ A.

• Les réunions d’événements deAappartiennent à A.

Dans ce cas, on dit que (Ω,A) est un espace probabilisable fini.

Remarque 1.7

On dit espace probabilisable fini car Ω est fini.

Propriété 1.8 : Tribu

SoitA une tribu de Ω alors on a

• ∅∈ A

• SiA, B∈ AalorsAB∈ A,AB ∈ A,A\B ∈ A.

• Les intersections d’événements deAappartiennent à A.

Définition 1.9 : Probabilité

Soit (Ω,A) un espace probabilisable. On appelle probabilitésur (Ω,A) toute application P:A → [0,1]

A 7→ P(A) qui vérifie

• P(Ω) = 1.

• SiAB =∅(événements incompatibles), P(A∪B) =P(A) +P(B).

On dit alors que (Ω,A,P) est unespace probabilisé fini.

Exemple 5. On lance un dé, Ω ={1,2,3,4,5,6} et on définit pour ω ∈Ω,P(ω) = 1

6. Lorsque la probabilité est uniforme, comme dans cet exemple, on parle d’équiprobabilité.

Propriété 1.10 : Probabilité Une probabilité Psur (Ω,A) vérifie

• P(∅) = 0.

• Pour toutA∈ A,P( ¯A) = 1−P(A).

• SiAB,P(A)≤P(B).

(4)

Proposition 1.11 : Formule de Poincaré (ou du crible)

• Pour 2 événements

P(A∪B) =P(A) +P(B)−P(A∩B).

• Pour 3 événements

P(A∪BC) =P(A) +P(B) +P(C)−P(A∩B)−P(A∩C)−P(B∩C) +P(A∩BC).

Définition 1.12 : Indépendance

Deux événements AetB sont indépendants (pour la probabilitéP) lorsque P(A∩B) =P(A)P(B).

Exemple 6. On lance un dé bleu, puis un dé rouge, Ω ={1,2,3,4,5,6}2, et les événements :

"la face du dé bleu est paire" est modélisé parA={2,4,6} × {1,2,3,4,5,6}.

"la face du dé rouge est impaire" est modélisé par B ={1,2,3,4,5,6} × {1,3,5}.

L’événement "la face du dé bleu est paire et la face du dé rouge est impaire" est modélisé par AB = ({2,4,6} × {1,2,3,4,5,6})∩({1,2,3,4,5,6} × {1,3,5}) ={2,4,6} × {1,3,5}.

Comme P(A) = 3×6

62 etP(B) = 6×3

62 , on a bien P(A∩B) = 3×3

62 = 9

36 = 3×6 62

6×3

62 =P(A)P(B).

Les deux événements sont bien indépendants.

Définition 1.13 : Probabilité conditionnelle

SoientA etB deux événements, tels queP(A)6= 0. On appelleprobabilité de B sachant A le réel PA(B) = P(A∩B)

P(A) . L’applicationPA est une probabilité.

Exemple 7. On lance deux dés à6faces. Quelle est la probabilité que la somme des résultats vaille6sachant que le premier dé a donné un 1?

Solution.On a Ω ={1,2,3,4,5,6}2

"la face du premier dé donne 1" est modélisé par A={1} × {1,2,3,4,5,6}.

"la somme des deux dés vaut 6" est modélisé par B ={(α, β)∈Ω|α+β = 6}.

CommeAB ={(1,5)}, on a donc"la somme des deux dés vaut 6" sachant que le premier dé a donné1 :

PA(B) = P(A∩B) P(A) =

1 62 6 62

= 1 6.

(5)

Théorème 1.14 : Formule de Bayes

SiAet B sont deux événements de probabilité non nulle,

PA(B) =PB(A)P(B) P(A).

Théorème 1.15 : Formule des probabilités totales

Si (A1, . . . , Am) est un système complet d’événements, chacun de probabilité non nulle, alors pour tout événementB, on a

P(B) =

m

X

i=1

P(Ai)PAi(B).

Exemple 8. On dispose d’un test de dépistage d’une maladie.

En principe, celui-ci est positif si le patient est malade, mais le test n’est pas fiable à 100%.

Plus précisément, si le patient est malade alors le test est positif 99.9 fois sur 100.

Mais4 fois sur 1000il est positif sur une personne non malade.

Environ 0.2% de la population est atteinte de la maladie.

Quelle est la probabilité qu’une personne soit malade sachant que le test est positif ?

Solution.Soit A l’événement "la personne est malade" etT l’événement "le test est positif". Calculons PT(A).

D’après l’énoncé, on sait que PA(T) = 999

1000,PA¯(T) = 4

1000 etP(A) = 2

1000. Calculons P(T).

P(A∩T) =PA(T)P(A) = 999 103

2

103 = 1998 106 P( ¯AT) =PA¯(T)P( ¯A) = 4

103

1− 2 103

= 3992 106

Comme AT,A¯∩Tforme un système complet d’événements, on utilise la formule des probabilités totales pour avoir

P(T) =P(A∩T) +P( ¯AT) = 1998

106 +3992

106 = 5990 106 D’après la formule de Bayes, on obtient donc

PT(A) =PA(T)P(A)

P(T) = 1998

5990 '33.3%.

Lorsqu’un test est positif, ce résultat oblige donc les médecins à pratiquer un second test pour valider ou rejeter le premier test.

(6)

2 Espace probabilisé infini

Ω n’est désormais plus nécessairement fini.

Exemple 9. On lance un dé jusqu’à obtenir un 6. Avec de la malchance, il peut y avoir un temps d’attente infiniment long ! Il faut donc considérer une espace probabilisable où l’univers est construit sur une infinité de lancers successifs.

Définition 2.1 : Tribu

SoitA ⊂ P(Ω), autrement ditA est un ensemble d’événements. Dire queAest unetribu (ou σ-algèbre) de Ω signifie que

• Ω∈ A.

• SiA∈ A, alors son événement contraire ¯A∈ A.

• Pour toute famille (An)n∈N de A,

+∞

[

n=0

An∈ A.

Dans ce cas, on dit que (Ω,A) est un espace probabilisable.

Propriété 2.2 : Tribu

SoitA une tribu de Ω alors on a

• ∅∈ A

• SiA, B∈ AalorsAB∈ A,AB ∈ A,A\B ∈ A.

• Pour toute famille (An)n∈N de A,

+∞

\

n=0

An∈ A.

Définition 2.3 : Probabilité

Soit (Ω,A) un espace probabilisable. On appelle probabilitésur (Ω,A) toute application P:A → [0,1]

A 7→ P(A) qui vérifie

• P(Ω) = 1.

• Pour toute famille (An)n∈N de Aincompatibles deux à deux (AiAj =∅si i6=j), alors

P

+∞

[

n=0

An

!

=

+∞

X

n=0

P(An).

On dit alors que (Ω,A,P) est unespace probabilisé.

Définition 2.4 : Evénement négligeable ou presque sûr

• Un événementA∈ Aest ditnégligeable (ou quasi-impossible) si et seulement siP(A) = 0.

• Un événementA∈ Aest ditpresque sûr(ou quasi-certain) si et seulement si P(A) = 1.

(7)

Proposition 2.5 : Suite d’événements Soit (Ω,A,P) un espace probabilisé.

• Si (An)n∈N est une suite croissante d’événements deA(i.e.AnAn+1), alors la suite (P(An))n∈N est convergente et

P

+∞

[

n=0

An

!

= lim

n→+∞P(An).

• Si (An)n∈Nest une suite décroissante d’événements deA(i.e.An+1An), alors la suite (P(An))n∈N est convergente et

P

+∞

\

n=0

An

!

= lim

n→+∞P(An).

Exemple 10. On lance un dé à 6 faces plusieurs fois. Pour n∈N, on considère les événements

Bn "On n’obtient aucun 6 lors desn premiers lancers."

B "On n’obtient jamais de6."

Calculer P(B).

Solution.Soit n∈N, les lancers étant indépendants, on obtientP(Bn) = 5

6 n

. On a

B =

+∞

\

n=1

Bn.

De plusBn+1Bn, car si aucun 6 n’est obtenu lors desn+ 1 premiers lancers, alors forcément aucun 6 n’est obtenu lors desnpremiers lancers. On en conclut que (Bn)n∈N est une suite décroissante d’événements et finalement

P(B) =P

+∞

\

n=0

Bn

!

= lim

n→+∞P(Bn) = lim

n→+∞

5 6

n

= 0.

Remarque 2.6

L’ensemble des connaissances vues sur un univers fini reste vrai sur un univers infini. Il reste simplement à adapter la notion de probabilités totales dans le cadre d’un univers infini.

Définition 2.7 : Système complet d’événements

Une famille (An)n∈N est un système complet d’événementssi les Ai sont deux à deux incompatibles et leur réunion fait Ω. C’est unepartition de Ω.

Théorème 2.8 : Formule des probabilités totales

Si (An)n∈N est un système complet d’événements, chacun de probabilité non nulle, alors pour tout événementB, on a

P(B) =

+∞

X

n=0

P(B∩An) =

+∞

X

n=0

P(An)PAn(B).

(8)

3 Variable aléatoire discrète

3.1 Définitions

Définition 3.1 : Variable aléatoire discrète

On appellevariable aléatoire discrète définie sur (Ω,A) toute application X: Ω → R

ω 7→ X(ω) telle que

• L’ensembleX(Ω) ={xi, iD}des valeurs prises par X avec D⊂N.

• Pour toutxiX(Ω), on a

[X =xi] ={ω∈Ω, X(ω) =xi}=X−1(xi)∈ A.

L’ensemble [X=xi] est un événement. C’est l’événement"X prend la valeur xi".

Exemple 11. Si l’on lance deux dés, l’univers est constitué des évènements élémentaires suivants : Ω ={1,2,3,4,5,6}2.

Les valeurs possibles prises par la variable aléatoire X, "somme des deux dés" sont : X(Ω) = [[2,12]].

Définition 3.2 : Loi d’une variable aléatoire discrète SoitX : Ω→Rune variable aléatoire discrète. L’ensemble

{pi=P(X=xi), xiX(Ω)}

se nommeloi de probabilitéde X.

Remarque 3.3 : Système complet d’événements

Il est important de noter que les événements [X=xi] forment un système complet d’événements et par conséquent

X

i∈D

pi= 1.

Exemple 12. On lance une pièce trois fois. Soit X le "nombre de piles". L’expérience aléatoire considérée a 8 éventualités équiprobables

Ω ={P, F}3.

ω PPP PPF PFP PFF FPP FPF FFP FFF

X(ω) 3 2 2 1 2 1 1 0

P(ω) 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 On voit que X(Ω) ={0,1,2,3} et on détermine les événements[X=xi]:

[X = 0] ={F F F} [X= 1] ={P F F, F P F, F F P} [X = 2] ={P P F, P F P, F P P} [X = 3] ={P P P} On en déduit la loi de probabilité de X :

xi 0 1 2 3

pi =P(X =xi) 1/8 3/8 3/8 1/8

(9)

3.2 Variable aléatoire Y =g(X)

Définition 3.4 : Variable aléatoireY =g(X)

SoitX une variable aléatoire discrète sur (Ω,A,P) et g une fonction réelle. On noteg(X) l’application définie par

g(X) : Ω → R

ω 7→ g(X(ω)).

AlorsY =g(X) est une variable aléatoire discrète sur (Ω,A,P).

Exemple 13. Reprenons l’exemple précédent des 3 lancers d’une pièce. Soit g : x 7→ 2x+ 1 et on pose Y =g(X). Déterminer la loi de probabilité de Y.

Solution.On a Y(Ω) ={1,3,5,7}. SiyY(Ω), alors

P(Y =y) =P(2X+ 1 =y) =P(2X=y−1) =P

X= y−1 2

.

Alors on a la loi de probabilité deY à partir de celle deX

yi 1 3 5 7

P(Y =yi) 1/8 3/8 3/8 1/8 3.3 Fonction de répartition d’une variable aléatoire discrète

Définition 3.5 : Fonction de répartition

SoitX une variable aléatoire discrète sur (Ω,A). On appellefonction de répartitionde X la fonction réelleFX définie par

FX :R → R

x 7→ P(X≤x)

Propriété 3.6 : Fonction de répartition

SoientX une variable aléatoire discrète sur (Ω,A) et FX sa fonction de répartition.

• ∀x∈R,FX(x)∈[0,1].

• La fonctionFX est croissante surR.

• lim

x→−∞FX(x) = 0 et lim

x→+∞FX(x) = 1.

• ∀a, b∈Ravec a < b, on a P(a < X ≤b) =FX(b)−FX(a).

Exemple 14. Reprenons l’exemple précédent des 3 lancers d’une pièce. La fonction de répartition de la variable aléatoire X le nombre de piles est

x dans ]− ∞,0[ [0,1[ [1,2[ [2,3[ [3,+∞[

P(X≤x) 0 1/8 4/8 7/8 1

(10)

Proposition 3.7 : Fonction de répartition d’une variable aléatoire discrète à sa loi SoitX une variable aléatoire discrète à valeurs dansN. Alors ∀k∈N

P(X=k) =FX(k)−FX(k−1).

3.4 Moments d’une variable aléatoire discrète

3.4.1 Espérance

Définition 3.8 : Espérance

SoitX une variable aléatoire discrète sur (Ω,A,P) de loi

{pi=P(X=xi), xiX(Ω)}

On dit queX admet une espérancesi X

xi∈X(Ω)

xipi est absolument convergente.

Dans ce cas, on appelleespérance mathématique(ou moyenne) deX le nombre E(X) = X

xi∈X(Ω)

xipi.

Remarque 3.9

SiX(Ω) est fini,X admet une espérance. La somme X

xi∈X(Ω)

xipi est alors une somme finie.

(11)

Propriété 3.10 : Linéarité de l’espérance

• SoitX une variable aléatoire eta, b∈R alors on a

E(aX+b) =a E(X) +b.

• SoientX et Y deux variables aléatoires alors on a

E(X+Y) =E(X) +E(Y).

Définition 3.11 : Variable aléatoire centrée

On dit queX est une variable aléatoire centréesiE(X) = 0.

Remarque 3.12

La variable aléatoireXE(X) est appeléevariable aléatoire centrée associée à X.

Théorème 3.13 : Théorème de transfert

SoientXune variable aléatoire discrète sur (Ω,A,P) de loi{pi =P(X =xi), xiX(Ω)}etg une fonction.

Si X

xi∈X(Ω)

g(xi)pi est absolument convergente, alors

E(g(X)) = X

xi∈X(Ω)

g(xi)pi.

3.4.2 Moments d’ordre r

Définition 3.14 : Moments d’ordre r

Soient X une variable aléatoire discrète sur (Ω,A,P) et r ∈ N. On appelle moment d’ordre r deX (sous réserve d’existence)

mr(X) =E(Xr).

Définition 3.15 : Variance, écart-type

SoientXune variable aléatoire discrète sur (Ω,A,P). On appellevariancedeX (sous réserve d’existence) V(X) =E((XE(X))2),

etécart-typede X

σ(X) = q

V(X),

Propriété 3.16 : Variance

SoitX une variable aléatoire eta, b∈R alors on a

V(aX+b) =a2V(X).

(12)

Théorème 3.17 : Formule de König-Huygens Soient X une variable aléatoire discrète sur (Ω,A,P).

V(X) =E(X2)−E(X)2.

Définition 3.18 : Variable aléatoire centrée réduite SoientX une variable aléatoire discrète sur (Ω,A,P).

• On dit queX est réduite siσ(X) = 1.

• Siσ(X)6= 0, alors on note

X= XE(X) σ(X) .

La variable aléatoireX est appelée lavariable aléatoire centrée réduite associée àX.

4 Variables aléatoires discrètes usuelles

On décompose cette section en deux parties : X(Ω) fini ou infini.

4.1 Lois discrètes finies 4.1.1 Loi uniforme

Définition 4.1 : Loi uniforme

On dit qu’une variable aléatoireX suit uneloi uniforme sur [[1, n]] si X(Ω) = [[1, n]] et ∀k∈[[1, n]],P(X =k) = 1

n. On noteraX ,→ U[[1,n]].

Proposition 4.2 : Espérance et variance SiX ,→ U[[1,n]], alors

E(X) = n+ 1

2 et V(X) = n2−1 12 .

Méthode 4.3 : Situation caractéristique Toutes les éventualités sont équiprobables.

(13)

4.1.2 Loi de Bernoulli

Définition 4.4 : Loi de Bernoulli

On dit qu’une variable aléatoireX suit uneloi de Bernoulli de paramètre p si X(Ω) ={0,1} et P(X = 1) =p et P(X = 0) = 1−p.

On noteraX ,→ B(1, p).

Proposition 4.5 : Espérance et variance SiX ,→ B(1, p), alors

E(X) =p et V(X) =p(1−p).

Méthode 4.6 : Situation caractéristique

Expérience ayant deux issues possibles, succès de probabilitépou échec.

4.1.3 Loi binomiale

Définition 4.7 : Loi binomiale

On dit qu’une variable aléatoireX suit uneloi binomiale de taille n et de paramètre p si X(Ω) = [[0, n]] et ∀k∈[[0, n]],P(X=k) = n

k

!

pk(1−p)n−k.

On noteraX ,→ B(n, p).

Proposition 4.8 : Espérance et variance SiX ,→ B(n, p), alors

E(X) =np et V(X) =np(1−p).

Méthode 4.9 : Situation caractéristique

X est le nombre de succès lors de n épreuves identiques et indépendantes, la probabilité du succès à chaque épreuve étant p.

(14)

4.2 Lois discrètes infinies

4.2.1 Loi géométrique

Définition 4.10 : Loi géométrique

On dit qu’une variable aléatoireX suit uneloi géométrique de paramètre p avec 0< p <1 si X(Ω) =N et ∀k∈N,P(X=k) =p(1−p)k−1.

On noteraX ,→ G(p).

Proposition 4.11 : Espérance et variance SiX ,→ G(p), alors

E(X) = 1

p et V(X) = 1−p p2 .

Méthode 4.12 : Situation caractéristique

Soit une expérience aléatoire qui n’a que deux issues possibles, succès de probabilitépou échec.X désigne le nombre de fois où cette expérience a été répétée dans des conditions identiques et indépendantes jusqu’à obtenir le premier succès.

Remarque 4.13

On dit queX est le temps d’attente du premier succès (i.e. le numéro du tirage qui amène le premier succès).

4.2.2 Loi de Poisson

Définition 4.14 : Loi de Poisson

On dit qu’une variable aléatoireX suit uneloi de Poisson de paramètre λ >0 si X(Ω) =N et ∀k∈N,P(X=k) =e−λ λk

k!. On noteraX ,→ P(λ).

Proposition 4.15 : Espérance et variance SiX ,→ P(λ), alors

E(X) =λ et V(X) =λ.

Remarque 4.16

Il n’y a pas de modèle simple pour la loi de Poisson, qui est une loi limite (nous y reviendrons) : quandn est grand etppetit, si X ,→ B(n, p), alors X suit approximativementP(np).

(15)

Méthode 4.17 : Situation caractéristique

On s’intéresse à un grand nombre d’événements aléatoires indépendants. On observe qu’ils se produisent λ fois en moyenne durant un intervalle de temps donné. La loi de Poisson indique la probabilité que l’événement se produise seulementk fois exactement durant cette période.

Références

Documents relatifs

On tire au hasard trois boules simultanément, et on appelle X la variable aléatoire correspondant à la somme des numéros marqués sur ces boules.. Représenter la loi de

Calculer la probabilité que la personne interrogée ne soit pas sensible au développement durable et ne pratique pas le tri sélectif..

a) Calculer la probabilité de chacun de ces événements. b) Calculer la probabilité que le nombre obtenu soit supérieur ou égal à 3 sachant qu’il est pair. On utilise ce dé pour

On lance le dé bien équilibré trois fois de suite et on désigne par X la variable aléatoire donnant le nombre de 6 obtenus.. On choisit au hasard l’un des deux dés, les choix étant

Application : on lance un dé à 6 faces bien équilibré 30 fois de suite.. Déterminez un intervalle de fluctuation à 95% du nombre de

Quelle est la situation la plus enviable : celle du lièvre ou celle de la tortue?. Sylvain BOURDALÉ 

Quelle est la situation la plus enviable : celle du lièvre ou celle de la tortue?. Sylvain BOURDALÉ 

Def 1 : Lorsqu’on fait une expérience, comme lancer un dé à 6 faces, dont on connaît tous les résultats possibles (les nombres de 1 à 6), mais que l’on ne sait pas à l’avance