• Aucun résultat trouvé

II. Espace probabilisé

N/A
N/A
Protected

Academic year: 2022

Partager "II. Espace probabilisé"

Copied!
13
0
0

Texte intégral

(1)

CH XVIII : Espaces probabilisés - cas général

Au premier semestre, nous avons fait l’étude de la notion de probabilité sur un universΩfini. Dans ce chapitre, on généralise l’étude faite au premier semestre au cas où l’univers est infini (chapitre à bien connaître !). C’est l’occasion de revoir les notions du premier semestre.

I. Espaces probabilisables - cas général

I.1. Expérience aléatoire Définition

On appelleexpérience aléatoire toute expérience dont le résultat ne peut être prédit de manière certaine. Autrement dit, une expérience dont le résul- tat dépend du hasard.

Illustrons cette notion d’expérience aléatoire sur différents exemples et profitons- en pour rappeler une partie du vocabulaire des probabilités.

Exemple

1) Expérience : on effectue 1 lancer d’un dé 6.

Univers : Ω ={1,2,3,4,5,6}.

Univers : l’ensemble des résultats possibles de l’expérience.

Exemple d’événement A: « le résultat obtenu est pair ».

Événement : propriété de l’expérience qui peut être vérifiée ou non.

A={2,4,6} ⊂Ω

Notons ω le résultat de l’expérience.

On dira que l’événementAest réalisé si le résultat de l’expérience vérifie l’événement. Autrement dit, si : ω ∈A.

Ici, l’événement A est notamment réalisé si l’expérience donne pour résultat ω= 6.

Exemple d’événement :B ={1,2,3,4,5,6}.

Cet événement est réalisé si le résultat de l’expérience ω ∈ B i.e. si ω = 1 (la face haute du dé est 1) ouω = 2, ou ω= 3, . . ., ou ω= 6.

Cet événement est appelé évenement certain.

Exemple d’événementC: « le résultat du lancer est plus grand que 7 ».

Cet événement, jamais réalisé est appelé événement impossible :C =∅.

Remarque

Ce premier exemple illustre le cas où l’ensemble des résultats possiblesΩest fini. C’est un cas particulier. On peut en effet définir des expériences dont l’ensemble des résultats est infini.

2) Expérience : on joue à pile ou face de façon répétée et on s’intéresse au rang d’apparition du premier pile.

Univers : Ω =N.

L’univers est l’ensemble des rangs possibles. A priori, tous les rangs sont possibles !

Exemple d’événement D : le premier pile est obtenu avant ou lors du 10ème lancer. On a alorsD=J1,10K.

L’expérience est notamment réalisée pour ω= 3.

Exemple d’événement E : le premier pile est obtenu après le 10ème lancer. E= ¯D={n∈N |n>11}.

Remarque

Ce nouvel exemple illustre le cas où l’ensemble des résultats possiblesΩ est non fini et dénombrable. Il existe aussi des expériences oùΩ est non fini et non dénombrable.

(2)

Parenthèse : notion d’ensemble dénombrable / fini.

Définition

Un ensemble E est :

a) fini : siE =∅ou s’il existe une bijection entreE etJ1, nK. b) infini: si E n’est pas fini.

c) dénombrable : s’il exite une bijection entreE etN. d) au plus dénombrable : s’il est fini ou dénombrable.

Dans le cas contraire, on dit qu’il est non dénombrable.

3) Expérience : on observe la durée de vie d’une ampoule.

Univers : Ω =R+.

L’univers est l’ensemble des durées possibles. A priori, toutes les durées sont possibles même si la modélisation Ω = [0, T]avec T suffisamment grand semble cohérente.

4) Expérience : on lance indéfiniment un dé 6 et on considère la suite des résultats obtenus.

Univers : Ω =J1,6KN

, ensemble des suites à valeur dans J1,6K.

Considérons l’événement Fi : « on obtient6 au ième lancer ».

L’ensemble Fi ⊆J1,6KN

est un ensemble de suites : il est constitué de toutes les suites dont le ième élément est 6 (pas de contrainte sur les autres éléments).

Notons G l’événement : « on obtient (au moins une fois) 6 lors des 10 premiers lancers ».

Cet événement signifie que6 est obtenu soit lors du1er lancer, soit lors du 2ème, . . ., soit lors du 10ème lancer.

Il s’écrit : G=

10

S

i=1

Fi

Considérons H : « on obtient 6(au moins une fois) lors de la partie ».

Cet événement signifie que6 est obtenu soit lors du1er lancer, soit lors du 2ème, . . .

On peut l’écrire : F = S

i∈N

Fi

De même, on peut considérer l’événement : S=

4

T

i=1

Fi

Cet événement est constitué de l’ensemble des suites dont les 4 premiers éléments sont 6.

Et enfin l’événement : T = T

i∈N

Fi

Cet événement est constitué de l’ensemble des suites dont les tous élé- ments sont 6 : il est donc réduit à la suite constante de valeur 6.

Remarque

Lorsque l’on considère des universΩnon finis on constate les points suivants.

L’ensemble des événements d’intérêt peut être infini.

(Rappel : si Ωfini (de cardinal n) alorsP(Ω)fini (de cardinal 2n) )

Un événement peut être défini comme une union infinie d’événements.

Un événement peut être défini comme intersection infinie d’événements.

Définition

Soit Ωun ensemble. NotonsI une partie deN(I ⊆N).

Notons (Ai)i∈I une famille d’éléments de P(Ω)(∀i∈I, Ai⊆Ω).

a) On note S

i∈I

Ai l’ensemble défini par : ω ∈ S

i∈I

Ai ⇔ ∃i∈I, ω∈Ai

Autrement dit : S

i∈I

Ai ={ω ∈Ω| ∃i∈I, ω∈Ai}

L’événement S

i∈I

Ai est réalisé si l’un des événements Ai est réalisé.

b) On note T

i∈I

Ai l’ensemble défini par : ω ∈ T

i∈I

Ai ⇔ ∀i∈I, ω∈Ai Autrement dit : T

i∈I

Ai ={ω ∈Ω| ∀i∈I, ω∈Ai}

L’événement T

i∈I

Ai est réalisé si tous les événementsAi est réalisé.

c) LorsqueI =N, on notera :

+∞

S

i=0

Ai et

+∞

T

i=0

Ai.

(3)

I.2. Notion de tribu Définition

Soit Ωun ensemble.

a) On appelletribu(ouσ-algèbre) de parties deΩtout ensembleA consti- tué de parties de Ω(autrement dit A ⊆ P(Ω)) tel que :

(i) Ω∈A.

(ii) ∀A∈A, A¯∈A.

(stabilité par passage au complémentaire)

(iii) Pour toute suite(An)n∈N d’éléments deA on a :

+∞

S

n=0

An ∈ A. (stabilité par union dénombrable)

b) (Ω,A)est alors appelé espace probabilisable.

c) Les éléments de A sont appelésévénements.

Exemple

SiΩ6=∅,{∅,Ω}est une tribu, parfois appelée tribu grossière.

Cette tribu contient seulement deux événements : l’événement impossible et l’événement certain.

Si Ω6= ∅,A ⊆Ω, A 6=∅ et A 6= Ω, alors {∅,Ω, A,A}¯ est une tribu sur Ω. C’est la plus petite tribu qui contient A.

Notons A ={A⊆N|A fini ou A¯fini}. Ce n’est pas une tribu.

× si n∈N,An={2n}est un élément de A,

× ainsi, siA est une tribu alors S

n∈N

Anest un élément de A. Ce n’est pas le cas car ni S

n∈N

An (ensemble des entiers pairs) ni son complémentaire (ensemble des entiers impairs) ne sont de cardinal fini.

Comparaison avec la notion d’espace probabilisable dans le cas fini.

La notion de tribu doit être considérée comme notre nouveau modèle d’en- semble regroupant les événements.

Dans le cas oùΩest fini, on choisissait toujoursP(Ω)(cf chapitre premier semestre) : (Ω,P(Ω))espace probabilisable.

Dans le cas où Ω est infini, P(Ω)est encore une tribu (elle contienttous les événements que l’on peut définir sur Ω) donc (Ω,P(Ω)) est bien un espace probabilisable.

Mais alors pourquoi ne pas prendre toujours P(Ω) qui regroupe tous les événements que l’on peut former surΩ?

En fait, si Ω = R (infini non dénombrable) le choix de (Ω,P(Ω)) comme espace probabilisable a peu de sens. Le but d’un espace probabilisable est d’accueillir une fonction de probabilité qui en fait un espace probabilisé. On peut démontrer (largement hors de notre portée) que l’on ne peut définir de probabilité sur P(R) tout entier : on ne peut mesurer la probabilité de certaines parties deR.

+ L’idée est donc de définir un ensemble d’événements plus restreint sur lequel on pourra définir une probabilité. Cela revient à sélectionner les événements que l’on souhaite observer.

Exemple

On considère de nouveau l’expérience consistant à observer la durée de vie d’une ampoule.

Ω =R+.

On peut choisir comme tribu celle engendrée par tous les intervalles de la forme ]a,+∞[. On pourra notamment observer si la durée de vie de l’ampoule est strictement supérieur à un temps de référence. Mais aussi si elle est plus petite qu’un temps donné (passage au complémentaire) ou encore si elle est comprise entre deux temps distincts.

(en fait cette tribu contient (notamment) tous les intervalles de R+)

(4)

Propriété

SoitA une tribu de parties deΩ.

1) ∅∈A.

2) Pour tout (A, B)∈A2, on a :

A∪B,A∩B,A\B sont des éléments deA. 3) SiI ⊆N et si(Ai)i∈I est une famille d’éléments de A, on a :

S

i∈I

Ai et T

i∈I

Ai sont des éléments deA.

Démonstration.

1) Ω∈A et∅= ¯Ωdonc ∅∈A.

2) Si(A, B)∈A2, on considère la suite(Ck)k∈N définie par :

× C0 =A,

× C1 =B,

× etCk =∅pour tout k>2.

On a alors :

+∞

S

i=0

Ci =A∪B ∈ A.

On en déduit que A∩B = ¯A∪B¯ ∈ A carA¯etB¯ sont dansA. 3) Si(Ai)i∈I est une famille d’éléments deA on considère la suite(Ck)k∈N

définie par :

× Ci =Ai sii∈I,

× etCi =∅pour tout i6∈I.

On a alors :

+∞

S

i=0

Ci = S

i∈I

Ai ∈ A. On en déduit que T

i∈I

Ai= S

i∈I

i ∈ A car tous les A¯i sont dansA.

Remarque : suite ou famille d’événements ?

On peut remplacer la propriété (iii)de la définition par :

(iii’) Pour tout I ⊆Net toute famille (Ai)i∈I d’événements deA on a : S

i∈I

Ai ∈ A (stabilité par union au plus dénombrable)

L’intérêt de la propriété(iii)est pédagogique : en écrivant+∞, il apparaît plus clairement qu’on peut considérer une union infinie d’événements.

L’intérêt de la propriété(iii’) est qu’elle englobe le casI fini : on obtient directement que l’union finie d’événements est un événement (avec la(iii) on doit le démontrer).

Résumé des propriétés de stabilité.

Une tribuA de parties de Ω:

× contient l’événement impossible et l’événément certain,

× est stable par union finie et stable par union dénombrable,

× est stable par intersection finie et stable par intersection dénombrable,

× est stable par passage au complémentaire.

Ainsi, si A est une tribu, on pourra toujours considérer l’événément obtenu par une union au plus dénombrable d’événements deA, par une intersection au plus dénombrable d’événements deA, ou encore comme complémentaire d’un événement de A. Tous ces événements sont dansA.

Exemple

{∅,{1},{1,3},{3},{2,4,5},{1,2,4,5},{2,3,4,5},{1,2,3,4,5}}est une tribu de parties de Ω =J1,5K.

SiΩ =J1,5K, alorsS ={{1,2},{1,3},{4},{5},{1,2,3,4,5}}n’est pas une tribu car (l’une de ces propriétés suffit) :

× ne contient pas∅,

× n’est pas stable par union puisque {1,2} ∈ S et {1,3} ∈ S mais que {1,2} ∪ {1,3}={1,2,3} 6∈S,

× n’est pas stable par intersection puisque {1,2} ∈ S et{1,3} ∈ S mais que{1,2} ∩ {1,3}={1} 6∈S,

× . . .

(5)

On s’intéresse parfois à la plus petite tribu contenant un ensemble S de parties deΩ (on parle alors de tribu engendrée par l’ensembleS).

Par exemple, si on souhaite construire la plus petite tribu de Ω = J1,5K contenant S = {{1,2},{1,3},{4},{5},{1,2,3,4,5}}, on peut procéder comme suit. On part de S. Étant données les propriétés des tribus, on doit ajouter :

× ∅,

× {1,2}={3,4,5},

× {1,2} ∪ {1,3}={1,2,3},

× . . .

On peut démontrer que l’on construit ainsi P(Ω).

I.3. Système complet d’événements Définition (Système complet d’événements)

Soit A tribu de parties deΩ.

Soit I ⊆Net(Ai)i∈I une famille d’événements deA.

La famille (Ai)i∈I est un système complet d’événements si : 1) Pour tout (i, j)∈I2 tel quei6=j, Ai∩Aj =∅

(les événements sont deux à deux incompatibles) 2) Ω = S

i∈I

Ai

Remarque

On peut réécrire cette définition en prenant une suite (An)n∈N d’événe- ments de A (cf remarque « suite ou famille d’événements »).

Si on sait de plus que : ∀i∈I, Ai 6=∅, on obtient une partition deΩ.

On peut donc reprendre l’analogie du puzzle déjà mentionnée dans le cha- pitre « Ensemble et applications ». Les événements Ai sont les pièces.

1) Deux pièces ne se chevauchent jamais.

2) Toutes les pièces mises côte à côte permettent de reconstituer le dessin qui n’est autre que Ω.

On peut aussi relier la notion de système complet d’événements à celle de raisonnement par disjonction de cas. Il repose sur 2 grands principes.

1) Le caractère disjoint des cas étudiés : deux cas ne peuvent être vrais en même temps.

2) Le caractère exhaustif de la recherche : si on regroupe tous les cas étudiés, on obtient tous les cas possibles.

Enfin, on peut aussi faire le parallèle avec les structures conditionnelles.

Un if à branchements multiples est correctement construit s’il vérifie les deux points suivants.

1) Le caractère disjoint des cas étudiés : à l’aide de l’instruction elif, le 2ème branchement n’est considéré que si la condition de la1ère branche n’est pas vérifiée (et ainsi de suite).

2) Le caractère exhaustif de la recherche : on utilise l’instruction else (sans condition) dans la dernière branche ce qui assure qu’au moins un des blocs est exécuté.

Exemple

Soit (Ω,A) un espace probabilisable.

× siA∈A alors(A,A)¯ est un système complet d’événements.

× siI ⊆N,Ω ={ωi |i∈I} etA =P(Ω) alors({ωi})i∈I est un système complet d’événements.

Comme on l’a vu au premier semestre, exhiber un système complet d’évé- nements est nécessaire pour énoncer la formule des probabilités totales.

On teste en fonction des différents cas possibles.

Dans les exercices sur les probabilités, il faudra penser à la notion de sys- tème complet dès qu’une situation sera décrite en évoquant différents cas.

(6)

Exercice

On considère une population touchée par une maladie rare. Cette maladie touche une personne sur 10000. Un test de dépistage est proposé et donne les résultats suivants :

si une personne est malade, le test est positif à99%,

si une personne est saine, le test peut aussi se révéler positif à hauteur de 0,1%(on parle defaux positif).

A-t-on intérêt à se fier aux résultats de ce test ?

Plus précisément, on calculera la probabilité qu’une personne soit malade sachant que le test est positif.

II. Espace probabilisé

II.1. Probabilité Définition

Soit (Ω,A) un espace probabilisable.

Une probabilité est un applicationP:A →[0,1] telle que : 1) ∀A∈A, 06P(A)61

2) P(Ω) = 1

(la probabilité de l’événement certain est 1)

3) Pour toute suite (Ak)k∈Nd’événements deA deux à deux incompa- tibles (∀(i, j)∈N2, Ai∩Aj =∅ sii6=j), on a :

P +∞

S

k=0

Ak

=

+∞

P

k=0

P(Ak)

(cette propriété est appelée σ-additivité)

Lorsqu’une telle application existe, le triplet (Ω,A,P) est appelé espace probabilisé.

Remarque

C’est une généralisation de la définition de probabilité du premier se- mestre : on ajoute le calul de la probabillité d’un événement défini par union dénombrable d’événements.

Une probabilité étantσ-additive, elle est aussi additive.

Ainsi, sim∈N etA1, . . . , Amdes événements deux à deux incompatibles (i.e.Ai∩Aj =∅pour touti6=j) on a :

P m

S

i=1

Ai

=

m

P

i=1

P(Ai)

Dans cette définition, il est sous-entendu queP

P(An)est une série conver- gente. Si on noteSn=

n

P

k=0

P(Ak)alors il est simple de démontrer que(Sn) est une suite croissante et majorée par 1 :

× Sn+1−Sn=P(An+1)>0

× Sn=

n

P

k=0

P(Ak) =P n

S

k=0

Ak

61

Définition

Soit(Ω,A,P) un espace probabilisé.

Un événementA est ditnégligeableouquasi-impossible si :P(A) = 0.

Un événement A est ditquasi certainsi : P(A) = 1.

Traduction en terme de propriété : soit P une propriété.

Si A = {ω ∈ Ω | ω vérifie la propriété P} et P(A) = 1, on dit que la propriété est vérifiéepresque sûrement.

Remarque

Avec cette définition, les propriétés suivantes sont vérifiées.

L’événement impossible∅est négligeable (quasi-impossible).

L’événément certainΩest quasi-certain.

Attention : A quasi certain n’implique pasA= Ω.

Attention : A quasi-impossible n’implique pasA=∅.

(7)

Exemple

On considère l’expérience aléatoire consistant en 1lancer d’un dé à6 faces.

L’univers associé estΩ =J1,6K. On munit l’espace probabilisable (Ω,P(Ω)) de la probabilitéP telle queP({5}) = 12 etP({6}) = 12.

Obtenir un résultat inférieur à4 est un événement A quasi-impossible.

A={1,2,3,4} 6=∅etP(A) = 0.

Obtenir un résultat supérieur ou égal à5est un événementBquasi-certain.

B ={5,6} 6= ΩetP(B) = 1.

On retiendra au passage que la notion d’événement quasi-certain (resp. quasi- impossible) est dépendante de la probabiltéP choisie.

II.2. Propriétés des probabilités

II.2.a) Propriétés générales Propriété

Soit (Ω,A,P) un espace probabilisé.

Soit A, B, C des événements ((A, B, C)∈A3).

1) P( ¯A) = 1−P(A) doncP(∅) = 0 2) P(A\B) =P(A)−P(A∩B) 3) SiA⊂B,P(A)6P(B)

4) P(A∪B) =P(A) +P(B)−P(A∩B)

5)

P(A∪B∪C) = P(A) + P(B) + P(C)

− P(A∩B) − P(A∩C) − P(B∩C) + P(A∩B∩C)

(formule du crible)

Démonstration.

1) On a : A∪A= Ω(réunion disjointe). Ainsi, par additivité : P(A∪A) =P(A) +P(A) =P(Ω) = 1 2) On a : (B\A) ∪ (A∩B) =B (réunion disjointe).

Ainsi, par additivité :

P((B\A) ∪ (A∩B)) =P(B\A) +P(A∩B) =P(B) 3) D’après le point précédent : P(A∩B) +P(B\A) =P(B).

Or, commeA⊂B, on aA∩B =A. Ainsi :

P(B) =P(A) +P(B\A)>P(A)

4) On a : A∪B =A∪(B\A) (la deuxième réunion est disjointe).

On en déduit, à l’aide du point 2) que : P(A∪B) = P(A∪(B\A))

= P(A) +P(B\A)

= P(A) +P(B)−P(A∩B) 5) Généralisation de la formule précédente :

P(A∪B∪C)

= P(A∪(B∪C))

= P(A) +P(B∪C)−P(A∩(B∪C))

= P(A) +P(B) +P(C)−P(B∩C)−P(A∩(B∪C))

= P(A) +P(B) +P(C)−P(B∩C)−P((A∩B)∪(A∩C))

= P(A) +P(B) +P(C)−P(B∩C)

−(P(A∩B) +P(A∩C)−P((A∩B)∩(A∩C)) )

= P(A) +P(B) +P(C)

−P(B∩C)−P(A∩B)−P(A∩C) +P(A∩B∩C)

(8)

II.2.b) Propriété de la limite monotone Théorème 1.

Soit (Ω,A,P) un espace probabilisé.

Soit (An)n∈N une suite d’événements deA. 1) Si (An)n∈N est croissante (An⊂An+1) alors :

a) la suite (P(An)) converge,

b) P +∞

S

n=0

An

= lim

n→+∞P(An) = sup

n∈N

P(An)

2) Si (An)n∈N est décroissante (An⊃An+1) alors : a) la suite (P(An)) converge,

b) P +∞

T

n=0

An

= lim

n→+∞P(An) = inf

n∈N P(An)

Démonstration.

On montre seulement la propriété 1). La démonstration de la propriété 2) est analogue.

a) Comme An ⊆An+1, on a P(An) 6 P(An+1). Ainsi, la suite (P(An)) est croissante. Elle est de plus majorée par 1 (∀n ∈ N,P(An) 6 1) donc convergente vers`= sup

n∈N

P(An).

b) Afin de pouvoir utiliser la σ-additivité de l’application P, on construit une suite (Bn) d’événements deux à deux incompatibles telle que pour tout n∈N :

n

S

k=0

Ak=

n

S

k=0

Bk. (ce qui implique

+∞

S

n=0

An=

+∞

S

n=0

Bn).

Pour cela, on pose :

B0=A0,

∀k∈N,Bk=Ak\(A0∪ · · · ∪Ak−1) =Ak\Ak−1

car A0∪ · · · ∪Ak−1 =Ak−1 puisque(An) est une suite croissante.

Ainsi on a :P +∞

S

n=0

An

=P +∞

S

n=0

Bn

=

+∞

P

n=0

P(Bn)

or :

P(Bk) = P(Ak\Ak−1) =P(Ak)−P(Ak∩Ak−1)

= P(Ak)−P(Ak−1) (pour k>1)

On en conclut que :

+∞

P

n=0 P(Bn) = lim

n→+∞

n P

k=0

P(Bk)

= lim

n→+∞

P(B0) +

n

P

k=1

P(Bk)

= lim

n→+∞

P(A0) +

n

P

k=1

P(Ak)−P(Ak−1)

= lim

n→+∞ P(An)

Et ainsi, on a : P +∞

S

n=0

An

= lim

n→+∞ P(An)

Remarque

Ce résultat est appelé « propriété de la limite monotone » car il traite de la limite d’une suite croissante (et majorée).

(9)

Théorème 2.

Soit (Ω,A,P) un espace probabilisé.

Soit (An)n∈N une suite d’événements deA. 1) P

+∞

S

n=0

An

= lim

n→+∞P n

S

k=0

Ak

2) P +∞

T

n=0

An

= lim

n→+∞P n

T

k=0

Ak

Démonstration.

1) Posons Bn =

n

S

k=0

Ak. La suite (Bn) ainsi construite est une suite crois- sante d’événements et vérifie :

+∞

S

n=0

Bn=

+∞

S

n=0

An. En effet :

× An⊂Bn donc

+∞

S

n=0

An

+∞

S

n=0

Bn

× Bn=

n

S

k=0

Ak

+∞

S

n=0

An et donc

+∞

S

n=0

Bn

+∞

S

n=0

An.

Il suffit alors d’appliquer le résultat précédent à la suite(Bn).

2) Démonstration analogue en posantBn=

n

T

k=0

Ak. Remarque

Il faut bien noter que l’on ne suppose pas, dans ce résultat, que la suite(An) est croissante. Pour pouvoir utiliser le théorème de la limite monotone on a donc construit la suite auxiliaire

n S

k=0

Ak

qui est une suite croissante d’événements.

III. Probabilité conditionnelle

III.1. Définition Théorème 3.

Soit (Ω,A,P) un espace probabilisé.

Soit A un événement tel que P(A)6= 0.

On considère l’application PA suivante : PA : A → [0,1]

B 7→ PA(B) = P(A∩B) P(A)

PA est une probabilité, appeléeprobabilité conditionnellerelative àA.

Pour tout événement B, PA(B) désigne la probabilité de B sachantA.

Démonstration.

PA vérifie les axiomes d’une probabilité (en exercice).

Propriété

Soit (Ω,A,P) un espace probabilisé.

Soit Aun événement tel que P(A)6= 0.

Pour tout événement B etC, on a : 1) PA( ¯B) = 1−PA(B) donc PA(∅) = 0 2) PA(B\C) =PA(B)−PA(B∩C) 3) SiB ⊂C,PA(B)6PA(C)

4) PA(B∪C) =PA(B) +PA(C)−PA(B∩C) 5) Si(Bn) suite d’événements , on a :

PA

+∞

S

n=0

Bn

= lim

n→+∞PA

n S

k=0

Bk

PA

+∞

T

n=0

Bn

= lim

n→+∞PA

n T

k=0

Bk

(10)

III.2. Formules liées à la probabilité conditionnelle

La notion de probabilité conditionnelle étant posée, on s’intéresse mainte- nant à comment l’utiliser pour nous aider à réaliser des calculs de probabilité.

III.2.a) Formule des probabilités composées

Ce premier résultat stipule que la donnée de PA(B) nous enseigne la valeur deP(A∩B).

Proposition 1.

Soit (Ω,A,P) un espace probabilisé.

Soient A etB deux événements.

1) Si P(A)6= 0, on peut écrire P(A∩B) =P(A) PA(B) 2) Si P(B)6= 0, on peut écrire P(A∩B) =P(B) PB(A) 3) On a alors, si P(A)×P(B)6= 0 : P(B) PB(A) =P(A) PA(B) Démonstration.

C’est la définition de probabilité conditionnelle !

Cette proposition peut se généraliser au cas d’une intersection d’un nombre fini (quelconque) d’événements.

Théorème 4.

Soit (Ω,A,P) un espace probabilisé et m∈N\ {0,1}.

Soit (A1, . . . , Am) une famille finie d’événements de A. On suppose : P(A1∩ · · · ∩Am−1)6= 0.

On a alors :

P(A1∩ · · · ∩Am) =P(A1) PA1(A2) PA1∩A2(A3) . . . PA1∩···∩Am−1(Am)

Démonstration.

Faite au premier semestre.

III.2.b) Formule des probabilités totales Théorème 5. Formule des probabilités totales

Soit (Ω,A,P) un espace probabilisé.

Soit (An)n∈N un système complet d’événements de A. On suppose : ∀n∈N, P(An)6= 0.

Pour tout événementB, on a :

P(B) =

+∞

P

i=0

P(Ai∩B) =

+∞

P

i=0

P(Ai) PAi(B)

Démonstration.

Comme (An)n∈N un système complet d’événements, on a : Ω =

+∞

S

i=0

Ai. Ainsi, on a : B=B∩Ω =B∩

+∞

S

i=0

Ai =

+∞

S

i=0

(B∩Ai).

(la distributivité, les lois de de Morgan se généralisent au cas dénombrable) Et comme(B∩Ai)i∈N est une suite d’événements incompatibles, on a : P(B) =

+∞

P

i=0

P(B ∩Ai). Enfin, comme P(Ai) 6= 0 (pour tout i∈ N), on a : PAi(B) = P(Ai∩B)

P(Ai) , ce qui permet de terminer la démonstration.

Cas particulier du système complet (A,A)¯

Soit(Ω,A,P) un espace probabilisé et soitA est un événement (A∈A).

La famille (A,A)¯ est alors un système complet d’événements fini.

SiP(A)6= 0 etP( ¯A)6= 0, alors, pour toutB ∈A, on peut écrire : P(B) = P(A) PA(B) + P( ¯A) PA¯(B)

(11)

Exercice

On dispose denurnes numérotées de1àn. Dans l’urne numérokse trouvent k boules blanches et n−k boules rouges. On choisit au hasard (équiproba- blement) une urne, puis on tire deux boules dans cette urne.

a. Quelle est la probabilité d’avoir deux boules blanches ?

b. Même question si on tire les deux boules successivement et avec remise.

c. Quelle est la limite de ces probabilités quand ntend vers +∞? Remarque

La difficulté de cet exercice réside dans le fait que la modélisation mathé- matique est absente. On insiste ici sur le raisonnement à mener qui est assez naturel et très fréquent dans les exercices.

La probabilité de tirer 2 boules blanches dépend de l’urne dans laquelle s’effectue le tirage.

× Soit on tire dans l’urne1 et dans ce cas . . .

× Soit on tire dans l’urne2 et dans ce cas . . .

× . . .

× Soit on tire dans l’urnenet dans ce cas . . .

On voit clairement apparaître un raisonnement par disjonction de cas, ce qui signifie qu’il y a un système complet d’événements sous-jacent.

L’idée ici est de tester l’événement « obtenir2boules » suivant chacun des cas listés précédemment.

Cela correspond à utiliser la formule des probabilités totales.

Il n’y a plus qu’à formaliser ces idées.

Démonstration.

On noteAk : « le tirage s’effectue dans l’urnek» (pourk∈J1, nK).

On noteB : « on tire deux boules blanches ».

a. La famille (A1, . . . , An) est un système complet d’événements.

De plus,P(Ak) = 1k 6= 0 (ne pas oublier cette hypothèse).

On en déduit, par la formule des probabilités totales que : P(B) =

n

P

k=1

P(B)×PAk(B)

Or on a :

PA1(B) = 0(l’urne 1ne contient qu’une boule blanche).

PAk(B) =

k 2

n 2

=

k!

2!(k−2)!

n!

2!(n−2)!

= k!

2!(k−2)!× 2!(n−2)!

n! = k(k−1) n(n−1) (pourk∈J2, nK)

Ainsi, sin>2, on obtient : P(B) =

n

P

k=2

1

k×k(k−1)

n(n−1) = 1 n(n−1)

n−1

P

k=1

k = 1 n(n−1)

n(n−1)

2 = 1

2

b. On raisonne de la même manière que précédemment.

Dans le cas d’un tirage successif avec remise, on a, pour tout k∈J1, nK: PAk(B) = k×k

n×n

On obtient ainsi : P(B) =

n

P

k=1

1

k × k×k n×n = 1

n2

n

P

k=1

k = 1 n2

n(n+ 1)

2 = n+ 1 n

1 2

c. Comme lim

n→+∞

n+ 1

n = 1, on obtient que lim

n→+∞P(B) = 1 2.

(12)

III.2.c) Formule de Bayes Théorème 6. Formule de Bayes

Soit (Ω,A,P) un espace probabilisé.

Soit (An)n∈N un système complet d’événements de A. On suppose : ∀n∈N, P(An)6= 0.

Pour tout j ∈N, pour toutB tel que P(B)6= 0, on a :

PB(Aj) = P(Aj) PAj(B)

P(B) = P(Aj) PAj(B)

+∞

P

i=0

P(Ai) PAi(B)

Démonstration.

La première égalité n’est autre que la formule 3) de la proposition1.

La seconde égalité est une conséquence directe de la formule des probabilités totales.

Cas particulier du système complet (A,A)¯

Soit A un événement tel queP(A)6= 0et P( ¯A) 6= 0, alors, pour tout événe- mentB tel que P(B)6= 0, on peut écrire :

PB(A) = P(A) PA(B)

P(B) = P(A)PA(B)

P(A) PA(B) + P( ¯A) PA¯(B)

Formule des causes

La formule PB(A) = P(A) PA(B)

P(B) est connu sous le nom de « formule des causes ». Si l’on considère l’événementA comme étant postérieur à l’événe- mentB, cette formule peut paraître étonnante puisqu’elle ne suit pas l’ordre chronologique. On calcule en effet la probabilité de l’événementA(antérieur à B) sachant que B est réalisé.

IV. Indépendance en probabilité

IV.1. Indépendance de deux événements Définition

Soit (Ω,A,P) un espace probabilisé.

Deux événements A etB sont dits indépendants pour la probabilité P si :

P(A∩B) =P(A)×P(B)

Remarque

Il ne faut pas confondre cette propriété,liée à une probabilité Pavec celle d’incompatibilité qui ne dépend que des événements !

Théorème 7.

Soit (Ω,A,P) un espace probabilisé.

Soient A et B deux événements.

1) Si P(A)6= 0 alors on a :

A et B sont indépendants ⇔ P(B) =PA(B)

2) Si P(B)6= 0 alors on a :

A etB sont indépendants ⇔ P(A) =PB(A)

 La notion d’indépendance n’est pas une notion intrinsèque aux évé- nements : elle dépend fortement de la probabilité choisie. Autrement dit, deux événements peuvent être indépendants pour une probabi- lité et dépendants pour une autre.

(13)

IV.2. Indépendance deux à deux Définition

Soit (Ω,A,P) un espace probabilisé.

Soit I ⊆Net(Ai)i∈I une famille d’événements deA.

On dit que les événements de la famille (Ai)i∈I sont deux à deux indé- pendants pour la probabilité P si :

∀(i, j)∈I2, i6=j ⇒ P(Ai∩Aj) = P(Ai) P(Aj)

IV.3. Indépendance mutuelle d’une famille d’événements Définition

Soit (Ω,A,P) un espace probabilisé.

Soit I ⊆Net(Ai)i∈I une famille d’événements deA.

On dit que les événements de la famille (Ai)i∈I sont mutuellement in- dépendants pour la probabilité P si :

∀J ⊆N, J fini J ⊂I

⇒ P T

j∈J

Ai

!

= Q

j∈JP(Aj)

Remarque

Si des événements sont mutuellement indépendants, alors ils sont deux à deux indépendants. La réciproque est fausse (on aurait sinon deux noms différents pour la même notion !).

indépendance mutuelle ⇒ indépendance 2 à 2 indépendance mutuelle 6⇐ indépendance 2 à 2

On pourra se reporter au chapitre du premier semestre pour plus de détails.

Références

Documents relatifs

ENS Cachan - Premi` ere Ann´ ee SAPHIRE SAPH111 - Milieux Continus. Sch´ ema d’int´ egration du champ de

Utiliser le résultat précédent pour retrouver la somme de la série de terme général x n

• Dans le cas où Ω est infini, P (Ω) est encore une tribu (elle contient tous les événements que l’on peut définir sur Ω) donc (Ω, P(Ω)) est bien un espace

Ils ont pour rôle, d‟effectuer une transmission de puissance entre deux arbres en prolongement, et sans modification du couple ni de la vitesse, de remédier les inconvénients

En effet le soleil se lève à l’est et se couche à l’ouest, ce qui nous renseigne sur le sens de rotation2. La règle du tire bouchon nous permet d’en déduire le sens de

Ecole Normale Supérieure Vieux Kouba – Alger. Département

Ce d´ eveloppement ce trouve dans [QZ13] dans le chapitre Th´ eor` emes limites en Probabilit´ e.. Toute s´ erie enti` ere de rayon de convergence fini admet un