• Aucun résultat trouvé

CHAPITRE II NOTIONS DE PROBABILITES

N/A
N/A
Protected

Academic year: 2022

Partager "CHAPITRE II NOTIONS DE PROBABILITES"

Copied!
20
0
0

Texte intégral

(1)

CHAPITRE II

NOTIONS DE PROBABILITES

II.1. Un exemple : le poker

Distribuer une main de poker (5 cartes sur 52) revient à tirer au hasard 5 cartes parmi 52. On appelle expérience aléatoire une telle expérience dont l’issue est soumise au hasard. Une main ainsi effectivement tirée au hasard est une réalisation de l’expérience, appelée une épreuve ou expérience élémentaire.

Pour permettre l’analyse des mains distribuées on doit d’abord identifier l’ensemble des mains possibles.

L’ensemble de tous les résultats possibles d’une expérience aléatoire est appelé ensemble fondamental de l’expérience aléatoire ou univers des possibles, ou espace des épreuves, (anglais : sample space), dénoté par Ω ou E ou S. Pour le poker c’est l’ensemble de toutes les mains possibles. Il s’agit bien entendu ici de l’ensemble de tous les sous-ensembles à 5 éléments d’un ensemble à 52 éléments. Le nombre d’épreuves possibles est alors donné par le coefficient binomial C552 (voir Ch. I), i.e.

card E = C552 = 2 598 960.

Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de

l’ensemble fondamental. Par exemple, l’événement aléatoire A = « la main est un brelan » est décrit par l’ensemble de toutes les mains contenant trois cartes de même hauteur et deux autres cartes de hauteurs différentes. Les opérations logiques sur les événements vont être des opérations (booléennes) sur les parties d’un ensemble. Par exemple, l’événement aléatoire Ac = « la main n’est pas un brelan » va être décrit par le complémentaire de A dans

l’ensemble fondamental. Ceci indique pourquoi les notions de théorie des ensembles sont importantes.

Pour attribuer une probabilité à l’événement A = « la main est un brelan » on fait l’hypothèse que chaque main à la même probabilité ! Ainsi pour chaque événement A, la probabilité de A doit être naturellement donnée par la somme de probabilités des mains qui constituent A, ce qui s’écrit :

Probabilité (A) = card A/card E = nombre de cas favorable/ nombre de cas possibles Il y a 54912 mains qui sont un brelan. On peut ainsi calculer la probabilité d’avoir un brelan

Probabilité (A = « la main est un brelan ») = 54 912/2 598 960 ≅ 0.0211.

(2)

Dans cette approche axiomatique on a attribué a priori une probabilité pour chaque main de poker. Dans des expériences réelles avec des cartes ou des simulations numériques on observe que la fréquence d’apparition de A dans une longue série d’expérience converge vers cette probabilité.

Plus précisément, on répète l’expérience aléatoire (indépendamment) N fois. La fréquence d’apparition d’un événement A est définie par :

νN(A) = nombre de fois où A est réalisé/nombre total d’expériences Ici, on distribue, par exemple, 1 million de fois les cartes et on compte la fréquence des brelans. Dans la loi des grands nombres nous démontrerons que

limN→∞νN(A) = Probabilité (A)

pour la probabilité définie ci-dessus. Ceci pourrait constituer une définition de « type fréquentiste » de la probabilité de A.

II.2. La définition du modèle probabiliste

II.2.a. L’ensemble fondamental

Dans une expérience aléatoire, on commence par recenser l’ensemble de tous les résultats possibles de l’expérience. Cet ensemble non vide noté E (ou quelquefois Ω ou S) est l’ensemble fondamental ou l’univers des possibles ; ses éléments ω sont appelés épreuves.

L’ensemble fondamental E peut-être fini, dénombrable ou infini non-dénombrable.

Exemples :

1. On jette un dé : E = {1,2,3,4,5,6}, card E = 6.

2. On jette une pièce : E = {P, F}, card E = 2.

3. On jette 3 dés : E = {(k1, k2, k3) : kj ∈ {1,2,3,4,5,6} pour j = 1,2,3} = {1,2,3,4,5,6}3, card E = 63 = 216.

4. On jette 4 pièces : E = {P, F}4 = 24 = 16.

5. On tire 5 cartes parmi 52 (Poker) : E = ensemble de toutes les parties à 5 éléments d’un ensemble à 52 éléments = ensemble de toutes les mains possibles, card E = C552 = 2 598 960.

6. On tire k boules (sans remise) dans une urne qui en contient n ≥ k boules numérotées 1 à n. E = ensemble de toutes les parties à k éléments d’un ensemble à n éléments, card E = Ckn .

7. On tire k boules (avec remise) dans une urne qui en contient n boules

numérotées 1 à n. E = ensemble de toutes les tuples à k éléments d’un ensemble à n éléments, card E = nk.

(3)

II.2.b. La notion d’événement

Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de

l’ensemble fondamental. Un ω ∈ A est un résultat possible. Si ω est une épreuve et ω ∈ A on dit que l’ événement se réalise dans l’épreuve ω. L’ensemble vide ∅ est appelé événement impossible et l’ensemble fondamental E est un événement appelé événement certain.

Exemples :

1. On jette un dé. L’ événement «Le résultat est pair » est représenté par l’ensemble A = {2,4,6}

2. Poker: L’ événement «La main est un full» est représenté par l’ensemble A

={{c1,c2,c3,c4,c5} ∈ E dont la main {c1,c2,c3,c4,c5} est un full}

On utilise parfois simultanément le langage de la théorie des ensembles et celui des

probabilités. Le dictionnaire suivant donne la correspondance entre les notions fréquemment utilisées.

Théorie des ensembles Probabilités

A sous-ensemble A événement

A = ∅ ensemble vide A événement impossible A = E ensemble fondamental E événement certain

A ⊂ B A entraîne B

A ∩ B intersection A et B, conjonction de A et B A ∪ B réunion A ou B, au moins un de A et B

Ac complémentaire de A Contraire de A

A \ B différence A et contraire de B

A ∆ B différence symétrique Exactement un événement de A ou B A ∩ B = ∅ ensembles disjoints A et B sont des événements incompatibles (Ai)i∈I partition de E (Ai)i∈I système complet d’événement Remarque (à éviter en première lecture) :

Pour permettre l’analyse d’une expérience aléatoire on doit considérer a priori une classe A d’événements. Dans les cas élémentaires comme dans l’exemple du poker, cette classe A est la plupart du temps égale à l’ensemble de tous les sous-ensembles de E, notée ℘(E), i.e. tout sous-ensemble peut être considéré comme événement. En particulier, tout A à un élément, A = {ω}, est appelé événement élémentaire. Dans le cas général, cette classe A d’événements doit satisfaire les propriétés suivantes: Elle contient E et elle est stable par complémentation et par réunion dénombrable. Un tel A est appelé tribu sur l’ensemble fondamental E. Dans le cours présent nous ne discutons pas cette partie de la construction du modèle probabiliste.

(4)

II.2.c. La notion de probabilité

Cas discret (fini ou dénombrable)

Si E est fini, de cardinal N , i.e. E = {ω1, ω2,.., ωN}, toute probabilité sur E est déterminée par la donnée de N nombres réels pi compris entre 0 et 1 et de somme 1 : p1 + p2 +…+pN = 1.

En effet, si on pose pi = probabilité que ωi soit réalisé, il est clair que ces deux propriétés sont satisfaites et que l’on peut calculer la probabilité de tout événement A par la formule très simple

:

( )

i

i

i A

P A p

ω ∈

=

On vérifie sur cette formule les propriétés fondamentales suivantes de P : 1. P(A) ∈ [0,1]

2. P(E) = 1

3. Si A et B sont des événements incompatibles, alors P(A ∪ B) = P(A) + P(B).

Ces trois propriétés vont servir d’axiomes dans le cas général où E n’est pas fini.

L’exemple fondateur de la théorie est le cas équiprobable (pour E fini) : tous les résultats possibles (i.e. tous les ωi ) ont la même probabilité pi = 1/N = 1/card E. C’est le cas d’une distribution uniforme discrète. Donc dans ce cas équiprobable la probabilité d’un événement A est donnée par :

P(A) = card A/card E = nombre de cas favorable/ nombre de cas possible

Exemple 1 : On jette un dé honnête. Donc l’ensemble fondamental est E = {1,2,3,4,5,6} et P({i}) = 1/6 pour i = 1,2,3,4,5,6. L’ événement «Le résultat est pair », donné par A = {2,4,6}, a pour probabilité P(A) = ½.

Exemple 2: (Galilée, 1564-1642)

On compte la somme des valeurs de trois dés jetés simultanément. Il y a six configurations différentes qui permettent d'obtenir 9 ou 10:

pour 9 : (6,2,1), (5,3,1), (5,2,2), (4,4,1), (4,3,2) et (3,3,3),

pour 10 : (6,3,1), (6,2,2), (5,4,1), (5,3,2), (4,4,2) et (4,3,3).

Soit S la somme obtenue, peut-on en déduire que P(S=9) = P(S=10) ?

On ne peut pas en déduire que P(S=9)=P(S=10) car les configurations ne sont pas

équiprobables. Il faut tenir compte de l'ordre et donc des permutations possibles de chaque configuration. Ainsi (3,3,3) ne "compte qu'une fois" alors que (5,2,2) "compte triple" et (5,3,1) "compte six fois". On obtient ainsi: P(S=9) = 25/216 et P(S=10) = 27/216

(5)

Cas général

L’ensemble fondamental E n’est plus supposé fini ou dénombrable. On ne définit pas la probabilité de chaque ω de E. On définit plutôt directement la probabilité de tous les événements. Ceci demande en général la construction d’une tribu A (voir Ch. II.2.b.).

Définition : Une distribution de probabilité (une loi de probabilité, une mesure de

probabilité) est une application P qui associe à tout événement A un nombre P(A), appelé probabilité de A. P doit satisfaire les axiomes suivants :

A1 : P(A) ∈ [0,1]

A2: P(E) = 1

A3: Si (Ai) sont des événements incompatibles deux à deux, i.e. Ai ∩ Aj = ∅ si i ≠ j, alors

1 1

( i) ( i)

i i

P A P A

=

=

=

Nous appelons espace probabilisé tout couple (E, P) ou E est un ensemble fondamental et P est une distribution de probabilité sur E. Là aussi, si on veut être plus précis, il faut ajouter la tribu A, donc un espace probabilisé est le triplet (E, A, P). Un événement de probabilité 1 est dit presque sûr (en abrégé – p.s.).

(6)

II.3. Propriétés d’une distribution de probabilité

Dans la suite du cours nous allons adopter une approche axiomatique qui consiste à déduire des axiomes précédents les propriétés des distributions de probabilités.

II.3.a. Propriétés élémentaires

Donnons une liste de propriétés élémentaires d’une distribution de probabilité.

Théorème : Soient (E, P) un espace probabilisé et A, B, (Ai) des événements quelconques. P satisfait les propriétés suivantes :

1. 0 ≤ P(A) ≤ 1 2. P(E) = 1 3. P(∅) = 0

4. Si A et B sont incompatibles, i.e. A ∩ B = ∅, alors P(A ∪ B) = P(A) + P(B) 5. P(Ac) = 1 - P(A)

6. Si A entraîne B, i.e. A ⊆ B, alors P(A) ≤ P(B) et P(B \ A) = P(B) - P(A)

7. P(A ∪ B) = P(A) + P(B) - P(A ∩ B), et par conséquent P(A ∪ B) ≤ P(A) + P(B) 8. Soit (Ai)i∈ IN une suite d’événements, alors

1 1

( i) ( i)

i i

P A P A

=

=

(inégalité de Boole)

9. Soit (Ai)i∈ IN une suite croissante, i.e. Ai ⊆ Ai+1, alors

1

limi ( i) ( i)

i

P A P A

→∞ =

=

.

10. Soit (Ai)i∈ IN , une suite décroissante i.e. Ai ⊇ Ai+1, alors

1

limi ( i) ( i)

i

P A P A

→∞ =

=

.

(7)

II.3.b. Probabilités de réunions d’ensembles : Règle d’inclusion-exclusion

La règle d’inclusion-exclusion s’applique à une suite (Ai) 1 ≤ i ≤ N d’événements pour lesquels on connaît a priori les probabilités des conjonctions d’événements. On peut ainsi calculer la probabilité de A = A1 ∪ A2 ∪ ... ∪ AN ,i.e. la probabilité que « au moins l’un des Ai est réalisé » .

Théorème (Formule d’inclusion-exclusion) :

Soient (E, P) un espace probabilisé et (Ai) 1 i N une suite d’événements. Alors, la formule d’inclusion-exclusion s’écrit :

1. dans le cas de deux événements

P(A1 ∪ A2) = P(A1) + P(A2) - P(A1 ∩ A2) 2. dans le cas de trois événements

P(A1 ∪ A2 ∪ A3) = P(A1) + P(A2) + P(A3)

- P(A1 ∩ A2) - P(A1 ∩ A3) - P(A2 ∩ A3) + P(A1 ∩ A2 ∩ A3)

3. dans le cas général

( ) ( ) ( )

( ) ( )

( ) ( )

1 2 1 2 3

1 2 1 2 3

1 2

1 2

1 2

1 1

1 ...

1

...

1 ... ...

1 ...

k k

n

N N

i i i i i i i

i i i i i i

i

k

i i i

i i i

N

i i i

P A P A P A A P A A A

P A A A

P A A A

= < < <

=

+

< < <

+

  = − ∩ + ∩ ∩ +

 

 

+ − ∩ ∩ ∩ +

+ − ∩ ∩ ∩

∑ ∑ ∑

Remarque : Dans la 1ere somme il y a N termes, dans la 2ème il y a N⋅(N-1)/2 = CN2

termes. En général il y a CNk

termes dans la kème somme.

(8)

Exemples :

1. On jette 3 dés honnêtes. Quelle est la probabilité d’avoir au moins un 6?

La formule d’inclusion-exclusion permet de répondre à cette question mais n’est pas la méthode la plus rapide.

Soit A1 l’événement que le premier dé est un six, A2 l’événement que le deuxième dé est un six et A3 l’événement que le troisième dé est un six. Alors A = A1 ∪ A2 ∪ A3 est l’événement qu’au moins l’un des dés est un six. Nous appliquons la formule

d’inclusion-exclusion. D’abord on calcule les probabilités des conjonctions d’événements. On trouve

P(Ai) = 1/6 pour i = 1,2,3

P(Ai ∩ Aj) = 1/36 = P(Ai) ⋅P(Aj) si i ≠ j P(A1∩ A2∩ A3) = 1/216 = P(A1) ⋅P(A2) ⋅P(A3).

Alors P(A) = 91/216.

En fait, la méthode la plus rapide pour répondre à la question posée est de passer au complémentaire : L’événement de n’avoir aucun six lorsqu’on jette trois dés est donné par Ac = A1c∩ A2c∩ A3c (par la formule de de Morgan) et P(Ac) = P(A1c) ⋅ P(A2c) ⋅ P(A3c

). Avec P(Aic

) = 5/6 on obtient P(Ac) = 125/216 donc P(A) = 91/216.

2. Quelle est la probabilité pour qu’une main de bridge ait au moins une coupe, i.e.

une couleur absente ?

Dans cet exemple la règle inclusion-exclusion est la bonne méthode pour répondre à la question posée.

Soit Ai l'événement "la couleur i est absente"

où i prend des valeurs dans {♣, ♠, ♥, ♦}. L'événement "au moins une couleur est absente" est donné par la réunion des toutes les Ai.

On applique le principe d'inclusion-exclusion à la réunion A de quatre événements Ai. Pour chaque i il y a C1339 possibilités de choisir une main sans la couleur i. Quand il y a C1352 mains possibles la probabilité de chaque Ai est

P(Ai) = C1339/C1352.

Pour chaque (i,j), i≠j il y a C1326 possibilités de choisir une main sans les couleurs i et j. La probabilité de chaque intersection Ai ∩ Aj est alors

P(Ai ∩ Aj) = C1326/C1352.

(9)

Pour chaque (i,j,k), i≠j, i≠k et j≠k, il y a C1313 possibilités de choisir une main sans les couleurs i, j et k (i.e il y a seulement la quatrième couleur). La probabilité de chaque intersection Ai∩ Aj∩ Ak est alors

P(Ai ∩ Aj ∩ Ak) = C1313/C1352.

L'intersection de 4 événements Ai a probabilité 0 (chaque main a toujours au moins une couleur). En appliquant la formule d’inclusion-exclusion pour N = 4 on trouve P(A1

A2

A3

A4) = 4·P(A1) - 6·P(A1

A2) + 4·P(A1

A2

A3).

La probabilité cherchée est donc 1 621 364 909/31 750 677 980= 0.05106552087.

Finalement nous présentons deux raisonnements faux mais souvent utilisés dans ce type de problème :

a. Quand on n’a plus la propriété que P(Ac) = P(A1c) ⋅ P(A2c) ⋅ P(A3c) ⋅ P(A4c

), on ne peut pas passer au complémentaire comme au problème précédent (les événements Ai

ne sont pas indépendants, voir Ch. II.5.). On passe par le complémentaire comme suit : Ac est l’événement qu’il y a toutes les couleurs. Donc on choisit une carte de chaque couleur, ce qui donne 134 choix. Il reste C948 choix possibles pour les neuf cartes restantes. Alors, P(Ac) = 134 ·C948 /C1352 = 75.43121248 !!!

b. On passe au calcul direct de P(A). On choisit d’abord la couleur absente ( quatre choix) puis il reste C1339 des mains possibles. Alors, P(A) = 4 ·C1339 /C1352 =

17063919/333515525 = 0.05116379215. Ce résultat ne coïncide pas avec le résultat obtenu par la formule d’inclusion-exclusion. Pourquoi ?

3. Le problème des rencontres ou des « matchings » - nombre de dérangements N hommes sont invités à une réception. Chacun donne son chapeau au vestiaire. Les chapeaux sont mélangés et à la fin de la réception chaque invité en choisit un au hasard. Quelle est la probabilité qu’aucun des hommes ne choisisse son propre chapeau ? Quelle est la probabilité que k des hommes exactement sélectionnent leur propre chapeau ?

Du point de vue mathématique ce problème est équivalent au tirage d’une permutation aléatoire σ de l’ensemble {1,2,…,N}.

Un point fixe d’une permutation σ = {σ(1),σ(2),…,σ(N)}est défini par la condition σ(i) = i. Une permutation sans point fixe, i.e. σ(i) ≠ i pour tout i ∈ {1,2,…,N} est appelé dérangement.

Exemple : Trois permutations de {1,2,3,4,5,6}

2 4 1 6 3 5

1 2 3 4 5 6

 

 

 

2 3 6 1 4

1 2 3 4 6

5 5

 

 

 

2 5 6

2 5 6

4 1 3

1 3 4

 

 

 

un dérangement un point fixe trois points fixes

(10)

L’ensemble fondamental E est l’ensemble de toutes les permutations de {1,2,…,N}, donc card E = N! . En faisant l’hypothèse d’équiprobabilité, la probabilité d’un événement A est donné par P(A) = card A/card E.

Pour la première partie on calcul la probabilité du complémentaire qu’au moins un homme prenne son propre chapeau. Appelons Ai l’événement que le i-ème homme choisit son propre chapeau (i.e. σ(i) = i) . Donc A1 ∪ A2 ∪ ... ∪ AN est l’événement qu’au moins un homme choisisse son propre chapeau.

Evidemment P(Ai) = 1/N. La probabilité que deux hommes, par exemple 1 et 2, choisisse leur propre chapeau est P(A1 ∩ A2) = (N - 2)!/N! car il y a (N - 2)!

permutations pour les autres (N - 2) chapeaux. En généralisant cet argument on trouve que la probabilité de l’intersection de k événements, par exemple A1 ∩ A2 ∩ ... ∩ Ak , est donnée par

P(A1 ∩ A2 ∩ ... ∩ Ak) = (N - k)!/N!

Il y a CNk termes dans la kème somme de la formule d’inclusion-exclusion correspondants aux CNk

combinaisons possible de k indices. Donc P(A1 ∪ A2 ∪ ... ∪ AN) =

CN1⋅P(Ai) - CN2⋅P(A1 ∩ A2) +… +(-1)k+1⋅CNk⋅P(A1 ∩ A2 ∩ ... ∩ Ak) + … + (-1)N+1⋅CNN⋅P(A1 ∩ A2 ∩ ... ∩ AN),

i.e.

P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – 1/2! +…+(-1)k+1/k! +…+(-1)N+1/N!

On désigne par PN(k) la probabilité que k des hommes exactement sélectionnent leur propre chapeau. On a démontré que

0

(0) ( 1) 1

!

N j N

j

P =

=j .

Il y a CNk possibilités que k des hommes exactement sélectionnent leur propre chapeau.

Alors pour les autres (N - k) hommes il y a (N - k)!⋅ PN-k(0) possibilités qu’aucun de ces hommes ne choisisse son propre chapeau. Par conséquent

PN(k) = PN-k(0)/k!, i.e.

0

( ) ( 1) 1

! !

N k j N

j

P k j k

=

=

.

Notons que PN(0) → exp(-1) = e-1 lorsque N → ∞ (c’est la série exponentielle pour x = -1). Plus général pour chaque k fixe

PN(k) → exp(-1)/k!

En conclusion, nous avons démontré un théorème limite (voir Ch. V) pour la distribution de matchings: La distribution donnée par les PN(k) converge vers la distribution de Poisson de paramètre 1.

(11)

Le chapitre suivant va traiter une conséquence important du modèle probabiliste pour étudier les lois des grands nombres. Il demande une bonne compréhension mathématique du modèle probabiliste. On le discute au Ch. V. seulement.

II.3.c. * Suites infinies d’événements et lemme de Borel-Cantelli

Des suites infinies d’événements jouent un rôle essentiel dans l’étude des théorèmes limites comme la loi des grands nombres.

Limites de suites d’événements

Soient (E, P) un espace probabilisé et (Ai) i∈ IN , ou bref (Ai), une suite infinie d’événements.

L’événement i

iA

est l’événement « au moins un des Ai est réalisé ». De même, i

iA

est

l’événement « tous les Ai sont réalisés ». Pour une suite croissante, i.e. Ai ⊆ Ai+1 pour tout i, la réunion

iAiest appelée limite de la suite et on écrit

iAi =limi→∞ Ai. De même, si la suite est décroissante, i.e. Ai ⊇ Ai+1 pour tout i, la conjonction de tous les Ai , i

iA

est également appelée limite de la suite et on écrit

iAi =limi→∞ Ai.

Limites inférieures et supérieures

Pour une suite (Ai) d’événements quelconques on peut toujours définir la limite inférieure et la limite supérieure.

Définition : La limite inférieure de la suite (Ai), noté A* = lim inf i→∞Ai , est l’ensemble de tous les éléments de E, qui appartient à tous les Ai sauf à un nombre fini d’entre eux. La limite supérieure de la suite (Ai), noté A* = lim supi→∞Ai , est l’ensemble de tous les éléments de E, qui appartient un nombre infini des Ai.

A* est donc l’événement que tous les Ai sauf un nombre fini d’entre eux sont réalisés et A* est l événement qu’une infinité des Ai est réalisés. Evidemment, A*⊆ A*.

Lemme de Borel-Cantelli

Soit (An)n≥1 une suite d’événements et posons A* = lim supn→∞ An .

Si ∑n=1..∞ P(An) < ∞, alors P(A*) = 0. Autrement dit avec une probabilité égale à 1, au plus un nombre fini d’événements An se réalisent.

(12)

II.4. Evénements indépendants

II.4.a. Indépendance de deux événements

Nous allons introduire la notion d’indépendance. Commençons par deux exemples où l’intuition de la notion d’indépendance est évidente.

Exemples :

1. On jette 2 pièces honnêtes. Soient A = « la première donne pile » et B = « la seconde donne pile ». A et B sont indépendants.

2. On tire 2 cartes. Soient A = « la première donne pique » et B = « la seconde donne pique ». Si on tire sans remise A et B ne sont pas indépendants, si on tire avec remise A et B sont indépendants.

Passons à la définition formelle.

Définition : Soient (E, P) un espace probabilisé et A, B des événements.

A et B sont indépendants si et seulement si :

P(A ∩ B) = P(A)P(B)

Il est très facile de vérifier que cette définition est compatible avec l’intuition donnée dans les exemples précédents. Passons des exemples moins intuitifs.

Exemple 3 : Une famille a n enfants où n ≥ 2. Nous étudions les événements A = « la famille a des enfants des deux sexes » et B = « la famille a au plus une fille ». A et B sont deux

événements indépendants si et seulement si n = 3! En effet, en faisant l’hypothèse d’équiprobabilité, on trouve P(A ∩ B) = n/2n, P(A) = 1 - 2/2n et P(B) = (n + 1)/2n. Exemple 4 : On jette deux dés. Considérons les événements A = « la somme est 7 », B = « le premier dé donne 4 » et C = « la différence est paire ». Ici l’ensemble fondamental est bien entendu E = {(k1, k2) : kj ∈ {1,2,3,4,5,6} pour j = 1,2} = {1,2,3,4,5,6}2. Les

événements A, B et C sont les sous-ensembles de E donnés par

A = {(1,6) , (2,5) , (3,4) , (4,3) , (5,2) , (6,1)}, B = {(4,6) , (4,5) , (4,4) , (4,3) , (4,2) , (4,1)} et C = {(1,1) , (1,3) , (1,5) , (2,2) , (2,4) , (2,6) ,…, (6,2) , (6,4), (6,6) }. Ainsi card(A) = 6, card(B) = 6 et card(C) = 18. En faisant l’hypothèse d’équiprobabilité, on calcule aisément P(A) = 1/6, P(B) = 1/6, P(C) = 1/2, P(A ∩ B) = 1/36, P(A ∩ C) = 0 et P(B ∩ C) = 1/12. A et B sont indépendants, A et C sont dépendants et B et C sont indépendants. On voit que la relation d’indépendance n’est pas transitive (A et B sont indépendants, B et C sont indépendants, mais A et C ne sont pas indépendants).

(13)

II.4.b. Indépendance de plusieurs événements

On prolonge la notion d’indépendance de deux événements au cas des suites d’événements.

Soit (Ai) 1 ≤ i ≤ N une suite d’événements.

Définition 1: On dit que les événements (Ai) 1 ≤ i ≤ N sont indépendants deux à deux si et seulement si, pour tout (i, j) et i ≠ j, Ai et Aj sont indépendants.

L’exemple suivant montre que cette définition est trop faible pour prolonger la notion d’indépendance aux suites d’événements.

Exemple 1: Considérons les anniversaires des trois personnes et les événements A = « 1 et 2 ont le même anniversaire », B = « 1 et 3 ont le même anniversaire » et C = « 2 et 3 ont le même anniversaire ». Evidemment P(A) = P(B) = P(C) = 1/365 et P(A ∩ B) = P(A ∩ C) = P(B ∩ C) = 1/365 ⋅ 1/365. Donc A, B, et C sont indépendants deux à deux. Par contre, si deux événements sont réalisés, par exemple A et B, le troisième événement C est sûrement réalisé, car les trois personnes ont toutes le même anniversaire. Par conséquent C n’est pas

indépendant de la conjonction de A et B, i.e.

P((A

B)

C) = 1/365 1/365 ≠ P(A

B) ⋅P(C) = P(A) ⋅ P(B) ⋅P(C) = 1/3651/3651/365.

Pour prolonger notre notion d’indépendance aux cas de trois événements on devra imposer une condition supplémentaire non comprise dans la définition de l’indépendance deux à deux, à savoir :

P(A1

A2

A3) = P(A1) ⋅ P(A2) ⋅ P(A3).

Pour une suite de N événements on a la définition suivante.

Définition 2 : On dit que les événements (Ai) 1 ≤ i ≤ N sont indépendants (ou mutuellement indépendants) si et seulement si pour toute sous-suite d’événements distincts, on a :

1 2 1 2

( ... ) ( ) ( ) ... ( )

k k

i i i i i i

P AA ∩ ∩A =P AP A ⋅ ⋅P A

On a déjà vu que N (N > 2) événements peuvent être indépendants deux à deux sans être indépendants mutuellement. Si N événements sont mutuellement indépendants ils sont indépendants deux à deux.

Remarque : Le nombre de conditions imposées dans la définition 2 est égal à : CN2

+ CN3

+…+ CNN

= 2N – CN1

– CN0

= 2N – N – 1.

(14)

Proposition : Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants.

1. Pour chaque i , 1 ≤ i ≤ N , posons Bi = Ai ou Bi = Aic. Alors (Bi) 1 ≤ i ≤ N est une suite d’événements mutuellement indépendants.

2. Toute sous-famille de (Ai) 1 i N est constituée des événements mutuellement indépendants.

II.4.c. Probabilité de réunions d’événements indépendants

Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. Il y a une formule simple pour calculer la probabilité de A1 ∪ A2 ∪ ... ∪ AN .

Proposition : Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. Alors P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – [1 - P(A1)]⋅ [1 - P(A2)]⋅…⋅ [1 - P(AN)]

Preuve: On passe au complémentaire de A1 ∪ A2 ∪ ... ∪ AN et on applique la règle de de Morgan (

Ai)c =

Aic. Par la proposition du Ch. II.4.b. les événements Aic

sont mutuellement indépendants. Donc

P(A1 ∪ A2 ∪ ... ∪ AN) = 1 P((A1 ∪ A2 ∪ ... ∪ AN)c)

= 1 P(A1c ∩ A2c ∩ ... ∩ ANc

)

= P(A1c) ⋅P(A2c) ⋅…⋅P(ANc

).

Exemple 1: On suppose que une personne est soumise N fois à un risque p d’accident où 0 < p < 1. Quelle est la probabilité d’avoir au moins un accident ? Pour répondre à cette question on pose Ai = « la ième expérience provoque un accident » et on suppose que les Ai

sont mutuellement indépendants. Avec p = P(Ai) on a

P(« au moins un accident ») = P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – (1 – p)N.

Si N →∞ et p est fixe cette probabilité tend vers 1. Si N →∞ et p → 0 où p est de l’ordre 1/N , i.e. p = λ/N pour un λ fixe, alors P(« au moins un accident ») → 1 – exp(-λ). Donc la probabilité qu’il n’arrive aucun accident est environ P(« pas d’accident ») ∼ exp(-λ) si N est très grand.

(15)

II.5. Probabilités conditionnelles

Dans de nombreuses applications les probabilités conditionnelles ou le conditionnement constituent un outil précieux pour calculer des probabilités inconnues à partir de probabilités données.

II.5.a. Définition

Définition : Soient (E, P) un espace probabilisé et A, B des événements quelconques tel que P(B) > 0. On note

P(A|B) = P(A ∩ B) / P(B)

la probabilité de A conditionnellement à B ou la probabilité de A sachant B.

Les formules suivantes sont souvent très utiles pour calculer des probabilités d’intersections : P(A ∩ B) = P(A|B)P(B)

P(A ∩ B) = P(B|A)P(A) Cette technique est appelée conditionnement.

La généralisation de ces formules au cas des plusieurs événements est considérée dans le Ch.

II.5.b. (théorème de multiplication ou conditionnement multiple) Des probabilités conditionnelles ont des propriétés suivantes :

1. Pour tout événement B fixe tel que P(B) > 0 la fonction d’ensembles A → P(A|B) satisfait les axiomes A1 – A3, i.e. P(A|B) est une distribution de probabilité sur E.

2. Si A et B sont des événements indépendants et P(B) > 0, alors P(A|B) = P(A).

Exemple 1: On jette deux dés. Considérons les événements A = « la somme est 5 »,

B = « le premier dé donne 3 » et C = « le premier dé donne au moins 3 ». Calculer P(A|B) et P(A|C). On a P(A) = 4/36 = 1/9, P(B) = 1/6, P(A ∩ B) = P({3,2}) = 1/36, donc P(A|B) = 1/6.

La probabilité conditionnelle de A sachant que B est réalisé a augmenté : P(A|B) > P(A). Avec P(A) = 4/36 = 1/9, P(C) = 4/6 = 2/3, P(A ∩ C) = P({3,2},{4,1}) = 2/36 = 1/18 on trouve P(A|C) = 1/12. La probabilité conditionnelle de A sachant que C est réalisé a diminué : P(A|C) < P(A).

(16)

II.5.b. Conditionnement multiple

Nous avons déjà vu que la probabilité de la conjonction des deux événements peut être calculée par le conditionnement sur un des événements. L’itération de cette technique est appelée conditionnement multiple.

Théorème (théorème ou conditionnement multiple) :

Soient (E, P) un espace probabilisé et (Ai) 1 i N une suite d’événements. Alors, la formule du conditionnement multiple s’écrit:

1. dans le cas de deux événements

P(A1 ∩ A2) = P(A1) ⋅P(A2|A1) 2. dans le cas de trois événements

P(A1 ∩ A2 ∩ A3) = P(A1) ⋅P(A2|A1) ⋅P(A3| A1 ∩ A2) 3. dans le cas général

P(A1 ∩ A2 ∩ ... ∩ AN) = P(A1) ⋅P(A2|A1) ⋅ … ⋅P(AN| A1 ∩ A2∩ ... ∩ AN-1) si tous les événements A1 ∩ ... ∩ Ak ,1 ≤ k ≤ N – 1, sont de probabilité non nulle.

Exemple 1: Considérons une urne contenant six boules blanches et quatre boules rouges.

Quelle est la probabilité de la suite « blanc, blanc, rouge » si on tire les boules sans remise ? Pour répondre à cette question nous désignons les événements B1 = « la première boule est blanche », B2 = « la deuxième boule est blanche » et B3 = « la troisième boule est rouge ».

Alors

P(B1∩ B2∩ B3) = P(B1) ⋅P(B2|B1) ⋅P(B3| B1∩ B2) = 4/10·3/9·6/8 = 1/10.

Remarquons qu’il faut conditionner dans le bon ordre. Par exemple, la formule P(B1 ∩ B2 ∩ B3) = P(B3) ⋅P(B2|B3) ⋅P(B1| B2 ∩ B3) est juste mais inutilisable.

(17)

II.5.c. Formule des probabilités totales

Soient (E, P) un espace probabilisé et A, B des événements quelconques. Les événements B et Bc forment un système complet d’événements et

P(A) = P(A ∩ B) + P(A ∩ Bc)

Si B et Bc sont de probabilité non nulle on peut utiliser des probabilités conditionnelles pour calculer les probabilités d’intersections. Donc

P(A) = P(A|B) ⋅P(B) + P(A|Bc) ⋅P(Bc).

Cette formule se généralise au cas d’un système complet d’événement Théorème (formule des probabilités totales) :

Soient (E, P) un espace probabilisé et (Bi) 1 ≤ i ≤ N un système complet d’événements, tous de probabilité non nulle. Alors, pour tout événement A, on a:

P(A) = P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) + … + P(A|BN) ⋅P(BN).

Exemple 1: On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une pièce au hasard et on la lance trois fois. Quelle est la probabilité d’obtenir trois piles?

Pour résoudre ce problème on conditionne par la pièce choisie, i.e. on applique la formule des probabilités totales pour les événements A = « on tire trois piles », B1 = « la pièce est

honnête» et B2 = « la pièce a deux piles». On a

P(A) = P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) = 1/8·1/2 + 1·1/2 = 9/16.

(18)

II.5.d. Formule de Bayes

On continue la discussion de l’exemple précédent. Maintenant on pose la question inverse.

Exemple 1: On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une pièce au hasard et on la lance trois fois. Quelle est la probabilité que la pièce choisie est la pièce honnête si on a tiré trois piles ?

Nous cherchons la probabilité P(B1|A). En utilisant la définition des probabilités conditionnelles deux fois on obtient

P(B1|A) = P(A ∩ B1) / P(A) = P(A|B1) ⋅P(B1) / P(A)

= P(A|B1) ⋅P(B1) / [P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2)].

Donc P(B1|A) = 1/8·1/2 : 9/16 = 1/9.

Théorème (formule de Bayes) :

Soient (E, P) un espace probabilisé et (Bi) 1 ≤ i ≤ N un système complet d’événements, tous de probabilité non nulle. Alors, pour tout événement A de probabilité non nulle, on a, pour tout k, 1 ≤ k ≤ N :

P(Bk|A) = P(A|Bk) ⋅P(Bk) / [P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) + … + P(A|BN) ⋅P(BN)].

II.5.e. Exemples

1. Exemple élémentaire Une famille a deux enfants.

a. On sait que l’aîné est un garçon. Quelle est la probabilité que le second soit un garçon ? Soit A1 l’événement que l’aîné est un garçon, A2 l’événement que le second est un garçon.

Sous des hypothèses convenables A1 et A2 sont indépendants. Alors P(A2) = ½.

b. On sait qu’un des enfants est un garçon. Quelle est la probabilité que l’autre soit un garçon ?

On sait que A1 ∪ A2 , i.e. A1 ou A2, est réalisé. On veut donc calculer la probabilité de A1 ∩ A2

sachant A1 ∪ A2 . Alors

P(A1 ∩ A2 | A1 ∪ A2) = P(A1 ∩ A2) : P(A1 ∪ A2) = ¼ : ¾ = 1/3.

(19)

2. Problème de tests

Pour dépister une maladie, on applique un test. Si le patient est effectivement atteint, le test donne un résultat positif dans 96% des cas. Mais il se peut aussi que le résultat du test soit positif alors que le patient est en bonne santé, et ceci se produit dans 2% des cas.

Sachant qu'en moyenne 0.05% des patients sont atteints de la maladie à dépister, calculer la probabilité pour qu'un patient soit atteint sachant que son test a été positif.

Soit A l'événement: "le test est positif", B l'événement: "le patient est en bonne santé" et M = BC l'événement: "le patient est atteint de la maladie". Remarquons que:

P(A|M) = 0.96 P(A|B) = 0.02 . et

P(M) = 0.0005.

Par la formule de Bayes

P(M|A) = P(A|M)P(M)/ [P(A|M)P(M) + P(A|B)P(B)]

= 0.96×0.0005/[0.96×0.0005+0.02×0.9995] = 0.023.

Il est intéressant de constater que seul 2.3% des patients testés positifs sont effectivement malades. Pourtant le test semble avoir des caractéristiques techniques raisonnables. Comment comprendre un chiffre si bas ?

3. Loi de succession de Laplace

On dispose de N + 1 urnes numérotées de 0 à N. L’urne numérotée « k » contient k boules blanches et N – k boules rouges. On choisit une urne au hasard de façon équiprobable, puis on tire n boules avec remise dans cette urne.

a. Quelle est la probabilité que les n boules tirées soient blanches ?

b. Quelle est la probabilité que le (n+1)-ième tirage donne encore une boule blanche sachant que les n premières boules tirées sont blanches ?

On désigne les événements Bi = « l’urne choisie a le numéro i » pour tout i = 0…N et An =

« les premières n boules tirées sont blanches ». Evidemment (Bi) 0 i N est un système complet d’événements et P(Bi) = 1/N+1. On connaît également les probabilités conditionnelles P(An|Bi) = (i/N)n. Par la formule des probabilités totales on a

P(An) = P(An|B0) ⋅P(B0) + P(An|B1) ⋅P(B1) + … + P(An|BN) ⋅P(BN) = Σi=0,...,N (i/N)n/(N+1).

P(An) est donc une somme de Riemann. Ainsi P(An) converge vers l’intégrale ∫[0,1] xn dx.

lorsque N →∞, i.e. P(An) → 1/n+1.

(20)

Pour le deuxième problème il faut calculer les probabilités conditionnelles P(An+1|An). La suite d’événements (An) est décroissante, i.e. An ⊇ An+1 pour tout n, alors

P(An+1|An) = P(An+1) / P(An) → n+1/n+2 lorsque N →∞.

4. Monty Hall

Pendant un concours à la télévision, le présentateur cache un prix (une voiture) derrière une porte (il y a 3 portes : A, B et C). Il invite un concurrent à se présenter et à choisir l'une des trois portes, sans l'ouvrir. Il ouvre ensuite l'une des deux portes qui n'ont pas été choisies par le concurrent, en sachant que la voiture ne se trouve pas derrière ; il offre alors au concurrent la possibilité de remplacer la porte qu'il avait choisie par l'autre qui reste fermée. Quelle est le meilleur choix pour le concurrent: est-ce que la probabilité de gagner en changeant de porte est plus grande que la probabilité de gagner sans changer de porte ?

L'espace fondamental de cette expérience est Ω = {(XV, XC, XP)}, où XV = A,B ou C, XC = A,B ou C et XP = A,B ou C. Ici, XV représente la porte où se trouve la voiture, XC la porte choisie par le concurrent et XP la porte ouverte par le présentateur. Pour répondre à la question "est-ce que la probabilité de gagner en changeant de porte est plus grande que la probabilité de gagner sans changer de porte ?" il faut calculer la probabilité pour que le concurrent ait choisi une porte ne cachant pas la voiture, conditionnellement à l'événement "la voiture ne se trouve pas dans la porte choisie par le présentateur" c'est à dire:

P({XV ≠ XC}| {XV ≠ XP}) Mais P({XV ≠ XP}) = 1, donc:

P({XV ≠ XC}| {XV ≠ XP}) = P({XV ≠ XC}) = 6/9 = 2/3.

La probabilité pour que le concurrent gagne en changeant de porte vaut donc 2/3, tandis que sa probabilité de gagner sans changer de porte n'est que de 1/3. Son meilleur choix est de changer de porte!

Références

Documents relatifs

Expliquer grâce à un calcul comment calculer la taille de l’objet sur la carte?. Laquelle de ces deux cartes rétrécie le moins

/HV FDUWHV FKRURSOqWKHV VRQW HVVHQWLHOOHPHQW XWLOLVpHV SRXU GHV SKpQRPqQHV VRFLRpFRQRPLTXHV (OOHV SUpVHQWHQW GHV GRQQpHV TXDQWLWDWLYHV

Comme on peut l’observer dans la légende, des couleurs sont utilisées dans la carte topographique, mais davantage de cartes telles que les cartes thématiques et les atlas

Os jogadores devem encontrar rapidamente uma carta do seu jogo que contenha um dos elementos das personagens Tinyly na carta «méli- mélo».. O jogador mais rápido ganha se a

3 Bilan : Les cartes sont de plus en plus présentes dans les médias et sont utiles à la compréhension du monde. Elles nécessitent cependant une lecture critique et ne sont pas

Pourquoi la plupart des plaies de la main doivent-elles être explorées au bloc.. Parce que, juste sous la peau, circulent

Il existe une façon qui permet de construire une équation dans des situations qui semblent complexe.. La première variable que tu interceptes dans la phrase,

Je colorie le numéro de la fiche en vert si j’ai tout juste, en jaune si je me suis