Bernard CLÉMENT, PhD 1/49
MTH2302 Probabilités et méthodes statistiques
P R O B A B I L I T É S
▪ Notation et formulaire
▪ Probabilités VERSUS statistiques
▪ Espace de probabilités
■
Comment attribuer les probabilités?
■
Formules de dénombrement
■
Probabilités:
conjointes – conditionnelles – marginales■
Indépendance en probabilité
■
Probabilité totale
▪ Formule de Bayes
ANNEXE : pas au programme - Règles du pouce
- Jeu de Poker
- Problème d’occupation
Bernard CLÉMENT, PhD 2
sera vu dans
ce
chapitre
Bernard CLÉMENT, PhD MTH2302 Probabilités et méthodes statistiques 3
STATISTIQUES PROBABILITÉS
quoi (base) data raisonnement / logique
comment observation modélisation
& modélisation & hypothèses quand a posteriori a priori
ou après ou avant
où échantillon population COMPARAISON
COMPARAISON
jeu de va et viens
Bernard CLÉMENT, PhD 4
Définitions
Expérience aléatoire = processus planifié répétable dont l’issue (phénomène) ne peut être prédite avec certitude
Exemples: jet d’un dé / loterie 6/49 / tous les jeux hasard taille d’un individu choisit au hasard dans un groupe Dénouement : tout résultat ou issue la plus élémentaire possible: oi Espace d’échantillonnage = S : totalité tous les dénouements
Événement : sous ensemble de l’espace d’échantillonnage
2 événements mutuellement exclusifs (disjoints): aucun dénouement en commun
Espace de probabilités: espace d’échantillonnage S = { o1 , o2 , …, }
+
fonction P : S intervalle [ 0 , 1 ]0 0,5 1
1. associe une probabilité pi à oi 0 ≤ p i ≤ 1 pi
=
Prob( {oi} )2.
∑ p
i= 1
3. P est une fonction additive sur S
Bernard CLÉMENT, PhD 5
Fonction de probabilité
S : espace de probabilité = totalité tous résultats possibles E : événenent de S = sous ensemble de S
P( E ) nombre réel entre 0 et 1 appelé « probabilité de E » fonction P doit satisfaire les propriétés suivantes :
1. 0 ≤ P ( E ) ≤ 1
2. P (S ) = 1 S est un évènement certain
3. { E
1, E
2, … , E
k ..} événements définis sur S et mutuellement exclusifs 2 à 2 : E
i∩ E
j= { Φ } i ≠ j
P ( U E
i) = ∑ P ( E i ) P est additive
MTH2302 Probabilités et méthodes statistiques
6
Bernard CLÉMENT, PhD
FORMULES
▪
{ Φ } ensemble vide (évènement impossible)alors P
( { Φ } )= 0
▪ E ( ou E’) évènement complémentaire à E = non E alors
P (E) = 1 – P ( E )
▪ P (E
1U E 2) = P (E
1) + P (E
2) - P ( E
1 ∩ E
2)
E 1
E 2
E
1∩ E
2▪
E
1ʗ E
2 E 2 E 1alors P ( E
1) ≤ P ( E
2)
Bernard CLÉMENT, PhD 7
FORMULES
E 1
E 2
E
1∩ E
2P ( E
1U E
2U E
3) = P ( E
1) + P ( E
2) + P ( E
3)
- P ( E
1∩ E
2) - P ( E
1∩ E
3) - P ( E
2∩ E
3) + P ( E
1∩ E
2∩ E
3)
E 3
E
2∩ E
3E
1∩ E
3E
1∩ E
2∩ E
3MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 8
Comment attribuer des probabilités à o i ?
.. 1. estimations basées sur les fréquences: on observe n fois le phénomène pouvant se dénouer dans oi on obtient n i réalisations de oi dans la séquence observée
P ( E )
≈
n i / n estimation statistique ! 2. hypothèses de modélisation : exemple en physique atomiquen particules réparties au hasard dans m boîtes (cellules) m > n probabilité de trouver 0 ou 1 particule dans n boîtes spécifiques est
= n ! / m n si particules différentiables (Maxwell-Boltzman )
= ( m – 1 ) ! n ! / (m + n – 1 ) ! part. non différentiables (Bose – Einstein)
= n ! ( m – n ) ! / m ! part. non diff. + jamais 2 part. par boîte (Fermi-Dirac)
rappel n! = n *(n-1)*(n-2) …. 3*2*1 0! = 1
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 9
Comment attribuer des probabilités à o i ?
2. hypothèses de modélisation : un exemple en physique atomique exemple numérique : n = 3 particules m = 5 cellules (boîtes)
arrangement |* | - | * | * | - | * = particule | | = cellule (boîte)
probabilités: 6 /125 = 0,048 selon hypothèse Maxwell Boltzman 1/35 = 0,029 selon hypothèse Bose-Einstein
1/10 = 0,100 selon hypothèse Fermi-Dirac
3. postulat dérivé de l’observation de variables Y, X, ….(= données)
exemple
taille (grandeur)
d’individus (hommes)
distribution forme cloche
y=normal(x;0;1)
-3 -2 -1 0 1 2 3
0,0 0,1 0,2 0,3 0,4 0,5 0,6
4. Évaluation subjective (personnelle) : lien avec formule BAYES
ex: quelle est votre évaluation de la probabilité d’avoir un A
dans le cours MTH2302B? Thomas Bayes 1702-1761
Formule de BAYES plus loin p. 31
10/49
Bernard CLÉMENT, PhD MTH2302 Probabilités et méthodes statistiques
règle de Bayes
utilisation
probabilité subjective a priori
souvent employée détails page 31
2ième guerre mondiale
Film The Imitation Game bio du mathématicien
Alan TURING
pionnier de l’intelligence artificielle
11
Dénouements équiprobables : « chances égales »
▪ si l’espace échantillonnal S est de taille finie N S = { o 1 , o 2 , …. o N }
▪ dénouements supposés équiprobables alors P( { oi } ) = 1 / N
▪ on met sur pied les conditions nécessaires mais la garantie jamais assurée
▪ Exemple Loto 6/49 12 juin 1982 au 12 juillet 2008 - 2554 tirages
Bernard CLÉMENT, PhD
Loto6/49 (12juin1982 au 12juillet2008) - 2554 tirages
31 43
47 34
45 46
27 40
41 32
20 7
42 21
3 30
1 36
37 38
39 26
33 9
25 49
12 19
18 23
5 17
8 11
44 4
16 35
22 24
13 29
10 14
2 6
48 28
15 numéro
0 50 100 150 200 250 300 350 400 450
No of obs
réponse:
écarts sont non significatifs 364
plus fréquents
chiffre freq
31 410 43 405 47 405 34 401 45 391 46 390
moins fréquents
14 341 2 339 6 338 48 335 28 325 15 310
distribution équiprobable (modèle) donne 364,86 écarts significatifs?
Bernard CLÉMENT, PhD 12
Dénouements équiprobables : « chances égales »
hypothèse souvent employée
▪ on met sur pied les conditions nécessaires mais la garantie n’est jamais assurée ….
▪ si l’espace échantillonnal S est de taille finie N S = { o 1 , o 2 , …. o N } dénouements o i sont supposés équiprobables alors P( { o i} ) = 1 / N
▪ Conséquence : l’évaluation de probabilité d’ évènement repose sur l’application des formules de dénombrement
▪ Principe multiplicatif : si A 1 ,A 2 ,…, A k sont des ensembles ayant
n 1 , n 2 , …, n k éléments : n 1 X n 2 X … X n k façons de composer
un ensemble B avec un élément de A 1 , un de A 2 ,…, un élément de A k SI ON TIENT COMPTE DE L’ORDRE des résultats de l’obtention des tirages
Permutations : Pnn = n ! arrangements distincts de n objets Arrangements : Ank = n ! / ( n – k ) ! arrangements de k objets parmi n
SI ON NE TIENT PAS COMPTE DE L’ORDRE (cas fréquent)
Combinaisons : Cnk = n ! / [ ( n – k ) ! k ! ] k objets distincts parmi n
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 13
Exemple loto 6/49
ordre pas tenu en compte combinaisons C496 = 49 ! / [ ( 49 - 6) ! 6 ! ] = 13 983 816dénouements possibles
événements favorables pour gagner un lot $ nombre probabilité 6 sur 6 : C66 x C430 = 1 … 0,000 000 072 5 sur 6 +: C65 x C11 x C420 = 6 … 0,000 000 429 5 sur 6 : C65 x C421 = 252 … 0,000 018 029 4 sur 6 : C64 x C432 = 13545 … 0,000 968 620 3 sur 6 : C63 x C433 = 246 820 … 0,017 650 404
façons de gagner 260 624
façons de perdre 13 723 192 … 0,981 362 455 6
49 +
43
42
MTH2302 Probabilités et méthodes statistiques
14
Bernard CLÉMENT, PhD
Exemple: essais de Bernoulli
=
phénomène avec seulement 2 résultats possibles2 dénouements possibles S = « succès » E = « échecs » On répète jusqu’à l’obtention du premier succès S
exemple : obtenir le chiffre 6 en lançant un dé à jouer
p = 1/6 succès et 1- p = q = 5 /6 échec 1 P (S) = p
2 P ( E S ) = q p 3 P ( E E S) = q q p
………..
k P (E E E…E S) = q
k – 1p
∑ qk – 1p = p ∑ q
k – 1 = p / ( 1- q) = 1
distribution géométrique : chapitre distributions discrètes
nombre moyen d’essais avant le premier succès: 1
/p
Bernard CLÉMENT, PhD 15
Exemple : contrôle qualité par échantillonnage
lot 100 pièces dont 5 sont non-conformes (défauts) tirage échantillon 10 pièces au hasard
chaque pièce est soumise à un test destructif
supposons critère pour accepter le lot : contrôle qualité E = aucune pièce non conforme dans l’échantillon
P ( accepter lot ) = P(E) = ?
S l’espace échantillonnal contient C
10010échantillons possibles E est défini par les C
9510x C
50échantillons favorables
P ( E ) = C
9510x C
50/ C
10010= 0,584 exemple distribution hypergéométrique :
vue chapitre distributions discrètes
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 16
Probabilités : conjointe – conditionnelles – marginales
Exemple : assemblage de 2 composants
composant 1 : possibilité de 0 -1- 2 -3 défauts composant 2 : possibilité de 0 -1- 2 -3 - 4 défauts modèle proposé : probabilités pour l’assemblage
dénouement = (i , j ) 20 cas i = nombre défauts composant 1 j = nombre défauts composant 2 P (0, 0 ) = 0.5 assemblage sans défaut P ( i, j ) = k / ( i + j ) si ( i, j ) = ( 0, 1), ….. (3, 4)
k = ?
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 17
i j i + j k / (i+j) Prob { (i , j) } = 0,0723 / (i + j)
0 0 0 --- 0,500
0 1 1 k / 1 0,072
0 2 2 k / 2 0,036
0 3 3 k / 3 0,024
0 4 4 k / 4 0,018
1 0 1 k / 1 0,072
1 1 2 k / 2 0,036
1 2 3 k / 3 0,024
1 3 4 k / 4 0,018
1 4 5 k / 5 0,014
2 0 2 k / 2 0,036
2 1 3 k / 3 0,024
2 2 4 k / 4 0,018
2 3 5 k / 5 0,014
2 4 6 k / 6 0,012
3 0 3 k / 3 0,024
3 1 4 k / 4 0,018
3 2 5 k / 5 0,014
3 3 6 k / 6 0,012
3 4 7 k / 7 0,010
somme k * 6,91 1.000
k * 6,91 = 0,500 k = 0,5 / 6,91
= 0,0723
= 0,500
(i, j) ≠ (0, 0)
Bernard CLÉMENT, PhD 18
assemblage 2 composants composant 1 : 0 -1- 2 -3 défauts composant 2 : 0 -1- 2 -3 - 4 défauts modèle proposé : probabilités
assemblage dénouement = (i , j )
X1 = i nombre défauts composant 1 X2 = j nombre défauts composant 2
P (0, 0 ) = 0.5 assemblage 0 défaut P ( i, j ) = k /( i + j ) = 0,0723 / (i + j) si ( i, j ) = ( 0, 1), ….. (3, 4)
Exemple: chapitre probabilités
assemblage 2 composants
Y = X1 + X2 = nombre total défauts
Y X1
X2
0 1 2 3 4 5 6 7 8 9
0,0 0,2 0,4 0,6 0,8 1,0 1,2
19
Bernard CLÉMENT, PhD
fonction de probabilités CONJOINTES
(i, j) j = 0 j = 1 j = 2 j = 3 j = 4 total i = 0 0,500 0,072 0,036 0,024 0,018
i = 1 0,072 0,036 0,024 0,018 0,014 i = 2 0,036 0,024 0,018 0,014 0,012 i = 3 0,024 0,018 0,014 0,012 0,010
total 1,000
réécriture en tableau croisé
MTH2302 Probabilités et méthodes statistiques
20/49
Bernard CLÉMENT, PhD
Probabilité conditionnelle
P ( F | E ) probabilité que l’événement F se réalise
compte tenu de la contrainte « E s’est réalisé » il faut que P (E) > 0 dans S
E nouvel espace d’échantillonnage (référentiel) pour tous
les événements F à venir - on restreint l’espace d’observation
Résultat si E et F sont indépendants alors E et F sont indépendants
E et F sont indépendants E et F sont indépendants
Définition P ( F | E ) = P(F ∩ E) / P ( E )
aussi P ( E | F) = P(E ∩ F) / P ( F )
donc P(E ∩ F) = P ( E ) P ( F | E ) = P ( F ) P ( E | F) Définition E et F sont
indépendants
si P(E ∩ F) = P (E) P(F)Bernard CLÉMENT, PhD 21
Exemple : suite
probabilités marginales
(i
,
j) j = 0 j = 1 j = 2 j = 3 j = 4 totali = 0 0,5 0,072 0,036 0,024 0,018 0,651
1 0,072 0,036 0,024 0,018 0,014 0,165
2 0,036 0,024 0,018 0,014 0,012 0,105
3 0,024 0,018 0,014 0,012 0,010 0,079
total 0,633 0,151 0,093 0,069 0,055 1,000
MTH2302 Probabilités et méthodes statistiques
méthode : sommation partielle
Bernard CLÉMENT, PhD 22
probabilités conditionnelles
j / i
0 1 2 3 4 total0 0,768 0,111 0,056 0,037 0,028 1 1 0,438 0,219 0,146 0,109 0,088 1 2 0,345 0,223 0,172 0,138 0,115 1
3 0,305 0,229 0,183 0,153 0,131 1
chaque ligne
distribution conditionnelle
j / i
i / j 0 1 2 3 4
0 0,791 0,480 0,389 0,351 0,329 1 0,114 0,240 0,259 0,263 0,263 2 0,057 0,160 0,145 0,211 0,219 3 0,038 0,120 0,156 0,175 0,188
total 1 1 1 1 1
chaque colonne
distribution conditionnelle
i / j
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 23
Liens: conjointe – marginales – conditionnelles
conjointe marginales
méthode: sommation
p( i ) = ∑ p ( i, j )
j
p( j ) = ∑ p ( i, j )
i
conjointe conditionnelles
conditionnelles
p( i / j ) = p ( i, j ) / p ( j ) p( j / i ) = p ( i, j ) / p ( i )
conjointe
+
indépendance marginales chemin inverse marginales conjointes ?oui si …. indépendance
MTH2302 Probabilités et méthodes statistiques
24
Bernard CLÉMENT, PhD
Exemple: assemblage de 2 composants - indépendance?
i / j
0 1 2 3 4 p( i )0 0,500 0,072 0,036 0,024 0,018 0,651
1 0,072 0,036 0,024 0,018 0,014 0,165
2 0,036 0,024 0,018 0,014 0,012 0,105
3 0,024 0,018 0,014 0,012 0,010 0,079
p ( j ) 0,633 0,151 0,093 0,069 0,055 1,000 p(0,0) = 0,500
p(i = 0)
*
p(j = 0) = 0,651*
0,633 = 0,412p(2,3) = 0,014 p(i = 2)
*
p(j=3) = 0,105*
0,069 = 0,0072NON
MTH2302 Probabilités et méthodes statistiques
≠
≠
25
Bernard CLÉMENT, PhD
Exemple: quelle serait la distribution conjointe si
indépendance avec les mêmes marginales?
calcul : p(0,0) = 0,651 * 0,633 = 0,412 etc
i j
0 1 2 3 4 p( i )0
0,412 0,098 0,061 0,045 0,036 0,6511
0,105 0,025 0,015 0,011 0,009 0,1652
0,066 0,016 0,010 0,007 0,006 0,1053
0,050 0,012 0,007 0,005 0,004 0,079p ( j ) 0,633 0,151 0,093 0,069 0,055
1,000
MTH2302 Probabilités et méthodes statistiques
distribution conjointe avec indépendance
26
Bernard CLÉMENT, PhD
(i, j) j = 0 j = 1 j = 2 j = 3 j = 4 p( i ) i = 0 0,412 0,098 0,061 0,045 0,036 0,651 i = 1 0,105 0,025 0,015 0,011 0,009 0,165 i = 2 0,066 0,016 0,010 0,007 0,006 0,105 i = 3 0,050 0,012 0,007 0,005 0,004 0,079 p ( j ) 0,633 0,151 0,093 0,069 0,055 1,000 (i, j) j = 0 j = 1 j = 2 j = 3 j = 4 p( i ) i = 0 0,500 0,072 0,036 0,024 0,018 0,651
i = 1 0,072 0,036 0,024 0,018 0,014 0,165 i = 2 0,036 0,024 0,018 0,014 0,012 0,105 i = 3 0,024 0,018 0,014 0,012 0,010 0,079 p( j ) 0,633 0,151 0,093 0,069 0,055 1,000
modèle original
modèle indépendance
modèle le plus approprié?
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 27
(i, j) j = 0 j = 1 j = 2 j = 3 j = 4 p( i )
i = 0 x11 x12 x13 x14 x15 0,651
i = 1 x21 x22 x23 x24 x25 0,165
i = 2 x31 x32 x33 x34 x35 0,105
i = 3 x41 x42 x43 x44 x45 0,079
p ( j ) 0,633 0,151 0,093 0,069 0,055 1,000 (i, j) j = 0 j = 1 j = 2 j = 3 j = 4 p( i ) i = 0 0,500 0,072 0,036 0,024 0,018 0,651
i = 1 0,072 0,036 0,024 0,018 0,014 0,165 i = 2 0,036 0,024 0,018 0,014 0,012 0,105 i = 3 0,024 0,018 0,014 0,012 0,010 0,079 p ( j) 0,633 0,151 0,093 0,069 0,055 1,000
autres modèles avec mêmes marginales
MTH2302 Probabilités et méthodes statistiques
modèle
original
Bernard CLÉMENT, PhD 28
résoudre système 9 équations linéaires 20 inconnues x11, x12,…., x45
∑ x1j = 0,065 (1)
∑ x2j = 0,165 (2)
∑ x3j = 0,165 (3)
∑ x4j = 0,079 (4)
∑ xi1 = 0,633 (5)
∑ xi2 = 0,151 (6)
∑ xi3 = 0,093 (7)
∑ xi4 = 0,069 (8)
∑ xi5 = 0,055 (9)
20 inconnues x i j 9 équations
infinité solutions
MTH2302 Probabilités et méthodes statistiques
autres modèles avec mêmes marginales
(i, j) j = 0 j = 1 j = 2 j = 3 j = 4 p( i )
i = 0 x11 x12 x13 x14 x15 0,651
i = 1 x21 x22 x23 x24 x25 0,165
i = 2 x31 x32 x33 x34 x35 0,105
i = 3 x41 x42 x43 x44 x45 0,079
p ( j ) 0,633 0,151 0,093 0,069 0,055 1,000
Bernard CLÉMENT, PhD 29
exemple : modélisation avec indépendance
prototype véhicule fin de test (essai)
M1 : moteur OK M2 : moteur état moyen M3 : moteur état médiocre
probabilité = 0,6 = 0,3 = 0,1
D1 : direction OK D2 : direction non opérationnelle probabilité : = 0,8 = 0,2
A1 : amortisseur OK A2 : amortisseur dégradé A3 : amortisseur brisé probabilité = 0,7 = 0,2 = 0,1
probabilités conjointes : hypothèse d’indépendance / 18 CAS
Mi ∩ Dj ∩ Ak prob M i ∩ Dj ∩ Ak prob M i ∩ Dj ∩ Ak prob 1 1 1 0,336 2 1 1 0,168 3 1 1 0,056 1 1 2 0,096 2 1 2 0,048 3 1 2 0,016 1 1 3 0,048 2 1 3 0,024 3 1 3 0,008 1 2 1 0,084 2 2 1 0,042 3 2 1 0,014 1 2 2 0,024 2 2 2 0,012 3 2 2 0,004 1 2 3 0,012 2 2 3 0,006 3 3 3 0,002
MTH2302 Probabilités et méthodes statistiques
30/49
Bernard CLÉMENT, PhD
Exemple (suite) :
Mi ∩ Dj ∩ Ak prob M i ∩ Dj ∩ Ak prob M i ∩ Dj ∩ Ak prob 1 1 1 0,336 2 1 1 0,168 3 1 1 0,056 1 1 2 0,096 2 1 2 0,048 3 1 2 0,016 1 1 3 0,048 2 1 3 0,024 3 1 3 0,008 1 2 1 0,084 2 2 1 0,042 3 2 1 0,014 1 2 2 0,024 2 2 2 0,012 3 2 2 0,004 1 2 3 0,012 2 2 3 0,006 3 3 3 0,002 Fk : k composants sont fonctionnels k = 0, 1, 2, 3 P(Fk) = ?
P(F3) = P ( M1 ∩ D1 ∩ A1 ) = P( 111) = 0,336
P(F2) = P (112 ) + P( 113 ) + P (211) + P (311) = 0,452
P(F1) = P(122) + P(123) + P (212) + P(213) + P(221) + P(312) + P(313) + P( 321) =0,188
P(F0) = P(222) + P(223) + P (322) + P ( 323) = 0,024
P(F0) + P(F1) + P(F2) + P(F3) = 1
probabilités conjointes avec hypothèse d’indépendance
31
Bernard CLÉMENT, PhD
Formule probabilité totale
Définition : Partition de S
E 1
,
E 2,
…..,
E ksous-ensembles disjoints de S tels que
E 1 U E 2 U …..U E k = S E i ∩ E i’ = Φ i ≠ i’
alors les événements E
1, E
2, ….., E
kforment une partition de
S remarque: un seul des E i peut se réaliser à la foisThéorème : si k événements E i
(
i = 1 ,2, … k ) forment une partition et que F est un événement défini sur S alorsF = ( F ∩ E 1
) U (
F ∩ E2 ) U …. U ( F ∩ E k ) =U (F
∩E
i)
E 1
E 2 E 3 E 10
P(F) = ∑ P(F ∩ E
i) = ∑ P( E
i) P ( F| E
i) formule probabilité totale
F ∩ E 3 F
Bernard CLÉMENT, PhD 32
Formule (règle, théorème) de Bayes
k événements E i
(
i = 1 ,2, … k ) forment une partition de S F est un événement défini sur S alorsP( E
r| F) = P( E
r) P( F | E
r) / ∑ P( E
i) P ( F| E
i)
question événement F provient – il de l’événement E r ? ou évènement E r est-il la cause de F ?
F : effet observé E r : cause possible remarque concernant Bayes dans les applications
P(E i ) : probabilité a priori
souvent type subjective
F : data observé (information)
P (E i | F) : probabilité a posteriori ré évaluation de P(E i ) application courante
H = hypothèse proposée P(H) = probabilité subjective F = data P(data | H) selon un modèle statistique proposé calcul P(H | data) ré évaluation de P(H)
peut s’appliquer itérativement plusieurs fois
P(H | data) : devient nouvel a priori dans la deuxième application Bayes : méthode pour la ré évaluation
de l’information Formule Bayes : contribue à l’essor probabilité subjective
Bernard CLÉMENT, PhD 33
Exemple 1 diagnostic médical
supposons que l’on teste une personne pour une maladie assez rare : arrive dans la population disons environ 1% (prob. a priori) test est précis à 95% : si vous avez la maladie, le résultat
est positif (+) à 95%
Si le résultat du test est positif, quelle est la probabilité d’avoir la maladie = ?
question posée à 100 médecins
4 choix réponses proposées : 95% 85% 16% 1%
résultat 50 sur 100 ont répondu 95%
30 sur 100 ont répondu 1%
10 sur 100 ont répondu 85%
10 sur 100 ont répondu 16%
bonne réponse est …. comment obtenir?
application de la formule de Bayes …
Bernard CLÉMENT, PhD 34
P (avoir la maladie si le test + ) = 0,95 x 0,01 / (0,95 x 0,01 + 0,05 x 0,99)
= 0,016 ou 16%
devient l’information a priori si on applique le test 2ième fois Si on répète test deuxième fois et test = +
P (avoir la maladie si le test + ) = 0.95 x 0.16 / (0.95 x 0.16 + 0.05 x 0.84)
= 0,78 ou 78%
Test no Probabilité d’avoir la maladie 1 16%
2 78%
3 98%
4 99,9%
si test précis à 98%
Test no Probabilité d’avoir la maladie 1 33%
2 96%
3 99,9%
4 99,9999%
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 35
Exemple 2 application médicale test diagnostic dépistage
Sensibilité et Spécificité : performance du test
M : avoir la ‘maladie’
M : ne pas avoir la ‘maladie’ (sains) T : test résultat positif (T = +)
T : test résultat négatif (T = -)
M (oui) M (non) T (= +) n
T Mn
T MT (= -) n
T Mn
T Mtotal n
Mn
MSensibilité = n
T M/ n M = proportion de T = + parmi les malades
Spécificité = n T M / n M =
proportion de T
=-
parmi les sains faux positifs = n T Mfaux négatifs = n T M
MTH2302 Probabilités et méthodes statistiques
n : nombres
T E S T
MALADIE
Bernard CLÉMENT, PhD 36
Exemple 2 suite
applique test à un patient et résultat : T = + = positif
question : probabilité que le patient soit
réellement malade?
pour répondre: faut connaitre la fréquence de la maladie M
dans la population = prévalence de la maladie disons hypothèse : P(M) = 1 / 10 000 =0,0001
probabilité a priori d’avoir la maladie
avant d’appliquer le test
On cherche P(M | T ) = ? solution avec Bayes
M M T (+) 950 10 T (-) 50 990 Total 1000 1000
Performance du test
Sensibilité = 950 / 1000 = 0,95 = 95%
Spécificité = 990 / 1000 = 0,99 = 99%
MTH2302 Probabilités et méthodes statistiques
Tableau performance du test
1000 pers. M (maladie spécifique) 1000 pers. M (en santé)
Bernard CLÉMENT, PhD 37
Exemple 2 suite
probabilité a posteriori P (M T+) = 0,00941153 ≈ 0,01
94 fois plus grande que la probabilité a priori P(M) = 0,0001
Influence de P(M) prévalence avec sensibilité = 95% spécificité = 99%
P(M) = 1 / 1 000 000 1 / 100 000 1 / 10 000 1 / 1 000 1 / 100 P(M |T) = 0,00001 0,0009 0,0094 0,0868 0,4997
P(M |T ) / P(M) 10 000 900 94 87 50
Influence de P(M) prévalence avec sensibilité = 99% spécificité = 99%
P(M) = 1 / 1 000 000 1 / 100 000 1 / 10 000 1 / 1 000 1 / 100 P(M |T) = 0,0001 0,0010 0,0098 0,0901 0,5000
MTH2302 Probabilités et méthodes statistiques
P(T+) = P(M)*P(T+ | M) + P(M)*P(T+| M) = 0,0001*0,95 + 0,9999*0,01
= 0,000095 + 0,009999 = 0,010094
P(M | T+) = P(M)*P (T+ | M) / P(T+) = 0,0001*0,95 / 0,010094 = 0,00941153
Bernard CLÉMENT, PhD 38
Exemple 3 téléchargement de fichiers provenant de 3 sites WEB occasionnellement les fichiers sont infectés
info site proportion chargée proportion infectés E1 10% 1,0% apriori E2 20% 0,5% "
E3 70% 0,8% "
on télécharge un fichier F qui s’avère infecté.
on ne souvient plus de quel site on a téléchargé quel site doit-on soupçonné ?
Solution P(E1 l F) = ? P(E2 l F) = ? P(E3 l F) = ? P(F) = 0,1*0,01 + 0,2*0,005 + 0,7*0,008
= 0,001 + 0,001 + 0,0056
= 0,0076
P(E1 l F) = 0,0010 / 0,0076 = 0,1315 P(E2 l F) = 0,0010 / 0,0076 = 0,1315 P(E3 l F) = 0,0056 / 0,0076 = 0,7368
E3 est le site le plus probable d’avoir causer l’infection
MTH2302 Probabilités et méthodes statistiques
39
Bernard CLÉMENT, PhD
Exemple 4 courrier électronique : pourriel (spam) ou non ?
hypothèses 100 messages - probabilité a priori 10 classés « pourriel = spam » - 10%
90 classés « OK » - 90%
message entrant analyse contenu mots clés
pour le déclarer comme un pourriel
Question: risque message entrant soit un pourriel?
nouveau message contient 60% de mots clés dans « spams » 80% de mots clés sont « OK » P(pourriel
|
message) = ?P(pourriel) = 10% P(OK) = 90%
P(message | pourriel) = 60% P(message | OK ) = 80%
P(pourriel | message) = P(pourriel) * P(message | pourriel)
P(pourriel)*P(message | pourriel) + P(OK)*P(message | OK)
= 10 * 60) / (10*60 + 90*80) = 0,0769 .. 7,69% chance message = pourriel Si hypothèse: 10% spam - 90% changée pour 50% spam et 50% OK alors P(pourriel | message) = 0,42 ... 42% de chance
que message = pourriel
40/49
Bernard CLÉMENT, PhD
Exemple 5
Nate Silver
The real winner in the US elections: Thomas Bayes
Source : http://bayesian.org/forums/news/4105
As we all know, last night was the US presidential election. In one sense, President Obama was the winner. But in another sense, the real winner was Bayesian analysis, which scored a public relations coup.
In 2008, Nate Silver developed a Bayesian model to forecast the U.S.
general election results. He won fame for correctly predicting 49 of 50 states, as well as every Senate race.
This brought him a New York Times column and a much higher profile.
This time around, his consistent predictions that Obama was in front earned him a considerable backlash among pundits. While a few criticisms had merit, most were mathematically illiterate, indignantly mocking the idea that the race was anything other than a tossup.
In 2012 he has predicted all 50 states correctly.
People with our quantitative background can easily find flaws with this metric. For example, a majority of states were easy to call -- nobody is surprised by the results in Texas or California.
More seriously, his "call" for Florida was a 50.3% probability, essentially the proverbial "coin toss". Serious analysis has to chalk Florida up to luck.
Nevertheless, the broader point is that Nate's high-profile Bayesian model just experienced a very visible success. Even better, he recently authored a book-length popular exposition of the Bayesian approach. I purchased that book, "The Signal and the Noise," on a recent flight. It's excellent reading: more technical than McGrayne's recent entry, but no less accessible or engaging.
Film
Money Ball
MTH2302 Probabilités et méthodes statistiques
41
Bernard CLÉMENT, PhD
Recommendations et ‘règles du pouce’ (RP)
RP1 : ne pas multiplier les hypothèses au delà de la nécessité base : simplicité et parcimonie
RP2 : ne pas multiplier les probabilités au delà de la nécessité base : les probabilités sont bornées par 1 et l’opération
de multiplication donnera toujours un nombre plus petit
exemple: procès en 1964 à LA - vol d’une bourse en pleine rue
description du vol - Une femme blanche aux cheveux blonds en queue de cheval arracha une bourse à une autre femme.
La voleuse courut et fut reconnue plus loin alors qu’elle entrait dans une voiture taxi de couleur jaune conduite par un homme de race noire portant une moustache et une barbe
QUELLE EST LA PROBABILITÉ DE L’ÉVÉNEMENT CI- HAUT ?
MTH2302 Probabilités et méthodes statistiques
42
Bernard CLÉMENT, PhD
Avocat de la poursuite (couronne) proposa le calcul suivant :
événement probabilité produit probabilité
E1: cheveux blond 1 / 3 1 / 3
E2: cheveux en queue de cheval 1 / 10 1 / 30
E3: voiture couleur jaune 1 / 10 1 / 300
E4: homme portant barbe 1 / 10 1 / 3 000
E5: homme portant moustache 1 / 4 1 / 12 000
E6: couple inter race voiture 1 / 1000 1 / 12 000 000
E = E1 ∩ E2 ∩ E3 ∩ E4 ∩ E5 ∩ E6 1 / 12 000 000 = p
avec hypothèse d’indépendance
résultat : couple en accusation fut condamné car p est très petite ! verdict renversé en Cour d’Appel car
introduction de plus en plus d’événements dans le calcul + hypothèse d’indépendance est forte et incertaine
Recommendations et ‘règles du pouce’ (RP)
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 43
Recommendations et ‘règles du pouce’ (RP)
RP3 : préciser toujours l’espace d’échantillonnage afin d’énoncer un risque base : un énoncé de probabilité repose sur l’espace d’échantillonnage
sur lequel il s’applique;
Une probabilité est toujours conditionnelle
Soyez précis sur le référentiel de référence.
Question pertinente : quel est le groupe, quelles sont les unités, etc...
sur lesquels on énonce la probabilité ? Exemple : selon un ouvrage sur l’évaluation des risques
il y a une probabilité 0,0006 de mourir dans un accident durant l’ascension d’une montage.
On présume que le groupe de référence est : groupe des personnes qui font de l’ascension de montages.
mais la probabilité est 0 si vous n’en faites pas !
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 44
Poker
On tire 5 cartes d’un jeu de 52 cartes à jouer - nombre de possibles : C525 = 2 598 560 ordre pas tenu en compte - identification des cartesSORTE: 2, 3, 4,…, 10, valet, dame, roi, as COULEUR: trèfle, carreau, cœur, pique
ÉVÉNEMENT nombre probabilité
PAIRE (2 cartes de la même sorte) 1 sorte (2, 3,…, roi, as) parmi 13 2 couleurs parmi 4
3 autres cartes parmi 12 sortes restantes 1 couleur parmi 4
C131C42C123C41C41C41
= 13*6*220*4*4*4
= 1 098 240
0,422 63
2 PAIRES (2 fois une paire) 2 sortes parmi 13
2 couleurs parmi 4 pour chacune des paires
5e carte parmi 44 restantes
C132C42C42C441
= 78*6*6*44 = 123 552 0,047 50
BRELAN (3 cartes de la même sorte)
C131C43C122C41C41
= 13*4*66*4*4 = 54 912 0,021 32
SÉQUENCE (5 sortes consécutives
toute couleur confondue) 9*(45-4) = 9 180 0,003 53 COULEUR (5 cartes de même
couleur sans les quintes) - 9 : exclusion de 9 quintes
C41(C135- 9)
= 4*1278 = 5 112
0.001 97
MAIN PLEINE (Brelan + 1 paire) C131C43C121C41
=13*4*12*6 = 3 744 0,001 44 CARRÉ (4 cartes de la même sorte) C131C44C121C41
= 13*1*12*4 = 624 0,000 240 QUINTE non royale
(5 sortes consécutives d’une même couleur sauf quinte royale
9*4 - 4 = 32 0,000 012
QUINTE ROYALE- (10, valet, dame,
roi, as) d’une même couleur 4 0,000 002
CARTE ISOLÉE (rien de ce qui précède)
2 598 960 - 1 098 240 - 109 8240 - 123 552 - 54 912 - 9180 - 5112 - 3744 -32 – 4 = 1 303 164
0,501 50
45
Bernard CLÉMENT, PhD
Poker
POKER
nombre mains: 5 cartes parmi j eu de 52 = 2598560 p_prob = nombre / 2598560
rapport cotes = odd ratio = (1 + p_prob) / p_prob paiement casino = multiple de la mise
1
événement
2 nombre
3
p _ p r o b
4 rapport
cotes
5 paiement
casino paire
2 paires brelan séquence couleur main pleine carré
quinte nonroy quinte roy autre
paire (pair) 1098240 0,422634 3 1
2 paires (2 pairs) 123552 0,047546 22 2
brelan (3 of a kind) 54912 0,021132 48 3
séquence (straight) 9180 0,003533 284 5
couleur (flush) 5112 0,001967 509 8
main pleine (full house) 3744 0,001441 695 10 carré (four of a kind) 624 0,000240 4192 20 quinte nonroy (straight flush) 32 0,000012 81206 50 quinte roy (royal flush) 4 0,000002 649641 100
autre 1303164 0,501495
MTH2302 Probabilités et méthodes statistiques
Bernard CLÉMENT, PhD 46