• Aucun résultat trouvé

Les diapositives

N/A
N/A
Protected

Academic year: 2021

Partager "Les diapositives"

Copied!
111
0
0

Texte intégral

(1)

l y c é e m a r c e l i n b e r t h e l o t p c *

Probabilités

Jean-Pierre Becirspahic

(2)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.

Ω est l’univers des possibles (les résultats d’une expérience) ;

A ⊂ P (Ω) est l’ensemble des événements (mesurables);

(3)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.

Ω est l’univers des possibles (les résultats d’une expérience) ;

A ⊂ P (Ω) est l’ensemble des événements (mesurables);

(4)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.

Ω est l’univers des possibles (les résultats d’une expérience) ;

A ⊂ P (Ω) est l’ensemble des événements (mesurables);

(5)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.

Ω est l’univers des possibles (les résultats d’une expérience) ;

A ⊂ P (Ω) est l’ensemble des événements (mesurables);

(6)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.

Ω est l’univers des possibles (les résultats d’une expérience) ;

A ⊂ P (Ω) est l’ensemble des événements (mesurables);

• P:A → [0,1] attribue à chaque événement une probabilité.

A est une tribu lorsque                Ω ∈A A ∈A =⇒ A ∈ A (An) ∈AN =⇒ [ n∈N An ∈A Conséquences : € ∈A et \ n∈N An ∈A .

(7)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.

Ω est l’univers des possibles (les résultats d’une expérience) ;

A ⊂ P (Ω) est l’ensemble des événements (mesurables);

• P:A → [0,1] attribue à chaque événement une probabilité.

Pest une probabilité lorsque

           P(Ω) = 1 si i , j ⇒ Ai∩ Ai= €, P  [ n∈N An  =X n∈N P(An) Conséquences : • P(€) = 0 • P(A ) = 1 − P(A ) • P(A ∪ B ) = P(A ) + P(B ) − P(A ∩ B ) • A ⊂ B =⇒ P(A ) 6 P(B )

(8)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à

un passage au complémentaire ; • unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(9)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à

un passage au complémentaire ;

unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(10)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;

unil existecorrespond à

une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(11)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à

une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(12)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à

une intersection ; • uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(13)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à

une intersection ;

uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(14)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;

uneimplicationcorrespond à

une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(15)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à

une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(16)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les Ansont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(17)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les An sont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(18)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les An sont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(19)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les An sont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(20)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les An sont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(21)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Un savoir faire

Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :

unenégationcorrespond à un passage au complémentaire ;unil existecorrespond à une union ;

unpour toutcorrespond à une intersection ;uneimplicationcorrespond à une inclusion.

Soit(An) une suite d’événements. Montrer que «seul un nombre fini

d’événements parmi les An sont réalisés» est un événement.

Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N  \ k >n Ak  −→ c’est un événement

(22)

l y c é e m a r c e l i n b e r t h e l o t p c *

Théorèmes de limite monotone

Si A n⊂ An+1, P  [ n∈N An  = lim P(An) ; • Si A n+1⊂ An, P  \ n∈N An  = lim P(An).

Conséquences : dans le cas général, • P  [ n∈N An  = lim P(Bn) avec Bn = n [ k=0 Ak (Bn ⊂ Bn+1) ; • P  \ n∈N An  = lim P(Cn) avec Cn= n \ k=0 Ak (Cn+1⊂ Cn).

(23)

l y c é e m a r c e l i n b e r t h e l o t p c *

Théorèmes de limite monotone

Si A n⊂ An+1, P  [ n∈N An  = lim P(An) ; • Si A n+1⊂ An, P  \ n∈N An  = lim P(An). Conséquences : dans le cas général,

• P  [ n∈N An  = lim P(Bn) avec Bn = n [ k=0 Ak (Bn ⊂ Bn+1) ; • P  \ n∈N An  = lim P(Cn) avec Cn= n \ k=0 Ak (Cn+1⊂ Cn).

(24)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗= \ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

(25)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗= \ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

(26)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

(27)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

(28)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

(29)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

n). • SiXP(An) CValorslim p X n>p ln1 − P(An)  = 0 donc P(A∗) = lim P(B p) = 0.

(30)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An

A∗est réalisé lorsque un nombre infini de Anest réalisé.

A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P  \ n>p An  = 1 −Y n>p  1 − P(An). On étudielnY n>p  1−P(An)  =X n>p

ln1−P(An)−→ ˆm nature queXP(A

n). • SiXP(An) DValors ∀p, X n>p ln1 − P(An)  = −∞ donc ∀p, P(Bp) = 1 et P(A∗) = lim P(Bp) = 1.

(31)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.

Une urne contient une boule noire et une boule blanche. On effectue des tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?

→P(A n) = 1 1+ n donc P(A ∗ ) = 1.

Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.

→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.

(32)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.

Une urne contient une boule noire et une boule blanche. On effectue des

tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?

→P(A n) = 1 1+ n donc P(A ∗ ) = 1.

Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.

→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.

(33)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.

Une urne contient une boule noire et une boule blanche. On effectue des

tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?

→P(A n) = 1 1+ n donc P(A ∗ ) = 1.

Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.

→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.

(34)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.

Une urne contient une boule noire et une boule blanche. On effectue des

tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?

→P(A n) = 1 1+ n donc P(A ∗ ) = 1.

Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.

→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.

(35)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Lemme de Borel-Cantelli

Soit(An) une suite d’événements indépendants, et A∗=\

p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.

Une urne contient une boule noire et une boule blanche. On effectue des

tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?

→P(A n) = 1 1+ n donc P(A ∗ ) = 1.

Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.

→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.

(36)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Cas d’un univers dénombrable

Si Ω = nωn

n ∈ N

o

on peut choisir A = P (Ω) et définir P en posant

P({ωn}) = pn avec pn>0 et X

n

pn= 1.

Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,

P 

{n}= 1

2n+1.

Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?

∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P  {kn}= +∞ X n=0 1 2kn+1= 1 2 1 1 − 1 2k = 2 k −1 2k− 1.

Pour cette loi, la probabilité qu’un entier soit pair vaut2

(37)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Cas d’un univers dénombrable

Si Ω = nωn

n ∈ N

o

on peut choisir A = P (Ω) et définir P en posant

P({ωn}) = pn avec pn>0 et X

n

pn= 1.

Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,

P 

{n}= 1

2n+1.

Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?

∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P  {kn}= +∞ X n=0 1 2kn+1= 1 2 1 1 − 1 2k = 2 k −1 2k− 1.

Pour cette loi, la probabilité qu’un entier soit pair vaut2

(38)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Cas d’un univers dénombrable

Si Ω = nωn

n ∈ N

o

on peut choisir A = P (Ω) et définir P en posant

P({ωn}) = pn avec pn>0 et X

n

pn= 1.

Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,

P 

{n}= 1

2n+1.

Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?

∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P  {kn}= +∞ X n=0 1 2kn+1 = 1 2 1 1 − 1 2k = 2 k −1 2k− 1.

Pour cette loi, la probabilité qu’un entier soit pair vaut2

(39)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espaces probabilisés

Cas d’un univers dénombrable

Si Ω = nωn

n ∈ N

o

on peut choisir A = P (Ω) et définir P en posant

P({ωn}) = pn avec pn>0 et X

n

pn= 1.

Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,

P 

{n}= 1

2n+1.

Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?

∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P  {kn}= +∞ X n=0 1 2kn+1 = 1 2 1 1 − 1 2k = 2 k −1 2k− 1.

Pour cette loi, la probabilité qu’un entier soit pair vaut2

(40)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).

(B

i)i ∈Iest unsystème complet d’événementslorsque

i , j =⇒ Bi∩ Bj= € et

[

i ∈I

Bi= Ω.

Proba. totales : si(B

i)i ∈I est un s.c.e., P(A ) =

X

i ∈I

P(A | B

i)P(Bi).

Bayes : si(B

i)i ∈I est un s.c.e., P(Bi| A ) =

P(A | Bi)P(Bi) P

j ∈IP(A | Bj)P(Bj)

.

A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).

Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).

Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .

Les(A

n) sontindépendantslorsque pour tout k ∈ N

et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).

(41)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).

(B

i)i ∈Iest unsystème complet d’événementslorsque

i , j =⇒ Bi∩ Bj= € et

[

i ∈I

Bi= Ω.

Proba. totales : si(B

i)i ∈I est un s.c.e., P(A ) =

X

i ∈I

P(A | B

i)P(Bi).

Bayes : si(B

i)i ∈I est un s.c.e., P(Bi| A ) =

P(A | Bi)P(Bi) P

j ∈IP(A | Bj)P(Bj)

.

A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).

Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).

Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .

Les(A

n) sontindépendantslorsque pour tout k ∈ N

et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).

(42)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).

(B

i)i ∈Iest unsystème complet d’événementslorsque

i , j =⇒ Bi∩ Bj= € et

[

i ∈I

Bi= Ω.

Proba. totales : si(B

i)i ∈I est un s.c.e., P(A ) =

X

i ∈I

P(A | B

i)P(Bi).

Bayes : si(B

i)i ∈I est un s.c.e., P(Bi| A ) =

P(A | Bi)P(Bi) P

j ∈IP(A | Bj)P(Bj)

.

A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).

Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).

Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .

Les(A

n) sontindépendantslorsque pour tout k ∈ N

et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).

(43)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).

(B

i)i ∈Iest unsystème complet d’événementslorsque

i , j =⇒ Bi∩ Bj= € et

[

i ∈I

Bi= Ω.

Proba. totales : si(B

i)i ∈I est un s.c.e., P(A ) =

X

i ∈I

P(A | B

i)P(Bi).

Bayes : si(B

i)i ∈I est un s.c.e., P(Bi| A ) =

P(A | Bi)P(Bi) P

j ∈IP(A | Bj)P(Bj)

.

A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).

Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).

Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .

Les(A

n) sontindépendantslorsque pour tout k ∈ N

et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).

(44)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).

(B

i)i ∈Iest unsystème complet d’événementslorsque

i , j =⇒ Bi∩ Bj= € et

[

i ∈I

Bi= Ω.

Proba. totales : si(B

i)i ∈I est un s.c.e., P(A ) =

X

i ∈I

P(A | B

i)P(Bi).

Bayes : si(B

i)i ∈I est un s.c.e., P(Bi| A ) =

P(A | Bi)P(Bi) P

j ∈IP(A | Bj)P(Bj)

.

A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).

Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).

Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .

Les(A

n) sontindépendantslorsque pour tout k ∈ N

et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).

(45)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).

(B

i)i ∈Iest unsystème complet d’événementslorsque

i , j =⇒ Bi∩ Bj= € et

[

i ∈I

Bi= Ω.

Proba. totales : si(B

i)i ∈I est un s.c.e., P(A ) =

X

i ∈I

P(A | B

i)P(Bi).

Bayes : si(B

i)i ∈I est un s.c.e., P(Bi| A ) =

P(A | Bi)P(Bi) P

j ∈IP(A | Bj)P(Bj)

.

A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).

Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).

Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .

Les(A

n) sontindépendantslorsque pour tout k ∈ N

et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).

(46)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour

toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).

Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.

card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.

On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K∈ {−1, 1}card K.

À prouver: PMij= ij ∀(i, j ) ∈ K  = Y (i,j )∈K P(M ij = ij). • P  Mij = ij ∀(i, j ) ∈ K  =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.

(47)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour

toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).

Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.

card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.

On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K∈ {−1, 1}card K.

À prouver: PMij= ij ∀(i, j ) ∈ K  = Y (i,j )∈K P(M ij = ij). • P  Mij = ij ∀(i, j ) ∈ K  =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.

(48)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour

toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).

Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.

card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.

On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K ∈ {−1, 1}card K.

À prouver: PMij= ij ∀(i, j ) ∈ K  = Y (i,j )∈K P(M ij = ij). • P  Mij = ij ∀(i, j ) ∈ K  =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.

(49)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour

toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).

Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.

card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.

On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K ∈ {−1, 1}card K.

À prouver: PMij= ij ∀(i, j ) ∈ K  = Y (i,j )∈K P(M ij = ij). • P  Mij = ij ∀(i, j ) ∈ K  =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.

(50)

l y c é e m a r c e l i n b e r t h e l o t p c *

Conditionnement, indépendance

On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour

toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).

Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.

card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.

On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K ∈ {−1, 1}card K.

À prouver: PMij= ij ∀(i, j ) ∈ K  = Y (i,j )∈K P(M ij = ij). • P  Mij = ij ∀(i, j ) ∈ K  =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij = ij) = Y (i,j )∈K 1 2= 1 2card K.

(51)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X(Ω) ⊂n xn n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que

P(X = x

n) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(52)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X est fini on peut écrire X(Ω) =n x0, . . . , xn o . • Si X est dénombrable X(Ω) =n xn n∈ N o .

Dans tous les casil existe(x

n)n∈Ntelle que X(Ω) ⊂ n xn n∈ N o . • Si X(Ω) ⊂nx n n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que

P(X = xn) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(53)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X(Ω) ⊂nx n n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(54)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X(Ω) ⊂nx n n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(55)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X(Ω) ⊂nx n n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(56)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X(Ω) ⊂nx n n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(57)

l y c é e m a r c e l i n b e r t h e l o t p c *

Variables aléatoires

X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,

X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.

Si X(Ω) ⊂nx n n∈ N o , etX n

pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.

Déterminer la loi de X, c’est donnernxn

n∈ N

o

et P(X = xn).

La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales

de(X, Y ) sont les lois de X et de Y .

P(X = x) =

X

y∈Y(Ω)

P(X = x et Y = y) (idem pour Y )

X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).

(Xn)n∈Nsontmutuellement indépendanteslorsque

P(Xn

1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).

Lemme des coalitions (HP) : si X

1, . . . , Xn sont mutuellement

indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont

(58)

l y c é e m a r c e l i n b e r t h e l o t p c *

Loi hypergéométrique

On considère une urne contenant N boules, Np boules blanches et

Nq= N (1 − p) boules noires, avec p ∈]0, 1[. On effectue un tirage sans

remise de n boules, avec n 6 N , et on note X le nombre de boules blanches tirées.

Déterminer la loi de X , puis lim

N →+∞ P(X = k ). X(Ω) = ~0, min(n, Np), et P(X = k ) =( Np k)( Nq n−k) (Nn) . P(X = k ) = n k ! (Np)! (Np − k )! (Nq)! (Nq − n + k )! (N − n)! N! = n k ! (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1) ∼ N →+∞ n k ! (Np)k(Nq)n−k Nn = n k ! pkqn−k

(59)

l y c é e m a r c e l i n b e r t h e l o t p c *

Loi hypergéométrique

On considère une urne contenant N boules, Np boules blanches et

Nq= N (1 − p) boules noires, avec p ∈]0, 1[. On effectue un tirage sans

remise de n boules, avec n 6 N , et on note X le nombre de boules blanches tirées.

Déterminer la loi de X , puis lim

N →+∞ P(X = k ). X(Ω) = ~0, min(n, Np), et P(X = k ) =( Np k)( Nq n−k) (Nn) . P(X = k ) = n k ! (Np)! (Np − k )! (Nq)! (Nq − n + k )! (N − n)! N! = n k ! (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1) ∼ N →+∞ n k ! (Np)k(Nq)n−k Nn = n k ! pkqn−k

(60)

l y c é e m a r c e l i n b e r t h e l o t p c *

Loi hypergéométrique

On considère une urne contenant N boules, Np boules blanches et

Nq= N (1 − p) boules noires, avec p ∈]0, 1[. On effectue un tirage sans

remise de n boules, avec n 6 N , et on note X le nombre de boules blanches tirées.

Déterminer la loi de X , puis lim

N →+∞ P(X = k ). X(Ω) = ~0, min(n, Np), et P(X = k ) =( Np k)( Nq n−k) (Nn) . P(X = k ) = n k ! (Np)! (Np − k )! (Nq)! (Nq − n + k )! (N − n)! N! = n k ! (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1) ∼ N →+∞ n k ! (Np)k(Nq)n−k Nn = n k ! pkqn−k

(61)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

Si X est une variable aléatoire, FX : x 7→ P(X 6 x).

+∞ 1

FX est une fonction croissante,lim−∞FX(x) = 0, lim

+∞FX(x) = 1, en tout point

(62)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

Si X est une variable aléatoire, FX : x 7→ P(X 6 x).

+∞ 1

FX est une fonction croissante,lim−∞FX(x) = 0, lim

+∞FX(x) = 1, en tout point

(63)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).

(64)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).

(65)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).

(66)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).

(67)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).

(68)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).

(69)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

F

X est croissante.

Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).

Conséquence. FX possède des limites à droite et à gauche, ainsi

qu’en ±∞. • lim −∞FX= 0. \ n∈N h

X 6 −ni= € donc (limite monotone) 0 = lim PX 6 −n= lim

−∞FX. • lim +∞FX= 1. [ n∈N h

X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim

+∞FX.

F

X est continue à droite et possède une limite à gauche.

h X 6 ai= \ n∈N∗  X 6 a+1 n  ⇒ P(X 6 a) = lim n→+∞FX  a+1 n  = FX(a+). h X< ai= [ n∈N∗  X 6 a −1 n  ⇒ P(X< a) = lim n→+∞FX  a −1 n  = FX(a−). Conséquence :P(X = a) = FX(a+) − FX(a−).

(70)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

Loi normale (HP)

Si F: R → R est une fonction croissante continue à droite et telle que

lim

−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que

FX = F (admis et HP).

Laloi normaleest définie par P(X 6 x) = √1 2π

Zx

−∞

e−t2/2dt = FX(x).

FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.

P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b

(71)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

Loi normale (HP)

Si F: R → R est une fonction croissante continue à droite et telle que

lim

−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que

FX = F (admis et HP).

Laloi normaleest définie par P(X 6 x) = √1 2π

Zx

−∞

e−t2/2dt = FX(x).

FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.

P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b

(72)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

Loi normale (HP)

Si F: R → R est une fonction croissante continue à droite et telle que

lim

−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que

FX = F (admis et HP).

Laloi normaleest définie par P(X 6 x) = √1 2π

Zx

−∞

e−t2/2dt = FX(x).

FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.

P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b

(73)

l y c é e m a r c e l i n b e r t h e l o t p c *

Fonction de répartition

Loi normale (HP)

Si F: R → R est une fonction croissante continue à droite et telle que

lim

−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que

FX = F (admis et HP).

Laloi normaleest définie par P(X 6 x) = √1 2π

Zx

−∞

e−t2/2dt = FX(x).

FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.

P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b

(74)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espérance et variance

Si X(Ω) ⊂nxn n∈ N o ,

X possèdeun moment d’ordre k lorsqueXxnkP(X = x

n) CVA.

Si X possède un moment d’ordre 1, E(X ) =

+∞

X

n=0

xnP(X = xn) ;

si X possède un moment d’ordre 2,

V(X ) = E



(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;

si X et Y possèdent un moment d’ordre 2,

cov(X, Y ) = E(XY ) − E(X )E(Y ).

L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).

L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].

(75)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espérance et variance

Si X(Ω) ⊂nxn n∈ N o ,

X possèdeun moment d’ordre k lorsqueXxnkP(X = x

n) CVA.

Si X possède un moment d’ordre 1, E(X ) =

+∞

X

n=0

xnP(X = xn) ;

si X possède un moment d’ordre 2,

V(X ) = E



(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;

si X et Y possèdent un moment d’ordre 2,

cov(X, Y ) = E(XY ) − E(X )E(Y ).

L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).

L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].

(76)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espérance et variance

Si X(Ω) ⊂nxn n∈ N o ,

X possèdeun moment d’ordre k lorsqueXxnkP(X = x

n) CVA.

Si X possède un moment d’ordre 1, E(X ) =

+∞

X

n=0

xnP(X = xn) ;

si X possède un moment d’ordre 2,

V(X ) = E



(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;

si X et Y possèdent un moment d’ordre 2,

cov(X, Y ) = E(XY ) − E(X )E(Y ).

L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).

L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].

(77)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espérance et variance

Si X(Ω) ⊂nxn n∈ N o ,

X possèdeun moment d’ordre k lorsqueXxnkP(X = x

n) CVA.

Si X possède un moment d’ordre 1, E(X ) =

+∞

X

n=0

xnP(X = xn) ;

si X possède un moment d’ordre 2,

V(X ) = E



(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;

si X et Y possèdent un moment d’ordre 2,

cov(X, Y ) = E(XY ) − E(X )E(Y ).

L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).

L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].

(78)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espérance et variance

Si X(Ω) ⊂nxn n∈ N o ,

X possèdeun moment d’ordre k lorsqueXxnkP(X = x

n) CVA.

Si X possède un moment d’ordre 1, E(X ) =

+∞

X

n=0

xnP(X = xn) ;

si X possède un moment d’ordre 2,

V(X ) = E



(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;

si X et Y possèdent un moment d’ordre 2,

cov(X, Y ) = E(XY ) − E(X )E(Y ).

L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).

L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].

(79)

l y c é e m a r c e l i n b e r t h e l o t p c *

Espérance et variance

Si X(Ω) ⊂nxn n∈ N o ,

X possèdeun moment d’ordre k lorsqueXxnkP(X = x

n) CVA.

Si X possède un moment d’ordre 1, E(X ) =

+∞

X

n=0

xnP(X = xn) ;

si X possède un moment d’ordre 2,

V(X ) = E



(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;

si X et Y possèdent un moment d’ordre 2,

cov(X, Y ) = E(XY ) − E(X )E(Y ).

L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).

L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :

Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y ) ∈ [−1, 1].

Références

Documents relatifs

On effectue des tirages d’une boule avec remise jusqu’à l’obtention d’une boule noire, en rajoutant à chaque tirage, une boule blanche supplémentaire.. On note X la variable

3 et on la lance indéfiniment. Soit une urne avec une boule blanche, une boule noire et une boule rouge. On y effectue des tirages successifs avec remise. jusqu’à obtenir pour

On effectue 100 tirages d’une boule avec remise (donc on remet la boule tirée avant chaque nouveau tirage).. On note f la fréquence des boules

A l’aide de la formule des probabilités totales, exprimer x

lorsque i &gt; j : Les j 1 premiers tirages ne donnent pas de boule rouge, ni de boule rouge (car la première rouge apparait au tirage numéro j et la première boule blanche au

On peut procéder ainsi : pour la première chemise, on tire au hasard une boule dans un urne contenant 4 boules notés a, b, c et d puis on remet la boule tiré dans l’urne et

On effectue n tirages successifs d’une boule avec remise (après chaque tirage la boule est remise

On effectue trois tirages successifs au hasard d’une boule selon la procédure suivante : après chaque tirage si la boule tirée est blanche, on la remet dans l’urne et si elle