l y c é e m a r c e l i n b e r t h e l o t p c *
Probabilités
Jean-Pierre Becirspahic
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.
• Ω est l’univers des possibles (les résultats d’une expérience) ;
• A ⊂ P (Ω) est l’ensemble des événements (mesurables);
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.
• Ω est l’univers des possibles (les résultats d’une expérience) ;
• A ⊂ P (Ω) est l’ensemble des événements (mesurables);
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.
• Ω est l’univers des possibles (les résultats d’une expérience) ;
• A ⊂ P (Ω) est l’ensemble des événements (mesurables);
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.
• Ω est l’univers des possibles (les résultats d’une expérience) ;
• A ⊂ P (Ω) est l’ensemble des événements (mesurables);
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.
• Ω est l’univers des possibles (les résultats d’une expérience) ;
• A ⊂ P (Ω) est l’ensemble des événements (mesurables);
• P:A → [0,1] attribue à chaque événement une probabilité.
A est une tribu lorsque Ω ∈A A ∈A =⇒ A ∈ A (An) ∈AN =⇒ [ n∈N An ∈A Conséquences : ∈A et \ n∈N An ∈A .
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
(Ω,A ,P) où Ω est ununivers,A unetribu, P uneprobabilité.
• Ω est l’univers des possibles (les résultats d’une expérience) ;
• A ⊂ P (Ω) est l’ensemble des événements (mesurables);
• P:A → [0,1] attribue à chaque événement une probabilité.
Pest une probabilité lorsque
P(Ω) = 1 si i , j ⇒ Ai∩ Ai= , P [ n∈N An =X n∈N P(An) Conséquences : • P() = 0 • P(A ) = 1 − P(A ) • P(A ∪ B ) = P(A ) + P(B ) − P(A ∩ B ) • A ⊂ B =⇒ P(A ) 6 P(B )
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à
un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à
un passage au complémentaire ;
• unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ;
• unil existecorrespond à
une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à
une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à
une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à
une intersection ;
• uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ;
• uneimplicationcorrespond à
une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à
une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les Ansont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les An sont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les An sont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les An sont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les An sont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Un savoir faire
Pour montrer qu’on est en présence d’un événement, il faut savoir tra-duire les connecteurs logiques en termes ensemblistes :
• unenégationcorrespond à un passage au complémentaire ; • unil existecorrespond à une union ;
• unpour toutcorrespond à une intersection ; • uneimplicationcorrespond à une inclusion.
Soit(An) une suite d’événements. Montrer que «seul un nombre fini
d’événements parmi les An sont réalisés» est un événement.
Soitω ∈ Ω. On traduit : ⇐⇒∃n ∈ N ∀k > n, ω < Ak ⇐⇒ ∃n ∈ N ∀k > n, ω ∈ Ak ⇐⇒ ∃n ∈ N ω∈ \ k >n Ak ⇐⇒ ω ∈ [ n∈N \ k >n Ak −→ c’est un événement
l y c é e m a r c e l i n b e r t h e l o t p c *
Théorèmes de limite monotone
• Si A n⊂ An+1, P [ n∈N An = lim P(An) ; • Si A n+1⊂ An, P \ n∈N An = lim P(An).
Conséquences : dans le cas général, • P [ n∈N An = lim P(Bn) avec Bn = n [ k=0 Ak (Bn ⊂ Bn+1) ; • P \ n∈N An = lim P(Cn) avec Cn= n \ k=0 Ak (Cn+1⊂ Cn).
l y c é e m a r c e l i n b e r t h e l o t p c *
Théorèmes de limite monotone
• Si A n⊂ An+1, P [ n∈N An = lim P(An) ; • Si A n+1⊂ An, P \ n∈N An = lim P(An). Conséquences : dans le cas général,
• P [ n∈N An = lim P(Bn) avec Bn = n [ k=0 Ak (Bn ⊂ Bn+1) ; • P \ n∈N An = lim P(Cn) avec Cn= n \ k=0 Ak (Cn+1⊂ Cn).
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗= \ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗= \ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
n). • SiXP(An) CValorslim p X n>p ln1 − P(An) = 0 donc P(A∗) = lim P(B p) = 0.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. Remarque :ω ∈ A∗ ⇐⇒ ∀p ∈ N, ∃n > p ω∈ An
A∗est réalisé lorsque un nombre infini de Anest réalisé.
A∗=\ p∈N Bpavec Bp= [ n>p An. On a Bp= Bp+1∪ Ap donc Bp+1⊂ Bp etP(A∗) = lim P(Bp). P(B p) = 1 − P(Bp) = 1 − P \ n>p An = 1 −Y n>p 1 − P(An). On étudielnY n>p 1−P(An) =X n>p
ln1−P(An)−→ ˆm nature queXP(A
n). • SiXP(An) DValors ∀p, X n>p ln1 − P(An) = −∞ donc ∀p, P(Bp) = 1 et P(A∗) = lim P(Bp) = 1.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.
Une urne contient une boule noire et une boule blanche. On effectue des tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?
→P(A n) = 1 1+ n donc P(A ∗ ) = 1.
Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.
→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.
Une urne contient une boule noire et une boule blanche. On effectue des
tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?
→P(A n) = 1 1+ n donc P(A ∗ ) = 1.
Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.
→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.
Une urne contient une boule noire et une boule blanche. On effectue des
tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?
→P(A n) = 1 1+ n donc P(A ∗ ) = 1.
Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.
→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.
Une urne contient une boule noire et une boule blanche. On effectue des
tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?
→P(A n) = 1 1+ n donc P(A ∗ ) = 1.
Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.
→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Lemme de Borel-Cantelli
Soit(An) une suite d’événements indépendants, et A∗=\
p∈N [ n>p An. Alors P(A∗) = 0 ou P(A∗) = 1. • SiXP(A n) CV, P(A ∗ ) = 0. • SiXP(A n) DV, P(A ∗ ) = 1.
Une urne contient une boule noire et une boule blanche. On effectue des
tirages avec remise, en ajoutant une boule blanche après chaque tirage. Quelle est la probabilité de tirer une infinité de fois la boule noire ?
→P(A n) = 1 1+ n donc P(A ∗ ) = 1.
Même chose mais cette fois en doublant le nombre de boules blanches après chaque tirage.
→P(A n) = 1 1+ 2n−1 donc P(A ∗ ) = 0.
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Cas d’un univers dénombrable
Si Ω = nωn
n ∈ N
o
on peut choisir A = P (Ω) et définir P en posant
P({ωn}) = pn avec pn>0 et X
n
pn= 1.
• Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,
P
{n}= 1
2n+1.
• Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?
• ∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P {kn}= +∞ X n=0 1 2kn+1= 1 2 1 1 − 1 2k = 2 k −1 2k− 1.
Pour cette loi, la probabilité qu’un entier soit pair vaut2
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Cas d’un univers dénombrable
Si Ω = nωn
n ∈ N
o
on peut choisir A = P (Ω) et définir P en posant
P({ωn}) = pn avec pn>0 et X
n
pn= 1.
• Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,
P
{n}= 1
2n+1.
• Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?
• ∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P {kn}= +∞ X n=0 1 2kn+1= 1 2 1 1 − 1 2k = 2 k −1 2k− 1.
Pour cette loi, la probabilité qu’un entier soit pair vaut2
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Cas d’un univers dénombrable
Si Ω = nωn
n ∈ N
o
on peut choisir A = P (Ω) et définir P en posant
P({ωn}) = pn avec pn>0 et X
n
pn= 1.
• Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,
P
{n}= 1
2n+1.
• Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?
• ∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P {kn}= +∞ X n=0 1 2kn+1 = 1 2 1 1 − 1 2k = 2 k −1 2k− 1.
Pour cette loi, la probabilité qu’un entier soit pair vaut2
l y c é e m a r c e l i n b e r t h e l o t p c *
Espaces probabilisés
Cas d’un univers dénombrable
Si Ω = nωn
n ∈ N
o
on peut choisir A = P (Ω) et définir P en posant
P({ωn}) = pn avec pn>0 et X
n
pn= 1.
• Montrer qu’on définit sur N une probabilité en posant : ∀n ∈ N,
P
{n}= 1
2n+1.
• Soit k ∈ N. Quelle est la probabilité qu’un entier soit multiple de k ?
• ∀n ∈ N, 1 2n+1 >0 et +∞ X n=0 1 2n+1 = 1 2 1 1 −12 = 1. • P(k N) = +∞ X n=0 P {kn}= +∞ X n=0 1 2kn+1 = 1 2 1 1 − 1 2k = 2 k −1 2k− 1.
Pour cette loi, la probabilité qu’un entier soit pair vaut2
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).
• (B
i)i ∈Iest unsystème complet d’événementslorsque
i , j =⇒ Bi∩ Bj= et
[
i ∈I
Bi= Ω.
• Proba. totales : si(B
i)i ∈I est un s.c.e., P(A ) =
X
i ∈I
P(A | B
i)P(Bi).
• Bayes : si(B
i)i ∈I est un s.c.e., P(Bi| A ) =
P(A | Bi)P(Bi) P
j ∈IP(A | Bj)P(Bj)
.
• A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).
Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).
Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .
• Les(A
n) sontindépendantslorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).
• (B
i)i ∈Iest unsystème complet d’événementslorsque
i , j =⇒ Bi∩ Bj= et
[
i ∈I
Bi= Ω.
• Proba. totales : si(B
i)i ∈I est un s.c.e., P(A ) =
X
i ∈I
P(A | B
i)P(Bi).
• Bayes : si(B
i)i ∈I est un s.c.e., P(Bi| A ) =
P(A | Bi)P(Bi) P
j ∈IP(A | Bj)P(Bj)
.
• A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).
Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).
Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .
• Les(A
n) sontindépendantslorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).
• (B
i)i ∈Iest unsystème complet d’événementslorsque
i , j =⇒ Bi∩ Bj= et
[
i ∈I
Bi= Ω.
• Proba. totales : si(B
i)i ∈I est un s.c.e., P(A ) =
X
i ∈I
P(A | B
i)P(Bi).
• Bayes : si(B
i)i ∈I est un s.c.e., P(Bi| A ) =
P(A | Bi)P(Bi) P
j ∈IP(A | Bj)P(Bj)
.
• A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).
Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).
Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .
• Les(A
n) sontindépendantslorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).
• (B
i)i ∈Iest unsystème complet d’événementslorsque
i , j =⇒ Bi∩ Bj= et
[
i ∈I
Bi= Ω.
• Proba. totales : si(B
i)i ∈I est un s.c.e., P(A ) =
X
i ∈I
P(A | B
i)P(Bi).
• Bayes : si(B
i)i ∈I est un s.c.e., P(Bi| A ) =
P(A | Bi)P(Bi) P
j ∈IP(A | Bj)P(Bj)
.
• A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).
Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).
Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .
• Les(A
n) sontindépendantslorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).
• (B
i)i ∈Iest unsystème complet d’événementslorsque
i , j =⇒ Bi∩ Bj= et
[
i ∈I
Bi= Ω.
• Proba. totales : si(B
i)i ∈I est un s.c.e., P(A ) =
X
i ∈I
P(A | B
i)P(Bi).
• Bayes : si(B
i)i ∈I est un s.c.e., P(Bi| A ) =
P(A | Bi)P(Bi) P
j ∈IP(A | Bj)P(Bj)
.
• A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).
Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).
Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .
• Les(A
n) sontindépendantslorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
• PB(A ) = P(A | B ) est définie par : P(A ∩ B ) = P(A | B )P(B ).
• (B
i)i ∈Iest unsystème complet d’événementslorsque
i , j =⇒ Bi∩ Bj= et
[
i ∈I
Bi= Ω.
• Proba. totales : si(B
i)i ∈I est un s.c.e., P(A ) =
X
i ∈I
P(A | B
i)P(Bi).
• Bayes : si(B
i)i ∈I est un s.c.e., P(Bi| A ) =
P(A | Bi)P(Bi) P
j ∈IP(A | Bj)P(Bj)
.
• A et B sontindépendantslorsque P(A ∩ B ) = P(A )P(B ).
Conséquence : P(A | B ) = P(A ), P(B | A ) = P(B ).
Si A et B sont indépendants, il en est de même de A et B , de A et B , de A et B .
• Les(A
n) sontindépendantslorsque pour tout k ∈ N
∗
et tout n1< n2< · · · < nk, P(An1∩ · · · ∩ Ank) = P(An1) · · · P(Ank).
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour
toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).
Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.
card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.
On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K∈ {−1, 1}card K.
À prouver: PMij= ij ∀(i, j ) ∈ K = Y (i,j )∈K P(M ij = ij). • P Mij = ij ∀(i, j ) ∈ K =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour
toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).
Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.
card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.
On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K∈ {−1, 1}card K.
À prouver: PMij= ij ∀(i, j ) ∈ K = Y (i,j )∈K P(M ij = ij). • P Mij = ij ∀(i, j ) ∈ K =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour
toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).
Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.
card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.
On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K ∈ {−1, 1}card K.
À prouver: PMij= ij ∀(i, j ) ∈ K = Y (i,j )∈K P(M ij = ij). • P Mij = ij ∀(i, j ) ∈ K =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour
toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).
Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.
card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.
On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K ∈ {−1, 1}card K.
À prouver: PMij= ij ∀(i, j ) ∈ K = Y (i,j )∈K P(M ij = ij). • P Mij = ij ∀(i, j ) ∈ K =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij= ij) = Y (i,j )∈K 1 2= 1 2card K.
l y c é e m a r c e l i n b e r t h e l o t p c *
Conditionnement, indépendance
On considère une variable aléatoire uniforme M: Ω → Mn({−1, 1}). Pour
toutω ∈ Ω, on note Mij(ω) les coefficients de la matrice M(ω).
Montrer que les n2variables aléatoires(Mij)16i,j 6n sont indépendantes.
card Mn({−1, 1}) = 2n2. Si A ∈ Mn({−1, 1}), P(M = A ) = 1 2n2. Si ∈ {−1, 1}, P(Mij = ) = 2n2−1 2n2 = 1 2.
On pose le problème : soit K ⊂ ~1, n2, et(ij)(i,j )∈K ∈ {−1, 1}card K.
À prouver: PMij= ij ∀(i, j ) ∈ K = Y (i,j )∈K P(M ij = ij). • P Mij = ij ∀(i, j ) ∈ K =2 n2−card K 2n2 = 1 2card K ; • Y (i,j )∈K P(Mij = ij) = Y (i,j )∈K 1 2= 1 2card K.
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X(Ω) ⊂n xn n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que
P(X = x
n) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X est fini on peut écrire X(Ω) =n x0, . . . , xn o . • Si X est dénombrable X(Ω) =n xn n∈ N o .
• Dans tous les casil existe(x
n)n∈Ntelle que X(Ω) ⊂ n xn n∈ N o . • Si X(Ω) ⊂nx n n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que
P(X = xn) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X(Ω) ⊂nx n n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X(Ω) ⊂nx n n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X(Ω) ⊂nx n n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X(Ω) ⊂nx n n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Variables aléatoires
• X: Ω → R est unevariable aléatoire réellelorsque pour tout x ∈ R,
X−1({x}) ∈A . X estdiscrètelorsque X(Ω) est fini ou dénombrable.
• Si X(Ω) ⊂nx n n∈ N o , etX n
pn = 1 avec pn>0, il existe P telle que P(X = xn) = pn.
Déterminer la loi de X, c’est donnernxn
n∈ N
o
et P(X = xn).
• La loiconjointede X et de Y est la loi de(X, Y ) ; les loismarginales
de(X, Y ) sont les lois de X et de Y .
P(X = x) =
X
y∈Y(Ω)
P(X = x et Y = y) (idem pour Y )
• X et Y sontindépendantessi P(X = x et Y = y) = P(X = x)P(Y = y).
(Xn)n∈Nsontmutuellement indépendanteslorsque
P(Xn
1= x1et · · · et Xnk = xk) = P(Xn1= x1) · · · P(Xnk = xk).
• Lemme des coalitions (HP) : si X
1, . . . , Xn sont mutuellement
indépendantes, les variables f(X1, . . . , Xp) et g(Xp+1, . . . , Xn) sont
l y c é e m a r c e l i n b e r t h e l o t p c *
Loi hypergéométrique
On considère une urne contenant N boules, Np boules blanches et
Nq= N (1 − p) boules noires, avec p ∈]0, 1[. On effectue un tirage sans
remise de n boules, avec n 6 N , et on note X le nombre de boules blanches tirées.
Déterminer la loi de X , puis lim
N →+∞ P(X = k ). X(Ω) = ~0, min(n, Np), et P(X = k ) =( Np k)( Nq n−k) (Nn) . P(X = k ) = n k ! (Np)! (Np − k )! (Nq)! (Nq − n + k )! (N − n)! N! = n k ! (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1) ∼ N →+∞ n k ! (Np)k(Nq)n−k Nn = n k ! pkqn−k
l y c é e m a r c e l i n b e r t h e l o t p c *
Loi hypergéométrique
On considère une urne contenant N boules, Np boules blanches et
Nq= N (1 − p) boules noires, avec p ∈]0, 1[. On effectue un tirage sans
remise de n boules, avec n 6 N , et on note X le nombre de boules blanches tirées.
Déterminer la loi de X , puis lim
N →+∞ P(X = k ). X(Ω) = ~0, min(n, Np), et P(X = k ) =( Np k)( Nq n−k) (Nn) . P(X = k ) = n k ! (Np)! (Np − k )! (Nq)! (Nq − n + k )! (N − n)! N! = n k ! (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1) ∼ N →+∞ n k ! (Np)k(Nq)n−k Nn = n k ! pkqn−k
l y c é e m a r c e l i n b e r t h e l o t p c *
Loi hypergéométrique
On considère une urne contenant N boules, Np boules blanches et
Nq= N (1 − p) boules noires, avec p ∈]0, 1[. On effectue un tirage sans
remise de n boules, avec n 6 N , et on note X le nombre de boules blanches tirées.
Déterminer la loi de X , puis lim
N →+∞ P(X = k ). X(Ω) = ~0, min(n, Np), et P(X = k ) =( Np k)( Nq n−k) (Nn) . P(X = k ) = n k ! (Np)! (Np − k )! (Nq)! (Nq − n + k )! (N − n)! N! = n k ! (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1) ∼ N →+∞ n k ! (Np)k(Nq)n−k Nn = n k ! pkqn−k
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
Si X est une variable aléatoire, FX : x 7→ P(X 6 x).
+∞ 1
FX est une fonction croissante,lim−∞FX(x) = 0, lim
+∞FX(x) = 1, en tout point
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
Si X est une variable aléatoire, FX : x 7→ P(X 6 x).
+∞ 1
FX est une fonction croissante,lim−∞FX(x) = 0, lim
+∞FX(x) = 1, en tout point
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = F X(a+) − FX(a − ).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
• F
X est croissante.
Soit x 6 y. On a X 6 x =⇒ X 6 y donc P(X 6 x) 6 P(X 6 y).
Conséquence. FX possède des limites à droite et à gauche, ainsi
qu’en ±∞. • lim −∞FX= 0. \ n∈N h
X 6 −ni= donc (limite monotone) 0 = lim PX 6 −n= lim
−∞FX. • lim +∞FX= 1. [ n∈N h
X 6 ni= Ω donc (limite monotone) 1 = lim PX 6 n= lim
+∞FX.
• F
X est continue à droite et possède une limite à gauche.
h X 6 ai= \ n∈N∗ X 6 a+1 n ⇒ P(X 6 a) = lim n→+∞FX a+1 n = FX(a+). h X< ai= [ n∈N∗ X 6 a −1 n ⇒ P(X< a) = lim n→+∞FX a −1 n = FX(a−). Conséquence :P(X = a) = FX(a+) − FX(a−).
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
Loi normale (HP)
Si F: R → R est une fonction croissante continue à droite et telle que
lim
−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que
FX = F (admis et HP).
Laloi normaleest définie par P(X 6 x) = √1 2π
Zx
−∞
e−t2/2dt = FX(x).
FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.
P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
Loi normale (HP)
Si F: R → R est une fonction croissante continue à droite et telle que
lim
−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que
FX = F (admis et HP).
Laloi normaleest définie par P(X 6 x) = √1 2π
Zx
−∞
e−t2/2dt = FX(x).
FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.
P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
Loi normale (HP)
Si F: R → R est une fonction croissante continue à droite et telle que
lim
−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que
FX = F (admis et HP).
Laloi normaleest définie par P(X 6 x) = √1 2π
Zx
−∞
e−t2/2dt = FX(x).
FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.
P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b
l y c é e m a r c e l i n b e r t h e l o t p c *
Fonction de répartition
Loi normale (HP)
Si F: R → R est une fonction croissante continue à droite et telle que
lim
−∞F= 0 et lim+∞F= 1, il existe une variable aléatoire réelle X telle que
FX = F (admis et HP).
Laloi normaleest définie par P(X 6 x) = √1 2π
Zx
−∞
e−t2/2dt = FX(x).
FX est continue sur R donc pour tout a ∈ R, P(X = a) = 0.
P(X ∈ [a, b ]) = P(X ∈]a, b ]) = P(x 6 b ) − P(x 6 a) =√1 2π Zb a e−t2/2dt . a b
l y c é e m a r c e l i n b e r t h e l o t p c *
Espérance et variance
Si X(Ω) ⊂nxn n∈ N o ,X possèdeun moment d’ordre k lorsqueXxnkP(X = x
n) CVA.
• Si X possède un moment d’ordre 1, E(X ) =
+∞
X
n=0
xnP(X = xn) ;
• si X possède un moment d’ordre 2,
V(X ) = E
(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;
• si X et Y possèdent un moment d’ordre 2,
cov(X, Y ) = E(XY ) − E(X )E(Y ).
L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).
L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].
l y c é e m a r c e l i n b e r t h e l o t p c *
Espérance et variance
Si X(Ω) ⊂nxn n∈ N o ,X possèdeun moment d’ordre k lorsqueXxnkP(X = x
n) CVA.
• Si X possède un moment d’ordre 1, E(X ) =
+∞
X
n=0
xnP(X = xn) ;
• si X possède un moment d’ordre 2,
V(X ) = E
(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;
• si X et Y possèdent un moment d’ordre 2,
cov(X, Y ) = E(XY ) − E(X )E(Y ).
L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).
L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].
l y c é e m a r c e l i n b e r t h e l o t p c *
Espérance et variance
Si X(Ω) ⊂nxn n∈ N o ,X possèdeun moment d’ordre k lorsqueXxnkP(X = x
n) CVA.
• Si X possède un moment d’ordre 1, E(X ) =
+∞
X
n=0
xnP(X = xn) ;
• si X possède un moment d’ordre 2,
V(X ) = E
(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;
• si X et Y possèdent un moment d’ordre 2,
cov(X, Y ) = E(XY ) − E(X )E(Y ).
L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).
L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].
l y c é e m a r c e l i n b e r t h e l o t p c *
Espérance et variance
Si X(Ω) ⊂nxn n∈ N o ,X possèdeun moment d’ordre k lorsqueXxnkP(X = x
n) CVA.
• Si X possède un moment d’ordre 1, E(X ) =
+∞
X
n=0
xnP(X = xn) ;
• si X possède un moment d’ordre 2,
V(X ) = E
(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;
• si X et Y possèdent un moment d’ordre 2,
cov(X, Y ) = E(XY ) − E(X )E(Y ).
L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).
L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].
l y c é e m a r c e l i n b e r t h e l o t p c *
Espérance et variance
Si X(Ω) ⊂nxn n∈ N o ,X possèdeun moment d’ordre k lorsqueXxnkP(X = x
n) CVA.
• Si X possède un moment d’ordre 1, E(X ) =
+∞
X
n=0
xnP(X = xn) ;
• si X possède un moment d’ordre 2,
V(X ) = E
(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;
• si X et Y possèdent un moment d’ordre 2,
cov(X, Y ) = E(XY ) − E(X )E(Y ).
L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).
L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y )∈ [−1, 1].
l y c é e m a r c e l i n b e r t h e l o t p c *
Espérance et variance
Si X(Ω) ⊂nxn n∈ N o ,X possèdeun moment d’ordre k lorsqueXxnkP(X = x
n) CVA.
• Si X possède un moment d’ordre 1, E(X ) =
+∞
X
n=0
xnP(X = xn) ;
• si X possède un moment d’ordre 2,
V(X ) = E
(X − E(X ))2= E(X2) − E(X )2etσ(X ) =pV(X ) ;
• si X et Y possèdent un moment d’ordre 2,
cov(X, Y ) = E(XY ) − E(X )E(Y ).
L’application (X, Y ) 7→ E(XY ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: E(XY ) 6 q E(X2)E(Y2).
L’application(X, Y ) 7→ cov(X , Y ) est bilinéaire, symétrique, positive, donc :
Cauchy-Schwarz: cov(X , Y ) 6 p V(X )V (Y ). → ρ(X, Y ) = cov(X, Y ) σ(X )σ(Y ) ∈ [−1, 1].