• Aucun résultat trouvé

Variables aléatoires discrètes

N/A
N/A
Protected

Academic year: 2022

Partager "Variables aléatoires discrètes"

Copied!
14
0
0

Texte intégral

(1)

Variables aléatoires discrètes

1 Définitions et généralités

1.1 Variables aléatoires discrètes

Définition 1.1.1. Variable aléatoire discrète

Une variable aléatoire discrète X sur un espace probabilisable (;T) est une application définie sur dont l'image est finie ou dénombrable et telle que l'image réciproque X¡1(fxg) par X de tout élément x de X() appartient àT.

Définition 1.1.2. Loi d'une variable aléatoire discrète SiX est une variable aléatoire discrète sur (;A;P), l'application :

X() ! [0;1]

x 7! P(X=x) est appelée loi de probabilité deX.

Rappel :

Soient p2[0;1]etn2Net soit X une variable aléatoire sur (;A; P). On dit queX suit la loi de Bernoulli B(p)de paramètre p(et on écritX ,! B(p)) lorsque :

X() =f0;1g etP(X= 1) =p Python 3.8.2

>>> from random import random p = 0.3

X = int(random()<p)

>>>

Définition 1.1.3. Fonction de répartition

Si Xest une variable aléatoire réelle sur un espace probabilisé (;A;P), on appelle fonction de répartition de X la fonction réelleFXde variable réelle définie par :

8x2R; FX(x) =P(X6x) Proposition 1.1.4. [propriétés deFX]

i. La fonctionFX d'une variable aléatoire réelleX est croissante sur R.

ii. lim

¡1FX= 0et lim

+1FX= 1.

Démonstration.

i. Six6y, alorsfX6xg fX6yg doncP(X6x)6P(X6y).

ii. Par convergence monotone, la fonctionFX possède des limites en ¡1et +1 et ces limites sont dans [0;1]carFX prend ses valeurs dans[0;1].

Par ailleurs, par continuité décroissante,limn!+1P(fXng) =P(T

n2NfX6¡ng) =P(?) = 0. Donc

x!¡1lim FX(x) = lim

n!¡1FX(n) = 0.

Même méthode pour+1.

Proposition 1.1.5. [loi associée à une série à termes positifs de somme 1 - admis]

SiXest une variable aléatoire sur un univers(;A) qui prend ses valeurs dans fxngn2N, lesxnétant distincts et si (pn)n2Nest une suite de nombres réels positifs vérifiant P

n=0

+1pn= 1, alors il existe une probabilité Psur (;A)telle que :

8n2N; P(X=xn) =pn

(2)

1.2 Couple de variables aléatoires

Définition 1.2.1. Loi conjointe, lois marginales

SoientX etYsont deux variables aléatoires discrètes définies sur (;A; P).

i. L'application :

X()Y() ! [0;1]

(x; y) 7! P(X=x; Y=y) =P(fX=xg \ fY =yg) est appelée loi conjointe du couple de variables aléatoires (X ; Y).

ii. Les lois deX et deY sont alors obtenues à partir de la loi conjointe par les formules : 8x2X(); P(X=x) = X

y2Y()

P(fX=xg \ fY =yg)

8y2Y(); P(Y =y) = X

x2X()

P(fX=xg \ fY=yg)

On les appelle les lois marginales deX et deY.

Définition 1.2.2. Loi conditionnelle de X sachant(Y =y)

SoientXetYsont deux variables aléatoires discrètes définies sur (;A; P)et soity2Y()tel queP(Y=y) =/ 0.

La loi conditionnelle deX sachant (Y =y) est définie, pour toutx2X(), par : P(X=xjY =y) =P(X=x; Y =y)

P(Y =y)

Exemple. On effectue une suite de lancers avec une pièce non équilibrée pour laquelle la probabilité d'obtenir Pile vaut 3/4 (et celle d'obtenir face vaut donc 1/4). On note X la longueur de la première chaîne obtenue, c'est-à-dire le nombre de tirages initiaux donnant le même résultat que le premier tirage. On noteY la longueur de la deuxième chaîne. Ainsi, si les premiers tirages donnent PPPPFFP (peu importe la suite), on aura X=4 etY=2. Quelle est la loi de Y ? Que valent les probabilités conditionnellesP(X=ijY =j)?

Définition 1.2.3. Variables indépendantes

Deux variables aléatoires discrètes X et Y définies sur (;A; P) sont dites indépendantes lorsque, pour tout (x; y)2X()Y(),on a :

P(X=x; Y=y) =P(X=x)P(Y=y) Proposition 1.2.4. (admise)

SiX etYsont deux variables sur indépendantes, alors pour tousAX()et BY()on a : P(X2A; Y 2B) =P(X2A)P(Y 2B)

Exemple. On considère deux variablesX etY à valeurs dansNdont la loi conjointe est définie par : 8n; m2N; P((X ; Y) = (m; n)) = 1

2m+n+2 1. Déterminer les lois marginales deX et de Y.

2. Les variablesX etY sont-elles indépendantes ? Proposition 1.2.5. [Image par fd'une variable aléatoire]

SoitX: (;A)!Eune variable aléatoire discrète etf:E!Fune fonction d'un ensembleE dans un ensemble F. AlorsfX est une variable aléatoire discrète. On la notera souvent f(X).

Proposition 1.2.6.

Si X et Y sont deux variables sur indépendantes, alors, pour toutes fonctions f et g, les variables f(X) et g(Y)sont indépendantes.

(3)

Démonstration. Soientx2f(X())et y2g(Y()). Alors :

P(f(X) =x; g(Y) =y) = P(X2f¡1(fxg); Y 2g¡1(fyg))

= P(X2f¡1(fxg))P(X2g¡1(fyg))par1.2.4

= P(f(X) =x)P(g(Y) =y)

Définition 1.2.7. Variables mutuellement indépendantes

On dit que n variables discrètes X1; :::; Xn définies sur (;A; P)sont (mutuellement) indépendantes lorsque, pour tousx12X1(); :::; xn2Xn(), on a :

P(X1=x1; :::; Xn=xn) =P(X1=x1) P(Xn=xn)

On dira qu'une suite (Xn)n2N est une suite de variables aléatoires mutuellement indépendantes lorsque, pour toute partie finie fi1; :::; ing de N, les variablesXi1; :::; Xinsont mutuellement indépendantes.

Rappel :schéma de Bernoulli.

Si X1; :::; Xnsont mutuellement indépendantes et suivent la loi B(p)alors on dit queS=X1++Xn suit la loi binomialeB(n; p)de paramètre(n; p). On a alors :

S() =f0;1; :::; ng et8k2J0; nK; P(S=k) =n k

pk(1¡p)n¡k

S est le nombre de succès dans le schéma de Bernoulli de paramètre(n; p).

Python 3.8.2

>>> from random import random n,p = 8,0.3

S = sum([int(random()<p) for i in range(n)])

>>>

Exercice. Le jeu de pile ou face infini

On considère une suite infinie de lancers indépendants ayant chacun une probabilitép2]0;1[de tomber surpileet1¡pde tomber sur face. L'univers est donc l'ensemble =fP ; FgNdes suites à valeurs dansfP ; Fg.

1. est-il dénombrable ?

2. On appelleXkest le résultat duk-ième lancer, et on suppose que la tribuT contient les ensembles(Xn=P)et(Xn=F), c'est-à-dire que la suite(Xn)n2Nest une suite de variables mutuellement indépendantes.

a. Montrer queT contient les événements élémentairesf!g!2. b. Quelle est la probabilité d'un tel événement élémentairef!g?

On pourra montrer que sin2N,P(f!g)6(max(p;1¡p))n.

3. Soit k>1. Quelle est la probabilité pk que le premierpile soit obtenu auk-ième lancer ? Calculer P

k=1 +1pk et en interpréter le résultat.

4. Un singe tape au hasard sur un clavier d'ordinateur contenant 79 touches. Montrer que s'il atteint un âge suffisamment avancé et s'il ne se lasse pas, il finira par écrire le mot anticonstitutionnellement et même ce cours de mathématiques tout entier.

On pourra appelerUk, pourk2N, l'événement : les lettres du mot anticonstitutionnellement sont tapées exactement entre les lettres25k+ 1et25(k+ 1).

Comme au1.2.4, on admet :

Proposition 1.2.8. [événements et variables mutuellement indépendantes]

SiX1; :::; Xnsont des variables sur (;A; P)mutuellement indépendantes et si, pour touti2J1; nK,AiXi(), alors les événements fXi2Aigsont mutuellement indépendants.

2 Espérance et variance

Dans ce qui suit, les variables aléatoires considérées seront définies sur un espace probabilisé(;A; P)et seront à valeurs réelles.

(4)

2.1 Espérance

Définition 2.1.1. Espérance

La variable aléatoire réelle discrèteX à valeurs dans un ensemble dénombrable fxngn2N (où lesxnsont deux à deux distincts) est dite d'espérance finie lorsque la série P

n>0xnP(X=xn)est absolument convergente. Dans ce cas, sa somme est appelée espérance de X:

E(X) =X

n=0 +1

xnP(X=xn)

Proposition 2.1.2. [théorème du transfert - ADMIS]

SiXest une variable aléatoire discrète etfune fonction définie sur l'image fxngn2NdeX(où lesxnsont deux à deux distincts), alors f(X) =fX est d'espérance finie si et seulement si la série P

n>0f(xn)P(X =xn) converge absolument. Dans ce cas, on a :

E(f(X)) =X

n=0 +1

f(xn)P(X=xn)

Proposition 2.1.3. [propriétés de l'espérance]

SoientX ; Ydeux variables aléatoires réelles discrètes d'espérance finie.

i. linéarité (ADMIS) : si ; 2R, alors X+ Y est d'espérance finie et E( X+ Y) =E(X) +E(Y):

ii. positivité : siX est à valeurs positives,E(X)>0.

iii. croissance : si Y6X,E(Y)6E(X).

Démonstration.

i. idée : Repose une fois de plus sur la commutativité des sommes.

C'est facile pourE( X) =E(X).

Pour E(X+Y), posonsZ=X+Y et notonsZ() =fzn; n2Ng. SiN2N, X

n=0 N

jznjP(Z=zn) = X

n=0

N X

(x; y)2X()Y() x+y=zn

jx+yjP(X=x; Y =y)

6 X

n=0

N X

(x; y)2X()Y() x+y=zn

(jxj+jyj)P(X=x; Y =y)

6 X

n=0

N X

(x; y)2X()Y() x+y=zn

(jxjP(X=x; Y =y) +jyjP(X=x; Y =y))

6 X

n=0

N X

x2X()

jxjP(X=x; Y=zn¡x) + X

y2Y()

jyjP(X=zn¡y; Y=y)

!

6 X

x2X()

jxjX

n=0 N

P(X=x; Y =zn¡x) + X

y2Y()

jyjX

n=0 N

P(X=zn¡y; Y =y)

6 X

x2X()

jxjP(X=x) + X

y2Y()

jyjP(Y=y) Les sommes partielles de la sérieP

n>0jznjP(Z=zn)sont majorées donc cette série converge etX+Y est d'espérance finie. Cette espérance se calcule ensuite en suivant les réordonnements de somme ci-dessus.

ii. est clair :P

n>0xnP(X=xn)est à valeurs positives donc sa somme est positive.

(5)

iii. SiY 6X alorsX¡Y >0et donc, par i. et ii., E(X)¡E(Y) =E(X¡Y)>0.

Proposition 2.1.4. [produit de variables indépendantes - ADMIS]

SiXetYsont deux variables aléatoires discrètes indépendantesd'espérance finie, alorsX Yest d'espérance finie et :

E(X Y) =E(X)E(Y):

2.2 Variance et écart-type

Lemme 2.2.1.SoitXune variable discrète. Si la variableX2est d'espérance finie, alorsXest d'espérance finie.

Démonstration. PosonsX() =fxigi2Net notons, pourn2N, In=fi2J0; nK;jxij61g etJn=fi2J0; nK; jxij>1g.

8n2N;X

i=1 n

jxijP(X=xi) = X

i2In

jxijP(X=xi) +X

i2Jn

P(X=xi)

6 X

i2In

P(X=xi) +X

i2Jn

jxijP(X=xi)

6 1 +X

i2Jn

xi2P(X=xi) 6 1 +E(X2) Les sommes partielles de la série à termes positifsP

jxijP(X=xi)sont majorées et donc la série converge.

Remarque. Si X2 est d'espérance finie, alors (X ¡ E(X))2 est d'espérance finie et E((X ¡ E(X))2) = E(X2)¡E(X)2

Définition 2.2.2. Variance

SiX2est d'espérance finie, la variance de X est le réel positif :

V(X) =E((X¡E(X))2) =E(X2)¡E(X)2 L'écart-type deX est le réel(X) =pV(X)

. Proposition 2.2.3. [variance et opérations affines]

SiX2est d'espérance finie et si a; b2R, alors (a X+b)2est d'espérance finie et V(a X+b) =a2V(X).

Démonstration. Par linéarité et le lemme précédent, commeE(a X+b)est constante, (a X+E(a X+b))2=a2X2+ 2 (b¡E(a X+b))a X+ (b¡E(a X+b))2est d'espérance finie et

E(a X+E(a X+b))2 = a2E(X2) + 2a(b¡aE(X)¡b)E(X) + (b¡aE(X)¡b)2

= a2E(X2)¡2a2E(X)2+a2E(X)2 = a2(E(X2)¡E(X)2)

Proposition 2.2.4. [inégalité de Markov2.2.1]

SoitZ une variable discrète d'espérance finie à valeurs positives et soit >0. Alors P(Z>)6E(Z)

Démonstration. Si!2, alorsZ(!)>l(Z>)(!) =0sinonsiZ(!)> d'oùE(Z)>E(l(Z>)) = P(Z>) Proposition 2.2.5. [inégalité de Bienaymé-Tchebychev2.2.2]

2.2.1. Andreï Andreïevitch Markov (1856-1922), mathématicien et père d'Andreï Andreïevitch Markov(1903-1979), mathématicien.

2.2.2. Irénée-Jules Bienaymé (1796-1878) et Pafnouti Tchebychev (1821-1894)

(6)

SoitX une variable aléatoire de carré d'espérance finie et de variance2et soit >0. Alors P(jX¡E(X)j>)62

2

Démonstration. Se déduit directement de l'inégalité de Markov en posantZ= (X¡E(X))2. Proposition 2.2.6. [variance d'une somme finie de variables aléatoires discrètes]

SoientX1; :::; Xppvariables aléatoires de carré d'espérance finie, alorsX1++Xpest de variance finie et :

V X

i=1 p

Xi

!

=X

i=1 p

V(Xi) + X

16i;j6p

E((Xi¡E(Xi)) (Xj¡E(Xj))) (2.2.1) Si, de plus,X1; :::; Xpsont indépendantes, alors :

V X

i=1 p

Xi

!

=X

i=1 p

V(Xi) (2.2.2)

Démonstration.

Pour n= 2.

((X+Y)¡E(X+Y))2= ((X¡E(X)) + (Y¡E(Y)))2= (X¡E(X))2+ (Y¡E(Y))2+ 2 (X¡E(Y))(Y¡E(Y)) Par2.2.2,E(X¡E(X))2et E(Y ¡E(Y))2sont bien définies.

De plus, j2 (X ¡E(Y))(Y ¡E(Y))j6(X ¡E(X))2+ (Y ¡E(Y))2 donc, par l'extension admise de 2.1.3, (X¡E(Y))(Y ¡E(Y))est d'espérance finie ainsi que((X+Y)¡E(X+Y))2et :

E((X+Y)¡E(X+Y))2=E(X¡E(X))2+E(Y ¡E(Y))2+ 2E((X¡E(Y))(Y ¡E(Y))) Pour n>2.

X

i=1 p

Xi

!

¡E X

i=1 p

Xi

!!2

= X

i=1 p

(Xi¡E(Xi))

!2

= X

i=1 p

(Xi¡E(Xi))2+ 2 X

16i<j6p

(Xi¡E(Xi)) (Xj¡E(Xj))

Comme pourn= 2, les variables considérées sont toutes d'espérance finie et l'égalité2.2.1est vérifiée.

SiXi etXjsont indépendantes, il en est de même de(Xi¡E(Xi))et de (Xj¡E(Xj)).

DoncE(Xi¡E(Xi)) (Xj¡E(Xj)) =E(Xi¡E(Xi))E(Xj¡E(Xj)) = 0. D'où l'égalité2.2.2.

2.3 Covariance, corrélation

Définition 2.3.1. Covariance, coefficient de corrélation

SiX2et Y2sont d'espérance finie. On définit les deux nombres réels suivants : i. covariance

Cov(X ; Y) =E((X¡E(X))(Y ¡E(Y))) ii. coefficient de corrélation lorsque (X)(Y) =/ 0:

(X ; Y) =Cov(X ; Y) (X)(Y) Proposition 2.3.2. [inégalité de Cauchy-Schwarz]

SoientX etYde carrés d'espérance finie. Alors

jCov(X ; Y)j6(X)(Y)

Démonstration. Considérons les variables centréesXc=E(X)etYc=Y ¡E(Y).

Pour toutt2R,(t Xc+Yc)2>0donc f:t7!E((t Xc+Yc)2) =t2E(Xc2) + 2tE(XcYc) +E(Yc2)est une fonction polynomiale positive.

(7)

SiE(Xc2)[=V(X)] = 0alorsP(X=E(X)) = 1Cov(X ; Y) = 0donc (X ; Y) = 0.

Sinon, f est du second degré et son discriminant est négatif, soitE(XcYc)2¡E(Yc2)E(Yc2)60, c'est-à-dire jCov(X ; Y)j6(X)(Y)

ce qui est le résultat cherché.

3 Variables aléatoires à valeurs dans N

3.1 Généralités

Proposition 3.1.1. [espérance d'une variable à valeurs dans les entiers naturels]

Si X est une variable aléatoire à valeurs dans N, alors X est d'espérance finie si et seulement si la série P

k>1P(X>k) converge et on a :

E(X) =X

n=1 +1

P(X>n):

Démonstration. SoitN2N. X

n=0 N

n P(X=n) = X

n=0

N X

k=1 n

P(X=n) = X

16k6n6N

P(X=n)

= X

k=1

N X

n=k N

P(X=n) =X

k=1 N

P(X2Jk; NK)

= X

k=1 N

[P(X>k)¡P(X > N)] = X

k=1 N

P(X>k)

!

¡NP(X > N)

¡ Supposons d'abord que la sérieP

k>1P(X>k)converge.

La série P

n>0n P(X=n)est à termes positifs et ses sommes partielles sont croissantes, majorées par P

k=1

+1P(X>k). Donc la série converge (absolument) etX possède une espérance.

¡ Supposons inversement queX possède une espérance. La sérieP

n>0n P(X=n)converge et : 8N>0; 06NP(X > N) =P

n=N+1

+1 N P(X=n)6P

n=N+1

+1 n P(X=n) =RN (reste d'ordreN).

Or,Rn!!!!!!!!!!!N!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!+!!!!!!!!!!!!1!!!!!!0donc, par encadrement,NP(X > N)!!!!!!!!!!!N!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!+!!!!!!!!!!!!1!!!!!!0.

Comme, par hypothèse, P

n=0

N n P(X=n)!!!!!!!!!!!N!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!+!!!!!!!!!!!!1!!!!!!E(X), la sérieP

k>1P(X>k)converge et a pour

sommeE(X).

3.2 Séries génératrices

Définition 3.2.1. Série/fonction génératrice

On appelle fonction génératrice d'une variable aléatoire à valeurs dansNla fonction de variable réelleGXdéfinie par :

GX(t) =E(tX) =X

n=0 +1

P(X=n)tn

Remarque. Par abus de langage, il est commun de voir utilisé le mot série au lieu de somme de la série dans le cadre des séries génératrices.

CommeP

n>0P(X=n)converge (absolument), le rayon de convergence de cette série entière est au moins égal à 1 etGXest définie et (par convergence normale) continue sur [¡1;1].

Proposition 3.2.2. La loi d'une variable aléatoireX à valeurs dans N est déterminée par sa fonction géné- ratriceGX.

Démonstration. Comme pour toute série entière de rayon de convergence non nul,P(X=n) =GX(n)n!(0). Proposition 3.2.3. [espérance et dérivée de GX]

Une variable aléatoireXà valeurs dans Nadmet une espérance E(X)si et seulement siGXest dérivable en 1.

(8)

Si tel est le cas, E(X) =GX0 (1).

Démonstration. (non exigible) Cas simple : Si le rayon le convergenceRde la série entièreP

n>0P(X=n)tn est strictement supérieur à1, alorsGX est dérivable terme à terme sur]¡R; R[et donc la sérieP

n>1n P(X= n)tn¡1converge en 1et GX0 (1) =P

n=1

+1n P(X=n) =P

n=0

+1n P(X=n) =E(X).

Proposition 3.2.4. [variance et dérivée seconde deGX]

Une variable aléatoireXà valeurs dansNadmet une variance si et seulement siGXest deux fois dérivable en 1.

Démonstration. (non exigible) Toujours dans le cas oùR >1, les sériesP

n>1n P(X=n)tn¡1etP

n>2n(n¡ 1)P(X=n)tn¡2convergent ent= 1, ainsi que leur sommeP

n>0n2P(X=n). On obtient alors : GX0 (1) +GX00(1) =X

n=0 +1

n2P(X=n) =E(X2) =V(X) +E(X)2=V(X) +GX0 (1)2

ce qui donne l'expression deV(X)en fonction des dérivées deGXen1.

Proposition 3.2.5. [somme de deux variables à valeurs dans Nindépendantes]

SiX etYsont indépendantes, alors GX+Y=GXGY

Démonstration. Soitn2N, comme(X=p)p2Nest un système complet d'événements,

P(X+Y =n) =X

p=0 +1

P(X=p; Y=p¡n) =X

p=0 n

P(X=p; Y =p¡n) =X

p=0 n

P(X=p)P(Y=n¡p)

ce qui est le coefficient d'indicendu produit de Cauchy des deux séries génératrices deX et deY.

3.3 Lois usuelles à valeurs dans N

3.3.1 Loi géométrique

Définition 3.3.1. [loi géométrique de paramètre p]

Soitp2]0;1[. On dit qu'une variable aléatoire X à valeurs dans N suit une loi géométrique de paramètre p lorsque :

8k2N; P(X=k) =p(1¡p)k¡1 On écrira alors X ,! G(p).

La sérieP

k>1p(1¡p)k¡1tk est géométrique de raison(1¡p)t et donc converge pour toutt2i

¡1¡1p;11

¡p

h et sa somme vaut :P

k=1

+1p(1¡p)k¡1tk=p tP

k=1

+1((1¡p)t)k¡1=p tP

k=0

+1((1¡p)t)k donc : Proposition 3.3.2. [série génératrice]

SiX ,!G(p) alors pour toutt2i

¡1¡1p;11

¡p

h,

GX(t) = p t 1¡(1¡p)t Corollaire 3.3.3. [espérance et variance]

SiX ,!G(p)

E(X) =1

p etV(X) =1¡p p2

Démonstration. On aR=1¡1p>1etGXest deux fois dérivable sur]¡R; R[. Sijtj< R,GX0 (t) =(1¡(1p¡p)t)2 etGX00(t) =(12p(1¡p)

¡(1¡p)t)3 doncE(X) =GX0 (1) =1p et V(X) =GX00(1) +GX0 (1)¡(GX0 (1))2=1¡p2p.

Exercice. Jojo collectionne des vignettes représentant ses footballeurs préférés. N vignettes différentes sont ainsi vendues dans des emballages opaques.

1. On suppose que Jojo a déjà en sa possessionkvignettes différentes. NotonsXkle nombre de vignettes qu'il doit acheter pour en obtenir une nouvelle. Déterminer la loi deXket son espérance.

(9)

Combien de vignettes devra-t-il acquérir en moyenne pour compléter sa collection s'il ne lui en manque qu'une ? 2. On noteT le nombre total d'achats pour acquérir lesN vignettes. Déterminer l'espérance deT et montrer queE(T)

Nln(N)lorsqueN!+1. Que vautE(T)lorsqueN=50? On pourra utiliser :

Python] S=0

for i in range(50):

S = S + 1./(i+1) print(S)

Python]

Proposition 3.3.4. [caractérisation comme loi sans mémoire]

SiX ,! G(p), alors pour tous entiersn; p>0 :

P(X > n+kjX > n) =P(X > k) Démonstration. Pour tout j2N, P(X > j) =P

i=j+1

+1 p(1¡p)i¡1=p(1¡p)j1¡(11¡p)= (1¡p)j. DoncP(X > n+kjX > n) =P(X > nP(X > n)+k)=(1(1¡p)n+k+1

¡p)n+1 = (1¡p)k=P(X > k).

Exercice. réciproquement, siX, à valeurs dansN, vérifie, pour tousn; k>0,P(X > n+kjX > n) =P(X > k). Notons p=P(X= 1).

1. Calculer, pour toutn>1,P(X > n+ 1jX > n).

2. Montrer que la suite(qn)n>0définie parqn=P(X > n)est géométrique et déterminerqnen fonction den.

3. En déduireP(X=n)pour tout entiern>1et conclure.

3.3.2 Loi de Poisson

Définition 3.3.5. Loi de Poisson3.3.1

Soitun réel strictement positif. On dit qu'une variable aléatoire Xà valeurs dans Nsuit une loi de Poisson de paramètre et on écritX ,! P()lorsque :

8k2N; P(X=k) = e¡k k!

Proposition 3.3.6. [série génératrice]

SiX suit une loi de Poisson de paramètre, alors, pour toutt2R: GX(t) = e(t¡1)

Démonstration. Pour toutt2R, la sériePtke¡ k!k converge etGX(t) = e¡P

k=0 +1 (t )k

k! = e¡et Corollaire 3.3.7. [espérance et variance]

SiX suit une loi de Poisson de paramètre, alorsX2 est d'espérance finie et : E(X) =V(X) =

Démonstration. Le rayon de convergence de la série entière Ptke¡ k!k est +1 doncGX est de classeC1 surRetGX0 (1) =e(1¡1)=. De même,GX00(1) =2etV(X) =GX00(1) +GX0 (1)¡(GX0 (1))2=. Proposition 3.3.8. [additivité des lois de Poisson]

Soient; >0 et soientX etYdeux variables aléatoires indépendantes telles que X ,! P()et Y ,! P().

AlorsX+Ysuit la loi de Poisson P(+).

Démonstration. Comme X et Y sont indépendantes, par 3.3.6 et 3.2.5, GX+Y a un rayon de convergence infini et :

8t2R; GX+Y(t) =GX(t)GY(t) = e(t¡1)e(t¡1)=e(+)(t¡1)

3.3.1. Siméon Denis Poisson (1781-1840),Recherches sur la probabilité des jugements en matière criminelle et en matière civile (1838)

(10)

donc, par3.2.2,X+Y ,! P(+).

4 Résultats asymptotiques

4.1 Loi binomiale et loi de Poisson

Proposition 4.1.1. [approximation de la loi binomiale par la loi de Poisson]

Soit(pn)n2Nune suite de réels de[0;1]et >0tels que limn!+1n pn=et soit, pour toutn2N, une variable aléatoireXn de loi B(n; pn). Alors, pour tout entier naturelk:

n!lim+1P(Xn=k) = e¡k k!

Démonstration. Sik2N,P(Xn=k) =nkpnk(1¡pn)n¡k=k!1 n(n¡1):::(n¡k+ 1)pnk(1¡pn)n¡k SoitP(Xn=k) =k!1

1¡n1¡ 1¡n2

1¡k¡n1

(n pn)k¡

1¡n pnnn¡

1¡n pnn¡k Or, k!1

1¡n1 ¡ 1¡n2

1¡k¡n1

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

| |{z}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} }

kfacteurs qui tendent vers1

(n pn)k n!+1 k!k et¡

1¡n pnn¡k

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

!n!+1!1¡k= 1.

Enfin,¡

1¡n pnnn

=n!+1

1¡n+o¡1 n

n

=exp nln

1¡n+o¡1 n

=exp(¡+o(1))!!!!!!!!!!!!n!!!!!!!!!!!!!!!!!!!!!!!!!!+!!!!!!!!!!!!!!1!!!!!e¡.

Python] from random import random from scipy.special import binom from math import exp, factorial import matplotlib.pyplot as plt def poisson(N,n,p):

l=N*p

s=(n+1)*[0];e=(n+1)*[0]

for i in range(n+1):

s[i]=exp(-l)*l**i/factorial(i) e[i]=binom(N,i)*p**i*(1-p)**(N-i)

r=range(n+1);rl=[x-0.15 for x in r];rr=[x+0.15 for x in r]

plt.bar(rl,e,width=0.3,color='blue') plt.bar(rr,s,width=0.3,color='yellow') plt.axis([0,n+1,0,0.2])

plt.show()

Python] poisson(256,17,0.025)

Figure 4.1.1. N=16,p= 0;4 Figure 4.1.2. N=256,p= 0;025

Exercice 4.1.1. On admet que la probabilité qu'un voyageur oublie un bagage dans le train est 0,005. Un train transporte 850 voyageurs. On admettra que ces voyageurs se sont regroupés au hasard et que leurs comportements, par rapport à leurs bagages, sont indépendants les uns des autres.

On désigne par X la variable aléatoire qui prend pour valeur le nombre de voyageurs ayant oublié un bagage dans le train.

1°) Quelle est la loi de probabilité de la variable aléatoire X ? Calculer son espérance mathématique et sa variance.

2°) Donner une loi de probabilité permettant d'approcher la loi trouvée à la question précédente. En utilisant les deux lois lorsque c'est raisonnable, calculer une valeur approchée de la probabilité des événements suivants :

a) aucun voyageur n'a oublié de bagage,

b) cinq voyageurs au moins ont oublié un bagage.

(11)

4.2 Loi faible des grands nombres

Proposition 4.2.1. [loi faible des grands nombres]

Soit (Xn)n>1 est une suite de variables aléatoires deux à deux indépendantes, de même loi et admettant des moments d'ordre2 (c'est-à-direE(Xn2)). Alors, siSn=P

k=1

n Xk,m=E(X1)et=(X1), on a, pour tout" >0, PSn

n ¡m>"

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

!n!+1!0 Plus précisément, sin2N,

PSn

n ¡m>"

6 2

n "2

Démonstration. Comme lesXksuivent la loi deX1, pour toutn2N, Snnest d'espérance finie Pk=1n nE(Xk)=m et comme lesXk sont indépendantes,Snpossède un moment d'ordre 2 etVS

n

n

=n12P

k=1

n V(Xk) =n n22. Il reste à appliquer l'inégalité de Bienaymé-Tchebychev pour obtenir le résultat.

(12)

Exercices sur les variables aléatoires

--- Exercice 1. Une urne contient une proportion pde boules noires et1¡pde boules blanches. On effectue un tirage

sans remise denboules. On noteN le nombre de boules dans l'urne au départ etX le nombre de boules noires tirées.

1. Préciser X()et calculer, pourk2X(),P(X=k).

2. Montrer que pour tousk; n; m2N,knk=nnk¡1

¡1

etn+km=P

i=0 k n

i

m

k¡i . 3. Déterminer alors l'espérance et la variance de X.

--- Exercice 2. Une urne contient au départnjetons bleus et un jeton rouge. On tire avec remise un jeton de l'urne et

on rajoute un jeton bleu à chaque tirage. On appelleX le rang du premier jeton rouge tiré etY le rang du deuxième

jeton rouge tiré.

1. Déterminer P(X > k)pour toutk>1.

2. Montrer queX est bien une variable aléatoire à valeurs dansNet trouver sa loi. Est-elle d'espérance finie ?

3. Exprimer la loi de Y à l'aide de sommes.

--- Exercice 3. Pomme essaie de s'inscrire aux concours mais n'arrive à se connecter et à valider son inscription qu'une fois sur 10. Mme A., qui doit vérifier que les élèves de son lycée sont inscrits, réussit, elle, à se connecter une fois sur 5.

On appelleX le nombre de tentatives nécessaires à Pomme pour s'inscrire etY le nombre de tentatives de connexions

nécessaires à Mme A. pour vérifier les inscriptions de ses élèves.

Les résultats des tentatives de connexion successives sont supposés indépendants.

1. Déterminer les lois deX et deY, leurs espérances et leurs variances.

2. Déterminer la loi deX+Y, le nombre de tentatives total. Quelles en sont l'espérance et la variance ?

3. Sachant qu'elles font leurs tentatives chaque jour au même moment, déterminer la probabilité que Pomme s'inscrive avant que Mme A. ait pu vérifier les inscriptions aux concours et évite ainsi un rappel à l'ordre.

--- Exercice 4. Dans une certaine population, tous les couples enfantent jusqu'à obtenir un garçon.

1. Donner la loi de la variable aléatoireX représentant le nombre d'enfants dans un couple.

2. Calculer la proportion P de garçons dans un couple en fonction de X. En déduire la proportion de garçons

dans la population.

--- Exercice 5. Lors d'une compétition en saut en hauteur, un athlète tente de franchir des barres successives numérotées 1;2; :::; n; ::: Il n'a droit qu'à un seul essai par barre. On suppose les sauts indépendants, la probabilité de réussir le n-ième saut étant égale à n1.

(13)

On noteX la variable aléatoire égale au numéro du dernier saut réussi. Calculer la loi deX, sa fonction génératrice et en déduire son espérance et sa variance.

--- Exercice 6. Soientuetvdeux variables aléatoires indépendantes sur un espace probabilisé, suivant la loi de Bernoulli de paramètrep, où p2]0;1[. Etant donnés 4 nombres réelsa; b; c; d, on définit deux variables aléatoiresX=a u+b v etY =c u+d v.

1. Calculer E(X); E(Y)et E(X Y)en fonction dea,b,c,det p.

2. Montrer que l'on peut choisir a; b; c; d non nuls tels que X et Y ne soient pas indépendantes mais que

Cov(X ; Y) = 0.

--- Exercice 7. Toutes les variables aléatoires de cet exercice sont définies sur un espace probabilisé(;T;P).

1. Soit(Xn)n2Nune suite de variables aléatoires discrètes, à valeurs dansN, indépendantes, de même loi qu'une variable aléatoireX.

Pour tout n 2 N, on pose Mn = max16i6n(Xi) et mn =min 16i6n(Xi), au sens où, 8! 2 ; Mn(!) =

max16i6n(Xi(!))etmn(!) =min16i6n(Xi(!)).

Montrer queMnetmnsont des variables aléatoires.

2. Calculer, pour toutk2N, la probabilitéP(Mn6k)en fonction deP(X6k).

3. On suppose dans cette question que les variables Xn suivent la loi uniforme sur NK=f1;2; :::; Kg, oùK est un entier strictement supérieur à1.

CalculerE(Mn). Quelle est sa limite quand ntend vers l'infini?

4.

a. On suppose maintenant que les variablesXnsuivent la loi géométrique de paramètrep(oùpest un réel

compris strictement entre 0 et 1) et on noteq= 1¡p.

Montrer queE(Mn) = 1 +P

j=1 n h

n j

(¡1)j+1 qj

1¡qj

i.

b. Déterminer la loi demn=min16i6n(Xi).

c. Cas particulier n= 2: calculer M2+m2 et M2¡m2 en fonction de X1 et X2, puis calculer de deux manières différentesE(m2). En déduireE(jX1¡X2j).

--- Exercice 8. Une poule pond N oeufs, où N suit une loi de Poisson de paramètre . Chaque oeuf éclot avec une

probabilitépet les éclosions sont des événements indépendants.

On noteK la variable aléatoire donnant le nombre de poussins. Calculer, pour toutn; k entiers, les nombresP(K=

kjN=n)et en déduire la fonction génératrice deK. Reconnaître alors la loi deK.

On pourra admettre le résultat suivant (Fubini) :

Soit(um;n)(m;n)2N2une famille de réels positifs tels que :

- pour toutm2N, la sérieP

n>0um;nconverge, de somme Sm=P

n=0 +1um;n

- la sérieP

m>0Smest convergente.

Alors toutes les sommes suivantes existent et on a :P

m=0 +1 P

n=0

+1um;n=P

n=0 +1P

m=0 +1 um;n.

(14)

--- Exercice 9. Dans une usine, une machine a chaque jour une probabilitép2]0;1[de tomber en panne. Elle est réparée chaque fois dans la soirée.

On noteXnla variable aléatoire qui vaut1si la machine est tombée en panne len-ième jour, et qui vaut0sinon. Les Xnsont supposées indépendantes. Pouri2N, on noteTile jour où la machine est tombée en panne pour lai-ème fois.

Enfin, on note1=T1et, pourk>2,k=Tk¡Tk¡1le nombre de jours entre la(k¡1)-ième et lak-ième panne etNn

le nombre de pannes survenues entre les jours0 etn.

1. Déterminer la loi de1.

2. Exprimer l'événement(1=n1; :::; l=nl)à l'aide desXiet montrer que lesk,k2N, sont indépendantes, de même loi que1.

3. Pourn2N, déterminer la loi conjointe de(T1; :::; Tn).

4. Un inspecteur vient au début dun-ième jour et reste jusqu'à la prochaine panne.

Interpréter les variables aléatoiresVn=TNn+1¡net Un=n¡TNnet calculer leurs lois et espérances.

5. Comparer E(Un+Vn)etE(k)pour k; n >0 et commenter les résultats obtenus.

--- Exercice 10. Soit(Xk)k>0une suite de variables aléatoires indépendantes de même loiP(). On pose :

Zn=

1¡1 n

X1++Xn

1. Calculer E(Zn)puis trouver une constanteK telle queV(Zn)n!+1 Kn. 2. En déduire que, pour tout " >0, lim

n!+1P(jZn¡e¡j>") = 0.

Références

Documents relatifs

Une variable aléatoire X est une application définie sur un ensemble E muni d’une probabilité P, à valeurs dans IR. La fonction F ainsi définie s'appelle la

• Lorqu’une variable aléatoire réelle prend des valeurs entières ou des valeurs réelles en nombre fini, on dit que la loi de probabilité de cette variable aléatoire est

[r]

Lorsqu’on répète de façon identique et indépendante des épreuves de Bernoulli, on peut modéliser la situation par un arbre de probabilités. On répète 3 fois une épreuve

Dans ce chapitre on désigne par (Ω, A , P) un espace probabilisé, c’est-à-dire, un espace mesurable (Ω, A ) muni d’une probabilité P.. Sont écrites en rouge les parties

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaitre pour sa culture) et en bleu les parties modifiées par rapport au cours

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaître pour sa culture) et en bleu les parties modifiées par rapport au cours

Soit X une variable aléatoire continue de loi uniforme sur [−1, 1] et ε une variable aléatoire discrète uniforme sur {−1, 1}. Montrer que Y = |X| est une variable aléatoire