• Aucun résultat trouvé

Chapitre 11 Variables aléatoires discrètes

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre 11 Variables aléatoires discrètes"

Copied!
26
0
0

Texte intégral

(1)

Variables aléatoires discrètes

Mathématiques Classe Préparatoire PSI*

Lycée Jean Perrin, Marseille Sylvain Damour

sylvain.damour@prepas.org Année 2021–2022

Table des matières

1 Rappels sur les images et les images réciproques 2

2 Rappels sur quelques sommes finies remarquables 3

3 Variable aléatoire discrète et loi de probabilité associée 4

3.1 Variable aléatoire discrète . . . 4

3.2 Loi de probabilité d’une variable aléatoire . . . 5

3.3 Image d’une variable aléatoire par une fonction . . . 5

3.4 Fonction de répartition . . . 6

4 Lois usuelles 7 4.1 Loi uniforme . . . 7

4.2 Loi de Bernoulli . . . 7

4.3 Loi binomiale . . . 8

4.4 Loi géométrique . . . 8

4.5 Loi de Poisson . . . 9

5 Couples de variables aléatoires 10 5.1 Définition et notation . . . 10

5.2 Loi conjointe . . . 10

5.3 Lois marginales . . . 10

5.4 Loi conditionnelle . . . 10

6 Variables aléatoires indépendantes 11 6.1 Indépendance de deux variables aléatoires . . . 11

6.2 Indépendance mutuelle de variables aléatoires . . . 12

7 Espérance 12 7.1 Espérance d’une variable aléatoire . . . 12

7.2 Espérances des lois usuelles . . . 13

7.3 Propriétés de l’espérance . . . 14

7.4 Espérance du produit de deux variables aléatoires indépendantes . . . 15

7.5 Espérance d’une variable aléatoire à valeurs dansN. . . 15

(2)

8 Variance 16

8.1 Variance d’une variable aléatoire . . . 16

8.2 Variance de la somme de deux variables aléatoires indépendantes . . . 17

8.3 Variances des lois usuelles . . . 18

8.4 Inégalité de Markov . . . 19

8.5 Inégalité de Bienaymé-Tchebychev . . . 20

8.6 Variance nulle . . . 20

8.7 Covariance . . . 21

8.8 Coefficient de corrélation . . . 22

9 Série génératrice d’une variable aléatoire à valeurs dansN 23 9.1 Définition et premières propriétés . . . 23

9.2 Calcul de l’espérance et de la variance à l’aide de la série génératrice . . . 23

9.3 Série génératrice de la somme de deux variables aléatoires indépendantes . . . 24

10 Résultats asymptotiques 25 10.1 Approximation de la loi binomiale par la loi de Poisson . . . 25

10.2 Loi faible des grands nombres . . . 26

1 Rappels sur les images et les images réciproques

Soitf :EF une application de l’ensembleEdans l’ensembleF.

1. Pour toute partieAE, on appelleimage deAparf, la partie deFsuivante : f(A)=©

f(x),xAª

= © yF±

xA, y=f(x)ª .

2. Pour toute partieBF, on appelleimage réciproque deBparf, la partie deEsuivante : f−1(B)=©

xE±

f(x)∈Bª . AT TENTION:

"

Dans la notationf−1(B) l’applicationf n’est PAS supposée bijective et il n’y a donc PAS d’application réciproque.

Figure 1.

(3)

2 Rappels sur quelques sommes finies remarquables

Apprendre par cœur : formulaire sur les sommes finies.

Théorème 2.

(i)

n

X

k=1

k = n(n+1)

2 .

(ii)

n

X

k=1

k2 = n(n+1) (2n+1)

6 .

(iii)

n

X

k=1

k3 = n2(n+1)2

4 .

Théorème 3.

(i)

n

X

k=0

Ãn k

!

= 2n.

(ii) Xn k=0

Ãn k

!

(−1)k = 0.

Démonstration 4.

Formule du binôme.

Théorème 5. (« Petite formule ») k Ãn

k

!

= n Ãn−1

k−1

! .

Démonstration 6.

Expression avec les factorielles.

Exercice 7.

VAD91

Calculer

n

X

k=1

k Ãn

k

! .

(4)

3 Variable aléatoire discrète et loi de probabilité associée

Dans tout ce chapitre (Ω,A,P) désigne un espace probabilisé.

3.1 Variable aléatoire discrète

Définition 8. On appellevariable aléatoire discrète toute applicationX:Ω→R telle que : 1. l’univers image X(Ω) est fini ou dénombrable,

2. ∀xX(Ω), X−1({x})∈A.

Remarque9. CommeX(Ω) est fini ou dénombrable, on pourra numéroter ses éléments : X(Ω)=©

x1, . . . ,xNª

ou X(Ω)=©

xn,n∈Nª .

Figure 10.

Notation 11.

1. ∀xX(Ω), on note l’événement ¡ X=x¢

déf.= X−1({x}) = © ω∈Ω±

X(ω)=xª .

2. ∀AX(Ω), on note l’événement ¡ XA¢

déf.= X−1(A) = © ω∈Ω±

X(ω)∈Aª .

Théorème 12. X1(A) = [

xA

X1({x}).

Exemple13. Considérons le jet d’un dé bleu et d’un dé rouge et notonsSla somme des points obtenus.

On modélise cette expérience en prenant l’équiprobabilité sur :Ω=[[1, 6]]2. S:Ω→R est une v.a. discrète. On a :

S((1, 1))=2, S((1, 2))=3, S((2, 1))=3, S((2, 2))=4, etc.

S(Ω)=[[2, 12]].

• ¡ S=4¢

= S−1({4}) = ©

(1, 3), (2, 2), (3, 1)ª .

• ¡

S∈{3, 4}¢

= S−1({3, 4}) = S−1({3})∪S−1({4}) = ©

(1, 2), (2, 1), (1, 3), (2, 2), (3, 1)ª .

(5)

3.2 Loi de probabilité d’une variable aléatoire On munit l’univers imageX(Ω) de la tribuP(X(Ω)).

On appelleloi de probabilité de la v.a.Xl’application PX :

¯

¯

¯

¯

P(X(Ω)) → [0, 1]

U 7→ P(X∈U) . PX est une probabilité.

Théorème 14.

(i) La loi de probabilitéPX surX(Ω) est parfaitement définie par la donnée des pn = PX({xn}) = P(X=xn) qui vérifient :

(a) pnÊ0,

Z

(b)

N

X

n=1

pn=1 ou

+∞X

n=0

pn=1.

(ii) Pour toutA∈P(X(Ω)), PX(A) = P(X∈A) = X

xA

P(X=x).

Exercice 15.

∗∗

(D’aprèsCCINP, oral PSI 2017) VAD25a

Soitp∈]0, 1[. On pose∀k∈N, pk=k¡

1−p¢k−1

p2.

Montrer que la famille (pk)k∈Ndéfinit une loi de probabilité.

Remarque16. La loiPX ne suffit pas à déterminer la variable aléatoireX: PX =PY N’IMPLIQUE PAS

"

en général queX=Y.

Contre-exemple17. On lance deux dés. On noteXila valeur du dé noi. Les v.a.X1etX2suivent la même loi : X1,→U([[1, 6]]) et X2,→U([[1, 6]]).

MaisX16=X2. En effet, considérons le résultatω: « le dé no1 donne 3 et le dé no2 donne 5 ».

On a : X1(ω)=3 etX2(ω)=5.

3.3 Image d’une variable aléatoire par une fonction

Notation 18. SoitXune v.a. et f :X(Ω)→R une fonction. On note la v.a. f(X) =

déf. fX . Donc f(X) :

¯

¯

¯

¯

Ω → R

ω 7→ f(X(ω)) . Exemple19. X2, p

X, a X+b.

(6)

3.4 Fonction de répartition

Notation 20. ∀x∈R, on note l’événement (XÉx) =

déf. X−1(]−∞,x]) = © ω∈Ω±

X(ωxª .

Définition 21. Lafonction de répartition de la v.a.Xest définie par∀x∈R, FX(x) =P(XÉx).

Théorème 22.

(i) FX est croissante.

(ii) FX(x)−−−−−→x

→−∞ 0.

(iii) FX(x)−−−−−→

x→+∞ 1.

Figure 23.

Courbe représentative de FSoù S est la somme des valeurs de deux dés.

(7)

4 Lois usuelles

Apprendre par cœur : formulaire sur les lois usuelles.

4.1 Loi uniforme

Définition 24. On dit que la v.a.Xsuit laloi uniforme sur l’ensemble {x1, . . . ,xn}, et on note X,→U ({x1, . . . ,xn}), ssi

1. X(Ω)={x1, . . . ,xn},

2. ∀i∈[[1,n]], P(X=xi) = 1 n.

Exemple25. Si X est la valeur du lancer d’un dé alorsX,→U ([[1, 6]]).

4.2 Loi de Bernoulli

Définition 26. On dit que la v.a.X suit laloi de Bernoulli de paramètrep∈[0, 1], et on note X,→B¡p¢

, ssi 1. X(Ω)={0, 1},

2. P(X=1) = p et P(X=0) = 1−p.

Remarque27. On note souventq=1−p. On a : P(X=0)=q.

Remarque28. La loi de BernoulliB¡p¢ s’interprète commele succès, dans une expérience aléatoire de type « succès-échec ».

Jacques Bernoulli(1654-1705) est un mathématicien et physi- cien suisse.

En 1689, il publie un important travail sur les séries infinies et sa loi des grands nombres dans la théorie des probabilités.

Il a obtenu le résultat fondamental selon lequel la sérieP1 n di- verge. Il n’a pu trouver la valeur exacte deP 1

n2 mais il a montré qu’il y avait convergence vers une limite finie inférieure à 2.

Exemple29. On lance une pièce de monnaie.

Obtenir pile est le succès, codé par le réel 1. Obtenir face est l’échec, codé par le réel 0.

Si la pièce est non truquée,X,→Bµ1 2

¶ .

Si la pièce est truquée et permet d’obtenir pile avec une probabilitép, X,→B¡p¢. Exemple30. SoitA∈P(Ω) un événement etp=P(A) sa probabilité. L’indicatrice deA

1A:

¯

¯

¯

¯

¯

¯

Ω → {0, 1}

ω 7→

½ 1 siωA 0 siω6∈A est une v.a. de loiB(p).

En effetP(1A=1) = P¡©

ω∈Ω±

1A(ω)=1ª¢

= P(A) = p.

(8)

4.3 Loi binomiale

Définition 31. On dit que la v.a.Xsuit laloi binomiale de paramètresn∈N etp∈[0, 1], et on noteX,→B¡n,p¢, ssi

1. X(Ω)=[[0,n]],

2. ∀k∈[[0,n]], P(X=k) = Ãn

k

! pk ¡

1−p¢n−k

.

Remarque32. B¡1,p¢=B¡p¢. « binomiale (1,p) = Bernoulli (p) ».

Remarque33. On a bien : Ãn

k

! pk ¡

1−p¢n−k

Ê0 et

n

X

k=0

Ãn k

! pk ¡

1−p¢n−k

= (p+1−p)n=1.

Remarque34. La loi binomialeB¡n,p¢ s’interprète commele nombre de succès lors de la répétition denexpériences de Bernoulli indépendantes et de même paramètrep.

Exemple35. Probabilité d’obtenirkfois pile lors denlancers successifs d’une pièce truquée qui donne pile avec une probabilitép∈[0, 1].

4.4 Loi géométrique

Définition 36. On dit que la v.a.X suit laloi géométrique de paramètrep∈]0, 1[, et on note X,→G(p), ssi

1. X(Ω)=N,

2. ∀k∈N, P(X=k) = p¡

1−p¢k1

.

Les premières valeurs sont : P(X=1) = p, P(X=2) = ¡ 1−p¢

p, P(X=3) = ¡ 1−p¢2

p, . . . Remarque37. On a bien : p¡

1−p¢k−1

Ê0 et

+∞X

k=1

p¡

1−p¢k−1

= p× 1

1−(1−p) = 1.

Remarque38. La loi géométriqueG(p) s’interprète commele rang du premier succèslors de la répéti- tion illimitée d’expériences de Bernoulli indépendantes et de même paramètrep.

Exercice 39.

∗∗ ?

VAD55

On lance un dé, à 6 faces non truqué, indéfiniment. On appelleXle rang d’apparition du premier 6.

On convient de noterX= +∞ si le 6 ne sort jamais.

1) On noteAnl’événement « on obtient 6 aun-ième lancé ».

Pour toutk∈N, déterminerP(X=k).

2) En déduireP(X= +∞).

3) Reconnaître la loi deX.

(9)

Théorème 40. X,→G(p) SSI ∀(n,k)∈N2, P(X>n+k|X>n) = P(X>k).

On dit que la loi géométrique est une « loi sans mémoire ».

Démonstration 41.

∗∗∗ ?

4.5 Loi de Poisson

Définition 42. On dit que la v.a. X suit la loi de Poisson de paramètre λ>0, et on note X,→P(λ), ssi

1. X(Ω)=N,

2. ∀k∈N, P(X=k) = e−λ λk k!.

Remarque43. On a bien : e−λ λk

k! Ê0 et

+∞X

k=0

e−λ λk

k! = e−λeλ=1.

Remarque44. La loi de PoissonP(λ) s’interprète comme le nombred’événements raresdans un in- tervalle de temps donné. (Voir la remarque 161.)

Siméon Denis Poisson(1781-1840) est un mathématicien et physicien français.

Son œuvre est immense et touche à beaucoup de branches des mathématiques et de la physique.

Il fut examinateur à l’École militaire de Saint-Cyr et à l’École Po- lytechnique.

Théorème 45.

SI X,→P(λ) et Y ,→P(µ) et SI X etY sontindépendantes ALORS X+Y ,→P(λ+µ).

Z

Démonstration 46.

∗∗ ?

(10)

5 Couples de variables aléatoires

5.1 Définition et notation

On appellecouple des v.a. X et Y l’application : (X,Y) :

¯

¯

¯

¯

Ω → R2

ω 7→ (X(ω),Y(ω)) . L’univers image de (X,Y) estX(Ω)×Y(Ω).

Notation 47. P¡

X=x,Y =y¢

déf.= P¡

(X=x)∩(Y =y

= P¡

(X,Y)=(x,y)¢ .

5.2 Loi conjointe

On appelleloi conjointe deXetY la loi du couple (X,Y) : PX,Y :

¯

¯

¯

¯

P(X(Ω)×Y(Ω)) → [0, 1]

A 7→ P((X,Y)∈A) . PX,Y est une probabilité.

5.3 Lois marginales

On appellelois marginales du couple (X,Y) les loisPX etPY des v.a.XetY. Théorème 48.

(i)xX(Ω), P(X=x) = X

y∈Y(Ω)

P¡

X=x,Y =y¢

Z

.

(ii)yY(Ω), P(Y =y) = X

x∈X(Ω)

P¡

X=x,Y =y¢ .

Démonstration 49.

∗∗

Avec la formule des probabilités totales.

« La connaissance de la loi conjointePX,Y permet de déterminer les lois marginalesPX etPY. »

5.4 Loi conditionnelle

(i) On appelleloi conditionnelledeXsachant (Y =y), siP(Y =y)6=0, la loi définie par :

∀x∈X(Ω), P(X=x|Y =y) = P¡

X=x,Y =y¢ P(Y =y) .

(ii) On appelleloi conditionnelledeY sachant (X=x), siP(X=x)6=0, la loi définie par :

yY(Ω), P(Y =y|X=x) = P¡

X=x,Y =y¢ P(X=x) .

(11)

Exercice 50.

∗∗ ?

(D’aprèsMines-Télécom, oral PSI 2017) VAD26

Une agence de poste comporte deux guichets. La probabilité pour un client d’aller au guichet no1 estp et celle d’aller au guichet no2 est 1−p. On noteX le nombre de personnes se rendant à la poste pendant une journée. On suppose queX suit une loi de Poisson de paramètreλ.

SoitY le nombre de personne qui va au guichet no1 pendant une journée.

1) Donner la loi deY sachant que (X=n). (loi conditionnelle) 2) Donner la loi de (X,Y). (loi conjointe)

3) Déterminer la loi deY. (loi marginale)

6 Variables aléatoires indépendantes

6.1 Indépendance de deux variables aléatoires

Définition 51. On dit que les v.a.XetY sontindépendantes ssi

∀x∈X(Ω), ∀y∈Y(Ω), P¡

X=x,Y =y¢

= P(X=x)P(Y =y).

Z

En d’autres termes : « ssi ∀(x,y), les événements (X=x) et (Y =y) sont indépendants. » '

&

$

% Méthode 52.

SI pour unx0X(Ω) etuny0Y(Ω) on a : P¡

X=x0,Y =y0¢

6= P(X=x0)P(Y =y0) ALORS XetY ne sont pas indépendantes.

Exercice 53.

VAD11

Une première urne contient 2 boules blanches et 3 boules noires et une seconde l’inverse. On jette une pièce et si l’on obtient « face », on pioche une boule dans la première urne, sinon, on pioche cette boule dans la seconde urne. On noteX la valeur du lancer de la pièce etY la couleur de la boule tirée. Les variablesX etY sont-elles indépendantes ?

Théorème 54.

SI les v.a.XetY sont indépendantes ALORS

(i)A,B∈P(X(Ω)), P¡

XA,YB¢

= P(X∈A)P(Y ∈B).

(ii)f :X(Ω)→R, ∀g:Y(Ω)→R, f(X) etg(Y) sont indépendantes.

Exemple55. SiXetY sont indépendantes, alorsX2etY2le sont aussi.

(12)

6.2 Indépendance mutuelle de variables aléatoires On dit que les v.a.X1, . . .,Xnsont :

1. deux à deux indépendantes ssi ∀i6=j,

xXi(Ω), ∀yXj(Ω), P¡

Xi=x,Xj=y¢

= P(Xi=x)P(Xj=y).

2. mutuellement indépendantes ssi ∀i1, . . . ,ik∈[[1,n]],

x1Xi1(Ω), . . ., ∀xkXik(Ω), P¡

Xi1=x1, . . . ,Xik=xk¢

= P(Xi1=x1) . . .P(Xik=xk).

Comme pour les événements : mutuellement indépendants =⇒ deux à deux indépendants.

On dit que (Xn)n∈N est une suite de v.a.mutuellement indépendantes ssi

∀nÊ2, X1, . . .,Xnsont mutuellement indépendantes.

Exemple56. Un jeu de pile ou face infini est modélisé par une suite de v.a. de loi de BernoulliB(p) mutuellement indépendantes.

Théorème 57.

SI X1, . . .,Xn sont mutuellement indépendantes

et SI X1, . . .,Xn suivent chacune la loi de BernoulliB(p) ALORS X1+ · · · +Xn suit la loi binomialeB(n,p).

Z

Démonstration 58.

∗∗ ?

7 Espérance

7.1 Espérance d’une variable aléatoire SoitX une v.a. discrète. On noteX(Ω)=©

xn,n∈Nª .

Définition 59. On dit queX est d’espérance finie ou admet une espérance ou admet un moment d’ordre 1 ssi la série XxnP(X=xn) CVA.

"

Dans ce cas, on appelleespérance deX le réel E(X) =

+∞X

n=0

xnP(X=xn) .

Z

Remarque60. On admet que la sommeE(X) =

+∞X

n=0

xnP(X=xn) ne dépend pas de l’ordre d’énuméra- tion. On pourra donc la noter : E(X) = X

x∈X()

x P(X=x) .

(13)

Remarque61. SiXest une v.a. finie, avecX(Ω)=©

x1, . . . ,xNª , alorsX est d’espérance finie et E(X) =

N

X

n=1

xnP(X=xn).

L’espérance deX peut être interprétée comme la moyenne pondérée des (xn).

Exemple62. On lance un dé non truqué. SoitXla v.a. égale à la valeur obtenue.

Alors E(X) = 1×1

6 + 2×1

6 + 3×1

6 + 4×1

6 + 5×1

6 + 6×1

6 = 6×(6+1)

2 ×1

6 = 7

2 = 3, 5.

Définition 63. On dit queXestcentrée ssi E(X)=0.

7.2 Espérances des lois usuelles

Apprendre par cœur : formulaire sur les lois usuelles.

Théorème 64.

SI X=λ est constante ALORS E(X)=λ.

Démonstration 65.

Théorème 66.

SI X,→U ([[1,n]]) suitla loi uniforme sur[[1,n]]

"

ALORS E(X)=n+1 2 .

Démonstration 67.

Théorème 68.

SI X,→B¡p¢ suit une loi de Bernoulli ALORS E(X)=p.

Démonstration 69.

Théorème 70.

SI X,→B¡n,p¢

suit une loi binomiale ALORS E(X)=np.

Démonstration 71.

∗∗

(14)

Théorème 72.

SI X,→G¡p¢ suit une loi géométrique ALORS E(X)=1

p.

Démonstration 73.

∗∗

Théorème 74.

SI X,→P(λ) suit une loi de Poisson ALORS E(X)=λ.

Démonstration 75.

∗∗

7.3 Propriétés de l’espérance Théorème 76. ( du transfert)

SoitXune v.a. discrète etf :X(Ω)→R une fonction.

f(X) est d’espérance finie SSI la sérieXf(xn)P(X=xn) CVA.

Dans ce cas, E¡ f(X)¢

=

+∞X

n=0

f(xn)P(X=xn) .

Z

Démonstration. Admise.

Exemple77. SoitX,→U([[1,n]]). E(X2) =

n

X

k=1

k2×1 n = 1

n×n(n+1) (2n+1)

6 = (n+1) (2n+1)

6 .

Théorème 78. (Linéarité)

SoitXetY deux v.a. admettant une espérance et soitλun réel.

E(λX+Y) = λE(X) +E(Y).

Démonstration. Admise.

Théorème 79. SoitXune v.a. admettant une espérance.

a,b∈R, E(a X+b) = a E(X)+b .

Z

Démonstration 80.

(15)

Remarque81. SiXadmet une espérance alorsY =XE(X) est centrée.

Exemple82. SoitX1, . . .,Xndes v.a., mutuellement indépendantes, qui suivent la loi de BernoulliB(p).

AlorsS=X1+ · · · +Xn suit la loi binomialeB(n,p).

On a : E(S) = E(X1)+ · · · +E(Xn) = p+ · · · +p

| {z }

nfois

= np.

Théorème 83. (Positivité)

SoitXune v.a. admettant une espérance.

SI XÊ0 ALORS E(X)Ê0

XÊ0 signifie que∀ω∈Ω, X(ω)Ê0.

Théorème 84. (Croissance)

SoitXetY deux v.a. admettant une espérance.

SI XÉY ALORS E(XE(Y)

XÉY signifie que∀ω∈Ω, X(ωY(ω).

7.4 Espérance du produit de deux variables aléatoires indépendantes Théorème 85.

SoitXetY deux v.a. admettant une espérance.

SI XetY sontindépendantes

ALORS X Y admet une espérance et E(X Y)=E(X)E(Y).

Z

Démonstration. Admise.

7.5 Espérance d’une variable aléatoire à valeurs dansN

Théorème 86. SoitXune v.a.à valeurs dansN qui admet une espérance.

E(X) =

+∞X

n=1

P(XÊn).

Démonstration 87.

∗∗∗

(16)

7.6 Inégalité de Cauchy-Schwarz

Théorème 88. (Inégalité de Cauchy-Schwarz pourE(X Y)) SI X2etY2sont d’espérances finies

ALORS X Y est d’espérance finie et

¯

¯E¡ X Y¢¯

¯ É q

E¡ X2¢ q

E¡ Y2¢

Démonstration 89.

∗∗ ?

8 Variance

8.1 Variance d’une variable aléatoire Théorème 90.

SI X2est d’espérance finie ALORS Xest d’espérance finie.

Démonstration 91.

∗∗ ?

Définition 92. On suppose queX2est d’espérance finie.

(i) On appellevariance deXle réel V(X) = E³

¡XE(X)¢2´

Z

.

(ii) On appelleécart type deXle réelσ(X)=p V(X).

Remarque93. SiX2est d’espérance finie, on dit aussi queXestde variance finie ou admet une variance ou admet un moment d’ordre 2.

Théorème 94. (Formule de König-Huygens) On suppose queX2est d’espérance finie. Alors

V(X) = E¡ X2¢

E(X)2 .

Z

Démonstration 95.

∗ ?

(17)

Johann Samuel König(1712-1757) est un mathématicien alle- mand.

Christian Huygens(1629-1695) est un mathématicien, un as- tronome et un physicien néerlandais.

En sciences physiques, il est célèbre pour la formulation de la théorie ondulatoire de la lumière et le calcul de la force centri- fuge.

Théorème 96. SoitXune v.a. admettant une variance.

∀a,b∈R, V(a X+b) = a2V(X) .

Z

Démonstration 97.

Définition 98. On dit queXestcentrée réduite ssi E(X)=0 et V(X)=1.

Exercice 99.

VAD03

SoitXune v.a. admettant une variance. Montrer queY =XE(X)

σ(X) est centrée réduite.

8.2 Variance de la somme de deux variables aléatoires indépendantes Théorème 100.

SI XetY sont deux v.a.indépendantes admettant une variance ALORS V(X+Y)=V(X)+V(Y).

Z

Démonstration 101.

∗∗

Théorème 102.

SI X1, . . .,Xnsont des v.a.2 à 2 indépendantes admettant une variance ALORS V(X1+ · · · +Xn)=V(X1)+ · · · +V(Xn).

Démonstration 103.

∗∗

(18)

8.3 Variances des lois usuelles

Apprendre par cœur : formulaire sur les lois usuelles.

Théorème 104.

SI X=λ est constante ALORS V(X)=0.

Démonstration 105.

Théorème 106.

SI X,→U ([[1,n]]) suit une loi uniforme ALORS V(X)=n2−1

12 .

Démonstration 107.

∗∗

Théorème 108.

SI X,→B¡p¢ suit une loi de Bernoulli ALORS V(X)=p¡

1−p¢ .

Démonstration 109.

Théorème 110.

SI X,→B¡n,p¢

suit une loi binomiale ALORS V(X)=n p¡

1−p¢ .

Démonstration 111.

∗∗

Théorème 112.

SI X,→G¡p¢

suit une loi géométrique ALORS V(X)=1−p

p2 .

Démonstration 113.

∗∗

(19)

Théorème 114.

SI X,→P(λ) suit une loi de Poisson ALORS V(X)=λ.

Démonstration 115.

∗∗

Exercice 116.

∗∗

(D’après Mines-Télécom, oral PSI 2019) VAD30

Une urne contient 3 boules blanches et 7 rouges. On effectue des tirages avec remise dans cette urne.

1) SoitX la variable aléatoire égale au rang d’apparition de la première boule blanche.

Déterminer la loi deX.

2) DonnerE(X) etV(X). Démontrer la valeur deE(X).

3) SoitY la variable aléatoire égale au rang d’apparition de la troisième boule blanche.

Déterminer la loi deY.

8.4 Inégalité de Markov

Théorème 117. (Inégalité de Markov) SoitXune v.a. admettant une espérance.

a>0, P¡

|X| Êa¢

É E(|X|)

Z

a

Démonstration 118.

∗∗∗ ?

Andreï Markov(1856-1922) est un mathématicien russe.

Il étudia en 1913 la succession des lettres dans le roman Eugène Onéguine d’Alexandre Pouchkine. Markov nota que les lettres utilisées (qui se répartissent selon les statistiques spécifiques de l’alphabet russe) suivent en fait des contraintes très précises : chaque lettre dépend étroitement de la précédente. On appela par la suite les groupements dans lesquels une lettre d’un texte dépend de la précédente - avec une certaine probabilité - une chaîne de Markov.

(20)

8.5 Inégalité de Bienaymé-Tchebychev

Théorème 119. (Inégalité de Bienaymé-Tchebychev) SoitXune v.a. admettant une variance.

∀ε>0, P¡

|X−E(X)| Êε¢

É V(X) ε2

Z

Démonstration 120.

∗∗ ?

La variance est un indicateur de dispersion deXautour de son espérance.

Irénée-Jules Bienaymé(1796-1878) est un probabiliste et sta- tisticien français.

Continuateur de l’œuvre de Laplace dont il généralise la mé- thode des moindres carrés, il contribue à la théorie des proba- bilités, au développement de la statistique et à leurs applica- tions aux calculs financiers, à la démographie aux statistiques sociales.

Pafnouti Tchebychev(1821-1894) est un mathématicien russe.

Tchebychev reprend le vaste programme lancé par Jacques Ber- noulli, Abraham de Moivre et Siméon Denis Poisson pour énon- cer et démontrer de façon rigoureuse des théorèmes limites, c’est- à-dire pour établir les tendances asymptotiques des phénomènes naturels. Il établit une loi des grands nombres très générale et donne une nouvelle et brillante méthode de démonstration.

Exercice 121.

∗∗

VAD06

On utilise un dé à six faces non truqué. Quel est le nombren de lancers qu’il faut effectuer pour pouvoir affirmer, avec un risque d’erreur inférieur à 5%, que la fréquence d’apparition du numéro 6 au cours de cesnlancers est comprise entre1

6−0, 01 et1

6+0, 01 ?

8.6 Variance nulle

Exercice 122.

∗∗ ?

VAD002

SoitXune variable aléatoire admettant une variance.

1) Montrer que : si V(X)=0 alors P¡

X=E(X)¢

= 1.

2) On dit que X estpresque sûrement constante ssi ∃C∈R ±

P(X=C) = 1.

Déduire de la question1)que : V(X)=0 ssi X est presque sûrement constante .

(21)

8.7 Covariance

Dans tout ce paragraphe, XetY sont deux v.a. admettant une variance.

Définition et lien avec la variance

Définition 123. On appellecovariance deXetY le réel Cov(X,Y) = E¡

(X−E(X)) (Y −E(Y))¢ .

Remarque124. SoitXune v.a. admettant une variance. Cov(X,X)=V(X).

Théorème 125. (Formule de König-Huygens pour la covariance) Cov(X,Y)=E(X Y)−E(X)E(Y).

Démonstration 126.

Lien avec l’indépendance Théorème 127.

SI XetY sontindépendantes ALORS Cov(X,Y)=0.

Démonstration 128.

Remarque129. La réciproque est fausse en général.

Forme Bilinéaire Symétrique Positive Théorème 130.

SoitX,X0,Y,Y0des v.a. admettant une variance et soitλun réel.

F Cov(X,Y)∈R.

B Cov(λX+X0,Y)=λCov(X,Y)+Cov(X0,Y) et Cov(X,λY+Y0)=λCov(X,Y)+Cov(X,Y0).

S Cov(X,Y)=Cov(Y,X).

P Cov(X,X)Ê0.

Démonstration 131.

(22)

La covariance est une « Forme Bilinéaire Symétrique Positive », mais « non définie ».

"

Ce n’est donc pas

un produit scalaire.

Contre-exemple132. Soit la v.a. constanteX:

¯

¯

¯

¯

Ω → R ω 7→ 1 . Alors Cov(X,X)=V(X)=E¡

(X−E(X))2¢

=E¡

(1−1)2¢

=E(0)=0. PourtantXn’est pas la v.a. nulle.

Variance d’une somme

Théorème 133. V(X+Y) =V(X)+ 2 Cov(X,Y)+V(Y).

Démonstration 134.

On reprend la démo du théorème 100

Inégalité de Cauchy-Schwarz

Théorème 135. (Inégalité de Cauchy-Schwarz pour la covariance)

¯

¯

¯Cov(X,Y

¯

¯ É σ(X)σ(Y).

Démonstration 136.

∗∗ ?

8.8 Coefficient de corrélation

Définition 137. On appellecoefficient de corrélation deXetY le réel ρ(X,Y)= Cov(X,Y) σ(X)σ(Y).

Théorème 138.

SoitXetY deux v.a. admettant une variance.

(i) −1Éρ(X,Y)É1.

(ii) ρ(X,X)=1.

(iii) SI X etY sont indépendante ALORS ρ(X,Y)=0.

Démonstration 139.

Exercice 140.

∗∗

VAD62

SoientX etY des v.a. admettant une variance. On poseU=a X+b etV =cY+da,c∈R et b,d∈R. Comparer les coefficients de corrélationρ(U,V) etρ(X,Y).

(23)

9 Série génératrice d’une variable aléatoire à valeurs dans N

Dans toute cette partie,Xdésigne une v.a. à valeurs dansN, c’est-à-direX:Ω→N.

9.1 Définition et premières propriétés

Définition 141. On appellesérie génératrice deX la série entière

GX(t) =

+∞X

n=0

P(X=n)tn

Z

Théorème 142. On noteRX le rayon de CV de la série entièreGX. RX Ê1

Démonstration 143.

∗ ?

GX(1) CV.

Théorème 144.t∈]−RX,RX[, GX(t) = E¡ tX¢

Z

.

Démonstration 145.

∗∗ ?

Avec le théorème du transfert.

Théorème 146. La loi deXest parfaitement déterminée par la série génératriceGX.

Démonstration 147.

∗∗ ?

Remarque148. Conséquence : XetY ont la même loi SSI GX =GY .

9.2 Calcul de l’espérance et de la variance à l’aide de la série génératrice Remarque149. GX estCsur ]RX,RX[ doncCsur ]−1, 1[. (carRX Ê1)

Théorème 150. Xadmet une espérance SSI GX est dérivable en 1.

Dans ce cas, E(X) = G0X(1) .

Z

Démonstration 151.

∗∗ ?

(24)

Théorème 152. Xadmet une variance SSI GX est deux fois dérivable en 1.

Dans ce cas, V(X) = G00X(1)+G0X(1)−G0X(1)2 .

Z

Démonstration 153.

∗∗ ?

9.3 Série génératrice de la somme de deux variables aléatoires indépendantes Théorème 154.

SI XetY sont deux v.a.indépendantes ALORS GX+Y = GX×GY.

Z

Démonstration 155.

∗ ?

SiXetY sont indépendantes, alorsf(X) etf(Y) sont indépendantes.

Exercice 156.

∗∗ ?

VAD50

1) Déterminer la série génératrice de la v.a.X dans les cas suivants : 1. X,→U([[1,n]]).

2. X,→B(p).

3. X,→B(n,p).

4. X,→G(p).

5. X,→P(λ).

2) Retrouver, grâce aux séries génératrices précédentes, les valeurs de l’espérance et de la variance de ces lois.

Exercice 157.

∗∗ ?

VAD59

Soient un réelp∈]0, 1[ et deux entiersn,mÊ1.

SoientXetY deux v.a. indépendantes telles queX,→B(n,p) etY ,→B(m,p).

Montrer, à l’aide des séries génératrices, queX+Y ,→B(n+m,p).

Exercice 158.

∗∗ ?

(Classique) VAD59a

Soient deux réelsλ>0 et µ>0.

SoientXetY deux v.a. indépendantes telles queX,→P(λ) etY ,→P(µ).

Montrer, à l’aide des séries génératrices, queX+Y ,→P(λ+µ).

(25)

10 Résultats asymptotiques

10.1 Approximation de la loi binomiale par la loi de Poisson

Théorème 159. (Approximation de la loi binomiale par la loi de Poisson) SI ∀n∈N, Xn,→B(n,pn)

et SI n pn−−−−−→n

→+∞ λ

ALORS ∀k∈N, P(Xn=k) −−−−−→

n→+∞ e−λ λk k!.

Démonstration 160.

∗∗ ?

Calcul direct d’équivalent et de limites.

Remarque161. P(λ) est la « limite » de B(n,pn) lorsque pn

n→+∞

λ

n −−−−−→

n→+∞ 0.

La loi de PoissonP(λ) s’interprète commela loi des événements rares.

Remarque162. En pratique, lorsquenest « grand » (de l’ordre de quelques centaines) etnp« petit » (de l’ordre de quelques unités), on considère que remplacer la loi binomialeB(n,p) par la loi de Poisson P(λ) avecλ=np donne une bonne approximation.

Figure 163.

Approximation d’une loi binomiale par une loi de Poisson.

Exercice 164.

VAD52

Le président d’un bureau de vote est né un 1er avril. Il décide de noter le nombreX de personnes ayant leur anniversaire le même jour que lui parmi les 500 premiers électeurs qui se présentent.

1) Déterminer la loi deX.

2) Montrer que l’on peut approcher la loi deXpar une loi de Poisson.

3) Calculer des approximations deP(X=k) pourk∈[[0, 5]].

(26)

10.2 Loi faible des grands nombres

Théorème 165. (Loi faible des grands nombres) Soit (Xn) une suite de v.a. qui admettent des variances.

SI lesXnsont2 à 2 indépendantes et SI lesXnsuiventtoutes la même loi ALORS

∀ε>0, P Ã ¯

¯

¯

¯

¯ 1 n

n

X

i=1

XiE(X1)

¯

¯

¯

¯

¯ Ê ε

!

−−−−−→

n→+∞ 0

Démonstration 166.

∗∗ ?

Avec l’inégalité de Bienaymé-Tchebychev

L

ÉGENDE Pour le poly :

"

Attention, ne pas oublier, piège Idée, astuce

Z

Important, à connaître par cœur Pour les exercices et les démonstrations :

Références

Documents relatifs

La fonction g est le résultat d'opérations et de composition de fonctions usuelles C ∞ dans leurs domaines... L'inégalité précédente est valable pour tous

Enseignants de TD: C.Denis, S.Lecorff, D.Matthieu, S.Robbiano, C.Rossant le 6 juin 2011 (2 heures; sans documents ni calculatrice).. Plus exactement on suppose que ξ et η sont

On tire une boule de l’urne, on note sa couleur, puis on la remet dans l’urne, on parle de répétition d’expériences d’épreuves de Bernoulli, les épreuves étant identiques

Caluler la probabilité pour ette mahine de tomber en panne plus d'une fois au ours d'un mois de trente jours2. Le par est omposé de n = 200 mahines et la probabilité pour une de

Exercices résolus (page de droite) : essayer de faire sur le cahier d’exercices sans regarder la correction dans un premier temps puis s’auto-corriger.. Il y a un exercice

On note Y la variable aléatoire qui vaut a en cas de victoire et -33 en cas de défaite. On effectue des tirages au hasard dans une urne contenant des boules numérotées de 1 à n.

On reprend l’exemple précédent : on lance deux dés (X le plus petit des deux numéros obtenus et Y le plus grand numéro obtenu).. On lance deux dés équilibrés à 6 faces (l’un

Degrave, Probabilités-Statistiques ECS 2ème année, pages 141 à 148 Exercice :. Soit (X n ) n≥1 une suite