• Aucun résultat trouvé

Complément de formation Statistiques

N/A
N/A
Protected

Academic year: 2022

Partager "Complément de formation Statistiques"

Copied!
73
0
0

Texte intégral

(1)

Complément de formation Statistiques Variables Aléatoires Discrètes

Mohamad Ghassany

École supérieure d’ingénieurs Léonard-de-Vinci

(2)

1. Introduction aux probabilités

2. Notion de variable aléatoire réelle 3. Variables aléatoires discrètes

4. Moments d’une variable aléatoire discrète 5. Couple de variables aléatoires discrètes

6. Loi Uniforme DiscrèteU(n)

7. Loi de BernoulliB(p)

8. Loi BinomialeB(n, p)

9. Loi de PoissonP(λ)

10. Loi Géométrique ou de PascalG(p)

11. Loi Binomiale NégativeBN(r, p)

1

(3)

Introduction aux probabilités

(4)

Hasard

Exemple fondamental: Considérons le jeu du lancé d’un dé.

I Expérience aléatoireε: “lancer un dé équilibré”←−Action.

I Univers: l’ensemble de tous les résultats possibles de cette expérience aléatoire Ω ={1,2,3,4,5,6}

I Evénements: Dans cette expérience aléatoire, on peut s’intéresser à des événements plus complexes qu’un simple résultat élémentaire.

I L’ensemble de parties deΩ, appeléP(Ω), est l’ensemble des sous-ensembles deΩ.

I UnefamilleAde parties(i.e. de sous ensembles) deΩ. Ces parties sont appelées des événements. On dit que l’événementAs’est réalisé si et seulement si le résultatωdeΩqui s’est produit appartient àA.

I Tribu: On appelletribusurΩ, toute familleAde parties deΩvérifiant:

1. Ω∈ A.

2. siA∈ A, alorsA¯∈ A.

3. si(An)n∈Nest une suite d’éléments deA, alors

S

n∈N

An∈ A.

I (Ω,A)est unespace probibilisable.

2

(5)

Notions sur les Evénements

I Soit(Ω,A)un espace probibilisable:

• L’ensembleAest appelétribu des événements. Les éléments deAs’appellent lesévénements.

• L’événementΩest appeléévénement certain. L’événement∅est appeléévénement impossible.

I Opérations sur les événements. SoientAetBdeux événements:

A¯est l’événementcontrairedeA(on note aussiAc).A¯= Ω\A.

A¯se réalise si et seulement siAne se réalise pas.

ABest l’événement «AetB».

ABse réalise lorsque les deux événements se réalisent.

ABest l’événement «AouB».

ABse réalise lorsque au moins un des deux événements se réalise.

I Incompatibilité:AetBsont incompatibles si leur réalisation simultanée est impossible: AB=∅.

I Implication: AimpliqueBsignifie que siAse réalise, alorsBse réalise aussi:AB.

3

(6)

I Soit(Ω,A)un espace probabilisable. On appelleprobabilitésur(Ω,A), toute application P :A →R

vérifiant:

1. ∀A∈ A, P(A)≥0.

2. P(Ω) = 1.

3. ∀(An)n∈N∈ AN, une suite d’éléments deAdeux à deux incompatibles, on a:

P(

[

n∈N

An) =

+∞

X

n=1

P(An)

I Le triplet(Ω,A, P)est appeléespace probabilisé.

4

(7)

Probabilité: Propriétés

1. P(∅) = 0.

2. P(A1A2) =P(A1) +P(A2)−P(A1A2).

3. SiA1etA2 sont incompatibles,A1A2=∅,P(A1A2) =P(A1) +P(A2).

4. P(A1A2A3) =P(A1) +P(A2) +P(A3)−P(A1A2)−P(A1A3)−P(A2A3) +P(A1A2A3).

5. P( ¯A) = 1P(A).

6. P(B\A) =P(B)−P(BA).

7. ABP(A)≤P(B).

Probabilité uniforme surfini

I SoitΩun univers fini. On dit queP est laprobabilité uniformesur l’espace probabilisable(Ω, P(Ω))si:

∀ω, ω0∈Ω, P({ω}) =P({ω0}) On dit aussi qu’il y aéquiprobabilitédes événements élémentaires.

I Soit(Ω,P(Ω), P)un espace probabilisé fini. SiP est la probabilité uniforme, alors

∀A∈ A, P(A) =Card(A) Card(Ω)

5

(8)

I Soit(Ω,A, P)une espace probabilisé etB∈ Atel queP(B)>0. L’applicationPB définie surApar:

PB(A) =P(A|B) =P(A∩B)

P(B) , ∀A∈ A

est une probabilité sur(Ω,A); elle est appelée laprobabilité conditionnellesachantB. C’est la probabilité pour que l’événementAse produise sachant que l’événementBs’est produit.

I Remarque:(A|B)n’est pas un événement! On utilise la notationP(A|B)par simplicité, mais c’estPB(A) qui est correcte.

I Formule des probabilités composées:

P(A∩B) =P(A|B)P(B) =P(B|A)P(A)

I Formule des probabilités totales:

• ∀A∈ A, P(A) =P(AB) +P(AB)¯

• On appellesystème complet d’événements (SCE), toute partition dénombrable deΩformée d’éléments deA; c-à-d tout ensemble dénombrable d’événements, deux à deux incompatibles et dont l’union dénombrable est l’événement certain.

• Soit(Bn)n≥0unSCEdeΩ. On a:

∀A∈ A, P(A) =

X

n≥0

P(A∩Bn)

I Indépendance: Les événementAetBsont indépendants ssiP(A∩B) =P(A)P(B).

6

(9)

Formule de Bayes

Première formule de Bayes

Soit(Ω,A, P)une espace probabilisé. Pour tous événementsAetBtels queP(A)6= 0etP(B)6= 0, on a:

P(B|A) = P(A|B)P(B) P(A)

Deuxième formule de Bayes

Soit(Ω,A, P)une espace probabilisé et(Bn)n≥0 unSCEdeΩt.q. pour toutn≥0P(Bn)6= 0. On a pour toutA∈ At.q. P(A)6= 0

P(Bi|A) = P(A|Bi)P(Bi)

P

n≥0P(A|Bn)P(Bn) ∀i≥0

7

(10)
(11)

Notion de variable aléatoire réelle (v.a.r.)

Définition

Soientεune expérience aléatoire et(Ω,A, P)un espace probabilisé lié à cette expérience. Dans de nombreuses situations, on associe à chaque résultatω∈Ωun nombre réel notéX(ω); on construit ainsi une applicationX: Ω→R. Historiquement,εétait un jeu etX représentait le gain du joueur.

Exemple: Jeu de dé

Un joueur lance un dé équilibré à 6 faces numérotées de 1 à 6, et on observe le numéro obtenu.

I Si le joueur obtient 1, 3 ou 5, il gagne 1 euro.

I S’il obtient 2 ou 4, il gagne 5 euros.

I S’il obtient 6, il perd 10 euros.

8

(12)

Analyse

I ε: “lancer d’un dé équilibré”.

I Ω ={1,2,3,4,5,6}.

I A=P(Ω).

I P l’équiprobabilité sur(Ω,A).

SoitXl’application deΩdansRqui à toutω∈Ωassocie le gain correspondant.

On a donc

I X(1) =X(3) =X(5) = 1

I X(2) =X(4) = 5

I X(6) =−10

On dit queX est unevariable aléatoiresurΩ.

9

(13)

Notion de variable aléatoire réelle (v.a.r.)

On peut s’intéresser à la probabilité de gagner 1 euro:

X(ω) = 1.

I ce qui se réalise si et seulement siω∈ {1,3,5}.

I La probabilité cherchée est doncP({1,3,5}) = 1/2.

I On écrira aussiP(X= 1) = 1/2.

On pourra donc considérer l’événement:

{X= 1}={ω∈Ω/X(ω) = 1}={ω∈Ω/X(ω)∈ {1}}=X−1({1})={1,3,5}.

On aura du même:

I P(X= 5) = 1/3.

I P(X=−10) = 1/6.

10

(14)

On peut présenter les probabilités précédentes dans un tableau:

xi -10 1 5

pi=P(X=xi) 1/6 1/2 1/3 Cela revient à considérer un nouvel ensemble d’événements élémentaires:

X=X(Ω)={−10,1,5}

et à munir cet ensemble de la probabilitéPX définie par le tableau desP(X=xi)ci dessus. Cette nouvelle probabilité s’appelleloi de la variable aléatoireX.

Remarquer que

P(

[

xi∈ΩX

{X=xi}) =

X

xi∈ΩX

P(X=xi) =1

11

(15)

Variables aléatoires discrètes

(16)

Définition

On dit qu’une variable aléatoire réelle (v.a.r.)X estdiscrète(v.a.r.d.) si l’ensemble des valeurs que prendX est fini ou infini dénombrable.

Si on supposeX(Ω)l’ensemble des valeurs deXqui admet un plus petit élémentx1. Alors la v.a.r.d. Xest entièrementdéfiniepar:

I L’ensembleX(Ω)des valeurs prises parX, rangées par ordre croissant: X(Ω) ={x1, x2, . . . , xi, . . .}avec x1x2. . .xi. . ..

I Laloi de probabilitédéfinie surX(Ω)par

pi=p(xi) =P(X=xi) ∀i= 1,2, . . .

Remarques:

I B⊂R,P(X∈B) =

P

i/xi∈Bp(xi).

I P(a < X≤b) =

P

i/a<xi≤bp(xi).

I p(xi)≥0et

P

i=1p(xi) = 1.

I SiX ne prend qu’un petit nombre de valeurs, cette loi est généralement présentée dans un tableau.

12

(17)

Fonction de répartition d’une v.a.d

Définition

On appelle fonction de répartition de la v.a.X, qu’on noteF(a)de la v.a.r.d.X, ouFX(a), la fonction définie pour tout réela,−∞< a <∞, par

F(a) =P(X≤a) =

X

i/xi≤a

P(X=xi)

Cette valeur représente la probabilité de toutes les réalisations inférieures ou égales au réela.

Propriétés

1. C’est une fonction en escalier (constante par morceaux).

2. F(a)≤1car c’est une probabilité.

3. F(a)est continue à droite.

4. lim

a→−∞F(a) = 0et lim

a→∞F(a) = 1

La fonction de répartition caractérise la loi deX, autrement dit: FX=FY si et seulement si les variables aléatoiresX etY ont la même loi de probabilité.

13

(18)

Tous les calculs de probabilité concernantX peuvent être traités en termes de fonction de répartition. Par exemple,

P(a < X≤b) =F(b)−F(a) pour touta < b

On peut mieux s’en rendre compte en écrivant{X≤b}comme union des deux événements incompatibles {X≤a}et{a < X≤b}, soit

{X≤b}={X≤a} ∪ {a < Xb}

et ainsi

P(X≤b) =P(Xa) +P(a < X≤b) ce qui établit l’égalité ci dessus.

Remarque

On peut déduire deF les probabilités individuelles par:

pi=P(X=xi) =F(xi)−F(xi−1) pour1≤in 14

(19)

Fonction de répartition et probabilités sur X

Exemple

On joue trois fois à pile ou face⇒

I Ω ={P, F}3.

I card(Ω) =|Ω|= 23= 8.

SoitXla variable aléatoire “nombre de pile obtenus”⇒X(Ω) ={0,1,2,3}.

I Calculons par exempleP(X= 1).

I X−1(1) ={(P, F, F),(F, P, F),(F, F, P)}.

P(X= 1) =38

En procédant de la même façon, on obtient la loi de probabilité deX:

k 0 1 2 3

P(X=k) 1/8 3/8 3/8 1/8

15

(20)

La fonction de répartition deXest donc donnée par:

F(x) =

 

 

 

 

0 six <0 1/8 si0≤x <1 1/2 si1≤x <2 7/8 si2≤x <3 1 six≥3

On peut présenter la fonction de répartition dans le tableau de la loi de probabilité deX:

k 0 1 2 3

P(X=k) 1/8 3/8 3/8 1/8 FX(x) 1/8 1/2 7/8 1

16

(21)

Fonction de répartition et probabilités sur X

Le graphe de cette dernière est représentée dans la figure suivante:

-1 0 1 2 3 4

x F(x) 01/81/27/81

Figure 1:Fonction de répartition

17

(22)

Une autre représentation de la fonction de répartition:

-1 0 1 2 3 4

x F(x) 01/81/27/81

Figure 2:Fonction de répartition

18

(23)

La variable aléatoire indicatrice

Définition

SoitAun événement quelconque. On appellevariable aléatoire indicatricede cet événementA, la variable aléatoire notéeX=1A et définie par:

X(ω) =

1 siωA 0 siωA¯

Ainsi:

I P(X= 1) =P(A) =p

I P(X= 0) =P( ¯A) = 1p

La fonction de répartition deXest donc donnée par:

F(x) =

(

0 six <0

1−p si0≤x <1

1 six≥1

19

(24)

Exemple

I SoitUune urne contenant 2 boules blanches et 3 boules noires.

I On tire une boule au hasard.

I SoitA:“obtenir une boule blanche”.

I SoitX la variable indicatrice deA.

Déterminez la loi de probabilité deXainsi que sa Fonction de répartition.

La loi de probabilité deX est

k 0 1

P(X=k) 35 25 et sa fonction de répartition est:

F(x) =

(

0 six <0

3/5 si0≤x <1 1 six≥1

20

(25)

Moments d’une variable aléatoire

discrète

(26)

Définition

Pour une variable aléatoire discrèteX de loi de probabilitép(.), on définit l’espérance deX, notéeE(X), par l’expression

E(X) =

X

i∈N

xip(xi)

En termes concrets, l’espérance deX est la moyenne pondérée des valeurs queXpeut prendre, les poids étant les probabilités que ces valeurs soient prises.

Exemples

1. Dans l’exemple où on joue 3 fois à pile ou face. L’espérance deX=“nombre de pile obtenus” est égal à:

E(X) = 0×1 8+ 1×3

8+ 2×3 8+ 3×1

8 = 1.5 2. Pour la variable aléatoire indicatrice deA:

E(X) = 0×P(X= 0) + 1×P(X= 1) =P(A) =p

Ceci signifie que l’espérance de la variable indicatrice pour l’événementAest égale à la probabilité queA

se produise. 21

(27)

Espérance d’une fonction d’une variable aléatoire

Théorème

Si X est une variable aléatoire discrète pouvant prendre ses valeurs parmi les valeursxi,i≥1, avec des probabilités respectivesp(xi), alors pour toute fonction réellegon a

E(g(X)) =

X

i

g(xi)p(xi)

Exemple

SoitXune variable aléatoire qui prend une des trois valeurs{−1,0,1}avec les probabilités respectives

P(X=−1) = 0.2 P(X= 0) = 0.5 P(X= 1) = 0.3 CalculerE(X2).

22

(28)

Solution

Première approche: SoitY =X2. La distribution deY est donnée par

P(Y = 1) =P(X=−1) +P(X= 1) = 0.5 P(Y = 0) =P(X= 0) = 0.5

Donc

E(X2) =E(Y) = 1(0.5) + 0(0.5) = 0.5 Deuxième approche: En utilisant le théorème

E(X2) = (−1)2(0.2) + 02(0.5) + 12(0.3)

= 1(0.2 + 0.3) + 0(0.5) = 0.5

Remarque

0.5 =E(X2)6= (E(X))2= 0.01

23

(29)

Linéarité de l’espérance

Propriétés

1. E(X+a) =E(X) +a, a∈R résultat qui se déduit de:

X

i

pi(xi+a) =

X

i

pixi+

X

i

api=

X

i

pixi+a

X

i

pi=

X

i

pixi+a

2. E(aX) =aE(X), a∈R il suffit d’écrire:

X

i

piaxi=a

X

i

pixi

3. E(X+Y) =E(X) +E(Y),X etY étant deux variables aléatoire.

On peut résumer ces trois propriétés en disant que l’espérance mathématique est linéaire:

E(λX+µY) =λE(X) +µE(Y), ∀λ∈R,∀µ∈R.

24

(30)

Définition

Il s’agit d’un indicateur mesurant la dispersion des valeursxique peut prendre la v.a.X et son espérance E(X). On appellevariancede X, que l’on noteV(X), la quantité, lorsqu’elle existe,

V(X) =E

(X−E(X))2

C’est l’espérance mathématique du carré de la v.a. centréeXE(X).

Remarque

On peut établir une autre formule pour le calcul deV(X):

V(X) =E(X2)−E2(X) Or:

V(X) =E

X2−2XE(X) +E2(X)

=E(X2)−E[2XE(X)] +E[E2(X)]

=E(X2)−2E2(X) +E2(X)

=E(X2)−E2(X)

25

(31)

Variance

Exemple

On chercheV(X)oùXest le nombre obtenu lors du jet d’un dé équilibré.

On a vu précédemment queE(X)= 72. De plus,

E(X2)=

X

i

x2ip(xi)

= 12

1

6

+ 22

1

6

+ 32

1

6

+ 42

1

6

+ 52

1

6

+ 62

1

6

=

1

6

(91) = 91 6 Et donc

V(X)=E(X2)−E2(X)

= 91 6 −

7

2

2

=35

12 26

(32)

Propriétés

1. V(X)≥0

2. ∀a∈R, V(X+a) =V(X) en effet:

V(X+a) =E

[X+aE(X+a)]2

=E

[X+aE(X)a]2

=E

[X−E(X)]2

=V(X) 3. ∀a∈R, V(aX) =a2V(X)

en effet:

V(aX) =E

[aX−E(aX)]2

=E

[aX−aE(X)]2

=E

a2[X−E(X)]2

=a2

E[X−E(X)]2

=a2V(X)

27

(33)

Ecart-type

Définition

La racine carrée deV(X)est appelée l’écart-typedeX, qui se noteσX1. On a

σX=

p

V(X)

σXs’exprime dans les mêmes unités de mesure que la variable aléatoireX.

I L’écart type sert à mesurer la dispersion d’un ensemble de données.

I Plus il est faible, plus les valeurs sont regroupées autour de la moyenne.

I Exemple: La répartition des notes d’une classe. Plus l’écart type est faible, plus la classe est homogène.

I L’espérance et l’écart-type sont reliés par l’inégalité de Bienaymé-Tchebychev.

1ouσ(X), ou tout simplementσ.

28

(34)

Théorème

SoitXune variable aléatoire d’espéranceµet de varianceσ2. Pour toutε >0, on a l’inégalité suivante:

P(|X−E(X)| ≥ε)σ2 ε2

Remarque

On peut l’écrire autrement. Soitk=ε/σ.

P(|X−E(X)| ≥kσ)≤ 1 k2 Importance

Cette inégalité relie la probabilité pourX de s’écarter de sa moyenneE(X), à sa variance qui est justement un indicateur de dispersion autour de la moyenne de la loi. Elle montre quantitativement que “plus l’écart type est faible, plus la probabilité de s’écarter de la moyenne est faible”.

Inégalité de Markov

SoitXune variable aléatoire à valeur non négatives. Pour tout réela >0 P(X > a)≤E(X)

a 29

(35)

Moments non centrés et centrés

Définition

On appellemoment non centréd’ordrer∈NdeX la quantité, lorsqu’elle existe:

mr(X) =

X

i∈N

xrip(xi) =E(Xr).

Définition

Lemoment centréd’ordrer∈Nest la quantité, lorsqu’elle existe:

µr(X) =

X

i∈N

pi[xiE(X)]r=E[X−E(X)]r.

Remarque

Les premiers moments sont:

I m1(X) =E(X), µ1(X) = 0.

I µ2(X) =V(X) =m2(X)−m21(X).

30

(36)

discrètes

(37)

Couple de variables aléatoires discrètes

Nous avons traité jusqu’ici des variables isolées. Or, il est souvent nécessaire de considérer des événements relatifs à deux variables simultanément, ou même à plus de deux variables.

Définition

SoitXetY deux variables aléatoires réelles discrètes, définies sur un espace probabilisé(Ω,A, P)et que X(Ω) ={x1, x2, . . . , xl}etY(Ω) ={y1, y2, . . . , yk},letk∈N.

Laloi du couple(X, Y)est entièrement définie par les probabilités:

pij=P(X=xi;Y =yj) =P({X=xi} ∩ {Y =yj}) On a

pij≥0 et

l

X

i=1 k

X

j=1

pij= 1

Le couple(X, Y)s’appelle variable aléatoire à deux dimensions et peut prendrel×kvaleurs.

31

(38)

Les probabilitéspijpeuvent être présentées dans un tableau à deux dimensions qu’on appelle table de probabilité conjointe:

Table 1:Table de probabilité conjointe

X\Y y1 y2 . . . yj . . . yk

x1 p11 p12 p1j p1k

x2 p21 p22 p2j p2k

.. .

xi pi1 pi2 pij pik

.. .

xl pl1 pl2 plj plk

A la première ligne figure l’ensemble des valeurs deY et à la première colonne figure l’ensemble des valeurs de X. La probabilitépij=P(X=xi;Y =yj)est à l’intersection de laieet de lajecolonne.

32

(39)

Exemple de couple de variables aléatoires

Exemple

On tire au hasard 3 boules d’une urne contenant 3 boules rouges, 4 blanches et 5 noires.X etY désignent respectivement le nombre de boules rouges et celui de boules blanches tirées. Déterminer la loi de probabilité conjointe du couple(X, Y).

Solution

I ε: “tirer 3 boules d’une urne contenant 12 boules”.

I |Ω|=C123 = 220.

I X(Ω) ={0,1,2,3}etY(Ω) ={0,1,2,3}.

I p(X= 0, Y = 0) =p(0,0) =C35/C123 =22010.

I p(0,1) =C14C52/C123 = 22040.

I p(1,0) =C13C52/C123 = 22030.

33

(40)

Exemple

On tire au hasard 3 boules d’une urne contenant 3 boules rouges, 4 blanches et 5 noires.X etY désignent respectivement le nombre de boules rouges et celui de boules blanches tirées. Déterminer la loi de probabilité conjointe du couple(X, Y).

Solution

Table 2:Table de probabilité conjointe

X\Y 0 1 2 3

0 22010 22040 22030 2204 1 22030 22060 22018 0

2 22015 22012 0 0

3 2201 0 0 0

34

(41)

Lois marginales

Lorsqu’on connaît la loi conjointe des variables aléatoiresXetY, on peut aussi s’intéresser à la loi de probabilité deXseule et deY seule. Ce sont les lois de probabilité marginales.

I Loi marginale deX:

pi.=P(X=xi) =P[{X=xi} ∩Ω] =

k

X

j=1

piji= 1,2, . . . , l

I Loi marginale deY:

p.j=P(Y =yj) =P[Ω∩ {Y =yj}] =

l

X

i=1

pijj= 1,2, . . . , k

On peut calculer les lois marginales dans directement depuis la table de la loi conjointe.

35

(42)

Table 3:Table de probabilité conjointe avec les lois marginales

X\Y y1 y2 . . . yj . . . yk Marginale deX

x1 p11 p12 p1j p1k p1.

x2 p21 p22 p2j p2k p2.

.. .

xi pi1 pi2 pij pik pi.

.. .

xl pl1 pl2 plj plk pl.

Marginale deY p.1 p.2 p.l p.k 1

36

(43)

Exemple: Détermination des lois marginales

Exemple

On tire au hasard 3 boules d’une urne contenant 3 boules rouges, 4 blanches et 5 noires.X etY désignent respectivement le nombre de boules rouges et celui de boules blanches tirées. Déterminer les lois marginales de XetY.

Solution

Table 4:Table de probabilité conjointe

X\Y 0 1 2 3 pi.=P(X=xi)

0 22010 22040 22030 2204 22084

1 22030 22060 22018 0 108220

2 22015 22012 0 0 22027

3 2201 0 0 0 2201

p.j=P(Y =yj) 22056 112220 22048 2204 1

37

(44)

Définition

Pour chaque valeuryjdeY telle quep.j=P(Y =yj)6= 0on peut définir la loi conditionnelle deXsachant Y =yjpar

pi/j=P(X=xi/Y =yj) =P(X=xi;Y =yj) P(Y =yj) = pij

p.j

∀i= 1,2, . . . , l

De même on définit la loi deY sachantX=xipar

pj/i=P(Y =yj/X=xi) = P(X=xi;Y =yj) P(X=xi) =pij

pi.

∀j= 1,2, . . . , k

38

(45)

Indépendance de variables aléatoires

Définition

On dit que deux v.a.r.d sont indépendantes si et seulement si

P(X=xi;Y =yj) =P(X=xi)P(Y =yj) ∀i= 1,2, . . . , letj= 1,2, . . . , k On montre que

P({X∈A} ∩ {YB}) =P({X∈A})P({Y ∈B})AetB∈ A

Propriétés

Soit deux v.a.r.d.X etY, 1. E(X+Y) =E(X) +E(Y)

2. SiX etY sont indépendantes alorsE(XY) =E(X)E(Y). Mais la réciproque n’est pas toujours vraie.

39

(46)

Définition

SoitXetY deux v.a.r.d. On appellecovariancedeX et deY la valeur si elle existe de

Cov(X, Y) =E[(XE(X))(YE(Y))] =

X

i

X

j

(xiE(X))(yjE(Y))pij

qu’on peut calculer en utilisant la formule suivante

Cov(X, Y) =E(XY)−E(X)E(Y)

Propriétés

I Cov(X, Y) =Cov(Y, X)

I Cov(aX1+bX2, Y) =aCov(X1, Y) +bCov(X2, Y)

I V(X+Y) =V(X) +V(Y) + 2Cov(X, Y)

I SiX etY sont indépendantes alors

Cov(X, Y) = 0(la réciproque n’est pas vraie)

V(X+Y) =V(X) +V(Y)(la réciproque n’est pas vraie) 40

(47)

Coefficient de corrélation linéaire

Définition

On appelle coefficient de corrélation linéaire deX et deY la valeur définie par

ρ=ρ(X, Y) = Cov(X, Y)

p

V(X)V(Y)

=Cov(X, Y) σXσY

On peut montrer que

−1≤ρ(X, Y)≤1

Interprétation deρ

I Le coefficient de corrélation est une mesure du degré de linéarité entreX etY.

I Les valeurs deρproches de1ou−1indiquent une linéarité quasiment rigoureuse entreXetY.

I Les valeurs deρproche de 0 indiquent une absence de toute relation linéaire.

I Lorsqueρ(X, Y)est positif,Y a tendance à augmenter siXen fait autant.

I Lorsqueρ(X, Y)<0,Y a tendance à diminuer siXaugmente.

I Siρ(X, Y) = 0, on dit que ces deux statistiques sont non corrélées. 41

(48)
(49)

Loi Uniforme Discrète

Définition

Une distribution de probabilité suit une loi uniforme lorsque toutes les valeurs prises par la variable aléatoire sont équiprobables. Sinest le nombre de valeurs différentes prises par la variable aléatoire alors on a:

P(X=xi) = 1

n ∀i∈ {1, . . . , n}

On ditX∼ U(n).

Exemple

La distribution des chiffres obtenus au lancer de dé (si ce dernier est non pipé) suit une loi uniforme dont la loi de probabilité est la suivante :

xi 1 2 3 4 5 6

P(X=xi) 16 16 16 16 16 16

42

(50)

Cas particulier

Dans le cas particulier d’une loi uniforme discrète où chaque valeur de la variable aléatoireX correspond à son rang, i.e.xi=i∀i∈ {1, . . . , n}, on a:

E(X) = n+ 1

2 et V(X) = n2−1 12 Démonstration

La démonstration de ces résultats est établie en utilisant les égalités:

n

X

i=1

i= n(n+ 1)

2 et

n

X

i=1

i2=n(n+ 1)(2n+ 1)

6 .

Vous avez la démonstration de ces égalités dans l’Annexe.

Exemple

L’exemple du lancer du dé: on peut calculer directement les moments deX:

E(X) =6 + 1

2 = 3.5 et V(X) =62−1 12 =35

12'2.92.

43

(51)

Loi de Bernoulli B(p)

(52)

Variable Indicatrice

SoitAun événement quelconque; on appelle v.a. indicatrice de l’événementA, la v.a. définie parX=1A, c’est à dire:

X(ω) =1A(ω) =

0 siωA¯ 1 siωA AinsiX(Ω) ={0,1}avec:

P(X= 1) =P{ω∈Ω/X(ω) = 1}=P(A) =p

P(X= 0) =P{ω∈Ω/X(ω) = 0}=P( ¯A) = 1P(A) =q avecp+q= 1

Définition

On dit queX suit une loi de Bernoulli de paramètrep=P(A), ce qu’on écrit symboliquementX∼ B(p).

Une distribution de Bernoulli est associée à la notion “épreuve de Bernoulli”, qui est une épreuve aléatoire à deux issues: succès (X= 1) et échec (X= 0).

44

(53)

Loi de Bernoulli B(p)

Fonction de répartition de loi de Bernoulli

F(x) =

(

0 six <0

1−p si0≤x <1 1 six≥1.

Espérance de loi de Bernoulli

E(X)= 1×P(A) + 0×P( ¯A) =P(A) =p

Variance de loi de Bernoulli

V(X)=E(X2)−E2(X) =pp2=p(1p)=pq car

E(X2) = 12×P(A) + 02×P( ¯A) =P(A) =p

45

(54)
(55)

Loi Binomiale B(n, p)

I Décrite pour la première fois parIsaac Newtonen 1676 et démontrée pour la première fois par le mathématicien suisseJacob Bernoullien 1713.

I La loi binomiale est l’une des distributions de probabilité les plus fréquemment rencontrées en statistique appliquée.

I On exécutenépreuvesindépendantesdeBernoulli.

I Chaque épreuve appour probabilité de succès et1−ppour probabilité d’échec.

A A A¯ A A¯ . . . A¯ A A

S S E S E . . . E S S

I X=le nombre de succèssur l’ensemble desnépreuves.

I X dépend de deux paramètresnetp.

46

(56)

S S E S E . . . E S S

I X=le nombre de succèssur l’ensemble desnépreuves.

I X(Ω) ={0,1, . . . ,n}

P(X=k) = n k

pk(1−p)n−k 0≤kn

I n k

est le nombre d’échantillons de taillencomportant exactementksuccès, de probabilitépk, indépendamment de l’ordre, et doncnkéchecs, de probabilité(1−p)n−k.

I On écritX∼ B(n, p).

Remarque

Une variable de Bernoulli n’est donc qu’une variable binomiale de paramètres(1, p).

X∼ B(p) ⇐⇒ X∼ B(1, p)

47

(57)

Triangle de Pascal & Binôme de Newton

Triangle de Pascal

n k

= n−1 k−1

+ n−1 k

n≥1et1≤kn−1

n= 6 n= 5 n= 4 n= 3 n= 2 n= 1 n= 0

0 1 2 3 4 5 6

1 6 15 20 15 6 1 1 5 10 10 5 1

1 4 6 4 1

1 3 3 1

1 2 1

1 1 1

Binôme de Newton

(x+y)n=

n

X

k=0

n k

xn−kyk

Cette formule permet de vérifier que la loiBinomialeest une loi de probabilité:

n

X

k=0

P(X=k) =

n

X

k=0

n k

pk(1−p)n−k= [p+ (1−p)]n= 1

48

(58)

Exemple

On jettecinq pièces équilibrées. Les résultats sont supposés indépendants. Donner la loi de probabilité de la variableX qui comptele nombre de piles obtenus.

Solution

I X=nombre de piles (succès).

I n= 5.

I p= 1/2.

I X∼ B(5,1

2).

I X(Ω) ={0,1, . . . ,5}

I P(X= 0) = 50

1

2

0

1−1

2

5−0

=321

I P(X= 1) = 51

1

2

1

1−1

2

4

=325

I P(X= 2) = 52

1

2

2

1−1

2

3

=1032

I P(X= 3) = 53

1

2

3

1−1

2

2

=1032

I P(X= 4) = 54

1

2

4

1−1

2

1

=325

I P(X= 5) = 55

1

2

5

1−1

2

0

=321 49

(59)

Moments de la loi Binomiale

SiX∼ B(n, p)alorsE(X) =npetV(X) =np(1p) Démonstration

Première approche: On associe à chaque épreuvei,1≤in, une v.a. de Bernoulli.

1A=Xi=

1 siAest réalisé 0 siA¯est réalisé On peut écrire alors:X=

P

n

i=1Xi=X1+X2+. . .+Xn

Donc

E(X)=E

n

X

i=1

Xi

!

=

n

X

i=1

E(Xi) =np

et V(X)=V

n

X

i=1

Xi

!

=

n

X

i=1

V(Xi) =np(1p)

car les v.a.Xisont indépendantes. 50

(60)

Deuxième approche: Calcul direct.

I E(X) =

P

n k=0k nk

pk(1−p)n−k=. . .=np

I V(X) =E(X2)−E2(X)

I Pour obtenirE(X2)par un procédé de calcul identique, on passe par l’intermédiaire du moment factorielE[X(X−1)].

I V(X) =E(X2)−E2(X) =E[X(X−1)] +E(X)E2(X)

I E[X(X−1)] =

P

n

k=0k(k−1)k!(n−k)!n! pk(1−p)n−k=. . .=n(n−1)p2

I V(X) =n(n−1)p2+np−(np)2=np(1p)

51

(61)

Loi Binomiale B(n, p)

Exemple

Le nombre de résultats pile apparus au cours denjets d’une pièce de monnaie suit une loi binomialeB(n,1/2):

P(X=k) = n k

1

2

k

1

2

n−k

=

n k

2n, 0≤kn avecE(X) =n/2etV(X) =n/4.

Exemple

Le nombreNde boules rouges apparues au cours dentirages avec remise dans une urne contenant deux rouges, trois vertes et une noire suit une loi binomialeB(n,1/3):

P(N=k) = n k

1

3

k

2

3

n−k

= n k

2n−k

3n , 0≤kn avecE(X) =n/3etV(X) = 2n/9.

Remarque

SiX1∼ B(n1,p)etX2∼ B(n2,p), les v.a.X1etX2étantindépendantes, alorsX1+X2∼ B(n1+n2,p).

Ceci résulte de la définition d’une loi binomiale puisqu’on totalise ici le résultat den1+n2 épreuves

indépendantes. 52

(62)
(63)

Loi de Poisson P (λ)

Définition

Une v.a.X suit une loi de Poisson de paramètreλ >0si c’est une variable à valeurs entières,X(Ω) =N, donc avec une infinité de valeurs possibles, de probabilité:

P(X=k) =e−λλk

k!, k∈N

Cette loi ne dépend qu’un seul paramètre réel positifλ, avec l’écriture symboliqueX∼ P(λ).

Remarque

ex=

+∞

X

i=0

xi i!

Donc

X

k=0

P(X=k) =

X

k=0

e−λλk k! =e−λ

X

k=0

λk

k! =e−λeλ= 1

53

(64)

SiX∼ P(λ)alorsE(X) =λetV(X) =λ Espérance de loi de Poisson

E(X) =

X

k=0

kP(X=k)

=. . .

=λ.

Variance de loi de Poisson

I On calcule d’abordE(X2) =

P

k=0k2P(X=k) =. . .=λ(λ+ 1).

Ensuite

V(X) =λ(λ+ 1)−λ2=λ

54

(65)

Loi de Poisson P (λ)

Exemple

I X=nombre de micro-ordinateurs vendus chaque jour dans un magasin.

I On supposeX∼ P(5).

I La probabilité associée à la vente de 5 micro-ordinateurs est P(X= 5) =e−555

5! =e−5'0.1755

I La probabilité de vendre au moins 2 micro-ordinateurs est P(X≥2) = 1−

e−550

0!+e−551 1!

'0.9596

I Le nombre moyen de micro-ordinateurs vendus chaque jour dans le magasin est égal à 5 puisque E(X) =λ= 5.

Propriétés

SiXetY sont deux variablesindépendantessuivant des lois de Poisson,X∼ P(λ) et Y ∼ P(µ), alors leur somme suit aussi une loi de Poisson:X+Y ∼ P(λ+µ).

55

(66)

Sin→ ∞etp→0alorsX:B(n, p)∼ P(λ).

Remarque

Une bonne approximation est obtenue sin≥50etnp≤5.

Dans ce contexte, la loi de Poisson est souvent utilisée pour modéliser le nombre de succès lorsqu’on répète un très grand nombre de fois une expérience ayant une chance très faible de réussir par une loi de Poisson.

Applications de la loi de Poisson

I Le nombre d’individus dépassant l’âge de 100 ans dans une communauté.

I Le nombre de faux numéros téléphoniques composés en un jour.

I Le nombre de clients pénétrant dans un bureau de poste donné en l’espace d’un jour.

I Le nombre de particulesαémises par un matériau radioactif pendant un certain laps de temps.

La v.a. dans ces exemples est répartie de manière approximativement poissonienne car: on approxime par là une variable binomiale.

56

(67)

Loi Géométrique ou de Pascal G(p)

(68)

I ε:“On répéte l’épreuve de Bernoulli jusqu’à avoir le premier succès”.

I Exemple:

A¯ A¯ A¯ A¯ A¯ . . . A¯ A¯ A E E E E E . . . E E S

I Chaque épreuve appour probabilité de succès et1−ppour probabilité d’échec.

I X=“le nombre d’épreuves effectuées”.

E E E E E . . . E E

| {z }

k−1

S

I X(Ω) =N={1,2,3, . . .}. On ditX∼ G(p).

Ik∈N P(X=k) = (1p)k−1p

I Attention: ParfoisX=“nombre d’épreuves effectuéesavantobtenir le premier succès”. Dans ce cas X(Ω) =N. On ditX∼ G(p)surN.

I Cette loi peut servir à modéliser des temps de vie, ou des temps d’attente, lorsque le temps est mesuré de manière discrète (nombre de jours par exemple).

I Série entière:

P

k=0xk= 1/(1−x) pour |x|<1

I

P

k=1P(X=k) =

P

k=1(1−p)k−1p=p

P

j=0(1−p)j

P

k=1(1−p)k−1p=p

P

j=0(1−p)j= p1−(1−p)1 = 1

57

(69)

Moments de loi Géométrique

Espérance de loi Géométrique

I E(X) =

P

k=1kP(X=k) =

P

k=1kp(1p)k−1=p

P

k=1k(1p)k−1

I Série entière:

P

k=0xk= 1/(1−x) pour |x|<1

I Dérivée première de la série entière:

P

k=1kxk−1= 1/(1−x)2

I DoncE(X)=[1−(1−p)]p 2 =1p

En d’autres termes, si des épreuves indépendantes ayant une probabilitépd’obtenir un succès sont réalisés jusqu’à ce que le premier succès se produise, le nombre espéré d’essais nécessaires est égal à1/p. Par exemple, le nombre espéré de jets d’un dé équilibré qu’il faut pour obtenir la valeur 1 est 6.

58

(70)

Variance de loi Géométrique

I V(X) =E(X2)−E2(X) =E[X(X−1)] +E(X)E2(X). Or,

E[X(X−1)] =

X

k=2

k(k−1)p(1−p)k−1

=p(1p)

X

k=2

k(k−1)(1−p)k−2

I Dérivée première de la série entière:

P

k=1kxk−1= 1/(1−x)2

I Dérivée seconde de la série entière:

P

k=2k(k−1)xk−2= 2/(1−x)3

I DoncE[X(X−1)] =[1−(1−p)]2p(1−p)3 = 2(1−p)p2

I Et alorsV(X)=E[X(X−1)] +E(X)−E2(X) =1−pp2 .

59

(71)

Loi Binomiale Négative BN (r, p)

(72)

I ε:“On répéte l’épreuve de Bernoulli jusqu’à obtenir un total dersuccès”.

I Exemple avecr= 3:

A¯ A A¯ A¯ A¯ A A¯ A¯ A E S E E E S E E S

I Mais on peut obtenirrsuccèsd’autres façons:

S E E E E E S E S E E E E S E S E S

I Chaque épreuve appour probabilité de succès et1−ppour probabilité d’échec.

I DésignonsX=“le nombre d’épreuves nécessaires pour attendre cerésultat”.

r−1succèsetk−réchecs

z }| {

E S E E E S E E S

| {z }

X=k I X(Ω) ={r, r+ 1, r+ 2, . . .}. On ditX∼ BN(r, p).

IkX(Ω),

P(X=k) = k−1 r−1

pr(1−p)k−r

60

(73)

G(p) = BN(1, p)

I ε:“On répéte l’épreuve de Bernoulli jusqu’à obtenir un total dersuccès”.

I Soit,

E . . . E S E . . . E S. . . E. . . E S

I Soit,Y1 le nombre d’épreuves nécessaires jusqu’au premier succès,Y2le nombre d’épreuves

supplémentaires nécessaires pour obtenir un deuxième succès,Y3 celui menant au 3ème et ainsi de suite.

I Càd,

E . . . E S

| {z }

Y1

E . . . E S

| {z }

Y2

. . .

|{z}

...

E . . . E S

| {z }

Yr

I Les tirages étants indépendantes et ayant toujours la même probabilité de succès, chacune des variables Y1, Y2, . . . , Yr est géométriqueG(p).

I X=“le nombre d’épreuves nécessaires à l’obtention dersuccès”=Y1+Y2+. . .+Yr.

I Donc,

E(X) =E(Y1) +E(Y2) +. . .+E(Yr) =

r

X

i=1

1 p = r

p et

V(X) =

r

X

i=1

V(Yi) =r(1p) p2 car lesYisont indépendantes.

61

Références

Documents relatifs

Expliquer (math´ematiquement) cette

• On considère une expérience aléatoire qui consiste en une succession de n épreuves indépendantes, chacune d’entre elles ayant deux issues : succès obtenu avec probabilité p

Justifier que X suit une loi binomiale dont on précisera les paramètres.. au plus cinq bonnes réponses

La fonction set.seed() permet de spécifier l’amorce du générateur de nombre aléa- toire, ce qui se révèle utile quand on veut répéter une simulation à l’identique (les

Soit X une variable aléatoire continue de loi uniforme sur [−1, 1] et ε une variable aléatoire discrète uniforme sur {−1, 1}. Montrer que Y = |X| est une variable aléatoire

Ensemble fondamental Événement Variable aléatoire Probabilité Probabilité conditionnelle Indépendance Distribution.. Introduction à

On utilise beaucoup Geogebra pour l’étude de la statistique à deux variables, alors que cette application nous permet de le faire pour une variable.. Puisque l’on utilise la

Compléter le programme suivant pour qu’il simule l’expérience aléatoire décrite dans cet exercice et pour qu’il affiche, dans cet ordre, les valeurs des variables