• Aucun résultat trouvé

09/03/20191Probabilités 2Prof. Mohamed El Merouanihttps://elmerouani.jimdo.com/e-mail: m_merouani@yahoo.fr

N/A
N/A
Protected

Academic year: 2021

Partager "09/03/20191Probabilités 2Prof. Mohamed El Merouanihttps://elmerouani.jimdo.com/e-mail: m_merouani@yahoo.fr"

Copied!
23
0
0

Texte intégral

(1)

Probabilités 2

Prof. Mohamed El Merouani https://elmerouani.jimdo.com/

e-mail: m_merouani@yahoo.fr

1

Université Abdelmalek Essaâdi Faculté des Sciences de Tétouan Département de Mathématiques

Année: 2018-2019 S.M.A.

Semestre 6

Appelation:

Si E(X)=0, la v.a. Xest dite centrée

Soient Xet Y deux v.a. et αune constante. On a:

1. E(α)=α

2. E(X+α)=E(X)+α 3. E(αX)=αE(X) 4. E[X─E(X)]=0

5. E(X+Y)=E(X)+E(Y)

2

Propriétés:

(2)

Espérance d’une fonction d’une v.a.

Théorème de transfert:

Soit Xune v.a. et gune fonction Borel-

mesurable, et soit Y=g(X). Alors E(g(X))=E(Y).

3

Si X est discrète:

Si X est continue:

     

1 1

( )i i j j

i j

E Y g x P X x y P Y y

 

( ) ( )

1( )



1( ) '

E Y g x f x dx  y f g y g y dy

 

Exemple 1:

• Soit X une v.a. discrète de loi

• En posant Y=X2, d’après le théorème de transfert, on a:

• Mais, on peut aussi écrire la loi de Y:

4

xi ─3 0 3

P(X=xi) 1/4 1/2 1/4

 

2 1 2 1 2 1 9

( ) ( ) ( 3) 0 (3)

4 2 4 2

i i

i

E Y

g x P X x        

yj 0 9

P(Y=yj) 1/2 1/2

1 1 9

( ) 0 9

2 2 2

E Y     

d’où

(3)

Exemple 2:

• Soit X une v.a. continue de densité de probabilité:

• Calculons E(X 2).

• L’application directe du théorème de transfert donne:

5

2

3 1 0 1

( ) 2 0

x si x

f x

autrement

 

 



 

2 2 ( ) 32 01 2

1 2

15

E X x f x dx x x dx



Variance et écart-type:

On définit une mesure de dispersion de X autour de son espérance mathématique dite variance de X.

Définition:

Si E(X 2) existe, on appelle variance d’une v.a.

X, le nombre Var(X)=E((X─E(X)2).

On appelle écart-type de X, le nombre

6

( )X Var X( )

 

(4)

Propriétés de la variance:

1. Var(X)=E(X2)-E(X)2 (Formule réduite) 2. a,b ϵIR, on a: Var(aX+b)=a2Var(X) 3. Var(X)=0 X= constante (p.s.) 4. Var(X)<E(X─C)2, C ≠ E(X)

car, E(X─C)2= E(X─E(X))2+ (C─ E(X))2 puisque 2(E(X) ─C)E(X─E(X)) =0

5. Si E(|X|2)<∞, la v.a. est telle que E(Z)=0 et σ(Z)=1.

Zest dite v.a. centrée et réduite associée à la v.a. X.

7

( ) ( ) X E X

Z X

Inégalité de Bienaymé-Tchebychev:

Faute de connaître une probabilité exacte, il suffit parfois de trouver une borne supérieure ou inférieure à cette probabilité. Le théorème suivant qui lie l’espérance mathématique et l’écart-type répond à ce genre de questions.

8

Théorème:

Soit Xune v.a. telle que E(X) et Var(X) existent.

Pour tout ε réel (ε>0) on a:

 

2

( ) Var X( ) P X E X 

   

(5)

Remarque:

• En posant ε=tσ, on obtient une autre variante du théorème:

et

9

 

2

( ) 1 P X E X t

 t

  

 

2

( ) 1 1

P X E X t

 t

   

Démonstration (Inégalité de Bienaymé-Tchebychev):

Si X v.a. discrète:

où et J = I c On obtient

Puisque, on a |xi-E(X)|≥ε, on peut écrire:

 

2

  

2

( ) ( ) i ( ) i

i

Var X E X E X 

x E X P X x

i ( )

 

2 i

 

i ( )

 

2 i

i I i J

x E X P X x x E X P X x

  

 

/ i ( )

I  i  x E X 

  

2

( ) i ( ) i

i I

Var X x E X P X x

  22  

( ) i ( ) i i

i I i I

Var X x E X P X x P X x

10

(6)

Mais comme

On obtient finalement d’où le résultat.

Si X v.a. absolument continue de densité f:

Soit ε>0. On a:

Ces trois intégrales sont positives ou nulles; d’où:

11

i

( i)

( )

i I i I

P X x P X x P X E X 

 

      

 

 

 

( ) 2 ( )

Var X P X E X

 2

( ) ( ) ( )

Var X  x E X f x dx



     

( ) 2 ( ) 2 2

( ) ( )

( ) ( ) ( ) ( ) ( ) ( )

E X E X

E X E X

x E X f x dx x E X f x dx x E X f x dx





 

2

 

2

( )

( ) E X ( ) ( ) ( ) ( ) ( )

Var X x E X f x dx E X x E X f x dx





Sur l’intervalle ]-∞, E(X)-ε], on a x ≤ E(X)-ε et sur l’intervalle [E(X)+ε,+∞[, on a E(X)+ε ≤x On a, donc, x-E(X) ≤ -ε et x-E(X) ≥ ε

C’est-à-dire |x-E(X)| ≤ ε ou (x-E(X))2 ≤ ε2 On obtient, alors,

ou

C’est-à-dire ou

ou encore

12

( ) 2 2

( ) E X ( ) ( ) ( )

Var X f x dx E X f x dx





( )

2

( ) E X ( ) ( ) ( )

Var X f x dx E X f x dx





 

( ) 2 ( ( ) ) ( ( ) )

Var X P X E X   P X E X

 

( ) 2 ( )

Var X  P X E X 

 

2

( ) Var X( ) P X E X

(7)

Moments d’ordres supérieurs:

Définition:

On appelle moment d’ordre kd’une v.a. X, le nombre mkdéfini par:

13

 

( )

( )

k

i i

i k

k k

x P X x si X discrète m E X

x f x dx si X continue





 

  



Moments d’ordres supérieurs:

Définition:

On appelle moment centré d’ordre kd’une v.a.

X, le nombre μkdéfini par:

14

     

 

( ) ( )

( ) ( )

k

i i

k i

k k

x E X P X x si X discrète E X E X

x E X f x dx si X continue





 

(8)

Remarques:

1. Le moment d’ordre 1, noté m1 ou mest l’espérance mathématique E(X)=m.

2. Le moment centré d’ordre 2, noté μ2est la variance μ2=Var(X)

3. Comme pour l’espérance et la variance, les moments peuvent parfois ne pas exister (la série ou l’intégrale divergent).

15

Moments d’ordres supérieurs:

Couple de variables aléatoires:

Définition:

Soit (Ω,

A

, P) un espace probabilisé.

Soient Xet Y deux v.a. sur (Ω,

A

, P).

Une application (X, Y) de Ω dans IR2, qui à tout ωde Ω fait correspondre un couple

(X(ω), Y(ω)) de IR2,s’appelle un couple de v.a.

(X, Y) s’appelle aussi v.a. à deux dimensions.

16

(9)

Loi de probabilité conjointe de deux v.a. discrètes:

Un couple de v.a. (X, Y) peut prendre les valeurs suivantes:

(x1,y1), (x2,y2);…;(xi,yj);…;(xn,ym)

A chaque couple (xi,yj) correspond une probabilité pij d’observer simultanément la valeur xipour Xet la valeur yjpour Y:

pij=P(X=xiet Y=yj)=P(X=xi, Y=yj) On a 0≤pij≤1 et

i=1,2,…,n ; j=1,2,…, m

17

1 1

1

n m

ij

i j

p



Fonction de répartition d’un couple de v.a. discrètes:

On appelle fonction de répartition d’une v.a.

discrète à deux dimensions (X, Y) la fonction définie par:

18

   

( , ) , ,

i j

i j

x x y y

F x y P X x Y y P X x Y y

   

 

 

(10)

Lois de probabilités marginales:

• La probabilité P(X=xi)=pi •est appelée loi marginale de X. On a:

P(X=xi)=pi •

• La probabilité P(Y=yj)=p• jest appelée loi marginale de Y. On a:

P(Y=yj)=p• j

19

; 1, 2, ,

ij j

p i n

; 1, 2, ,

ij i

p j m

20

Lois de probabilités marginales:

Y X

y1 …. yj …. ym

x1 p11 …. p1j …. p1m p1•

xi pi1 …. pij …. pim pi•

xn pn1 …. pnj …. pnm pn•

p•1 …. p•j …. p•m 1

ij j

p

ij i

p

(11)

Loi de probabilités conjointes de deux v.a.

continues:

Une v.a. à deux dimensions Z=(X,Y) est dite continue s’il existe une application f (x,y) appelée densité de probabilité conjointe du couple de v.a. (X,Y) vérifiant:

1. f (x,y)≥0; (x,y)ϵ IR2 2.

21

( , ) 1

f x y dxdy

 

 

 

Fonction de répartition d’un couple de v.a. continues:

• La fonction de répartition du couple (X,Y) est définie par:

et l’on a

22

 

( , ) ,

x y

( , )

F x y P X x Y y f u v dudv

 

     

2

( , )

( , ) F x y

f x y

x y

 

 

(12)

Lois marginales (Fonctions de répartitions marginales):

Les fonctions:

et

sont dites fonctions de répartition marginales des v.a. X et Yrespectivement.

23

( ) ( ) x ( , )

F xX P X x  f u v dvdu

 

  

 

( ) ( ) y ( , )

F yY P Y y  f u v dudv

 

  

 

• Les fonctions:

et

sont les densités de probabilités marginales de Xet Y respectivement.

24

Lois marginales (Fonctions de densités marginales):

( ) ( , )

f x

X 

f x v dv

 



( ) ( , )

f y

Y 

f u y du

 



(13)

Covariance de deux variables aléatoires:

La covariance entre deux v. a. Xet Y, notéeCov(X,Y), est définie par Cov(X,Y)=E[(X–E(X))(Y–E(Y))]

ou encore Cov(X,Y)=E(XY)-E(X)E(Y)

Cas discrèt:

Cas continue:

) ( ) ( ) ,

( )

,

Cov( n

1 i

m

1 j

Y E X E y Y x X P y x Y

X



i j i j

) ( ) (

Cov(X,Y) xy f(x,y)dxdy E X E Y

- -

 





25 Pr. Mohamed El Merouani

Proprietés:

SoientXet Ydeux v. a. La covariance est une forme bilinéaire symétrique:

1) Cov(X,Y)=Cov(Y,X)

2) Cov(X+Y, Z)=Cov(X, Z)+Cov(Y, Z) 3) Cov(λX,Y)=λCov(X,Y)

26 Pr. Mohamed El Merouani

(14)

Remarque:

Pour X=Y, on retrouve la variance de X comme covariance de (X, X):

Cov(X, X)=E[(X-E(X))(X-E(X))]

=E[(X-E(X))2]=Var(X)

Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)

En effet; Var(X+Y)= E[(X+Y)-E(X+Y)]2=E[(X-E(X))+(Y-E(Y))]2

=E[(X-E(X))2+2(X-E(X))(Y-E(Y))+(Y-E(Y))2]

=E(X-E(X))2+E(Y-E(Y))2+2E((X-E(X))(Y-E(Y)))

=Var(X)+Var(Y)+2Cov(X,Y)

27 Pr. Mohamed El Merouani

Proprietés:

Coefficient de corrélation entre deux v. a. :

Le coefficient de corrélation entre deux v. a. X et Y, de variances non nulles, noté

est définie par:

Le coefficient de corrélation varie entre -1 et 1:

X,Y

 

) ( ) (

) , ( )

( )

(

) , , (

Y X

Y X Cov Y

Var X

Var

Y X Y Cov

X  

  

,1

1

-   X Y 

28 Pr. Mohamed El Merouani

(15)

• Montrons que ̶ 1 ≤ ρ ≤ 1 En considérant la v.a. aX+Y, on a:

Var(aX+Y)=Var(aX)+Var(Y)+2Cov(aX+Y)

=a2Var(X)+Var(Y)+2aCov(X,Y) où aϵIR , Var(aX+Y)≥0

La quantité positive Var(aX+Y) est considérée comme un trinôme en ade signe constant.

Son discriminant Δ’ est négatif ou nul:

Δ’=[Cov(X,Y)]2-Var(X)Var(Y)≤0 On en déduit:

29

( , ) ( ) ( ) 1 Cov X Y

X Y

Inégalité de Schwarz:

• Soient deux v.a. Xet Y admettant des moments d'ordre 2, l'inégalité de Cauchy- Schwarz ou de Schwarz s’écrit:

• Elle compare l'espérance du produit de deux variables aléatoires au produit des espérances de leurs carrés.

• Si Xet Y sont deux v.a. admettant un moment d’ordre 2, alors la v.a. XY admet une moyenne.

30

  XY E     X

2

E Y

2

E 

Pr. Mohamed El Merouani

(16)

En effet;

Soit a ϵ IRet on considère la v.a. (aX+Y).

On a E(aX+Y)2≥0.

Comme E(aX+Y)2=E(a2X2+2aXY+Y2)

=a2E(X2)+2aE(XY)+E(Y2) On considère le trinôme en ade signe

constant. Son discriminant Δ’ est négatif ou nul. Δ’=E(XY)2 ─E(X2)E(Y2)≤0

On en déduit

31

2 2

( ) ( ) ( )

E XY  E X E Y

Soit Xune v.a. discrète telle que pk=P(X=k);

k=1,2,…avec Définition:

La fonction définie par:

qui converge pour |s|≤1, est dite fonction génératrice de probabilité de X.

32

Fonctions génératrices :

1 k 1

k

p

1

 

( ) k k X

k

G s p s E s

(17)

Conséquences:

Les moments de la v.a. Xs’ils existent peuvent être déterminés par les dérivées de G(s) au point s=1.

En effet;

et ainsi de suite…

E(X2)=G’(1)+G’’(1)

et Var(X)=G’’(1)+G’(1)-[G’(1)]2

33

Fonctions génératrices :

1 1

( ) k k (1) ( )

k

G s kp s G E X si E X

 

    

 

2 2

1

( ) ( 1) k k (1) ( 1)

k

G s k k p s G E X X si EX



  

2

( 2) ( )

E X X E X E X

Exemple:

• Soit la v.a. de Poisson définie par:

• On a:

• Donc

34

 

; 0,1, 2,

!

k

P X k e k

k

   

 

(1 )

0

( ) ; 1

!

k s s

k

G s s e e e e s

k

  

( ) (1 )s

G s e

2 (1 )

( ) s

G s   e

( ) (1)

E X G 

2

2

E X X 

2 2

( ) ( ) ( )

Var X  E X E X 

(18)

Fonction génératrice des moments:

• La fonction génératrice des moments est définie pour toute v.a. Xpar:

Si E(etX) existe dans un voisinage de l’origine.

35

 





 

continue est

si )

(

discrète est

si )

( e f x dx X

X x

X P e e

E t

M tx

x tx

tX

Pr. Mohamed El Merouani

Théorème:

Si M(t) existe pour t Є ]-t0,t0[, t0>0, alors ses dérivées de tout ordre existent pour t=0 et de plus M(k)(0)=E(Xk), k = 0,1,2,…

C’est-à-dire que:

Tout les moments d’ordre k peuvent être

calculés à l’aide des dérivées de M(t) au point t =0.

36 Pr. Mohamed El Merouani

(19)

• En effet,

Si X est discrète:

Si X est continue:

37

 

etX

dt E t d

M( ) 

 

e P

X x

dt x d

X P dt e

t d

M tx

x x

tx   

 

 

( )

 

   

tX

x

txP X x E Xe

xe  





 

 

 

 e f x dx

dt dx d

x f dt e

t d

M ( ) tx ( ) tx ( )

  



 xetxf (x)dx E XetX

• En posant t=0, on a M’(0)=E(X).

• De même,

et

D’une façon générale, on a:

et

38

  

XetX E X etX

dt E t d

dt M t d

M ( ) ( )  2

 

2

) 0

( E X

M  

  , 1

)

)

(

(

t  E X e k 

M

k k tX

 

k

k

E X

M

( )

( 0 ) 

Pr. Mohamed El Merouani

(20)

• Où encore, d’après le théorème précédent, Si M(t) existe pour t Є ]-t0,t0[, t0>0, alors on peut développer M(t) en série de Mc-Laurin:

• Ainsi E(Xk) est le coefficient de



(0) !

! ) 2 0

! ( ) 1 0 ( )

0 ( )

( ( )

2

k M t

M t M t

M t M

k k

! k t k

39 Pr. Mohamed El Merouani

Remarque:

• La fonction génératrice des moments M(t) peut ne pas exister.

• En effet, E(etX) n’est pas toujours définie.

40 Pr. Mohamed El Merouani

(21)

Exemple 1:

• Soit X une v.a. discrète définie par:

• Donc, on a:

6

2

1

2

; k 1 , 2 , ...

k k X

P 

1 2

2

) 6 (

k

tk

k t e

M 

41 Pr. Mohamed El Merouani

Exemple 2:

• Soit Xune v.a. continue de fonction de densité

• Donc pour t<1/2

et pour t<1/2

On en déduit E(X)=2, E(X 2)=8 et Var(X)=4.

0 2 ,

) 1

(x  e 2 x 

f x

t t

M 1 2

) 1 (  

1 22

2

)

(t t

M  

1 82

3

)

(t t

M   

42 Pr. Mohamed El Merouani

(22)

Exemple 3:

• Soit Xune v.a. continue de densité de probabilité la fonction f(x)=ce–|x|α, 0<α<1, xЄIR, où cest une constante déterminée par la condition

• Pour t>0, on a:

et puisque α-1<0, n’est pas finie pour t>0; car



1 ) (x dx f

 

dx e

dx e

etx x

xt x

0 0

1

dx e

etx x

0

 

tx

x x t

x

e

e

1

~

43

• D’où M(t) n’existe pas!

• Pourtant,

• Par un changement de variable y=xα, on obtient:

• On remarque, donc, que même si M(t) est infini, les moments peuvent être finis.

 

0

2 c x e dx dx

e x c X

E

n n x n x

  2 2 1 *

0 1 1

 

 

  

c

y

e

dy c n

X

E

y

n n

Euler.

d' gamma fonction

la est

* 44

(23)

Fonction Gamma Γ d’Euler:

La fonction Γest définie sur ]0,+∞[ par:

0

) 1

(e tt dt

45 Pr. Mohamed El Merouani

Propriétés:

1) Γ(α)=(α-1)Γ(α-1).

En effet,

2) Γ(1)=1.

En effet,

3) Γ(n)=(n-1)!

En effet, Γ(n)=(n-1)Γ(n-1)=

=(n-1)(n-2)Γ (n-2)=…=(n-1)!Γ(1)=(n-1)!

1

 

1

 

1

) (

0 0

2

1

ettdt

ett dt

 

0

1 1 e tdt

46 Pr. Mohamed El Merouani

Références

Documents relatifs

Une méthode serait d’utiliser le tableau de signe et de déterminer pour quelles valeurs de x (4x − x 2 )

Le fils, assimilé à un point M de masse m, se lâche sans vitesse initiale depuis le point A d’une rampe, située à une hauteur h au dessus de O, point le plus bas de la rampe..

[r]

La variable aléatoire X égale à la durée de vie d'un atome d'iode 131 avant désintégration suit une loi exponentielle.. Calculer la probabilité que la durée de vie d un atome d

Lycée Hoche MPSI B Feuille Espaces vectoriels euclidiens - Espaces préhilbertiens

f) Déterminer un intervalle [a; b] centré sur la moyenne tel que la probabilité pour qu’un individu choisi au hasard ait 95 % de chance d’avoir une concentration comprise entre a

Déterminer les densités et fonctions de répartition

[r]