• Aucun résultat trouvé

Chapitre 24 : couples de variables aléatoires

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre 24 : couples de variables aléatoires"

Copied!
6
0
0

Texte intégral

(1)

COUPLES DE VARIABLES ALÉATOIRES

Ωdésigne toujours un ensemble fini, muni d’une probabilitéP.

I – Couples

1o) Définition Définition 1 :

SoientXetY deux variables aléatoires surΩ. L’applicationZ:

¯

¯

¯

¯

Ω −→ R2 ω 7−→ ¡

X(ω),Y(ω)¢ est appeléecouple de variables aléatoires réelles. On note Z =(X,Y) .

Remarque : L’univers image de Z est fini, il est inclus dans le produit cartésien X(Ω)×Y(Ω) = © (xi,yj), (i,j)∈££

1,n¤¤

×££ 1,m¤¤ª

(avecX(Ω)=©

x1,x2, . . . ,xnª

etY(Ω)=©

y1,y2, . . . ,ymª ).

Exemple 1 :

– On jette simultanément deux dés équilibrés,X désigne le minimum des deux chiffres obtenus etY le maxi- mum. On note queZ(Ω)$X(Ω)×Y(Ω).

– On prélève simultanément 5 boules dans une urne contenant 3 blanches et 4 noires.Xdésigne le nombre de boules blanches obtenues, etY le nombre de boules noires.

On obtient un système complet d’événements pourΩ en décrivant toutes les valeurs possibles du couple (X,Y) :

Propriété 1 :

Soit Z=(X,Y)un couple de variables aléatoires, tel que X(Ω)=©

x1,x2, . . . ,xnª

et Y(Ω)=©

y1,y2, . . . ,ymª . La famille©

(X=xi)∩(Y =yj

(i,j)££

1,n¤¤

×££

1,m¤¤est un système complet d’événements pour. Démonstration : Immédiat.

2o) Lois

Dans tout ce qui suit, (X,Y) désigne un couple de variables aléatoires, tels que X(Ω) =©

x1,x2, . . . ,xn

ª et Y(Ω)=©

y1,y2, . . . ,ymª . a) Loi conjointe

La loi de probabilité deZ se définit naturellement à partir de celles deXetY : Définition 2 :

On appelle loi du couple (X,Y) ou loi conjointe des variables X et Y, l’application PX,Y :

¯

¯

¯

¯

X(Ω)×Y(Ω) −→ [0,1]

(x,y) 7−→ P¡

(X=x)∩(Y =y)¢ .

Remarque : Déterminer la loi conjointe revient donc à déterminer les réels¡ pi,j¢

(i,j)££

1,n¤¤

×££

1,m¤¤ définis par pi,j=P¡

(X=xi)∩(Y =yj)¢ .

Comme pour les variables aléatoires, on peut décrire la loi du couple à l’aide d’un tableau, à deux entrées cette fois, du type :

HH HH

HH X

Y y1 . . . yj . . . ym x1 p1,1 . . . p1,j . . . p1,m

... ...

xi pi,1 . . . pi,j . . . pi,m

... ...

xn pn,1 . . . pn,j . . . pn,m

(2)

Ceci n’a d’intérêt que si l’univers est de taille raisonnable (ne dépendant pas d’un paramètre), et une justification des résultats présents dans le tableau esttoujoursindispensable.

Remarque : La famille©

(X=xi)∩(Y =yj

(i,j)∈££

1,n¤¤

×££

1,m¤¤étant un système complet d’événements, la somme des probabilités du tableau vaut 1, comme dans le cas d’une variable aléatoire réelle : X

(i,j)∈££

1,n¤¤

×££

1,m¤¤

pi,j=1 .

Exemple 2 : Retour sur le cas des deux dés (écriture avec ou sans tableau), et sur l’autre cas si le temps le permet.

b) Lois marginales

Dans un couple de variables aléatoires, les lois de chacune des variables du couple sont appelées lois margi- nales :

Définition 3 :

Les lois deXetY sont appeléeslois marginales(celle deXest la première loi marginale, celle deY la deuxième loi marginale).

Connaissant la loi conjointe, on peut obtenir les lois marginales : Théorème 1 :

i∈££ 1,n¤¤

, PX(i)=P(X=xi)=

m

X

j=1

P¡

(X=xi)∩(Y =yj, et

∀j∈££ 1,m¤¤

, PY(j)=P(Y =yj)=

n

X

i=1

P¡

(X=xi)∩(Y =yj.

Démonstration : On utilise successivement les systèmes complets d’événements ©

(Y = yj

j∈££

1,m¤¤ puis

©(X=xi

i∈££

1,n¤¤.

Remarque : Cela revient à sommer par lignes ou par colonnes dans le tableau de la loi de probabilité, si on a pu présenter le résultat dans un tableau. Attention,P(X=xi) ne dépend que dei(et éventuellement d’un paramètre npar exemple), mais jamais de l’indicej(si c’est cet indice que l’on associe à la loi deY).

Exemple 3 : Toujours le même exemple...

La réciproque est fausse : la connaissance des lois marginales ne permet pas forcément de déterminer la loi conjointe.

Exemple 4 : Dans une urne contenant 4 boules numérotées de 1 à 4, on tire au hasard deux boules. On noteX le numéro de la première boule,Y le numéro de la deuxième. On examine les deux cas, avec et sans remise : le couple (X,Y) n’a pas la même loi, alors que les lois marginales restent les mêmes.

c) Lois conditionnelles

Le dernier type de loi rencontré est celui faisant intervenir une probabilité conditionnelle : Définition 4 :

Pour toutj ∈££ 1,m¤¤

tel queP(Y =yj)6=0, l’applicationP(Y=yj):

¯

¯

¯

¯

X(Ω) −→ [0,1]

x 7−→ P(Y=yj)(X=x) dé- finit une loi de probabilité surX(Ω) appeléeloi conditionnelleàY =yj deX (ou loi conditionnelle deX enY =yj ou loi deX sachant (Y =yj)). De même, pour touti∈££

1,n¤¤

tel queP(X =xi)6=0, l’applicationP(X=xi):

¯

¯

¯

¯

Y(Ω) −→ [0,1]

y 7−→ P(X=xi)(Y =y) définit une loi de probabilité surY(Ω) appelée loi conditionnelleàX=xideY, ou loi deY sachant (X=xi).

Il y a doncnlois conditionnelles deY etmlois conditionnelles deX. Exemple 5 : Encore le même exemple.

(3)

La connaissance de la loi marginale deX et des lois conditionnelles deY permet d’obtenir la loi conjointe et la loi marginale deY :

Propriété 2 :

On suppose que∀(i,j)∈££ 1,n¤¤

×££ 1,m¤¤

, on a P(X=xi)6=0et P(Y =yj)6=0.

Pour tout(i,j)∈££ 1,n¤¤

×££ 1,m¤¤

, P¡

(X=xi)∩(Y =yj

=P(X=xi)(Y =yj)P(X=xi)=P(Y=yj)(X=xi)P(Y =yj) (loi conjointe à partir d’une loi marginale et de lois conditionnelles).

De plus, pour tout i ∈ ££ 1,n¤¤

, P(X=xi)=

m

X

j=1

P(Y=yj)(X=xi)P(Y =yj) et pour tout j ∈ ££ 1,m¤¤

,

P(Y =yj)=

n

X

i=1

P(X=xi)(Y =yj)P(X=xi) (loi marginale à partir de l’autre loi marginale et de lois conditionnelles).

Démonstration : C’est la formule des probabilités totales, tout simplement ! Exemple 6 : On considère deux variables aléatoiresXetY d’univers image££

0,n¤¤

. On suppose queX,→B(n,p) et que∀i∈££

0,n¤¤

, la loi conditionnelle deY sachant (X=i) est la loiB(i,p0).

On prouve alors queY ,→B(n,pp0), en démontrant notamment la formule µ n

i

¶ µ i j

= µ n

j

¶ µ nj ij

¶ .

3o) Opérations sur les variables

Commençons par la somme : la loi conjointe d’un couple de variables permet de déterminer la loi de la somme :

Propriété 3 :

Soit Z=(X,Y)un couple de variables aléatoires, on note S=X+Y . Pour tout sS(Ω), on a P(S=s)=

n

X

i=1

P¡

(X=xi)∩(Y =sxi

=

m

X

j=1

P¡

(X=syj)∩(Y =yj.

Démonstration : Systèmes complets d’événements...

Exemple 7 : Dans le cas des deux dés, on retrouve la loi de la somme de deux dés.

Pour les autres opérations, le théorème de transfert s’étend aux couples de variables (il permet toujours d’ob- tenir l’espérance sans avoir à déterminer la loi) :

Propriété 4 : Soit u:

¯

¯

¯

¯

R2 −→ R

(x,y) 7−→ u(x,y) .

u(X,Y) est une variable aléatoire d’espérance

u(X,Y)¢

= X

(i,j)££

1,n¤¤

×££

1,m¤¤

u(xi,yj)pi,j

pi,j=P¡

(X=xi)∩(Y =yj. Démonstration : Admis.

Exemple 8 : Le produitX×Y dans le cas des deux dés, on trouve en s’appuyant sur le tableau E(X Y)=49 4 (et on écrit la somme double juste pour voir).

4o) Covariance Définition 5 :

LacovariancedeXetY est le nombre réel cov(X,Y)=Eh¡

X−E(X)¢¡

Y −E(Y)¢i .

(4)

De la même façon que pour la variance, on peut obtenir une formule analogue à celle de Koenig-Huygens : Propriété 5 :

cov(X,Y)=E(X Y)−E(X)E(Y) etE(X Y)= X

(i,j)££

1,n¤¤

×££

1,m¤¤

xiyjpi,j.

Démonstration : Il suffit de développer et d’utiliser la linéarité de l’espérance, puis le théorème de transfert pour E(X Y).

Remarque : La covariance n’est pas nécessairement positive : elle l’est si lorsque l’une des deux variables aug- mente, alors l’autre augmente aussi ; elle est négative si lorsque l’une augmente, alors l’autre diminue (conditions suffisantes).

Exemple 9 : On dispose den urnes numérotées de 1 àn(n≥2), et pour toutk ∈££ 1,n¤¤

, l’urnek contientk boules numérotées de 1 àk. On choisit une urne au hasard, et on tire au hasard une boule dans cette urne : on noteXle numéro de l’urne choisie etY le numéro de la boule tirée. Déterminer cov(X,Y).

On utilise la loi uniforme deX, puis le fait que la loi conditionnelleP(X=i)est la loi uniforme pour déterminer la loi conjointe, puis la loi deY. On trouve E(Y)=n+3

4 puis E(X Y)=(n+1)(n+2)

6 . La covariance vaut alors n2−1 24 . Propriété 6 :

Pour toutes variables aléatoires X , Y et Z : 1o) cov(X,Y)=cov(Y,X) (symétrie).

2o) Pour tous réelsλetµ, cov(λX+µY,Z)=λcov(X,Z)+µcov(Y,Z) (linéarité par rapport à la pre- mière variable donc, avec 1o), bilinéarité).

3o) cov(X,X)=V(X)≥0.

Démonstration : La symétrie est immédiate, la linéarité par rapport à l’une des variables vient de la linéarité de l’espérance.

Exemple 10 : cov(X,λY)=λcov(X,Y), cov(X,Y−Z)=cov(X,Y)−cov(X,Z).

À l’aide de la covariance, on peut exprimer la variance d’une somme de variables aléatoires : Propriété 7 :

V(X+Y)=V(X)+V(Y)+2cov(X,Y) . Démonstration : DévelopperV(X+Y).

Remarque :

– On peut aussi utiliser cette formule pour calculer la covariance si par chance on connaît la variance deX, deY et d’une variable s’écrivant sous la formeX+Y. Observons cela sur la situation de l’exercice 3, où l’on obtient cov(X,Y)= −np q.

V(X+Y)=V(X)+V(Y) ⇐⇒cov(X,Y)=0.

Exemple 11 : Une urne contientn boules, dontr rouges etb blanches (r+bn). On effectue un tirage avec remise dekboules dans l’urne. On noteX le nombre de boules rouges etY le nombre de boules blanches obte- nues. On calcule cov(X,Y) à partir de la formule donnantV(X+Y), sachant queX,Y etZ=X+Y suivent des lois binomiales : on obtient cov(X,Y)= −kr

n b n. 5o) Indépendance de variables aléatoires

Définition 6 :

On dit que les variables aléatoiresX etY sontindépendantessi pour tout (i,j)∈££ 1,n¤¤

×££ 1,m¤¤

, les événements (X=xi) et (Y =yj) sont indépendants.

Remarque : Cette indépendance peut se traduire à l’aide de la probabilité de l’intersection, ou des probabilités conditionnelles. On a ainsi∀(i,j)∈££

1,n¤¤

×££ 1,m¤¤

, pi,j=pX(i)pY(j) .

(5)

Dans le cas où les variables sont indépendantes, on peut donc déterminer la loi conjointe à partir des lois marginales : dans le tableau de la loi conjointe, chaque valeur s’obtient en effectuant le produit des deux valeurs de même ligne et même colonne des lois marginales.

Exemple 12 : Reprenons l’exemple 4, on observe un cas d’indépendance, et un cas de non indépendance.

Toutes les variables construites à partir de variables aléatoires indépendantes restent indépendantes : Propriété 8 :

Soient f et g des applications deRdansR.

Si X et Y sont indépendantes, alors f(X)et g(Y)sont indépendantes.

Démonstration : Admis.

L’indépendance peut se détecter à partir du coefficient de corrélation : Propriété 9 :

Si X et Y sont indépendantes, alors E(X Y)=E(X)E(Y).

Démonstration : On part du théorème de transfert, puis des propriétés des sommes doubles.

Corollaire 1 :

Si X et Y sont indépendantes, alors cov(X,Y)=0.

Démonstration : Découle immédiatement de la propriété précédente.

Remarque : En particulier, pour des variablesXetY indépendantes on a V(X+Y)=V(X)+V(Y) . Malheureusement, la réciproque est fausse :

Exemple 13 : Couple de variables de loi conjointe : HH

HH HH X

Y 0 1

−1 1 4

1 12

0 0 1

3

1 1

4 1 12 Variables non indépendantes de covariance nulle...

II – Cas de n variables aléatoires

Dans tout ce qui suit,ndésigne un entier naturel supérieur ou égal à 2.

1o) Indépendance Définition 7 :

On dit que les variables aléatoires X1, X2, . . ., Xn sont mutuellement in- dépendantes si pour tout (x1,x2, . . .xn) ∈ X1(Ω) × X2(Ω) × . . . × Xn(Ω), on a

P¡

(X1=x1)∩(X2=x2)∩. . .∩(Xn=xn

=P(X1=x1)P(X2=x2) . . .P(Xn=xn) .

Remarque : Ceci revient à dire que les événements (X1=x1), (X2=x2), . . ., (Xn=xn) sont mutuellement indé- pendants. Si une famille de variables aléatoires est indépendante, alors toute sous-famille l’est également.

De plus, le résultat vu pour l’indépendance de deux variables aléatoires se généralise : Propriété 10 :

Si les variables aléatoires X1, X2,. . ., Xn, Xn+1,. . ., Xp (p>n)sont mutuellement indépendantes, alors pour toutes applications f ∈RRnet g∈RRpn, les variables f(X1,X2, . . .Xn)et g¡

Xn+1,Xn+2, . . .Xp¢ sont indépendantes.

(6)

Démonstration : Admis.

Exemple 14 : SiX,Y etZsont mutuellement indépendantes, alorsX Y etZ2sont indépendantes.

Propriété 11 :

Si les variables aléatoires X1, X2,. . ., Xn sont mutuellement indépendantes, alors pour toutes applica- tions f1, f2,. . ., fndeRdansR, les variables f1(X1), f2(X2),. . ., fn(Xn)sont mutuellement indépendantes.

Démonstration : Admis.

2o) Somme

On généralise dans ce paragraphe toutes les propriétés vues concernant la somme de variables aléatoires : Propriété 12 :

Pour toutes variables aléatoires X1, X2,. . ., Xn, on a E Ã n

X

k=1

Xk

!

=

n

X

k=1

E (Xk).

Démonstration : Par récurrence évidemment !

Lorsque les variables sont mutuellement indépendantes, la linéarité s’étend à la variance : Propriété 13 :

Si les variables aléatoires X1, X2, . . ., Xn sont mutuellement indépendantes, alors V

à n X

k=1

Xk

!

=

n

X

k=1

V(Xk).

Démonstration : On applique la propriété 10 qui implique que∀(i,j)∈¡££ 1,n¤¤¢2

,i <j,Xi etXj sont indépen- dantes, donc cov¡

Xi,Xj¢

=0, puis on part deV Ã n

X

k=1

Xk

!

=cov à n

X

i=1

Xi,

n

X

j=1

Xj

! .

Terminons par le cas de la somme denvariables de Bernoulli et de même paramètre : Propriété 14 :

On suppose que les variables aléatoires X1, X2,. . ., Xn sont mutuellement indépendantes, et qu’elles suivent toutes la loi de Bernoulli de paramètre p.

Alors S=X1+X2+. . .+Xnsuit la loi binomialeB(n,p). Démonstration : On écrit l’univers image, puisP(S=k).

Remarque : Cette propriété peut permettre de redémontrer la formule de la variance d’une loi binomiale à moindre effort, connaissant la variance de la loi de Bernoulli.

Exemple 15 : On considère deux variables aléatoires X et Y, telles que X ,→ B(n,p) et Y ,→ B(n0,p), où (n,n0)∈(N)2etp∈[0,1],XetY indépendantes.

À l’aide du système complet d’événements©

(X=i),i∈££ 0,n¤¤ª

et de la formule de Vandermonde, on montre que X+Y ,→B(n+n0,p).

Références

Documents relatifs

Quelle est la probabilité qu’un individu testé deux fois positifs pour deux tests fiables à 99%.. et indépendants soit en

En effet, le résultats des deux tests ne sont pas indépendants si ils sont effectués successivement sur une personne prise au hasard dans la population (si le premier test est

A l’aide de la formule des probabilités totales, exprimer x

On note X la variable aléatoire correspondant au numéro de la boule tirée dans la première urne et Y le numéro de la boule tirée dans la deuxième urne.. On suppose que le tirage

A présent, on reprend la situation initiale (deux boules vertes et une boule rouge), et on effectue plusieurs tirages successifs en appliquant la même règle : à chaque tirage, si

On considère une urne contenant n boules numérotées de 1 à n et on tire au hasard deux boules, avec remise dans cette urne. égale au numéro de la première boule et Y la v.a.r.

Si on tire au hasard une boule dans cette urne, quelle est la probabilité qu’elle porte le numéro 7.. Wacim s’apprête à tirer

Pour calculer le volume de caoutchouc (qui n'a pas la forme d'une boule), je peux calculer le volume du liège et du caoutchouc et ensuite enlever la quantité de liège. Le volume