• Aucun résultat trouvé

IV. Variables aléatoires sur un univers fini

N/A
N/A
Protected

Academic year: 2022

Partager "IV. Variables aléatoires sur un univers fini"

Copied!
5
0
0

Texte intégral

(1)

Résumé de sup : probabilités

I. Espaces probabilités finis

1) Univers, événements

L’ensemble des résultats possibles d’une expérience aléatoire est un ensembleΩappeléunivers.Ωest l’ensemble des cas possibles ou des éventualités ou des issues. En sup,Ωest fini.

SiΩest un univers fini. Une partie deΩest unévénement. L’ensemble des événements est doncP(Ω).

Ωest l’événement certain,∅est l’événement impossible, un singleton{ω}(oùω∈Ω) est un événement élémentaire.

2) Opérations sur les événements

SiAetBsont deux événements,CAest l’événement contraire deA,A∪Best la réunion deAetB,A∩Best l’intersection deAet B.

Aet Bsont incompatibles ssiA∩B=∅. Si A⊂B, on dit queAimpliqueB.

Un système complet d’événements est une famille(Ai)16i6n telle que∀i6=j,Ai∩Aj=∅et [

16i6n

Ai=Ω.

3) Probabilité

SoitΩun univers fini. Une probabilitésurΩest une applicationPdeP(Ω)dans[0, 1] telle que 1)P(Ω) =1

2) pour tous événements AetBtels queA∩B=∅,P(A∪B) =P(A) +P(B).

Dans ce cas,(Ω, P)est un espace probabilisé.

4) Calculs de probabilités Théorème.

• P(∅) =0.

• P A

=1−P(A).

• SiA⊂B,P(A)6P(B)(croissance d’une probabilité). Dans ce cas,P(B\A) =P(B) −P(A).

• P(A∪B) =P(A) +P(B) −P(A∩B).

• SiA1, . . .An sont deux à deux incompatibles,P(A1∪. . .∪An) =P(A1) +. . .+P(An)

Si de plus(Ai)16i6n est un système complet d’événements, alorsP(A1) +. . .+P(An) =1et pour tout événementB, P(B) =

Xn

i=1

P(B∩Ai).

Théorème.Pour toutωdeΩ, on pose pω=P({ω}).

• X

ω

pω=1

• ∀A∈P(Ω),P(A) = X

ωA

pω.

Théorème (cas de l’équiprobabilité des cas possibles).

Si∀ω∈Ω, pω= 1

card(Ω), alors∀A∈P(Ω),P(A) = card(A)

card(Ω)= nombre de cas favorables nombre de cas possibles.

II. Probabilités conditionnelles

SoitAun événement tel queP(A)6=0. La probabilité deBsachantAest PA(B) = P(B∩A) P(A) . Théorème.L’application PA : P(Ω) → R

B 7→ PA(B)

est une probabilité surΩ.

Théorème.Pour tousAetB, P(A∩B) =PA(B)×P(A)siP(A)6=0

=PB(A)×P(B)siP(B)6=0 .

Théorème (formule des probabilités totales).Soit(Ai)16i6n un système complet d’événements tels que∀i∈J1, nK, P(Ai)6=0, alors

∀B∈P(Ω), P(B) = Xn

i=1

P(Ai)×PAi(B).

En particulier, siP(A)6=0 etP A

6

=0,P(B) =P(A)×PA(B) +P A

×PA(B).

(2)

Théorème (formule deBayes(inversion d’une probabilité conditionnelle)).Soit(Ai)16i6nun système complet d’événements tels que∀i∈J1, nK,P(Ai)6=0, alors pour toutBtel queP(B)6=0,

∀i∈J1, nK, PB(Ai) = P(Ai)×PAi(B) Xn

i=1

P(Ai)×PAi(B) .

En particulier,PB(A) = P(A)×PA(B) P(A)×PA(B) +P A

×PA(B).

III. Indépendance

AetBsont indépendants si et seulement siP(A∩B) =P(A)×P(B). SiP(A)6=0, il revient au même de direPA(B) =P(B).

Théorème.SiAetBsont indépendants, alorsAetB,Aet B,Aet Bsont indépendants.

SoientA1, . . . ,An,névénements.

A1, . . . ,An sontdeux à deux indépendants⇔∀i6=j, P(Ai∩Aj) =P(Ai)×P(Aj).

A1, . . . ,An sontindépendants⇔∀I⊂J1, nK, P \

iI

Ai

!

=Y

iI

P(Ai).

Théorème.indépendants ⇒

6⇐ deux à deux indépendants.

IV. Variables aléatoires sur un univers fini

1) Variables aléatoires. Loi d’une variable aléatoire

SoitΩun univers fini. Une variable aléatoire associée à cet univers est une applicationXdeΩdans un certain ensemble E. SiE=R,Xest une variable aléatoire réelle.

Variable indicatrice. SoitA un événement. La variable X : Ω → R ω 7→

1siω∈A 0siω /∈A

est la variable indicatrice de

l’événementA. On peut la noter1A. Elle est utilisée dans une démonstration de l’inégalité deBienaymé-Tchebychev. Quelques notations.

• Si Xest une variable aléatoire surΩet f une application définie surX(Ω), on peut définirf◦X (souvent notéef(X)).

Par exemple,X2,√

X,eX. . .

•Si Aest une partie deE(E=Ren général), l’événement{X∈A}est l’événementX−1(A) ={ω∈Ω/ X(ω)∈A}.

Sixest un élément deE, l’événement{X=x}est l’événementX−1({x}) ={ω∈Ω/ X(ω) =x}.

SiXest une variable réelle,{X6x}=X−1(] −∞, x]) ={ω∈Ω/ X(ω)6x}.

Loi de probabilité d’une variable aléatoire.SoitXune variable aléatoire sur un espace probabilisé fini(Ω, P).

L’application X(Ω) → [0, 1]

x 7→ P(X=x)

est une probabilité surX(Ω)appelée loi deX. La loi deXpeut aussi être l’application plus générale P(X(Ω)) → [0, 1]

A 7→ P(X∈A)

. On note PXla loi de X.

Théorème. X

xX(Ω)

P(X=x) =1. Pour toute partieAdeX(Ω), P(X∈A) = X

x∈A

P(X=x).

Théorème (loi def(X)). La loi def(X)est :

∀y∈f(X(Ω)), P(f(X) =y) = X

xf1({y})

P(X=x).

Par exemple, siY=X2,P(Y=1) =P X2=1

=P(X=1) +P(X= −1).

2) Espérance, variance, écart-type

a) EspéranceSiXprend les valeursx1, . . . ,xn, l’espérance deXest E(X) =

Xn

k=1

xkP(X=xk) = X

xX(Ω)

xP(X=x).

(3)

L’espérance de la variable indicatrice1A d’un événementAestP(A).

Théorème (linéarité).L’espérance est une forme linéaire c’est-à-direE(X+Y) =E(X) +E(Y)etE(λX) =λE(X).

En particulier,E(aX+b) =aE(X) +b.

Si Xest d’espérance nulle,Xest centrée. Si Xest une variable réelle quelconque, X−E(X)est la variable centrée associé àX.

Théorème (positivité, croissance).Si Xest une variable aléatoire réelle positive, alorsE(X)>0.

SiXest Y sont des variables aléatoires telles queX6Y, alorsE(X)6E(Y).

Théorème (inégalité deMarkov). SiXest une variable réelle positive,

∀a > 0, P(X>a)6 E(X) a . Démonstration.Soita > 0. SoitA={X>a}. Soitω∈Ω.

• Siω∈A,1A(ω) =1et X

a(ω) = X(ω) a > a

a =1=1A(ω).

• Siω /∈A,1A(ω) =06 X(ω) a . Donc, ∀ω ∈ Ω, 1A(ω) 6 X

a(ω) ou encore 1A 6 X

a. Par croissance de l’espérance, E(1A) 6 E X

a

= E(X) a avec E(1A) =P(A) =E(X>a).

Théorème de transfert.L’espérance def(X)estE(f(X)) = X

x∈X(Ω)

f(x)P(X=x).

b) Variance, écart-type.

Définition.Le moment d’ordrek deXest E Xk

= X

xX(Ω)

xkP(X=x).

Définition.La variance deXest V(X) =E (X−E(X))2

= X

xX(Ω)

P(X=x)×(x−E(X))2.

Théorème (formule deKoenig-Huygens). V(X) =E (X−E(X))2

=E X2

− (E(X))2. Théorème.V(aX+b) =a2V(X).

Définition.L’écart-type deXestσ(X) =p

V(X). Une variableXtelle queE(X) =0 etσ(X) =1 est dite centrée réduite.

SiXest une variable d’écart-type non nul, X−E(X)

σ(X) est centrée réduite et est la variable centré réduite associée àX.

Théorème (inégalité deBienaymé-Tchebychev).

∀ε > 0, P(|X−E(X)|>ε)6 V(X) ε2 .

Démonstration. On applique l’inégalité de Markov à la variable

X−E(X) ε

2

. L’événement {|X−E(X)| > ε} est l’événement

X−E(X) ε

2

>1

. Puisque la variable

X−E(X) ε

2

est positive et que1 > 0,

P{|X−E(X)|>ε}61 1E

X−E(X) ε

2!

= 1

ε2E (X−E(X))2

= V(X) ε2 .

V. Couples de variables aléatoires, n-uplets de variables aléatoires

1) Couples,n-uplets

Définition. Soient Ω un univers fini etX et Y deux variables aléatoires sur Ω à valeurs dans E et E respectivement.

L’application (X, Y) : Ω → E×E ω 7→ (X(ω), Y(ω))

est uncouple de variables aléatoires sur Ω. Si E = E = R, (X, Y) est une couple de variables aléatoires réelles surΩ.

Plus généralement, unn-uplet de variables aléatoires réelles surΩest (X1, . . . , Xn) : Ω → Rn

ω 7→ (X1(ω), . . . , Xn(ω))

(4)

Définition.SiXetY sont deux variables aléatoires sur l’espace probabilisé fini(Ω, P), alors laloi conjointedeXetYest la loi du couple(X, Y). Donner la loi conjointe du couple(X, Y), c’est donner lesP((X, Y) = (x, y)) =P({X=x}∩{Y=y}), x∈X(Ω), y∈Y(Ω). Leslois marginales(car on les retrouve en marge) du couple(X, Y)sont les lois deXet deY. Théorème.La loi conjointe détermine les lois marginales :

∀x∈X(Ω),P(X=x) = X

yY(Ω)

P({X=x}∩{Y =y}).

∀y∈Y(Ω),P(Y =y) = X

x∈X(Ω)

P({X=x}∩{Y=y}).

Par exemple, si la loi du couple(X, Y)est

c d

a 121 16

b 18 58

X Y

la première loi marginale du couple(X, Y) est P(X= a) =P((X=A)∩(Y =c)) +P(X= a)∩(Y =d)) = 1 12 +1

6 = 1 4, P(X=b) = 1

8 +5 8 = 3

4 ...

c d loi deX

a 121 16 14

b 18 58 34

loi deY 245 1924 1

X Y

Définition (lois conditionnelles).Si pour touty∈Y(Ω),P(Y =y)6=0, on peut définir la loi deXsachant queY=y:

∀x∈X(Ω),PY=y(X=x) = P((X=x)∩(Y=y))

p(Y=y) = P((X, Y) = (x, y)) p(Y=y) .

Si pour tout x ∈ X(Ω), P(X = x) 6= 0, on peut définir la loi de Y sachant que X = x : ∀y ∈ Y(Ω), PX=x(Y = y) = P((X=x)∩(Y=y))

p(X=x) .

Les lois conditionnelles sont déterminées par la loi conjointe et les lois marginale et donc par la loi conjointe uniquement.

2) Indépendance a) de deux variables

Définition.XetY sont indépendantes si et seulement si∀(x, y)∈X(Ω)×Y(Ω),P((X=x)∩(Y =y)) =P(X=x)×P(Y= y).

b) d’un n-uplet de variables

Définition. X1, . . . ,Xn sont deux à deux indépendantes si et seulement si ∀i 6= j, Xi et Xj sont indépendantes. Ceci équivaut à∀i6=j,∀(xi, xj)∈Xi(Ω)×Xj(Ω),P((Xi=xi)∩(Xj=xj)) =P(Xi=xi)×P(Xj=xj).

Définition.X1, . . . ,Xn sont indépendantes si et seulement si∀(x1, . . . , xn)∈X1(Ω)×Xn(Ω), les événements{X1=x1}, . . .{Xn =xn}sont indépendants.

Théorème.Si les variablesX1, . . . ,Xnsont indépendantes, alors les variablesX1, . . . ,Xnsont deux à deux indépendantes.

Réciproque fausse.

Théorème.Si les variablesX1, . . . ,Xn sont indépendantes, alors pour toutes fonctions f1, . . . ,fn, les variablesf1(X1), . . . ,fn(Xn)sont indépendantes.

3) Covariance a) Cas général

Définition.La covariance du couple(X, Y)est cov(X, Y) =E((X−E(X))(Y−E(Y))).

Théorème.cov(X, Y) =E(XY) −E(X)E(Y)avecE(XY) = X

(x,y)∈X(Ω)×Y(Ω)

xy P((X=x)∩(Y=y)).

Théorème.V(X+Y) =V(X) +V(Y) +2cov(X, Y)et donc aussi cov(X, Y) = 1

(V(X+Y) −V(X) −V(Y)).

(5)

Plus généralement,V(X1+. . .+Xn) = Xn

i=1

V(Xi) +2 X

16i<j6n

cov(Xi, Xj).

Théorème.|cov(X, Y)|6σ(X)σ(Y).

b) Cas de variables indépendantes Théorème.SiXetY sont indépendantes,

• E(XY) =E(X)E(Y);

• cov(X, Y) =0;

• V(X+Y) =V(X) +V(Y).

Théorème.SiX1, . . . ,Xn sontdeux à deux indépendantes(et en particulier siX1, . . . ,Xn sont indépendantes), V(X1+. . .+Xn) =V(X1) +. . .+V(Xn).

SiX1, . . . ,Xn sontindépendantes(et pas seulement deux à deux indépendantes), E(X1. . . Xn) =E(X1)×. . .×E(Xn).

Références

Documents relatifs

On note X la variable aléatoire égale au nombre de joueurs ayant marqué leur premier lancer franc, et Z la variable aléatoire égale au nombre de joueurs ayant marqué au moins un

Un joueur joue une partie du jeu suivant : il mise un euro, puis on tire une première boule dans l’urne (notons son numéro a), puis une deuxième (avec remise), dont on note le

Le point C étant sur l’axe des abscisses, on peut noter ses coordonnées sous la forme C(c, 0) (avec accessoirement c ∈ [0, 1]).. Pour déterminer les coordonnées du point M, on

On considère une urne contenant n boules blanches et n boules noires dans laquelle on effectue des tirages successifs d’une boule, sans remise2. On désigne par T la variable

Théorème 19 Soient X et Y deux variables aléatoires réelles discrètes possédant un moment

n souris (minimum 3) sont lâchées en direction de 3 cages, chaque cage pouvant contenir les n souris et chaque souris allant dans une cage au hasard.. Calculer la probabilité

On pourra introduire la variable aléatoire U égale au numéro de l’urne dans laquelle on a tiré la boule.. Un tirage consiste à extraire une boule de l’urne, la boule tirée

X et Y ne sont pas indépendantes (le fait qu’on ait des 0 dans le tableau de la loi jointe suffit à imposer qu’il n’y ait pas indépendance).. • L’exemple 3 est