• Aucun résultat trouvé

Variables aléatoires

Dans le document LaurentTournier Intégration&Probabilités (Page 35-40)

3 Changements de variables

1. Fondements des probabilités

1.2 Variables aléatoires

Soit(Ω,A,P)un espace de probabilité.

Définition

Unevariable aléatoire(en abrégé, v.a.) est une application mesurableX: Ω→E, où(E,E)est un espace mesurable.

On parle devariable aléatoire réellesi l’espace d’arrivée est(R,B(R)).

La définition suivante est fondamentale.

Définition

La loi d’une variable aléatoire X : Ω → E est la mesure image de P par X. C’est donc la mesure de probabilitéPX sur(E,E)donnée par

PX(B) =P X−1(B)

=P {ω∈Ω|X(ω)∈B}

pourB∈ E.

On dit queX suit la loi µsi la loi deX estµ.

Notation fonctionnelle. On utilisera en général la notation{X∈B}=X−1(B), de sorte que la définition s’écrit PX(B) =P(X∈B).

De même, on écrira par exemple, pour une variable aléatoire réelleX,{sin(X)≥0}={ω∈Ω|sin(X(ω))≥0}.

Variables discrètes et continues

Deux familles de lois méritent une attention particulière : les lois dites discrètes et continues. Attention, ce ne sont que des cas particuliers, et de nombreuses lois ne sont ni discrètes ni continues.

• Variables aléatoires discrètes.

Définition

Une variable aléatoireX estdiscrètesi elle prend ses valeurs dans un ensemble dénombrable E.

Dans ce cas la loi deX est donnée par les valeurspx=P(X =x)pourx∈E. En effet, pour toutB⊂E, PX(B) =P(X ∈B) =P

]

x∈B

{X=x}

=X

x∈B

P(X =x) =X

x∈B

px.

Autrement dit,

PX=X

x∈E

pxδx.

Se donner la loi deX revient donc à se donner les valeurspx pourx∈E, dont la somme vaut 1 : 1 =P(X ∈E) =X

x∈E

P(X =x) =X

x∈E

px.

Ex. 24.On lance deux dés à six faces. Donner la loi de la somme des deux résultats.

Définition

– SiE est un ensemble, etx∈E, laloi de Dirac en xest la loi d’une variable aléatoireX à valeurs dans E telle que

P(X=x) = 1.

On dit queX est constante (p.s.).Ce n’est donc pas une variable « aléatoire » mais plutôt « déterministe ».

– Si E est un ensemble fini, de cardinal n, la loi uniforme sur E est la loi d’une variable aléatoireX à valeurs dans E telle que

pour toutx∈E, P(X =x) = 1 n.

C’est un choix naturel dans les situations où les différentes issues de l’expérience jouent des rôles symétriques.

– La loi de Bernoulli de paramètre p∈[0,1]est la loi (notéeB(p)) d’une variable aléatoire X à valeurs dans{0,1}telle que

P(X = 1) =p, P(X = 0) = 1−p.

On interprète X comme le résultat du lancer d’une pièce biaisée ayant probabilité pde tomber sur pile.

• Variables aléatoires continues (ou à densité).

Définition

Une variable aléatoireX à valeurs dansRd est continue, ou à densité, si sa loi admet une densité f par rapport à la mesure de Lebesgue. La fonction f est appelée la densité de X. Autrement dit, X a pour densitéf sif est une fonction mesurable positive qui vérifie, pour toutA∈ B(Rd),

PX(A) =P(X ∈A) = Z

A

f(x)dx= Z

1A(x)f(x)dx, et donc en particulier R

f(x)dx=P(X ∈Rd) = 1.

Ainsi, une fonction mesurablef :RdRest une densité si, et seulement sif est positive etR

f(x)dx= 1.

Propriétés

Si X est une variable aléatoire de densitéf, alors

a) pour tout x∈Rd,P(X =x) = 0. Autrement dit, pour toutx∈Rd, presque sûrement,X 6=x.

b) presque sûrement,X ∈ {x∈Rd|f(x)>0}.

Démonstration : a) On aλd({x}) = 0et donc P(X=x) =

Z

{x}

f(t)dt=λ({x})f(x) = 0.

b) Sif est nulle surB∈ B(Rd)(autrement dit,f(x) = 0 pour toutx∈B), alorsP(X ∈B) =R

Bf(t)dt= 0donc p.s., X∈Bc. Le résultat correspond au cas oùB={x∈Rd|f(x) = 0}, carf est évidemment nulle surB.

Définition

– La loi uniforme sur[a,b](oùa < b) est la loi (notéeU([a,b])) de densité f(x) = 1

b−a1[a,b](x).

(Si X suit la loi uniforme sur[a,b], alorsX ∈[a,b]p.s.)

– Plus généralement, si A ∈ B(Rd) est tel que 0 < λd(A)< ∞, la loi uniforme sur A est la loi (notée U(A)) de densité

f(x) = 1

λd(A)1A(x).

(Si X suit la loi uniforme surA, alorsX∈A p.s.)

– La loi exponentielle de paramètre surλ∈]0,+∞[est la loi (notéeE(λ)) de densité f(x) =λe−λx1R+(x).

(Si X suit la loi exponentielle de paramètreλ >0, alorsX >0p.s.)

– La loi normale (ou gaussienne) de moyenne m∈Ret de variance σ2 ∈]0,+∞[ est la loi (notée N(m,σ2)) de densité

f(x) = 1

2πσ2e(x−m)22 .

L’appellation est justifiée en vérifiant que m est la moyenne et σ2 la variance de cette loi. La loi N(0,1), appelée loi normale standard, a donc pour densité 1

ex22.

Ex. 25.Soitr >0. SoitZ une variable aléatoire de loi uniforme dans le disqueD de centre(0,0)et de rayonr dansR2. On noteR la distance entre(0,0)et Z.

1.Montrer que, pour tousa,btels que 0≤a≤b≤r,P(R∈[a,b]) =Rb a

2t r2dt.

2.En déduire queZ suit la loi de densitéf :t7→f(t) =r2t21[0,r](t).

Ex. 26.SoitU une variable aléatoire de loi uniforme sur [0,1]. On poseX = max(U,12).

1.CalculerP(X = 12), et en déduire que X n’a pas de densité.

2.Justifier queX n’est pas discrète.

Tribu engendrée Définition

SoitX une variable aléatoire à valeurs dans(E,E). Latribu engendréeparX est σ(X) =

X−1(B)

B∈ E ⊂ A.

C’est la tribu surΩqui contient tous les événements qui ne dépendent que deX. La proposition suivante montre que, de même, les fonctions mesurables par rapport àσ(X)sont celles qui ne dépendent que deX :

Proposition

SoitX,Y des variables aléatoires à valeurs dansRmetRn.Y est mesurable par rapport àσ(X)si et seulement s’il existe une fonction mesurablef :RmRn telle queY =f(X)p.s.

1.3 Espérance

Définition

SoitX une variable aléatoire réelle. Sonespéranceest son intégrale : E[X] =

Z

X(ω)dP(ω),

ce qui, en tant qu’intégrale d’une fonction mesurable, est bien défini dans les deux cas suivants :

— siX ≥0(et dans ce cas E[X]∈[0,∞])

— siX est intégrable, c’est-à-direE[|X|] =R

|X|dP <∞.

On a en particulierE[1B] =P(B)siB∈ Aet, pour toute constantec∈R,E[c] =c P(Ω) =c.

N.B.Les variables aléatoires bornées sont intégrables : si|X| ≤M p.s., alors E[|X|]≤E[M] =M <∞.

L’espéranceE[X]est lamoyennede la variable aléatoireX : c’est en effet une généralisation d’un barycentre à coefficients positifs car c’est une « somme » (intégrale) des valeurs deX pondérées par la probabilitéP, etP attribue des poids positifs et de masse totale égale à1. Ainsi, l’espérance renseigne sur l’ordre de grandeur des valeurs prises parX.

Une autre interprétation est la suivante : siX est le gain à un jeu de hasard, alorsE[X]est le prix que le casino doit faire payer au joueur pour rendre le jeuéquitable: supposons que le joueur rejoue indéfiniment au même jeu (de façonindépendante), alors si le prix à payer était plus grand queE[X], la fortune du joueur tendrait vers

−∞(il serait donc ruiné au bout d’un certain temps), tandis que pour un prix plus petit, sa fortune tendrait vers +∞ (et c’est le casino qui serait ruiné, en imaginant que le joueur a pu emprunter temporairement de quoi couvrir ses pertes éventuelles). Ceci sera justifié par la loi des grands nombres. De façon plus courante, l’espérance sert donc aussi à calculer des prix d’actifs financiers.

Le théorème de transfert (du chapitre sur les changements de variables) s’écrit comme suit : Proposition (Théorème de transfert)

Soit X une variable aléatoire à valeurs dans(G,G)et ϕ une fonction mesurableG→Rtelle que E[ϕ(X)]

est bien définie. Alors

E[ϕ(X)] = Z

G

ϕ(x)dPX(x).

Ceci montre que l’espérance de toute fonction d’une variable aléatoireX ne dépend que de la loiPX de X, et non de la façon exacte doncX est définie comme fonction surΩ.

•SiX est discrète à valeurs dansG, on a, par le théorème de transfert, pour toute fonctionϕ:G→Rpositive (ou telle queϕ(X)est intégrable),

E[ϕ(X)] =X

x∈G

ϕ(x)P(X =x).

•SiX est continue surRd, de densitéf, le théorème de transfert donne, pour toute fonctionϕ:RdRpositive (ou telle queϕ(X)est intégrable),

E[ϕ(X)] = Z

Rd

ϕ(x)f(x)dx.

Ex. 27.Étudier la bonne définition des espérances suivantes, et les calculer si elles ont un sens : 1.E[X], oùX suit la loi uniforme sur{1,2, . . . ,6}: P(X =k) =16 pourk= 1, . . . ,6;

2.E[X] etE[X2]où, pour des réels a < b,X suit la loi uniforme sur[a,b], de densité b−a1 1[a,b]; 3.E[X] oùX suit la loi de Cauchy, de densitéx7→ π(1+x1 2);

4.E[sX] oùs∈Ret, pour un réelλ >0, X suit la loi de Poisson de paramètreλ:X est à valeurs dansNet pour toutn∈N,P(X =n) =e−λ λn!n;

5.E[X] oùX = max(U,12)et U suit la loi uniforme sur [0,1].

Tous les résultats vus pour les intégrales sont toujours valables. Écrivons-en quelques-uns à titre d’exemple : Proposition (Inégalité de Markov)

SoitX une variable aléatoire réellepositive. Pour touta >0, P(X ≥a)≤ E[X] a .

Corollaire

SoitX une variable aléatoire réellepositive.

— siE[X]<∞, alorsX <∞presque sûrement.

— SiE[X] = 0, alorsX = 0presque sûrement.

Proposition

Soit(Xn)n≥0 une suite de variables aléatoirespositives.

— (TCM) Si la suite(Xn)n est croissante et converge vers X, alorslimn↑E[Xn] =E[X].

— (TCM pour les séries) On aE

X

n≥0

Xn

=X

n≥0

E[Xn].

Ex. 28. SoitX une variable aléatoire à valeurs dans[0,+∞[. Pour tout n∈ N, on définit Xn = min(n,X).

Montrer queE[Xn]−→

n E[X].

Proposition (Théorème de convergence dominée)

Soit(Xn)n≥0 une suite de variables aléatoires réelles, etX une variable aléatoire réelle.

Si Xn −→

n X p.s. et s’il existe Z intégrable telle que|Xn| ≤Z p.s., alors E[Xn]−→

n E[X].

Ex. 29.SoitXune variable aléatoire à valeurs dansR, intégrable. Pour toutn∈N, on définitXn=Xn1{|X|<n}. Montrer queE[Xn]−→

n E[X].

On pourra utiliser les théorèmes de Fubini ou encore les théorèmes pour les intégrales (espérances) à paramètre.

Enfin, on définit aussi les espaces L1(Ω,A,P) et L2(Ω,A,P), abrégés en L1 et L2, et on rappelle dans ce cas l’inclusion L2 ⊂ L1 (en effet, pour tout v.a. réelle X, E[|X|] = E[|1·X|] ≤ E[X2]1/2E[1]1/2 = E[X2]1/2).

Autrement dit, les v.a. de carré intégrable sont intégrables.

Définition

SoitX une variable aléatoire de carré intégrable. LavariancedeX est le réel positif Var(X) =Eh

X−E[X]2i . L’écart-typedeX est le réel positif

σ(X) =p

Var(X).

La variance de X est la moyenne du carré de l’écart entre X et sa moyenne. C’est donc une mesure de la

« dispersion » de la loi de X autour de son espéranceE[X], de même que l’écart-type. L’écart-type de X a l’intérêt d’être homogène àX, c’est le point a) ci-dessous :

Propriétés

SoitX une variable aléatoire réelle, de carré intégrable.

a) pour tout réela,Var(aX) =a2Var(X)etσ(aX) =|a|X.

b) Var(X) =E[X2]−E[X]2.

Ex. 30.CalculerVar(X), oùX suit la loi uniforme sur[a,b], pour des réelsa < b.

Ex. 31.SoitX une variable aléatoire de carré intégrable.

1.Montrer queZ= X−E[X]σ(X) est centrée (E[Z] = 0) et standardisée (Var(Z) = 1).

2.SiX suit la loiN(m,σ2), montrer queZ ∼ N(0,1).

Proposition (Inégalité de Tchebychev)

Si X est une variable aléatoire de carré intégrable, eta >0, alors P

X−E[X]

≥a

≤ Var(X) a2 .

Démonstration : Pour touta >0, on a, pour toutω∈Ω,|X(ω)−E[X]| ≥asi, et seulement si|X(ω)−E[X]|2≥a2, donc

|X−E[X]| ≥a =

|X−E[X]|2≥a2 et par conséquent

P(|X−E[X]| ≥a) =P(|X−E[X]|2≥a2).

Or

P(|X−E[X]|2≥a2)≤ Eh

|X−E[X]|2i a2

en appliquant l’inégalité de Markov à la variable aléatoire positive(X−E[X])2. La conclusion vient de la définition de la variance.

Ex. 32. Si X est une variable aléatoire de carré intégrable, et α≥ 1, montrer que l’inégalité de Tchebychev s’écrit aussi sous la forme suivante :

P

X−E[X]

≥ασ(X)

Dans le document LaurentTournier Intégration&Probabilités (Page 35-40)

Documents relatifs