• Aucun résultat trouvé

Variables aléatoires sur un espace probabilisé ni

N/A
N/A
Protected

Academic year: 2022

Partager "Variables aléatoires sur un espace probabilisé ni"

Copied!
8
0
0

Texte intégral

(1)

Variables aléatoires sur un espace probabilisé ni

Rédaction incomplète. Version 0.1

le 13 mai 2020

Plan

I. Variables aléatoires . . . . 1

II. Lois usuelles . . . . 2

1. Loi uniforme . . . . 2

2. Loi de Bernoulli . . . . 2

3. Loi binomiale . . . . 2

III. Couples de variables aléatoires . . . . 3

IV. Variables aléatoires indépendantes . . . . 3

V. Espérance . . . . 4

VI. Variance, écart type, covariance. . . . 6

1. Variance . . . . 6

2. Covariance . . . . 7

Index

écart-type, 6 covariance, 7

espérance d'une variable aléatoire, 4 fonction caractéristique, 2

fonction de répartition d'une loi réelle, 2 formule de transfert, 5

inégalité de Bienaymé-Chebychev, 7 inégalité de Markov, 5

lemme des coalitions, 6 loi conjointe, 3

loi de Bernoulli, 2

loi de probabilité d'une variable aléatoire, 1 loi uniforme, 2

lois marginales, 3 moments, 6

théorème de transfert, 5 variable aléatoire centrée, 5 variable aléatoire réduite, 6

variables aléatoires indépendantes, 3 variables mutuellement indépendantes, 4 variance, 6

I. Variables aléatoires

Une variable aléatoire est une fonction dénie sur un univers. Dans le dictionnaire des traductions entre les langages ensembliste et probabiliste, variable aléatoire est le synonyme probabiliste de fonction .

On dit qu'une variable aléatoire est réelle, lorsqu'elle prend ses valeurs dans R.

X : fonction dénie dans Ω à valeurs dans E . X : variable aléatoire sur l'univers Ω à valeurs dans E . A ⊂ E , X −1 (A) partie de Ω événement de Ω noté {X ∈ A} ou (X ∈ A) .

x ∈ E , X −1 ({x}) partie de Ω événement de Ω noté {X = x} ou (X = x) . x ∈ R, X −1 (] − ∞, x]) partie de Ω événement de Ω noté {X ≤ x} ou (X ≤ x) . La notation X −1 (A) désigne l'image réciproque par X de la partie A .

Dénition. Soit (Ω, P ) un univers probabilisé et X une variable aléatoire (fonction) de Ω dans E .

La loi de probabilité de la variable aléatoire X (notée P X ) est la fonction probabilité dénie sur l'ensemble des parties de E :

∀A ∈ P(E), P X (A) = P ((X ∈ A)) = P (X ∈ A) = P (X −1 (A)).

Remarque. Dans ce cours, comme les univers (ensembles des éventualités) sont nis, l'ensemble des valeurs d'une

variable aléatoire est aussi ni donc seules les parties de E qui contiennent des valeurs de la variable aléatoire

ont une probabilité non nulle. Même si E est inni, on peut dénir la probabilité P X sur l'ensemble de toutes le

parties de E . Parmi les parties E , seules les parties qui coupent X (Ω) (elles forment un ensemble ni) auront une

probabilité non nulle.

(2)

L'application probabilité P X est donc caractérisée par les valeurs des P ((X = x)) pour les x de E .

Dénition. Soit X une variable aléatoire à valeurs réelles, la fonction de répartition attachée à la loi de X est dénie par

x → P X ((X ≤ x)) = P (X −1 (] − ∞, x])).

Remarques. La fonction de répartition est souvent notée F X . Il est important de noter qu'elle ne dépend que de la loi de probabilité de X .

Une fonction de répartition est toujours croissante.

L'intérêt des variables aléatoires vient des opérations que l'on peut dénir entre elles pour Ω et E xés. Par exemple, l'ensemble des variables aléatoires réelles dénies sur Ω est un R-espace vectoriel (pour les opérations fonctionnelles usuelles).

On peut aussi composer une variable aléatoire par une fonction.

Soit X une variable aléatoire réelle qui prend ses valeurs dans un intervalle I et f une fonction à valeurs réelles dénie dans I . La fonction Y = f ◦ X de Ω dans R est une variable aléatoire réelle. On peut lui associer une loi.

Exemple. Pour un univers quelconque, la fonction caractéristique d'un événement particulier qui prend la valeur 1 si l'événement se réalise et 0 sinon est une variable aléatoire à valeurs dans J 0, 1 K.

II. Lois usuelles

Plusieurs variables aléatoires distinctes sur des espaces probabilisés distincts mais à valeurs dans le même ensemble (une partie de R) peuvent dénir la même loi de probabilité. C'est à dire en fait le même espace probabilisé. Les lois usuelles sont ces espaces probabilisés usuels. Il faut les connaitre pour eux même et connaitre aussi les situations et les variables aléatoires types qui satisfont à ces lois.

Dans toute cette section n est un entier naturel non nul.

1. Loi uniforme

Dénition.

∀k ∈ E = J 1, n K , P (X = k) = 1 n .

2. Loi de Bernoulli

Dénition. Loi de Bernoulli de paramètre p : notation B(p) .

E = {0, 1}, P (X = 0) = 1 − p, P (X = 1) = p.

Une expérience de Bernoulli est une expérience aléatoire à deux issues : S (succès) et E (échec). On dénit X par X (S) = 1 , X(E) = 0 .

Notation. Si la loi de probabilité d'une variable aléatoire X est la loi de Bernoulli de paramètre p , on note X , → B(p) .

Exemple. Pour tout événement A d'un univers probabilisé quelconque, la fonction caractéristique de A est une variable aléatoire qui suit une loi de Bernoulli de paramètre P (A) .

3. Loi binomiale

Dénition. Loi binomiale de paramètres n et p ∈ [0, 1] : notation B(n, p) .

∀k ∈ E = J 0, n K , P (X = k) = n

k

p k (1 − p) n−k .

Notation. Si la loi de probabilité d'une variable aléatoire X est la loi binomiale de paramètres n, p , on note X , → B(n, p) .

Exemple. Le nombre de succès dans la répétition de n expériences de Bernoulli indépendantes. (tirage avec remise par exemple) est une variable aléatoire qui suit une loi binomiale de paramètres (n, p) .

Notons X ce nombre de succès. Alors X (Ω) = J 0, n K. On classe les n -uplets de résultats conduisant à k réussite

selon l'ensemble des numéros des expériences réussies. Pour n'importe quel ensemble particulier à k éléments, la

(3)

III. Couples de variables aléatoires

Dénition. Soit X et Y deux variables aléatoires dénies dans Ω et à valeurs dans E et F . La fonction notée X × Y (ou (X, Y ) ) dénie par

( Ω → E × F ω 7→ (X (ω), Y (ω))

est une variable aléatoire. La loi de la variable aléatoire (X, Y ) est appelée la loi conjointe de X et Y .

Dénition. Pour toute variable aléatoire Z à valeurs dans un produit cartésien E × F , il existe des variables aléatoires X et Y telles que Z = (X, Y ) . Les lois que vérient X et Y sont déterminées par la lois de Z , on les appelle les lois marginales de Z . Elles sont dénies par

∀ω ∈ Ω, Z(ω) = (X(ω), Y (ω)) .

Remarque. Bien noter que la loi conjointe détermine les lois marginales mais pas le contraire.

La présentation en tableau des probabilités pour un couple (X, Y ) justie la terminologie de loi marginales.

Supposons que X prenne les valeurs x 1 , · · · , x p et que Y prenne les valeurs y 1 , · · · , y q .

x 1 · · · x i · · · x p

y 1 P (X = x 1 et Y = y 1 ) · · · P (X = x i et Y = y 1 ) · · · P (X = x p et Y = y 1 ) P (Y = y 1 )

... ... ... ... ...

y j P (X = x 1 et Y = y j ) · · · P (X = x i et Y = y j ) · · · P (X = x p et Y = y j ) P (Y = y j )

... ... ... ... ...

y q P (X = x 1 et Y = y q ) · · · P (X = x i et Y = y q ) · · · P (X = x p et Y = y q ) P (Y = y q ) P (X = x 1 ) · · · P (X = x i ) · · · P (X = x p )

La loi conjointe de X (resp Y ) est présentée dans la dernière colonne (resp ligne). La valeur est la somme des valeur de la ligne (resp colonne) associée.

Dénition. Soit X et Y deux variables aléatoires dénies sur Ω, P ) . On dénit la loi de X sachant que Y = y par :

∀x ∈ X(Ω), P Y =y (X = x) = P (X = x et Y = y P (Y = y) . Notation. On peut noter aussi P (X = x|Y = y) .

IV. Variables aléatoires indépendantes

Dénition. Soit X et Y deux variables aléatoires dénies sur un même espace probabilisé ni (Ω, p) et à valeurs dans E et F , on dit que X et Y sont indépendantes si et seulement si,

∀(A, B) ∈ P(E) × P (F ), P ((X ∈ A) et (Y ∈ B)) = P (X ∈ A) P (Y ∈ B ).

On peut caractériser les variables indépendantes par le fait que la loi conjointe s'obtient par produit à partir des lois marginales.

Proposition. Soit X et Y deux variables aléatoires dénies sur un espace probabilisé ni (Ω, p) et à valeurs dans E et F . Les variables X et Y sont indépendantes si et seulement si :

∀(x, y) ∈ X (Ω) × Y (Ω), P ((X = x) et (Y = y)) = P (X = x) P (Y = y)

(4)

Preuve. Si la formule est valable pour toutes les parties, elle est valable pour les singletons. Réciproquement, pour tout couple (A, B) de parties,

P (X ∈ A et Y ∈ B) = X

(a,b)∈A×B

P ((X = a) ∩ P (Y = b)) = X

(a,b)∈A×B

P (X = a) P (Y = b)

= X

a∈A

P (X = a)

! X

b∈B

P (Y = b)

!

= P (A) P (B).

Remarque. On peut caractériser l'indépendance de deux lois avec les lois conditionnelles.

Proposition. Si les variables X et Y sont indépendantes, les variables f ◦ X et g ◦ Y le sont aussi.

Preuve. Soit a ∈ f ◦ X(Ω)) et b ∈ g ◦ Y (Ω)) ,

P ((f ◦ X = a) ∩ (g ◦ Y = b)) = P (X ∈ f −1 ({a}) ∩ (Y ∈ f −1 ({b})

= P (X ∈ f −1 ({a})

P (Y ∈ f −1 ({b})

= P (f ◦ X = a) P (g ◦ Y = b)

Dénition. Soient X 1 , · · · , X n des variables aléatoires sur le même espace probabilisé (Ω, p) . On dit qu'elles sont mutuellement indépendantes si et seulement si, pour toute famille de parties A 1 , · · · , A n de X 1 (Ω), · · · X n (Ω) , les événements (X 1 ∈ A 1 ), · · · (X n ∈ A n ) sont mutuellement indépendants.

On peut représenter la réalisation de n expériences aléatoires indépendantes sur le même espace par une suite de n variables aléatoires indépendantes en associant la valeur 1 à un succès et la valeur 0 à un échec. Le fait que la variable égale au nombre de succès soit binomiale de paramètres (n, p) donne la proposition suivante.

Proposition. Si X 1 , · · · , X n sont mutuellement indépendantes de loi B(p) alors la somme X 1 + · · · + X n suit la loi B(n, p) (loi binomiale).

V. Espérance

Dans cette section, sauf mention particulière, les variables aléatoires sont réelles.

Dénition. Soit X une variable aléatoire sur un espace probabilisé ni (Ω, p) . L'espérance de X est dénie par : E(X) = X

ω∈Ω

X (ω) P ({ω}).

Remarque. Comme tous les espaces probabilisés sont nis, toutes les variables aléatoires ont une espérance.

Proposition. Dans les conditions de la dénition précédente, E(X) = X

x∈X(Ω)

x P (X = x).

Preuve. On rassemble dans un même événement (X = x) tous les ω qui ont la même image. Cela permet de mettre x en facteur.

Remarques. L'espérance est la moyenne pondérée des valeurs atteintes. Elle est comprise entre la plus grande et la plus petite valeur que prend la variable.

La proposition entraine que l'espérance d'une variable ne dépend que de la loi qu'elle suit.

Proposition (linéarité, positivité, croissance). Soit X et Y des variables aléatoires dénies sur (Ω, P ) espace probabilisé ni. Soit λ ∈ R.

E(X + Y ) = E(X ) + E(Y ), E(λX) = λE(X ), X ≥ 0 ⇒ E(X) ≥ 0, x ≤ Y ⇒ E(X) ≤ E(Y ).

(5)

Remarque. Cela implique en particulier que pour toute famille (X 1 , · · · , X n ) de variables aléatoires (elles n'ont pas à être indépendantes,

E(

n

X

i=1

X i ) =

n

X

i=1

E(X i ).

Dénition. Une variable aléatoire est dite centrée lorsque son espérance est nulle.

Remarque. Par linéarité, pour centrer une loi, il sut de lui soustraire la variable constante de valeur l'espérance.

Exemple. Calculs d'espérance pour des lois usuelles.

variable constante : valeur moyenne Bernoulli de paramètre p : espérance p . Binomiale B(n, p) : espérance np

Pour les lois de Bernoulli et binomiale, trois démonstrations à connaitre : sommation avec bricolage de coecients, sommation avec dérivation, somme de variables de Bernoulli

Proposition (formule de transfert). Soit X variable aléatoire réelle dénie sur Ω , soit f fonction dénie sur X(Ω) à valeurs réelles,

E(f ◦ X ) = X

x∈X(Ω)

f (x) P (X = x).

Preuve. On classe toutes les issues élémentaires ω ∈ Ω selon la valeur de f (ω) .

Remarque. On en déduit que l'espérance d'une variable f ◦ X ne dépend que de la loi de X .

Proposition (inégalité de Markov). Soit X une variable aléatoire à valeurs positives sur un espace probabilisé (Ω, p) . Soit a > 0 ,

P (X ≥ a) ≤ E(X) a . Preuve. Par dénition,

E(X ) = X

ω∈Ω

X (ω) P ({ω}) = X

ω∈Ω

X(ω)<a

X(ω) P ({ω})

| {z }

≥0

+ X

ω∈Ω

X(ω)≥a

X(ω)

| {z }

≥a

P ({ω}) ≥ a X

ω∈Ω

X(ω)≥a

P ({ω}) = a P (X ≥ a).

Proposition. Si les variables aléatoires X et Y sont indépendantes, l'espérance du produit est le produit des espérances.

Preuve. Démonstration 1.

On commence par le cas où chaque variable ne prend que deux valeurs distinctes dont 0 . On démontre que lorsque ces deux variables sont indépendantes, le produit est du même type et son espérance est le produit des espérances.

La suite du raisonnement consiste à décomposer chaque variable comme une somme de variables de ce type.

Pour chaque x et y non nuls respectivement dans X(Ω) et Y (Ω) , on dénit des variables aléatoires Y x et X y par :

X x (ω) =

( x si X(ω) = x

0 sinon , Y y (ω) =

( y si Y (ω) = y

0 sinon

Notons X(Ω) et Y (Ω) les ensembles d'images non nulles et montrons les égalités entre variables aléatoires X = X

x∈X(Ω)

X x , Y = X

y∈Y (Ω)

Y y

En eet, pour un ω xé, le seul x qui contribue réellement à la première somme est x = X (ω) lorsqu'il n'est pas nul. Le raisonnement est identique pour l'autre somme.

Par dénition, (X x = x) = (X = x) et (Y y = y) = (Y = y) . Le caractère indépendant des variables X et Y

(6)

entraine que, pour tous les couples de valeurs non nulles (x, y) , les variables X x et Y y sont indépendantes. On conclut par linéarité avec le cas particulier du début de la preuve.

XY = X

(x,y)

X x Y y ⇒ E(XY ) = X

(x,y)

E(X x Y y ) = X

(x,y)

E(X x )E(Y y ) (indépendance et cas particulier)

= X

x

E(X x )

! X

y

E(Y y )

!

= X

x

x P (X = x)

! X

y

y P (Y = y)

!

= E(X ) E(Y ) Démonstration 2.

On forme une expression de E(XY ) comme somme double.

E(XY ) = X

ω∈Ω

(XY )(ω) P ({ω}) = X

ω∈Ω

X (ω)Y (ω) P ({ω}) = X

x∈X(Ω)

x X

ω∈(X=x)

Y (ω) P ({ω})

= X

x∈X(Ω)

x X

y∈Y (Ω)

y X

ω∈(X=x)∩(Y =y)

P ({ω}) = X

(x,y)∈X(Ω)×Y (Ω)

xy P ((X = x) ∩ (Y = y)).

Lorsque les variables sont indépendantes, on peut conclure

E(XY ) = X

(x,y)∈X(Ω)×Y (Ω)

xy P (X = x) P (Y = y) =

 X

x∈X(Ω)

x P (X = x)

 X

y∈Y (Ω)

y P (Y = y)

 = E(X )E(Y )

Remarque. Au cours des démonstrations précédentes, on a prouvé la relation suivante qui peut être utile.

E(XY ) = X

(x,y)∈X(Ω)×Y (Ω)

xy P ((X = x) ∩ (Y = y)).

à compléter lemme de coalition. Soit X 1 , · · · , X n des variables aléatoires mutuellement indépendantes, soit p < n . Alors les expressions f (X 1 , · · · , X p ) et g(X p+1 , · · · , X n ) sont indépendantes. Exemple avec un déterminant 2x2 formé avec des variables réelle indépendantes : son espérance est le déterminant des espérances. n de à compléter

VI. Variance, écart type, covariance

1. Variance

Dénition (moments). Soit X une variable aléatoire sur un espace probabilisé ni (Ω, p) et r un naturel non nul.

Le moment d'ordre r de X est l'espérance de X r , il est noté m r (X ) .

Proposition. Soit X une variable alétoire sur un espace probabilisé ni (Ω, p) et r un naturel non nul.

m r (X) = X

x∈X(Ω)

x r P (X = x).

Preuve. Conséquence immédiate de la formule de transfert.

Dénition. La variance d'une variable aléatoire X sur un espace probabilisé ni est le moment d'ordre 2 de la variable centrée associée. L'écart-type est la racine carrée de la variance. Notations :

V (X) = E((X − E(X)) 2 ), σ(X) = p V (X).

Remarques. 1. Avec la formule de transfert, on peut calculer avec V (X ) = X

x∈X(Ω)

(x − E(X )) 2 P (X = x).

2. Par dénition même, on ne change pas la variance en ajoutant une constante. La variance et l'écart type

(7)

3. En revanche V (λX) = λ 2 V (X) .

4. On peut rassembler les deux propriétés précédentes :

V (λX + µ) = λ 2 V (X).

Dénition. On dit qu'une variable aléatoire est réduite si et seulement si elle est de variance 1 . Remarque. Si σ(X ) > 0 , la variable σ(X) 1 (X − E(X )) est centrée réduite.

Proposition. Soit X une variable aléatoire sur un espace probabilisé ni, alors V (X) = E(X 2 ) − E(X) 2 .

Preuve.

V (X ) = X

x∈X(Ω)

(x − E(X )) 2 P (X = x)

= X

x∈X(Ω)

x 2 P (X = x) − 2E(X ) X

x∈X(Ω)

x P (X = x)

| {z }

=E(X)

+ E(X) 2 X

x∈X(Ω)

P (X = x)

| {z }

=1

= E(X 2 ) − E(X ) 2 .

Exemples. La variance d'une variable de Bernoulli de paramètre p est p − p 2 = p(1 − p) car X = X 2 . La variance d'une variable binomiale de paramètres (n, p) est np(1 − p) . On peut faire directement ce dernier

calcul, mais il est plus intéressant d'utiliser la covariance et les sommes de variables indépendantes.

Calcul direct de la variance pour une variable binomiale. Soit X une variable binomiale de paramètres n et p . On introduit X(X − 1) pour simplier les coecients du binôme.

E(X (X − 1)) =

n

X

k=2

k(k − 1) n

k

p k (1 − p) n−k = n(n − 1) p 2

n

X

k=2

n − 2 k − 2

p k−2 (1 − p) n−2−(k−2) = n(n − 1)p 2

⇒ V (X ) = E(X (X − 1)) + E(X ) − E(X) 2 = n(n − 1)p 2 + np − n 2 p 2 = np(1 − p).

Proposition (inégalité de Bienaymé-Chebychev). Soit X une variable aléatoire sur un espace probabilisé ni, alors

∀ε > 0, P (|X − E(X)| ≥ ε) ≤ V (X ) ε 2 .

Preuve. On remarque que (|X − E(X )| ≥ ε) = (X − E(X )) 2 ≥ ε 2 . Puis on applique l'inégalité de Markov à la variable aléatoire (X − E(X)) 2 qui est à valeurs positives.

2. Covariance

Proposition. Soit X et Y deux variables aléatoires sur un même espace probabilisé ni (Ω, p) . Alors : X

(x,y)∈X(Ω)×Y (Ω)

xy [ P (X = x et Y = y) − P (X = x) P (Y = y)] = E(XY ) − E(X)E(Y )

= E ((X − E(X ))(Y − E(Y ))) . Preuve. La première égalité vient de la formule de transfert. La deuxième de la linéarité de l'espérance.

Dénition. La covariance de deux variables aléatoires sur un même espace probabilisé ni est l'un de ces nombres.

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = E ((X − E(X ))(Y − E(Y ))) . Proposition. Bilinéarité, symétrie, positivité de la covariance

Cov(X, X) = V (X) ≥ 0 V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ).

(8)

Remarques. Attention V (X ) = 0 n'entraine pas que la variable aléatoire X soit constante, seulement que, pour la probabilité de l'espace, la partie où elle prend des valeurs diérentes de son espérance a une probabilité nulle.

La covariance d'un couple de variables indépendantes est nulle mais cela ne caractérise pas l'indépendance.

Proposition. Si X 1 , · · · , X n sont des variables deux à deux indépendantes, V (X 1 + · · · + X n ) = V (X 1 ) + · · · + V (X n ).

On en déduit la variance d'une variable binomiale.

Proposition (inégalité de Cauchy-Schwarz).

|Cov(X, Y )| ≤ σ(X )σ(Y )

Preuve. Comme pour les autres formules de Cauchy-Schwarz, c'est une conséquence de la positivité de la variance qui s'obtient à l'aide du discriminant de l'expression du second degré en λ :

∀λ ∈ R , V (λX + Y ) = λ 2 V (X ) + 2 Cov(X, Y ) + V (Y ) ≥ 0.

Références

Documents relatifs

Cr´ eer un code Matlab permettant de simuler cette chaˆıne de Markov, o` u la valeur du param` etre p est affect´ ee par l’utilisateur.. Th´ eor`

On tire au hasard trois boules simultanément, et on appelle X la variable aléatoire correspondant à la somme des numéros marqués sur ces boules.. Représenter la loi de

On note X n la variable aléatoire égale au nombre de tirages nécessaires pour l’obtention de la boule numéro 1.. On note Y n la variable aléatoire égale à la somme des numéros

Cette valeur maximale est strictement positive donc c'est aussi la plus grande valeur de ψ sur [0, +∞[ car ψ est négative au delà de b.. La

Le but du problème 1 est l'étude du coecient de corrélation linéaire de deux variables aléatoires qu'on aborde d'abord de façon générale (partie I), puis dans un cas

Le but du problème 1 est l'étude du coecient de corrélation linéaire de deux variables aléatoires qu'on aborde d'abord de façon générale (partie I), puis dans un cas

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/1. 3 Rémy Nicolai

Déduire de la question précédente que si pour tout n, Z n suit une loi de Poisson de paramètre nλ alors la suite de variables aléatoires.. Z n √