Variables aléatoires sur un espace probabilisé ni
Rédaction incomplète. Version 0.1
le 13 mai 2020Plan
I. Variables aléatoires . . . . 1
II. Lois usuelles . . . . 2
1. Loi uniforme . . . . 2
2. Loi de Bernoulli . . . . 2
3. Loi binomiale . . . . 2
III. Couples de variables aléatoires . . . . 3
IV. Variables aléatoires indépendantes . . . . 3
V. Espérance . . . . 4
VI. Variance, écart type, covariance. . . . 6
1. Variance . . . . 6
2. Covariance . . . . 7
Index
écart-type, 6 covariance, 7
espérance d'une variable aléatoire, 4 fonction caractéristique, 2
fonction de répartition d'une loi réelle, 2 formule de transfert, 5
inégalité de Bienaymé-Chebychev, 7 inégalité de Markov, 5
lemme des coalitions, 6 loi conjointe, 3
loi de Bernoulli, 2
loi de probabilité d'une variable aléatoire, 1 loi uniforme, 2
lois marginales, 3 moments, 6
théorème de transfert, 5 variable aléatoire centrée, 5 variable aléatoire réduite, 6
variables aléatoires indépendantes, 3 variables mutuellement indépendantes, 4 variance, 6
I. Variables aléatoires
Une variable aléatoire est une fonction dénie sur un univers. Dans le dictionnaire des traductions entre les langages ensembliste et probabiliste, variable aléatoire est le synonyme probabiliste de fonction .
On dit qu'une variable aléatoire est réelle, lorsqu'elle prend ses valeurs dans R.
X : fonction dénie dans Ω à valeurs dans E . X : variable aléatoire sur l'univers Ω à valeurs dans E . A ⊂ E , X −1 (A) partie de Ω événement de Ω noté {X ∈ A} ou (X ∈ A) .
x ∈ E , X −1 ({x}) partie de Ω événement de Ω noté {X = x} ou (X = x) . x ∈ R, X −1 (] − ∞, x]) partie de Ω événement de Ω noté {X ≤ x} ou (X ≤ x) . La notation X −1 (A) désigne l'image réciproque par X de la partie A .
Dénition. Soit (Ω, P ) un univers probabilisé et X une variable aléatoire (fonction) de Ω dans E .
La loi de probabilité de la variable aléatoire X (notée P X ) est la fonction probabilité dénie sur l'ensemble des parties de E :
∀A ∈ P(E), P X (A) = P ((X ∈ A)) = P (X ∈ A) = P (X −1 (A)).
Remarque. Dans ce cours, comme les univers (ensembles des éventualités) sont nis, l'ensemble des valeurs d'une
variable aléatoire est aussi ni donc seules les parties de E qui contiennent des valeurs de la variable aléatoire
ont une probabilité non nulle. Même si E est inni, on peut dénir la probabilité P X sur l'ensemble de toutes le
parties de E . Parmi les parties E , seules les parties qui coupent X (Ω) (elles forment un ensemble ni) auront une
probabilité non nulle.
L'application probabilité P X est donc caractérisée par les valeurs des P ((X = x)) pour les x de E .
Dénition. Soit X une variable aléatoire à valeurs réelles, la fonction de répartition attachée à la loi de X est dénie par
x → P X ((X ≤ x)) = P (X −1 (] − ∞, x])).
Remarques. La fonction de répartition est souvent notée F X . Il est important de noter qu'elle ne dépend que de la loi de probabilité de X .
Une fonction de répartition est toujours croissante.
L'intérêt des variables aléatoires vient des opérations que l'on peut dénir entre elles pour Ω et E xés. Par exemple, l'ensemble des variables aléatoires réelles dénies sur Ω est un R-espace vectoriel (pour les opérations fonctionnelles usuelles).
On peut aussi composer une variable aléatoire par une fonction.
Soit X une variable aléatoire réelle qui prend ses valeurs dans un intervalle I et f une fonction à valeurs réelles dénie dans I . La fonction Y = f ◦ X de Ω dans R est une variable aléatoire réelle. On peut lui associer une loi.
Exemple. Pour un univers quelconque, la fonction caractéristique d'un événement particulier qui prend la valeur 1 si l'événement se réalise et 0 sinon est une variable aléatoire à valeurs dans J 0, 1 K.
II. Lois usuelles
Plusieurs variables aléatoires distinctes sur des espaces probabilisés distincts mais à valeurs dans le même ensemble (une partie de R) peuvent dénir la même loi de probabilité. C'est à dire en fait le même espace probabilisé. Les lois usuelles sont ces espaces probabilisés usuels. Il faut les connaitre pour eux même et connaitre aussi les situations et les variables aléatoires types qui satisfont à ces lois.
Dans toute cette section n est un entier naturel non nul.
1. Loi uniforme
Dénition.
∀k ∈ E = J 1, n K , P (X = k) = 1 n .
2. Loi de Bernoulli
Dénition. Loi de Bernoulli de paramètre p : notation B(p) .
E = {0, 1}, P (X = 0) = 1 − p, P (X = 1) = p.
Une expérience de Bernoulli est une expérience aléatoire à deux issues : S (succès) et E (échec). On dénit X par X (S) = 1 , X(E) = 0 .
Notation. Si la loi de probabilité d'une variable aléatoire X est la loi de Bernoulli de paramètre p , on note X , → B(p) .
Exemple. Pour tout événement A d'un univers probabilisé quelconque, la fonction caractéristique de A est une variable aléatoire qui suit une loi de Bernoulli de paramètre P (A) .
3. Loi binomiale
Dénition. Loi binomiale de paramètres n et p ∈ [0, 1] : notation B(n, p) .
∀k ∈ E = J 0, n K , P (X = k) = n
k
p k (1 − p) n−k .
Notation. Si la loi de probabilité d'une variable aléatoire X est la loi binomiale de paramètres n, p , on note X , → B(n, p) .
Exemple. Le nombre de succès dans la répétition de n expériences de Bernoulli indépendantes. (tirage avec remise par exemple) est une variable aléatoire qui suit une loi binomiale de paramètres (n, p) .
Notons X ce nombre de succès. Alors X (Ω) = J 0, n K. On classe les n -uplets de résultats conduisant à k réussite
selon l'ensemble des numéros des expériences réussies. Pour n'importe quel ensemble particulier à k éléments, la
III. Couples de variables aléatoires
Dénition. Soit X et Y deux variables aléatoires dénies dans Ω et à valeurs dans E et F . La fonction notée X × Y (ou (X, Y ) ) dénie par
( Ω → E × F ω 7→ (X (ω), Y (ω))
est une variable aléatoire. La loi de la variable aléatoire (X, Y ) est appelée la loi conjointe de X et Y .
Dénition. Pour toute variable aléatoire Z à valeurs dans un produit cartésien E × F , il existe des variables aléatoires X et Y telles que Z = (X, Y ) . Les lois que vérient X et Y sont déterminées par la lois de Z , on les appelle les lois marginales de Z . Elles sont dénies par
∀ω ∈ Ω, Z(ω) = (X(ω), Y (ω)) .
Remarque. Bien noter que la loi conjointe détermine les lois marginales mais pas le contraire.
La présentation en tableau des probabilités pour un couple (X, Y ) justie la terminologie de loi marginales.
Supposons que X prenne les valeurs x 1 , · · · , x p et que Y prenne les valeurs y 1 , · · · , y q .
x 1 · · · x i · · · x p
y 1 P (X = x 1 et Y = y 1 ) · · · P (X = x i et Y = y 1 ) · · · P (X = x p et Y = y 1 ) P (Y = y 1 )
... ... ... ... ...
y j P (X = x 1 et Y = y j ) · · · P (X = x i et Y = y j ) · · · P (X = x p et Y = y j ) P (Y = y j )
... ... ... ... ...
y q P (X = x 1 et Y = y q ) · · · P (X = x i et Y = y q ) · · · P (X = x p et Y = y q ) P (Y = y q ) P (X = x 1 ) · · · P (X = x i ) · · · P (X = x p )
La loi conjointe de X (resp Y ) est présentée dans la dernière colonne (resp ligne). La valeur est la somme des valeur de la ligne (resp colonne) associée.
Dénition. Soit X et Y deux variables aléatoires dénies sur Ω, P ) . On dénit la loi de X sachant que Y = y par :
∀x ∈ X(Ω), P Y =y (X = x) = P (X = x et Y = y P (Y = y) . Notation. On peut noter aussi P (X = x|Y = y) .
IV. Variables aléatoires indépendantes
Dénition. Soit X et Y deux variables aléatoires dénies sur un même espace probabilisé ni (Ω, p) et à valeurs dans E et F , on dit que X et Y sont indépendantes si et seulement si,
∀(A, B) ∈ P(E) × P (F ), P ((X ∈ A) et (Y ∈ B)) = P (X ∈ A) P (Y ∈ B ).
On peut caractériser les variables indépendantes par le fait que la loi conjointe s'obtient par produit à partir des lois marginales.
Proposition. Soit X et Y deux variables aléatoires dénies sur un espace probabilisé ni (Ω, p) et à valeurs dans E et F . Les variables X et Y sont indépendantes si et seulement si :
∀(x, y) ∈ X (Ω) × Y (Ω), P ((X = x) et (Y = y)) = P (X = x) P (Y = y)
Preuve. Si la formule est valable pour toutes les parties, elle est valable pour les singletons. Réciproquement, pour tout couple (A, B) de parties,
P (X ∈ A et Y ∈ B) = X
(a,b)∈A×B
P ((X = a) ∩ P (Y = b)) = X
(a,b)∈A×B
P (X = a) P (Y = b)
= X
a∈A
P (X = a)
! X
b∈B
P (Y = b)
!
= P (A) P (B).
Remarque. On peut caractériser l'indépendance de deux lois avec les lois conditionnelles.
Proposition. Si les variables X et Y sont indépendantes, les variables f ◦ X et g ◦ Y le sont aussi.
Preuve. Soit a ∈ f ◦ X(Ω)) et b ∈ g ◦ Y (Ω)) ,
P ((f ◦ X = a) ∩ (g ◦ Y = b)) = P (X ∈ f −1 ({a}) ∩ (Y ∈ f −1 ({b})
= P (X ∈ f −1 ({a})
P (Y ∈ f −1 ({b})
= P (f ◦ X = a) P (g ◦ Y = b)
Dénition. Soient X 1 , · · · , X n des variables aléatoires sur le même espace probabilisé (Ω, p) . On dit qu'elles sont mutuellement indépendantes si et seulement si, pour toute famille de parties A 1 , · · · , A n de X 1 (Ω), · · · X n (Ω) , les événements (X 1 ∈ A 1 ), · · · (X n ∈ A n ) sont mutuellement indépendants.
On peut représenter la réalisation de n expériences aléatoires indépendantes sur le même espace par une suite de n variables aléatoires indépendantes en associant la valeur 1 à un succès et la valeur 0 à un échec. Le fait que la variable égale au nombre de succès soit binomiale de paramètres (n, p) donne la proposition suivante.
Proposition. Si X 1 , · · · , X n sont mutuellement indépendantes de loi B(p) alors la somme X 1 + · · · + X n suit la loi B(n, p) (loi binomiale).
V. Espérance
Dans cette section, sauf mention particulière, les variables aléatoires sont réelles.
Dénition. Soit X une variable aléatoire sur un espace probabilisé ni (Ω, p) . L'espérance de X est dénie par : E(X) = X
ω∈Ω
X (ω) P ({ω}).
Remarque. Comme tous les espaces probabilisés sont nis, toutes les variables aléatoires ont une espérance.
Proposition. Dans les conditions de la dénition précédente, E(X) = X
x∈X(Ω)
x P (X = x).
Preuve. On rassemble dans un même événement (X = x) tous les ω qui ont la même image. Cela permet de mettre x en facteur.
Remarques. L'espérance est la moyenne pondérée des valeurs atteintes. Elle est comprise entre la plus grande et la plus petite valeur que prend la variable.
La proposition entraine que l'espérance d'une variable ne dépend que de la loi qu'elle suit.
Proposition (linéarité, positivité, croissance). Soit X et Y des variables aléatoires dénies sur (Ω, P ) espace probabilisé ni. Soit λ ∈ R.
E(X + Y ) = E(X ) + E(Y ), E(λX) = λE(X ), X ≥ 0 ⇒ E(X) ≥ 0, x ≤ Y ⇒ E(X) ≤ E(Y ).
Remarque. Cela implique en particulier que pour toute famille (X 1 , · · · , X n ) de variables aléatoires (elles n'ont pas à être indépendantes,
E(
n
X
i=1
X i ) =
n
X
i=1
E(X i ).
Dénition. Une variable aléatoire est dite centrée lorsque son espérance est nulle.
Remarque. Par linéarité, pour centrer une loi, il sut de lui soustraire la variable constante de valeur l'espérance.
Exemple. Calculs d'espérance pour des lois usuelles.
variable constante : valeur moyenne Bernoulli de paramètre p : espérance p . Binomiale B(n, p) : espérance np
Pour les lois de Bernoulli et binomiale, trois démonstrations à connaitre : sommation avec bricolage de coecients, sommation avec dérivation, somme de variables de Bernoulli
Proposition (formule de transfert). Soit X variable aléatoire réelle dénie sur Ω , soit f fonction dénie sur X(Ω) à valeurs réelles,
E(f ◦ X ) = X
x∈X(Ω)
f (x) P (X = x).
Preuve. On classe toutes les issues élémentaires ω ∈ Ω selon la valeur de f (ω) .
Remarque. On en déduit que l'espérance d'une variable f ◦ X ne dépend que de la loi de X .
Proposition (inégalité de Markov). Soit X une variable aléatoire à valeurs positives sur un espace probabilisé (Ω, p) . Soit a > 0 ,
P (X ≥ a) ≤ E(X) a . Preuve. Par dénition,
E(X ) = X
ω∈Ω
X (ω) P ({ω}) = X
ω∈Ω
X(ω)<a
X(ω) P ({ω})
| {z }
≥0
+ X
ω∈Ω
X(ω)≥a
X(ω)
| {z }
≥a
P ({ω}) ≥ a X
ω∈Ω