Chapitre 5: Variables al´ eatoires
1. D´efinition
2. Distribution d’une variable al´eatoire discr`ete 3. Distribution d’une variable al´eatoire continue 4. Fonction de distribution cumulative
5. Esp´erance
6. Variance et ´ecart-type 7. Quantiles
8. Distribution conjointe et ind´ependance
9. Covariance et corr´elation
1. D´efinition
Pour ´etudier des variables et faire de l’inf´erence (extrapolation des r´esultats observ´es sur un ´echantillon `a la population), nous allons nous servir de mod`eles math´ematiques de ces variables. Ces mod`eles sont appel´es des variables al´eatoire.
D´efinition
Une variable al´eatoire est une fonction math´ematique qui associe une nombre r´eel aux issues possibles d’une exp´erience.
Exemples:
1. Exp´erience: jet d’une pi`ece de monnaie.
Ensemble des issues possibles: {Pile, Face}.
Variable al´eatoire: X: {Pile, Face} → R d´efinie par
X(Pile) = 0; X(Face) = 1.
2. Exp´erience: tirage d’un invididu dans une population
Ensemble des issues possibles: U = Ensemble des individus dans la population Variable al´eatoire: P: U → R d´efinie par
De mˆeme que pour les variables consid´er´ees jusqu’ici, on d´efinit les modalit´es d’une variable al´eatoire comme l’ensemble de ses valeurs possibles.
Les variables al´eatoires ´etant d´efinies ind´ependamment d’un ´echantillon, on abandon- nera le soulignement introduit pr´ec´edemment pour distinguer les modalit´es des observations. Ainsi, les variables al´eatoires seront d´esign´ees par des lettres majuscules et leurs modalit´es par des lettres minuscules.
Et de la mˆeme fa¸con, on parlera de variable al´eatoire discr`ete si les modalit´es sont d´enombrables (ex. 1 de la slide pr´ec´edente) et de variable al´eatoire continue si elles ne le sont pas (ex. 2).
2. Distribution d’une variable al´eatoire discr`ete
A chaque modalit´e d’une variable al´eatoire, on peut associer une probabilit´e. Dans l’ex. 1 ci-dessus, si on consid`ere que la pi`ece est ´equilibr´ee, on d´efinira
P(X = 0) = 0.5, P(X = 1) = 0.5.
Autre exemple: jet d’un d´e
• Exp´erience: jet du d´e
Ensemble des issues possibles: V ={face 1, face 2, face 3, face 4, face 5, face 6}
Variable al´eatoire: D: V → R d´efinie par
D(face i) = i.
Si on consid`ere que le d´e est ´equilibr´e, on d´efinira
P(D = i) = 1/6, i = 1, ..., 6.
La distribution d’une variable al´eatoire discr`ete Y dont les modalit´es sont y1, y2, ... est d´efinie comme l’ensemble des couples
(y1, p1), (y2, p2), ..., o`u pi est la probabilit´e associ´ee `a la modalit´e yi.
3. Distribution d’une variable al´eatoire continue
Consid´erons la variable P (poids d’un individu) et consid´erons un ´echantillon de taille n tir´e d’une population. Pour repr´esenter graphiquement la distribution des poids dans notre ´echantillon, nous avons vu qu’on peut utiliser un histogramme:
Poids [kg]
Fréquence absolue
60 65 70 75 80 85 90
051015
1 3
4
13
9 8
7
3 2
n = 50
Sur cet histogramme, la hauteur d’une barre est ´egale `a la fr´equence absolue (comptage) des observations dans l’intervalle correspondant.
Alternative: construire l’histogramme de fa¸con `a ce que la surface d’une barre soit ´egale
`
a la fr´equence relative (proportion) des observations dans l’intervalle correspondant.
Pour atteindre ce but, il faut que la hauteur hi d’une barre soit ´egale `a la fr´equence relative fi divis´ee par la largeur l de l’intervalle: hi = fi/l. Ainsi sa surface si vaudra
si = hi · l = fi
l · l = fi.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
(1/50)/2 (3/50)/2
(4/50)/2
(13/50)/2
(9/50)/2 (8/50)/2
(7/50)/2
(3/50)/2 (2/50)/2
n = 50 l = 2 kg
On voit que la forme de l’histogramme reste la mˆeme, seule l’´echelle de l’axe vertical change. Cet axe est `a pr´esent labellis´e“Densit´e”, car ce graphique va nous conduire `a la d´efinition d’une notion tr`es importante: la densit´e d’une variable al´eatoire continue.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
(1/50)/2
(3/50)/2(4/50)/2 (13/50)/2
(9/50)/2 (8/50)/2
(7/50)/2
(3/50)/2 (2/50)/2
n = 50 l = 2 kg
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
(1/50)/2
(3/50)/2(4/50)/2 (13/50)/2
(9/50)/2 (8/50)/2
(7/50)/2
(3/50)/2 (2/50)/2
n = 50 l = 2 kg
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 200
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 1600
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 12800
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale de l’histogramme (en mode “densit´e”) de la slide pr´ec´edente?
→ La surface d’une barre ´etant ´egale `a la proportion d’observations dans l’intervalle correspondant, la surface totale vaut 1.
→ Cette surface peut s’interpr´eter comme la probabilit´e de trouver un individu dont le poids se situe dans l’intervalle correspondant.
Consid´erons `a pr´esent une version liss´ee de l’histogramme, obtenue en reliant les milieux des sommets des barres, et pla¸cons-nous dans le cadre hypoth´etique d’une population de taille infinie.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 409600
En tirant des ´echantillons de plus en plus grands et en prenant des intervalles de plus en plus petits, la courbe verte va tendre vers la courbe de la densit´e de probabilit´e (ou simplement densit´e) de la variable P.
Que vaut la surface totale sous la courbe de la densit´e?
→ Comme on l’a vu sur les slides pr´ec´edentes, la surface totale de l’histogramme en mode“densit´e”vaut 1, et on en d´eduit que la surface totale sous la courbe densit´e vaut 1 elle aussi.
Comment peut-on interpr´eter la surface sous la courbe densit´e correspondant `a un certain intervalle?
→ De fa¸con analogue `a l’interpr´etation de la surface des barres d’un histogramme en mode“densit´e”, la surface sous la courbe de la densit´e d’une variable al´eatoire est ´egale `a la probabilit´e que la variable prenne une valeur dans l’intervalle correspondant.
Que vaut la surface totale sous la courbe de la densit´e?
→ Comme on l’a vu sur les slides pr´ec´edentes, la surface totale de l’histogramme en mode“densit´e”vaut 1, et on en d´eduit que la surface totale sous la courbe densit´e vaut 1 elle aussi.
Comment peut-on interpr´eter la surface sous la courbe densit´e correspondant `a un certain intervalle?
→ De fa¸con analogue `a l’interpr´etation de la surface des barres d’un histogramme en mode“densit´e”, la surface sous la courbe de la densit´e d’une variable al´eatoire est ´egale `a la probabilit´e que la variable prenne une valeur dans l’intervalle correspondant.
Que vaut la surface totale sous la courbe de la densit´e?
→ Comme on l’a vu sur les slides pr´ec´edentes, la surface totale de l’histogramme en mode“densit´e”vaut 1, et on en d´eduit que la surface totale sous la courbe densit´e vaut 1 elle aussi.
Comment peut-on interpr´eter la surface sous la courbe densit´e correspondant `a un certain intervalle?
60 65 70 75 80 85 90
0.000.040.08
Poids [kg]
Densité
→ De fa¸con analogue `a l’interpr´etation de la surface des barres d’un histogramme en mode“densit´e”, la surface sous la courbe de la densit´e d’une variable al´eatoire est ´egale `a la probabilit´e que la variable prenne une valeur dans l’intervalle correspondant.
Que vaut la surface totale sous la courbe de la densit´e?
→ Comme on l’a vu sur les slides pr´ec´edentes, la surface totale de l’histogramme en mode“densit´e”vaut 1, et on en d´eduit que la surface totale sous la courbe densit´e vaut 1 elle aussi.
Comment peut-on interpr´eter la surface sous la courbe densit´e correspondant `a un certain intervalle?
60 65 70 75 80 85 90
0.000.040.08
Poids [kg]
Densité
P(75 < P < 80)
→ De fa¸con analogue `a l’interpr´etation de la surface des barres d’un histogramme en mode“densit´e”, la surface sous la courbe de la densit´e d’une variable al´eatoire est ´egale `a la probabilit´e que la variable prenne une valeur dans l’intervalle correspondant.
A l’aide de la courbe de la densit´e d’une variable al´eatoire, on peut calculer la probabilit´e de n’importe quel ´ev´enement d´efini avec cette variable:
Probabilit´e de tirer une personne pesant entre 75 et 80 kg:
60 65 70 75 80 85 90
0.000.040.08
Poids [kg]
Densité
Soit fP(x) la fonction d´efinissant la courbe de densit´e de la variable al´eatoire P (on l’appelle la fonction de densit´e de P). La surface hachur´ee est ´egale `a l’int´egrale de fP(x) sur le sous-ensemble correspondant:
P(80 < P < 85) =
Z 80 75
fP(x)dx.
= P(80 < P < 85)pourl0espacement
A l’aide de la courbe de la densit´e d’une variable al´eatoire, on peut calculer la probabilit´e de n’importe quel ´ev´enement d´efini avec cette variable:
Probabilit´e de tirer une personne pesant entre 65 et 70 kg ou entre 80 et 85 kg:
60 65 70 75 80 85 90
0.000.040.08
Poids [kg]
Densité
Soit fP(x) la fonction d´efinissant la courbe de densit´e de la variable al´eatoire P (on l’appelle la fonction de densit´e de P). La surface hachur´ee est ´egale `a l’int´egrale de fP(x) sur le sous-ensemble correspondant:
P(65 < P < 70 ∪ 80 < P < 85) = P(65 < P < 70) + P(80 < P < 85)
=
Z 70 65
fP(x)dx +
Z 85 80
fP(x)dx.
A l’aide de la courbe de la densit´e d’une variable al´eatoire, on peut calculer la probabilit´e de n’importe quel ´ev´enement d´efini avec cette variable:
Probabilit´e de tirer une personne pesant plus de 80 kg:
60 65 70 75 80 85 90
0.000.040.08
Poids [kg]
Densité
Soit fP(x) la fonction d´efinissant la courbe de densit´e de la variable al´eatoire P (on l’appelle la fonction de densit´e de P). La surface hachur´ee est ´egale `a l’int´egrale de fP(x) sur le sous-ensemble correspondant:
P(P > 80) =
Z ∞
80 fP(x)dx.
= P(80 < P < 85)pourl0espacement
D´efinition:
La densit´e de probabilit´e (ou simplement densit´e) d’une variable al´eatoire continue est une fonction telle que la surface sous la courbe est ´egale `a la probabilit´e que la variable prenne une valeur dans l’intervalle correspondant.
Ainsi:
• La distribution d’une variable al´eatoire continue est compl`etement d´etermin´ee par sa densit´e.
• N’importe quelle fonction positive avec surface sous la courbe ´egale `a 1 d´efinit une distribution.
NB: Pour une variable al´eatoire continue X, la probabilit´e de prendre une valeur pr´ecise, n’importe laquelle, est nulle:
P(X = x) = 0 ∀x.
On se rend bien compte en effet que pour un point isol´e la surface sous la courbe est nulle.
Intuitivement: la probabilit´e de tirer un individu pesant exactement 70 kg (avec une pr´ecision infinie) est nulle.
La densit´e de probabilit´e est un outil tr`es utilis´e pour mod´eliser la distribution des variables continues. Dans la pratique, ´evidemment, les populations n’ont pas une taille infinie. N´eanmoins, les mod`eles continus pr´esentent de nombreux avantages pratiques et th´eoriques et sont tr`es proches de la r´ealit´e dans de nombreuses situations.
Dans ce qui suit, on dira souvent simplement variable au lieu de variable al´eatoire.
D’ailleurs, une variable au sens des trois premiers chapitres n’est autre qu’une variable al´eatoire dont la distribution (inconnue) est determin´ee par la population.
4. Fonction de distribution cumulative
Soit une variable X dont on a observ´e un ´echantillon {x1, ..., xn}. Rappel: la fonction de distribution cumulative empirique de X, Fn(x), est d´efinie comme
Fn(x) = nombre de xi ≤ x
n (Fonction en escalier).
De fa¸con analogue, la fonction de distribution cumulative FY d’une variable al´eatoire Y est d´efinie comme
FY (y) = P(Y ≤ y).
Une fonction de distribution cumulative a les propri´et´es suivantes:
• elle est croissante
• elle prend des valeurs entre 0 et 1
• elle tend vers 0 si x tend vers −∞ et vers 1 si x tend vers +∞
On utilise souvent l’abr´eviation cdf (pour cumulative distribution function).
Pour une variable discr`ete:
• La fonction de distribution cumulative est une fonction en escalier
• Pour une variable de distribution (x1, p1),(x2, p2), ..., la cdf est ´egale `a FX(x) = X
xi≤x
pi
Exemple: jet d’un d´e
1 2 3 4 5 6
0.00.40.8
d
P(D=d)
1 2 3 4 5 6
0.00.40.8
d FD(d)
Pour une variable discr`ete:
• La fonction de distribution cumulative est une fonction en escalier
• Pour une variable de distribution (x1, p1),(x2, p2), ..., la cdf est ´egale `a FX(x) = X
xi≤x
pi
Exemple: jet d’un d´e
1 2 3 4 5 6
0.00.40.8
d
P(D=d)
p1 p2 p3 p4
1 2 3 4 5 6
0.00.40.8
d
FD(d) FD(4) = p1+p2+p3+p4
Pour une variable continue:
• La fonction de distribution cumulative est continue
• Pour une variable de densit´e fX, la cdf est ´egale `a FX(x) =
Z x
−∞ fX(x)dx Exemple: poids d’un individu
60 65 70 75 80 85 90
0.000.040.08
p fP(p)
60 65 70 75 80 85 90
0.00.40.8
p FP(p)
Pour une variable continue:
• La fonction de distribution cumulative est continue
• Pour une variable de densit´e fX, la cdf est ´egale `a FX(x) =
Z x
−∞ fX(t)dt Exemple: poids d’un individu
60 65 70 75 80 85 90
0.000.040.08
p fP(p)
P ( P ≤ 80 )
60 65 70 75 80 85 90
0.00.40.8
p
FP(p) Fp(80) = P(P≤80)
Pour une variable continue, on a encore que
• fX(x) = d
dxFX(x)
• P(X ≤ x) = P(X < x)
De plus, de fa¸con g´en´erale (variable dicr`ete ou continue):
P(a < X ≤ b) = FX(b) − FX(a).
Notation
Souvent, si aucune confusion n’est possible, on note simplement f(x) pour la densit´e et F(x) pour la cdf.
5. Esp´erance
Derri`ere ce terme po´etique se cache une notion assez terre `a terre mais tr`es importante en statistique.
Exemple introductif: Jet d’un d´e.
On jette n fois un d´e ´equilibr´e et on s’int´eresse `a la moyenne m(D) des points obtenus.
Soit ni la fr´equence absolue de la modalit´e i. m(D) est ´egale `a m(D) = 1
n(n1 · 1 + n2 · 2 + ... + n6 · 6)
= f1 · 1 + f2 · 2 + ... + f6 · 6, o`u fi = ni/n est la fr´equence relative de la modalit´e i.
En augmentant le nombre de jets, les fi vont s’apporcher des pi, les probabilit´es des modalit´es. Pour un d´e ´equilibr´e, pi = 1/6 ∀i. m(D) va donc s’approcher de
E(D) = p1 · 1 + p2 · 2 + ... + p6 · 6 = 1/6 · (1 + 2 + ... + 6) = 3.5.
E(D) s’appelle la moyenne de population ou esp´erance de D. Ici, il s’agit de la moyenne de D dans la population infinie de tous les jets possibles du d´e.
De fa¸con g´en´erale, pour une variable discr`ete X de distribution (xi, pi), l’esp´erance est d´efinie comme
E(X) = X xipi.
Consid´erons `a pr´esent une variable continue et pla¸cons-nous `a nouveau dans le cadre hypoth´etique d’une population infinie, comme lors de l’introduction de la densit´e.
Exemple introductif: Poids d’un individu.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 50 m~(P) = 75.2
A partir de cet histogramme, on peut calculer une approximation du poids moyen dans l’´echantillon avec la formule
m(P˜ ) = X
i
ci di l,
o`u les ci sont les centres des intervalles, les di sont les hauteurs des barres correspondantes et l est la largeur des intervalles.
Lorsque la taille de l’´echantillon augmente et que la largeur des intervalles diminue, m˜ tend vers
E(P) =
Z ∞
−∞ p fP(p)dp.
Consid´erons `a pr´esent une variable continue et pla¸cons-nous `a nouveau dans le cadre hypoth´etique d’une population infinie, comme lors de l’introduction de la densit´e.
Exemple introductif: Poids d’un individu.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 200 m~(P) = 74.98454
A partir de cet histogramme, on peut calculer une approximation du poids moyen dans l’´echantillon avec la formule
m(P˜ ) = X
i
ci di l,
o`u les ci sont les centres des intervalles, les di sont les hauteurs des barres correspondantes et l est la largeur des intervalles.
Lorsque la taille de l’´echantillon augmente et que la largeur des intervalles diminue, m˜ tend vers
E(P) =
Z ∞
−∞ p fP(p)dp.
Consid´erons `a pr´esent une variable continue et pla¸cons-nous `a nouveau dans le cadre hypoth´etique d’une population infinie, comme lors de l’introduction de la densit´e.
Exemple introductif: Poids d’un individu.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 1600 m~(P) = 75.08871
A partir de cet histogramme, on peut calculer une approximation du poids moyen dans l’´echantillon avec la formule
m(P˜ ) = X
i
ci di l,
o`u les ci sont les centres des intervalles, les di sont les hauteurs des barres correspondantes et l est la largeur des intervalles.
Lorsque la taille de l’´echantillon augmente et que la largeur des intervalles diminue, m˜ tend vers
E(P) =
Z ∞
−∞ p fP(p)dp.
Consid´erons `a pr´esent une variable continue et pla¸cons-nous `a nouveau dans le cadre hypoth´etique d’une population infinie, comme lors de l’introduction de la densit´e.
Exemple introductif: Poids d’un individu.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 12800 m~(P) = 74.99999
A partir de cet histogramme, on peut calculer une approximation du poids moyen dans l’´echantillon avec la formule
m(P˜ ) = X
i
ci di l,
o`u les ci sont les centres des intervalles, les di sont les hauteurs des barres correspondantes et l est la largeur des intervalles.
Lorsque la taille de l’´echantillon augmente et que la largeur des intervalles diminue, m˜ tend vers
E(P) =
Z ∞
−∞ p fP(p)dp.
Consid´erons `a pr´esent une variable continue et pla¸cons-nous `a nouveau dans le cadre hypoth´etique d’une population infinie, comme lors de l’introduction de la densit´e.
Exemple introductif: Poids d’un individu.
Poids [kg]
Densité
60 65 70 75 80 85 90
0.000.050.100.15
n = 409600 m~(P) = 75.00601
A partir de cet histogramme, on peut calculer une approximation du poids moyen dans l’´echantillon avec la formule
m(P˜ ) = X
i
ci di l,
o`u les ci sont les centres des intervalles, les di sont les hauteurs des barres correspondantes et l est la largeur des intervalles.
Lorsque la taille de l’´echantillon augmente et que la largeur des intervalles diminue, m˜ tend vers
E(P) =
Z ∞
−∞ p fP(p)dp.
Consid´erons `a pr´esent une variable continue et pla¸cons-nous `a nouveau dans le cadre hypoth´etique d’une population infinie, comme lors de l’introduction de la densit´e.
Exemple introductif: Poids d’un individu.
60 65 70 75 80 85 90
0.000.050.100.15
Poids [kg]
Densité fP(p)
"n = ∞" E(P) = 75
A partir de cet histogramme, on peut calculer une approximation du poids moyen dans l’´echantillon avec la formule
m(P˜ ) = X
i
ci di l,
o`u les ci sont les centres des intervalles, les di sont les hauteurs des barres correspondantes et l est la largeur des intervalles.
Lorsque la taille de l’´echantillon augmente et que la largeur des intervalles diminue, m˜ tend vers
E(P) =
Z ∞
−∞ p fP(p)dp.
De fa¸con g´en´erale, pour une variable continue Y de densit´e fY l’esp´erance est d´efinie comme
E(Y ) =
Z ∞
−∞ y fY (y) dy.
Elle s’interpr`ete comme la moyenne des poids dans l’hypoth´etique population infinie qui a servi `a d´efinir la densit´e, comme lors de l’introduction de la densit´e.
L’appellation “esp´erance” se justifie par le fait que c’est la valeur qu’on peut esp´erer obtenir, en moyenne, lorsqu’on observe la variable.
Propri´et´es
• Soient X et Y deux variables al´eatoires et a, b et c des constantes.
E(aX + bY + c) = aE(X) + bE(Y ) + c
• Soit X une variable et Y = g(X) une transformation de X, o`u g est une fonction quelconque. L’esp´erance de Y est ´egale `a
E(Y ) = X
i
g(xi) pi
dans le cas discret et
E(Y ) =
Z ∞
−∞ g(x)fX(x) dx
6. Variance et ´ecart-type
De mˆeme qu’on a d´efini l’esp´erance d’une variable al´eatoire comme une moyenne de population, on d´efinit la variance d’une variable al´eatoire comme une variance de population.
Soit X une variable et {x1, ..., xn} un ´echantillon. Au chapitre 2, nous avons d´efini la variance sur cet ´echantillon comme
s2(X) = 1 n
n X
i=1
(xi − m(X))2,
c’est `a dire comme la moyenne des carr´es des ´ecarts `a la moyenne.
De fa¸con naturelle, on d´efinit donc la variance d’une variable al´eatoire comme var(X) = E (X − E(X))2.
En consid´erant (X − E(X))2 comme une transformation de la variable X et en appliquant les formules de la slide pr´ec´edente, on obtient
var(X) = X
i
(xi − E(X))2 pi
dans le cas discret, et
var(X) =
Z ∞
−∞(x − E(X))2 fX(x) dx
De fa¸con analogue `a ce qui a ´et´e fait au chapitre 2, on d´efinit l’´ecart-type sd(X) d’une variable al´eatoire X comme
sd(X) =
q
var(X) (en anglais: standard deviation).
Propri´et´es de la variance et de l’´ecart-type Soit X une variable et a et b des constantes
1. var(X) ≥ 0
2. var(X) = 0 ⇐⇒ X est constante 3. var(aX + b) = a2var(X)
4. var(X) = E(X2) − E(X)2
Des propri´et´es analogues pour l’´ecart-type se d´eduisent des propri´et´es ci-dessus. En particulier sd(a + bX) = a sd(X).
Exemples
• Jet d’un d´e
On a vu que E(D) = 3.5. A l’aide de la propri´et´e 4:
E(D2) = 1/6 · 12 + 1/6 · 22 + ... + 1/6 · 62 = 15.167 et donc
var(D) = E(D2) − E(D)2 = 15.167 − 3.52 = 2.917.
• Soit X une variable continue de densit´e f(x) =
( 1 si 0 ≤ x ≤ 1 0 sinon
On dit que X a une distribution uniforme entre 0 et 1. On a E(X) =
Z ∞
−∞ x f(x) dx =
Z 1
0 x · 1dx = 1 2x2
1 0
= 1 2
E(X2) =
Z ∞
−∞x2 f(x)dx =
Z 1
0 x2 · 1dx = 1 3x3
1 0
= 1 3 et donc
7. Quantiles
Le quantile qα(X) d’une variable al´eatoire X est d´efini `a l’aide de sa fonction de distribution cumulative FX(x).
• Pour une variable continue, on pose simplement
qα(X) = FX−1(α), o`u FX−1 est la fonction inverse de FX.
x FX(x)
qα
0α1
• Pour une variable discr`ete, on proc`ede de fa¸con analogue au chapitre 2.
8. Distribution conjointe et ind´ependance
Soient X et Y deux variables discr`etes observ´ees simulatan´ement dans la mˆeme population. Soient (xi, pXi) et (yj, pY j) leurs distributions respectives et d´efinissons
pij = P(X = xi ∩ Y = yj).
La distribution conjointe de X et Y est d´efinie comme l’ensemble des triplets (xi, yj, pij).
Exemple
Soit T la taille d’un individu cod´ee en trois classes (1 = petit, 2 = moyen, 3 = grand) et S son niveau salarial ´egalement cod´e en trois classes (1 = bas, 2 = moyen, 3 = ´elvev´e).
La table ci-dessous donne leur distribution conjointe (estim´ee dans une population):
S=1 S=2 S=3 Total T=1 0.10 0.20 0.20 0.50 T=2 0.04 0.08 0.08 0.20 T=3 0.06 0.12 0.12 0.30 Total 0.20 0.40 0.40 1.00
Les sommes des lignes et des colonnes d´efinissent les distributions marginales de T et de S, qui ne sont autres que les distributions individuelles de T et de S.
S=1 S=2 S=3 Total T=1 p11 p12 p13 pT1 T=2 p21 p22 p23 pT3 T=3 p31 p32 p33 pT3 Total pS1 pS2 pS3 1
S=1 S=2 S=3 Total T=1 0.10 0.20 0.20 0.50 T=2 0.04 0.08 0.08 0.20 T=3 0.06 0.12 0.12 0.30
Total 0.20 0.40 0.40 1
En divisant les colonnes de la table par la probabilit´e marginale correspondante, on obtient les distributions conditionnelles de T sachant S:
gi|j = P(T = i|S = j) = pij pSj S=1 S=2 S=3
T=1 g1|1 g1|2 g1|3 T=2 g2|1 g2|2 g2|3 T=3 g3|1 g3|2 g3|3
Total 1 1 1
S=1 S=2 S=3 T=1 0.50 0.50 0.50 T=2 0.20 0.20 0.20 T=3 0.30 0.30 0.30
Total 1 1 1
La mˆeme op´eration sur les lignes conduit aux distibutions conditionnelles de S sachant T.
Sur les tables de la slide pr´ec´edente on constate que les trois distributions conditionnelles de T sachant S sont ´egales, et qu’elles sont ´egales `a la distribution marginale de T. On en d´eduit que la distribution de T ne d´epend pas de S. On peut montrer que dans ce cas toutes les distributions conditionnelles de S sachant T sont ´egales `a la distribution marginale de S (la distribution de S ne d´epend pas de T).
Deux variables pr´esentant cette propri´et´e sont dites ind´ependantes.
Si deux variables X et Y sont ind´ependantes, n’importe quel ´ev´enement d´efini `a partir de X est ind´ependant de n’importe quel ´ev´enement d´efini `a partir de Y :
P(X = xi ∩ Y = yj) = P(X = xi) · P(Y = yj).
Jusqu’ici nous avons consid´er´e le cas de deux variables discr`etes. Le cas de deux variables continues est un peu plus compliqu´e, et passe par la d´efinition de la densit´e conjointe de deux variables. Nous n’allons pas apprfondir ce sujet. N´eanmoins, on peut toujours d´efinir l’ind´ependance entre deux variables de la fa¸con suivante:
Deux variables sont ind´ependantes si et seulement si n’importe quel
´ev´enement d´efini `a partir de l’une est ind´ependant de n’importe quel
´ev´enement d´efini `a partir de l’autre.
9. Covariance et corr´elation
La covariance cov(X, Y ) entre deux variables al´eatoires X et Y est d´efinie comme cov(X, Y ) = E(X − E(X))(Y − E(Y )).
Le calcul de la covariance entre deux variables passe par leur distribution conjointe et peut ˆetre compliqu´e.
La corr´elation cor(X, Y ) entre deux variables al´eatoires X et Y est d´efinie comme cor(X, Y ) = cov(X, Y )
sd(X)sd(Y ).
Les propri´et´es de la covariance et de la corr´elation sont similaires `a celles du coefficient de covariance et du coefficient de corr´elation introduits au chapitre 3. En particulier:
1. −1 ≤ cor(X, Y ) ≤ 1, ∀X et Y
2. cor(X, Y ) = ±1 ⇐⇒ X = a + bY , a et b des constantes (relation lin´eaire entre X et Y )
3. var(X + Y ) = var(X) + var(Y ) + 2cov(X, Y )
4. Si X et Y sont ind´ependantes, alors cov(X, Y ) = 0 (r´eciproque pas vraie) 5. cov(X, Y ) = E(XY ) − E(X)E(Y )
Les propri´et´es 3 et 4 impliquent que la variance de la somme de deux variables ind´ependantes est ´egale `a la somme de leurs variances.
La propri´et´e 5 permet de trouver l’esp´erance du produit de deux variables al´eatoires en connaissant leurs esp´erances et leur covariance.