• Aucun résultat trouvé

ECO 4272 : Introduction `a l’ ´ Econom´etrie Th´eorie des probabilit´es et de la statistique

N/A
N/A
Protected

Academic year: 2022

Partager "ECO 4272 : Introduction `a l’ ´ Econom´etrie Th´eorie des probabilit´es et de la statistique"

Copied!
61
0
0

Texte intégral

(1)

ECO 4272 : Introduction `a l’ ´ Econom´etrie Th´eorie des probabilit´es et de la statistique

Steve Ambler

D´epartement des sciences ´economiques Ecole des sciences de la gestion ´ Universit´e du Qu´ebec `a Montr´eal

c 2018 : Steve Ambler Hiver 2018

Ces notes sont en cours de d´eveloppement. J’ai besoin de vos commentaires et de vos suggestions pour les am´eliorer. Vous pouvez me faire part de vos commentaires en personne ou en envoyant un message `a

(2)

Table des mati`eres

1 Introduction 4

2 Objectifs du cours 4

3 Distributions de probabilit´e et variables al´eatoires 5

3.1 Distributions de probabilit´e discr`etes . . . 6

3.2 Distributions de probabilit´e continues . . . 6

3.3 Fonctions de distribution cumul´ees . . . 7

4 Moments d’une variable al´eatoire 8 4.1 Petite note sur l’id´ee d’unmoment . . . 8

4.2 Esp´erance et esp´erance conditionnelle . . . 9

4.2.1 Esp´erances conditionnelles en s´eries chronologiques . . . 10

4.3 Variance et variance conditionnelle . . . 12

4.3.1 Variances conditionnelles en s´eries chronologiques . . . 15

4.4 Moments d’ordres sup´erieurs `a deux . . . 16

4.5 Petite note sur le concept d’une fonction lin´eaire. . . 18

5 Distributions de probabilit´e jointes 19 5.1 Distributions marginales et conditionnelles. . . 20

5.1.1 Esp´erance conditionnelle . . . 21

5.1.2 Loi des esp´erances it´er´ees . . . 22

5.1.3 Ind´ependance . . . 23

5.2 Combinaisons lin´eaires de variables al´eatoires . . . 26

6 Quelques lois classiques 28 6.1 La loi Bernoulli . . . 28

6.2 La loi binomiale . . . 28

6.3 La loi uniforme . . . 31

6.4 La loi normale. . . 33

6.5 La loi normale multivari´ee . . . 39

6.6 La loi chi-carr´e . . . 41

6.7 La loitde Student. . . 42

6.8 La loiF . . . 44

7 Echantillon et population´ 45 8 Distribution ´echantillonnale de la moyenne ´echantillonnale 47 9 Loi des grands nombres et convergence en probabilit´e 49 10 Th´eor`eme de la limite centrale et convergence en distribution 50 10.1 Note sur l’importance du th´eor`eme de la limite centrale . . . 51

(3)

11 Concepts `a retenir 58

(4)

1 Introduction

Ce cours est un rappel de notions de base en th´eorie des probabilites. Il devrait vraiment ˆetre un rappel, puisqu’il couvre des concepts qui font partie du cours ECO2272. Pour cette raison, je vais aller rapidement. Vous allez peut-ˆetre constater que je mets un accent un peu plus prononc´e sur certains sujets, puisque nous allons utiliser ces concepts dans ce qui suit.

Dans le chapitre d’introduction au cours, j’ai insist´e sur le fait que les donn´ees utilis´ees en

´econom´etrie proviennent de distributions inconnues. La plupart des manuels classiques supposent des distributions normales, ce qui n’est pas r´ealiste. Je vais insister dans ce chapitre et celui qui suit (sur l’inf´erence statistique) sur les conditions sous lesquelles on peutapproximer les distri- butions de nos statistiques par une loinormale. Il s’agit de regarder les conditions qui permettent d’invoquer une des versions (il y en a plus d’une) duth´eor`eme de la limite centrale.

Dans mes notes, j’utilise des encadr´es `a deux fins :

1. Pour expliquer des concepts un peu plus avanc´es (la lecture de ces encadr´es est facul- tative) ;

2. Pour donner des examples pratiques sur ordinateur (ces exemples seront utiles pour faire les travaux pratiques).

2 Objectifs du cours

• Faire un rappel de notions primordiales en th´eorie des probabilit´es et en statistique.

• Mettre l’accent sur quelques notions de base que nous allons utiliser `a mantes reprises par la suite.

• Ce cours peut servir de rappel `a ceux qui ont d´ej`a suivi un cours de base en th´eorie des probabilit´es et/ou en statistique.

• Les derni`eres sections, sur la distribution ´echantillonnale de la moyenne ´echantillonale et

(5)

sur le th´eor`eme de la limite centrale fera un pont avec le chapitre suivant sur l’estimation, les tests d’hypoth`ese, et les intervalles de confiance.

3 Distributions de probabilit´e et variables al´eatoires

• Exp´erience al´eatoire (exp´erience): une action ou une proc´edure qui produit un des r´esultats (issues) possibles d’un ensemble de r´esultats possibles. Le r´esultat n’est pas connu `a l’avance.

• Une distribution de probabilit´e est une liste exhaustive des r´esultats exclusifs possibles et desprobabilit´esassoci´ees `a chacun des r´esultats (dans le cas de distributions de probabi- lit´e discr`etes) ou des densit´esassoci´ees `a chacun des r´esultats possibles (dans le cas de distributionscontinues).

• La somme des probabilit´es doit ˆetre ´egale `a 1 (dans le cas de distributions de probabilit´e discr`etes). Dans le cas de distributions de probabilit´e continues, la surface en dessous des densit´es (l’int´egrale) doit ˆetre ´egale `a un.

• L’ensemble de tous les r´esultats possibles estl’univers,l’espace des ´echantillons(oul’es- pace fondamental).

• Un ´ev´enement est un sous-ensemble de l’espace des ´echantillons, donc il s’agit d’un en- semble d’un ou de plusieurs r´esultats

• L’ensemble videest aussi consid´er´e un ´ev´enement.

• Il y a une distinction technique en th´eorie des probabilit´es entre une distribution de proba- bilit´e et unevariable al´eatoire.

• Dans le cas d’une variable al´eatoire, chaque ´ev´enement distinct possible est associ´e `a un nombre (ainsi qu’`a une probabilit´e ou une densit´e). Par exemple, si on jette une pi`ece de monnaie par terre, les r´esultats distincts possibles sontpile ouface. Une distribution de probabilit´e associe des probabilit´es (1/2 et 1/2 si la pi`ece n’est pas truqu´ee) `a chacun de ces r´esultats. Si on associe un nombre `a chaque r´esultat distinct (par exemple 0 pour

pile et 1 pourface), nous obtenons une variable al´eatoire.

(6)

• Dans le cas de distributions de probabilit´es continues, il serait tr`es difficile sinon impossible d’attribuer une valeur non num´erique `a chaque r´esultat distinct, et donc habituellement on d´efinit la distribution de probabilit´e au d´epart comme une variable al´eatoire.

• Nous allons parler presqu’exclusivement de variables al´eatoires dans le cours. Nous allons mˆeme utiliser les termesdistribution de probabilit´e etvariable al´eatoire de fac¸on interchangeable lorsqu’il n’y a pas d’ambigu¨ıt´e.

3.1 Distributions de probabilit´e discr`etes

• Le nombre de r´esultats distincts est fini. `A chaque r´esultat distinct est associ´e une probabi- lit´e.

• Soitrune variable al´eatoire. Nous utilisons la notationhi ≥ 0pour d´enoter Pr(r=ri), la probabilit´e querprend la valeur particuli`ereri.

• Nous avons :

n

X

i=1

hi = 1, o`unest le nombre total de r´esultats distincts possibles.

3.2 Distributions de probabilit´e continues

• Puisque le nombre de r´esultats distincts dans ce cas est infini, typiquement les r´esultats sont sp´ecifi´es d`es le d´epart en termes de nombres, et donc il n’y a pas vraiment de distinction entre distribution de probabilit´e et variable al´eatoire.

• Puisque le nombre de r´esultats distincts est infini, on ne peut plus parler de la probabilit´e d’obtenir un r´esultat donn´e. En fait, la probabilit´e d’obtenir une valeur pr´ecise est typique- ment ´egale `a z´ero (techniquement, c’est un ´ev´enement de mesure z´ero).

• Chaque r´esultat est associ´e `a unedensit´e.

• Soitr une variable al´eatoire et soit hi ≥ 0qui est une fonction deri (hi = f(ri)). Nous

(7)

avons :

Z rmax

rmin

hidi= 1.

Ici, la valeur minimale que peut prendrerestrmin, et la valeur maximale que peut prendre resrmax. La gamme de valeurs entrerminetrmaxest appel´ee lesupportde la distribution.

• Dans le cas de certaines distributions continues, le support est fini. Ceci est le cas, par exemple, de la distribution uniforme (voir ci-dessous).

• Dans d’autres cas, le support est infini. Dans le cas de la loi normale par exemple (voir ci- dessous), la variable al´eatoire peut prendre des valeurs entre moins l’infini et plus l’infini.

Pour cette raison, le support de la distribution est infini.

• La surface en dessous de la fonction de densit´e entre deux valeurs donn´ees (l’int´egrale d´efinie) donne la probabilit´e d’obtenir une valeur de la variable al´eatoire entre les deux valeurs. Formellement,

Z b

a

hidi=Pr(a≤r ≤b), o`ua < b.

• Pour une distribution continue, la probabilit´e qu’une r´ealisation soit ´egale `a une valeur donn´ee est toujours z´ero :

Pr(r=a) = 0.

• A part les sections de ce chapitre qui traitent sp´ecifiquement de distributions de probabilit´e` continues comme la loi normale, je vais d´esormais me limiter `a d´evelopper des formules pour les distributions discr`etes. L’extension au cas de distributions continues est laiss´ee comme un exercice. Il est en g´en´eral plus facile de manipuler les sommations que de mani- puler les int´egrales.

3.3 Fonctions de distribution cumul´ees

• Ces fonctions sont d´efinies pour des variables al´eatoires discr`etes et continues.

(8)

• Une fonction de distribution cumul´ee donne la probabilit´e que la valeur r´ealis´ee de la va- riable al´eatoire soit inf´erieure ou ´egale `a une valeur donn´ee.

• De mani`ere formelle, pour une variable al´eatoirer,

fdc(a) = Pr(r ≤a).

• Une fonction de distribution cumul´ees augmente de fac¸on monotone. Elle prend la valeur de z´ero lorsqu’´evalu´ee au support inf´erieur de la distribution. Elle prend une valeur ´egale `a un au support sup´erieur de la distribution.

• Nous allons revenir sur le sujet des fonctions de distribution cumul´ees dans la sections sur quelques lois de probabilit´e classiques.

• Il s’agit d’un autre concept qui est logique dans le cadre de variables al´eatoires mais non dans le cadres de distributions de probabilit´e o`u les r´esultats ou les ´ev´enements n’ont pas un caract`ere num´erique.

4 Moments d’une variable al´eatoire

4.1 Petite note sur l’id´ee d’un

moment

• La notion demomentest reli´ee au concept du degr´e d’un polynˆome.

• Le premier moment d’une variable al´eatoire est d´efini en termes de la variable elle-mˆeme.

Le deuxi`eme moment est d´efini en termes de la variable au carr´e. Le troisi`eme moment est d´efini en termes de la variable `a la puissance trois. Etc.

• Dans le cas de distributions de probabilit´e jointes (voir ci-dessous), nous allons nous re- trouver avec des expressions o`u des produits de variables al´eatoires vont paraˆıtre.

• Dans ce cas, l’id´ee de moment sera reli´ee `a la somme des exposants sur toutes les variables al´eatoires du produit.

• De cette fac¸on, il est conventionnel de parler de la covariance (d´efinie ci-dessous) comme

(9)

un moment d’ordre deux puisque dans sa d´efinition nous retrouvons le produit de deux variables al´eatoires, chacune au premier degr´e.

4.2 Esp´erance et esp´erance conditionnelle

• Soit hi = f(ri) = Pr (r =ri). L’esp´erance ou la moyenne de la variable al´eatoire est d´efinie comme :

E(r)≡

n

X

i=1

hiri,

o`u il y a n r´ealisations distinctes possibles de la variable. Dans le cas d’une variable al´eatoire continue, nous avons

E(r)≡

rmax

X

rmin

hiridi

• Souvent, on utilise le symboleµpour la moyenne ou l’esp´erance d’une variable al´eatoire.

Donc on a

µr ≡E(r)≡

n

X

i=1

hiri.

• Notez que puisque la d´efinition de l’esp´erance contient la variable al´eatoire ri au premier degr´e, on dit que l’esp´erance est un moment d’ordre un ou unpremier moment.

• Propri´et´es de l’esp´erance :

E(c0) = c0, pour une constante quelconquec0;

E(c0+c1r) = c0 +c1E(r),

pour des constantes quelconquesc0etc1.

• Ces propri´et´es sontfondamentales. Nous allons les utiliser `a maintes reprises dans le cours.

Il y a une annexe `a la fin de ce chapitre avec un r´esum´e de r´esultats cl´es qu’il faut connaˆıtre par coeur. Il faut aussi reconnaˆıtre lorsqu’on utiliser ces r´esultats fondamentaux dans des

(10)

contextes diff´erents.

• Uneesp´erance conditionnelled’une variable al´eatoire est une esp´erance qui tient compte de toute l’information qu’on connaˆıt concernant sa r´ealisation. Par exemple, si on jette un d´e, et si quelqu’un nous dit que le nombre obtenu n’est pas strictement inf´erieur `a trois, l’esp´erance conditionnelle du r´esultat est :

1

4 ×3 + 1

4 ×4 + 1

4×5 + 1

4 ×6 = 4.5,

o`u on pond`ere chaque r´esultat distinct par la probabilit´e de l’obtenir, sachant que le r´esultat n’est pas inf´erieur `a trois.

• On peut ´ecrire ceci comme

E(r|r ≥3) =

3×Pr(r= 3|r≥3) + 4×Pr(r= 4|r≥3) +5×Pr(r= 5|r≥3) + 6×Pr(r= 6|r ≥3).

• La barre verticale se lit´etant donn´e que.

4.2.1 Esp´erances conditionnelles en s´eries chronologiques

• Cette sous-section est d’un degr´e de difficult´e un peu plus ´elev´e que le reste du texte.

Vous pouvez la sauter si vous avez bien saisi la notion d’une esp´erance conditionnelle.

• On rencontre les esp´erances conditionnelles souvent dans le contexte de processus stochastiques en s´eries chronologiques. Par exemple, prenons le cas d’une variable al´eatoireytqui, au tempst, est ´egale `a une certaine fraction0< ρ <1de sa valeur au tempst−1plus un choc impr´evisibleµtdont l’esp´erance est nulle :

yt=ρyt−1t.

(11)

• Si au temps t −1 on connaˆıt la valeur exacte de yt−1, on peut calculer l’esp´erance conditionnelle bas´ee sur cette information de la fac¸on suivante :

Et−1yt=Et−1(ρyt−1t)

=ρEt−1yt−1+Et−1µt

=ρyt−1+ Et−1µt

=ρyt−1,

• La notation Et−1 se lit esp´erance conditionnelle `a l’information disponible jusqu’en p´eriode(t−1).

• On traiteyt−1comme une constante ou une valeur connue `a compter de la p´eriodet−1: puisque sa valeur est connue, elle n’est plus vraiment une variableal´eatoire. Pour cette raison, on a Et−1yt−1 =yt−1.

• On obtient la derni`ere ´egalit´e parce que par hypoth`ese µt est un al´eas compl`etement impr´evisible en p´eriode (t−1)qui a une esp´erance conditionnelle (et non condition- nelle) ´egale `a z´ero.

• Notez que la connaissance de la r´ealisation de yt−1 permet une pr´evision plus pr´ecise de yt. Nous verrons ceci de fac¸on plus pr´ecise dans la sous-section sur les variances conditionnelles.

• Quelle est l’esp´erancenon conditionnelledeyt? Si on ne connaˆıt rien concernant les r´ealisations du processusyt, l’esp´erance deytdoit ˆetre ´egale `a l’esp´erance deyt−1.1

• Laissant tomber l’indice du temps pour simplifier, nous obtenons :

E(yt) =ρE(yt−1) +E(µt)

E(y) = ρE(y) +E(µ)

(12)

⇒(1−ρ)E(y) =E(µ) = 0

⇒E(y) = 0.

4.3 Variance et variance conditionnelle

• Lavarianced’une variable al´eatoire est donn´ee par :

Var(r)≡

n

X

i=1

hi(ri−E(r))2

n

X

i=1

hi(ri−µr)2,

o`u comme d’habitude il y anr´ealisations distinctes possibles.

• Souvent, on utilise le symboleσ2pour la variance d’une variable al´eatoire. Donc on a

Var(r)≡σ2(r) =

n

X

i=1

hi(ri−E(r))2.

• Notez que puisque la d´efinition de la variance contient la variable al´eatoire au carr´e, on dit que la variance est un moment d’ordre deux ou undeuxi`eme moment.

• Notez aussi que la variance est d´efinie en soustrayant la moyenne ou l’esp´erance de la variable al´eatoire. Pour cette raison, on parle en g´en´eral de la variance comme le deuxi`eme moment centr´e. On peut aussi d´efinir le deuxi`eme moment brut ou non centr´e d’une variable al´eatoirercomme :

n

X

i=1

hiri2.

• Notez finalement que la variance prend la forme de l’esp´erance d’une transformation de la variable al´eatoire elle-mˆeme (la d´eviation au carr´e de la variable al´eatoire par rapport `a sa moyenne). En fait,tousles moments d’une distribution ont la forme

E(z),

(13)

o`uz =f(r). Dans le cas de la variance,

z ≡(r−E(r))2.

• Ceci peut servir d’aide-m´emoire. Une fois qu’on a appris la d´efinition d’une esp´erance d’une variable al´eatoire, tousles autres moments (centr´es ou bruts) sont tout simplement des esp´erances de variables al´eatoires qui sont des transformations non lin´eaires de la va- riable al´eatoire elle-mˆeme.

• Propri´et´es de la variance :

Var(r) = E(r2)−(E(r))2; Var(c0) = 0,

pour une constante quelconquec0;

Var(c0+c1r) =c12Var(r),

pour des constantes quelconquesc0etc1.

• Ces propri´et´es d´ecoulent directement de la d´efinition de la variance. Vous devriez ˆetre ca- pables (et vous devriez) montrer ces r´esultats vous-mˆemes moyennant un crayon et une feuille de papier.

• Il est aussi facile de montrer que

Var(r) =E r2

−(E(r))2.

Encore une fois, cette propri´et´e d´ecoule directement de la d´efinition de la variance.

• Ces propri´et´es font partie des propri´et´es cl´esdont il faut se souvenir. Elles font partie de l’annexe qui se trouve `a la derni`ere page de ce chapitre.

• L’´ecart typed’une variable al´eatoire est la racine carr´ee de sa variance. Il n’est pas donc

(14)

surprenant qu’on utilise souventσpour d´enoter l’´ecart type d’une variable al´eatoire. Nous avons

σr =p (σr2).

• La variance conditionnelle est un concept semblable `a l’esp´erance conditionnelle. La d´efinition g´en´erale peut ˆetre ´ecrite de la fac¸on suivante :

Var r|r ∈Ω¯ ⊂Ω

=X

i∈¯

ri−E r|r ∈Ω¯ ⊂Ω2

Pr r =ri|r ∈Ω¯ ⊂Ω .

Les limites de la sommation sont modifi´ees pour tenir compte du fait que le nombre de r´ealisations total est r´eduit (restreint `a appartenir `a un sous-ensemble de l’espace fonda- mental), et les probabilit´es sont des probabilit´es conditionnellles. La notationr ∈ Ω¯ ⊂ Ω capte l’id´ee que la variable al´eatoirerest dans un sous-ensembleΩ¯ de l’espace fondamental Ω.

• La notationr ∈ Ω¯ se lit commerest membre de l’ensembleΩ¯. La notationΩ¯ ⊂ Ωse lit commeΩ¯ est un sous-ensemble deΩ.

• Notez que nous soustrayons dans ce cas l’esp´erance conditionnelle.

• Pour reprendre l’exemple de jeter un d´e, dans le cas o`u quelqu’un nous dit que le r´esultat n’est pas inf´erieur `a trois, on a :

Var(r|r ≥3) = (3−4.5)2× 1

4 + (4−4.5)2× 1 4 +(5−4.5)2× 1

4 + (6−4.5)2× 1

4 = 1.25.

• Nous aurions pu ´ecrire :

Var(r|r∈ {3,4,5,6} ⊂ {1,2,3,4,5,6})

(15)

pour ˆetre plus conforme avec la notation g´en´erale qui insiste sur le fait que la r´ealisation de rse contient dans un sous-ensemble de l’espace fondamental.

• Le fait d’avoir de l’information pr´ealable concernant la r´ealisation de notre variable al´eatoire nous permet de pr´edire sa valeur r´ealis´ee avec davantage de pr´ecision (avec une variance r´eduite). On peut facilement v´erifier que cette variance conditionnelle est inf´erieure `a la variance non conditionnelle de la variable al´eatoire pour cette exp´erience.

4.3.1 Variances conditionnelles en s´eries chronologiques

• Encore une fois, vous pouvez sauter cette sous-section si vous avez bien maˆıtris´e l’id´ee de la variance conditionnelle.

• Pour poursuivre l’exemple du processus stochastique simple donne par :

yt=ρyt−1t,

nous avons :

Vart−1(yt) = Var (ρyt−1t)

= Vart−1t)

= Var (µt).

• Puisque la r´ealisation deyt−1 est connue en t−1, on peut traiter cette valeur comme une constante. Puisque par hypoth`eseµtest un al´eas compl`etement impr´evisible, sa va- riance conditionnelle bas´ee sur l’information connue ent−1est ´egale tout simplement

`a sa variance non conditionnelle.

• Notez que la variance conditionnelle de ce processus stochastique est inf´erieure `a sa

(16)

variance non conditionnelle :

Var(yt) =Var(ρyt−1t).

Laissant tomber les indices du temps comme nous avons fait dans le cas du calcul de l’esp´erance non conditionnelle de ce processus, nous avons :

Var(y) = Var(ρy+µ)

⇒ 1−ρ2

Var(y) =Var(µ)

⇒Var(y) = 1

(1−ρ2)Var(µ)>Var(µ).

4.4 Moments d’ordres sup´erieurs `a deux

Nous nous servirons relativement peu des moments de variables al´eatoires autres que les esp´erances et les variances. Des fois il sera n´ecessaire de faire des hypoth`eses concernant ces moments afin de pouvoir montrer certaines propri´et´es d’estimateurs.

• Mesure del’asym´etrie(skewness en anglais) d’une distribution :

Skew(r) =

n

X

i=1

hi(ri−E(r))3.

Dans le cas de la loi normale (voir ci-dessous), la mesure de l’asym´etrie est ´egale `a z´ero, puisque la loi normale est une distributionsym´etriqueautour de sa moyenne.

• Encore une fois, il est ´evident que la mesure de l’asym´etrie prend la forme de l’esp´erance d’une fonction de la variable al´eatoire :

Skew(r) =E(z)

(17)

o`u

z ≡(r−E(r))3.

• Donc, je r´ep`ete qu’une fois que l’on connaˆıt la d´efinition de l’esp´erance d’une variable al´eatoire, il est facile de se souvenir de la d´efinition de l’asym´etrie.

• On utilise souvent la d´efinition suivante del’asym´etrie normalis´eed’une variable al´eatoire :

Skew(r) =

n

X

i=1

hi

(ri−E(r)) σr3

3

.

• Mesure del’´epaisseur des extr´emit´esou del’aplatissementd’une distribution (kurto- sis en anglais) :

Kurt(r) =

n

X

i=1

hi(ri−E(r))4.

• Encore une fois, nous avons :

Kurt(r) =E(z), avec

z ≡(r−E(r))4.

• Une fois que l’on connaˆıt la d´efinition de l’esp´erance d’une variable al´eatoire, il est facile de se souvenir de la d´efinition de l’aplatissement.

• On utilise souvent la d´efinition suivante del’aplatissement normalis´ed’une variable al´e- atoire :

K(r) = 1 σ4

n

X

i=1

hi(riE(r))4.

• On peut se demander pourquoi on divise par le carr´e de la variance de la distribution pour normaliser. La r´eponse provient des caract´eristiques de la distribution normale.

• Dans le cas de la loi normale, l’aplatissement normalis´e est ´egale `a 3, peu importe l’esp´erance ou la variance de la variable al´eatoire.

• En fait, la loi normale est unedistribution `a deux param`etres :tous les moments de la

(18)

distribution peuvent ˆetre exprim´es en fonction de la moyenne et de la variance. Une fois que l’on divise par la variance au carr´e de la distribution, on obtient une constante.

• La loi normale est souvent utilis´ee comme bar`eme en mati`ere de l’aplatissement. Si une distribution a une mesure normalis´ee de l’aplatissement qui est sup´erieure `a trois, on parle d’une distributionleptokurtique. En ´economie financi`ere, par exemple, on sait que la dis- tribution des prix des actions en bourse est leptokurtique.

4.5 Petite note sur le concept d’une fonction lin´eaire

• Lors de la d´efinition des moments d’une variable al´eatoire, nous avons vu que les moments peuvent s’´ecrire comme l’esp´erance d’une fonction de la variable al´eatoire originale.

• Dans tous les cas, nous pouvons ´ecrire les moments comme E(z) o`u z ≡ f(r)o`u r est la variable al´eatoire d’int´erˆet. Dans le cas de l’esp´erance, la fonction f est une fonction lin´eaire.

• Une fonction lin´eaire d’une variablerprend la forme :

f(r) =a+br,

o`uaetbsont des constantes quelconques.

• Pensez `a la d´efinition d’une ligne droite. Dans ce contexte,aest l’ordonn´ee `a l’origine etb est la pente de la droite.

• Toute fonction lin´eaire d’une variable peut s’´ecrire sous cette forme.

• De fac¸on plus g´en´erale, on peut parler d’une fonction lin´eaire enr sia etb ne d´ependent pas der, mˆeme s’ils ne sont pas des constantes.

• Dans le cas des autres moments, leszsont des fonctions non lin´eaires de r(quadratiques, cubiques, quartiques, etc.).

(19)

5 Distributions de probabilit´e jointes

• Soitraetrbdeux variables al´eatoires discr`etes.

• La probabilit´e que les deux variables prennent simultan´ement les valeurs r´ealis´ees deraiet rbjpeut ˆetre ´ecrite

Pr(ra=rai, rb =rbj).

• Supposons quera peut prendrek valeurs distinctes. Supposons que rb peut prendre n va- leurs distinctes.

• Pour que la distribution de probabilit´e jointe soit une distribution de probabilit´e en bonne est due forme, nous devons avoir :

k

X

i=1 n

X

j=1

hi,j = 1, ,

o`uhi,j est la probabilit´e que raprend la valeurrai en mˆeme temps que rb prend la valeur rb,j. Autrement dit,

hi,j ≡Pr(ra =rai, rb =rbj).

• Nous avons les d´efinitions suivantes.

• Covariancede la population :

Cov(ra, rb) =

k

X

i=1 n

X

j=1

hi,j(rai−E(ra)) (rbj−E(rb))

• Propri´et´es de la covariance :

Cov(ra, rb) = E(ra·rb)−E(ra)E(rb);

Cov(c0+c1ra, c2+c3rb) =c1·c3Cov(ra, rb).

• Encore une fois, il s’agit de cons´equences imm´ediates de la d´efinition d’une covariance.

(20)

Vous devriez ˆetre capables de (et vous devriez) montrer ces r´esultat avec un crayon et une feuille de papier.

• Ces propri´et´es font partie des r´esultats cl´es r´esum´es `a la derni`ere page de ce chapitre.

• Dans la d´efinition d’une covariance, nous retrouvons le produit de deux variables al´eatoires.

Pour cette raison, la covariance est consid´er´ee comme un moment du deuxi`eme ordre.

• Corr´elationou coefficient de corr´elation de la population :

Corr(ra, rb)≡ρ(ra, rb)≡ cov(ra, rb) σ(ra)σ(rb),

o`u

σ(ra)≡p

σ2(ra).

• Le coefficient de d´etermination : le carr´e du coefficient de corr´elation.

5.1 Distributions marginales et conditionnelles

• Si nous connaissons les valeurs des hi,j, il est possible de calculer ladistribution margi- nalede chaque variable al´eatoire individuelle.

• Le nom distribution marginale signifie rien d’autre que la distribution de probabilit´e de la variable individuellle. Nous avons :

Pr(ra =rai)≡hi =

n

X

j=1

Pr(ra =rai , rb =rbj),

et

Pr(rb =rbj)≡hj =

k

X

i=1

Pr(ra=rai, rb =rbj),

• La distribution d’une variable al´eatoire conditionnelle `a la valeur d’une autre variable al´e- atoire s’appelle ladistribution conditionnelle dera ´etant donn´erb.

• On ´ecrit Pr(ra=rai|rb =rbj)qui se lit la probabilit´e quera est ´egale `arai ´etant donn´e querb est ´egale `arbj.

(21)

• Nous avons en g´en´eral :

Pr(ra =rai|rb =rbj) = Pr(ra=rai, rb =rbj) Pr(rb =rbj)

• Une fac¸on de se convaincre de ce r´esultat est par le biais d’un soi-disant diagramme de Venn. La surface totale du rectangle, qui repr´esente l’espace fondamental de la distribution de probabilit´e jointe, est unitaire. La probabilit´e de l’´ev´enementra =raiest donn´ee par la surface du cercle du cˆot´e gauche et la probabilit´e de l’´ev’enementrb =rbjest donn´ee par la surface du cercle `a droite. La surface `a l’int´erieur de l’intersection des deux cercles donne la probabilit´e de l’´ev´enement jointra = rai , rb = rbj. Sachant que l’´ev´enementrb =rbj s’est produit revient `a dire que nous savons que nous sommes quelque part `a l’int´erieur du cercle `a droite. ´Etant donn´e ceci, la probabilit´e de se retrouver `a l’int´erieur de l’intersection est donn´ee par le ratio de la surface de cette intersection sur la surface totale du cercle `a droite. Ceci revient `a la formule ci-dessus.

5.1.1 Esp´erance conditionnelle

• Dans le contexte de distributions de probabilit´e jointes, l’esp´erance conditionnelle de la variable al´eatoirera ´etant donn´e querb =rbiest d´efinie de la fac¸on suivante :

E(ra|rb =rbj) =

k

X

i=1

raiPr(ra =rai|rb =rbj).

• Pour simplifier un peu notre notation, nous allons souvent ´ecrire l’esp´erance conditionnelle d’une variable al´eatoire comme :

E(ra|rb =rbj)≡E(ra|rb).

(22)

5.1.2 Loi des esp´erances it´er´ees

L’esp´erance d’une variable al´eatoireraest ´egale `a la moyenne pond´er´ee des esp´erances condi- tionnelles dera ´etant donn´e les valeurs possibles que peut prendre la variable al´eatoirerb, ou les pond´erations sont tout simplement les probabilit´es de r´ealiser ces valeurs de la variablesrb. Autre- ment dit,

E(ra) =

n

X

j=1

E(ra|rb =rbj)Pr(rb =rbj).

Autrement dit, l’esp´erance dera est l’esp´erance de l’esp´erance conditionnelle dera ´etant donn´ee la valeur derb. Nous pouvons ´ecrire

E(ra) =E(E(ra|rb)).

Cette ´equation est connue sous le nomloi des esp´erances it´er´ees.

Dans le cas de variables al´eatoires discr`etes, il est relativement facile de d´emontrer ce r´esultat.

D’abord, nous pouvons ´ecrire l’esp´erance de la variableraconditionnelle `a la r´ealisationrb = rbjcomme

E(ra|rb =rbj)≡

k

X

i=1

raiPr(ra=rai|rb =rbj).

L’esp`erance de ceci est tout simplement la somme pond´er´ee de ces esp´erances conditionnelles derapour toutes les r´ealisations possibles derb, o`u on pond`ere par la probabilit´e (marginale) de chaque r´ealisation possible derb. Nous pouvons ´ecrire

E(E(ra|rb =rbj))≡

n

X

j=1

E(ra|rb =rbj)Pr(rb =rbj)

=

n

X

j=1 k

X

i=1

raiPr(ra =rai|rb =rbj)Pr(rb =rbj).

(23)

Nous savons que

Pr(ra =rai|rb =rbj) = Pr(ra=rai, rb =rbj) Pr(rb =rbj) . Substituant, nous avons

E(E(ra|rb =rbj)) =

n

X

j=1 k

X

i=1

raiPr(ra =rai , rb =rbj)

Pr(rb =rbj) Pr(rb =rbj)

=

n

X

j=1 k

X

i=1

raiPr(ra =rai , rb =rbj)

=

k

X

i=1 n

X

j=1

raiPr(ra =rai , rb =rbj) (ou nous avons tout simplement invers´e l’ordre des sommations)

=

k

X

i=1

rai

n

X

j=1

Pr(ra=rai , rb =rbj),

puisqueraine d´epend pas dej et donc nous pouvons l’´ecrire devant la deuxi`eme sommation.

Maintenant,

n

X

j=1

Pr(ra=rai , rb =rbj)

est la d´efinition de la probabilit´e marginale Pr(ra=rai). Donc, nous avons

E(E(ra|rb =rbj)) =

k

X

i=1

raiPr(ra =rai)≡E(ra)

ce qui fut `a d´emontrer.

5.1.3 Ind´ependance

• On dit que deux variables al´eatoires sont ind´ependantes lorsque les probabilit´es condi- tionnelles sont ´egales aux probabilit´es marginales pourtoutesles r´ealisations possibles des

(24)

deux variables.

• Nous pouvons ´ecrire :

Pr(ra =rai|rb =rbj) =Pr(ra=rai) ∀i, j

et

Pr(rb =rbj|ra =rai) = Pr(rb =rbj) ∀i, j.

• Une cons´equence de la d´efinition de l’ind´ependance avec la formule ci-dessus pour les probabilit´es conditionnelles est la suivante :

Pr(ra=rai , rb =rbj) = Pr(ra =rai)Pr(rb =rbj).

La probabilit´e que les deux variables prennent simultan´ement les valeurs r´ealis´ees deraiet rbjest tout simplement ´egale au produit des probabilit´es marginales.

• Nous pouvons montrer que si deux variables al´eatoires sont ind´ependentes, la covariance entre les deux est z´ero. Voici la d´emonstration :

Cov(ra , rb)

=

k

X

i=1 n

X

j=1

(rai−E(ra)) (rbj−E(rb))Pr(ra=rai)Pr(rb =rbj)

=

k

X

i=1

(rai−E(ra))Pr(ra=rai)

!

n

X

j=1

(rbj−E(rb))Pr(rb =rbj)

!

= k

X

i=1

raiPr(ra=rai)

!

−E(ra)

!

(25)

n X

j=1

rbjPr(rb =rbj)

!

−E(rb)

!

= 0.

• Nous pouvons aussi facilement montrer que, dans le cas de l’ind´ependance, E(rarb) = E(ra)E(rb). Voici la d´emonstration :

E(ra rb)≡

k

X

i=1 n

X

j=1

rairbjPr(ra=rai, rb =rbj)

=

k

X

i=1 n

X

j=1

rairbjPr(ra=rai)Pr(rb =rbj)

=

k

X

i=1

raiPr(ra=rai)

! n X

j=1

rbjPr(rb =rbj)

!

≡E(ra)E(rb).

• Notez que nous pouvons ´ecrire raiPr(ra=rai)devant la deuxi`eme sommation ci-dessus (avant-derni`ere ligne) parce que l’expression ne d´epend pas de j. Pour cette raison, nous sommes justifi´es de la d´eplacer devant la deuxi`eme sommation.

• Notez que l’ind´ependance implique une covariance de z´ero, mais que l’inverse n’est pas forc´ement le cas. Dans le cas de variables qui suivent une loi normale, une covariance de z´ero implique l’ind´ependance.

• Ceci veut dire que pour des variables al´eatoires quelconque, l’ind´ependance est une condi- tion suffisante pour que la covariance soit nulle. Une covariance nulle est une condition n´ecessaire mais non suffisante pour l’ind´ependance. Dans le cas de variables al´eatoires normales, l’ind´ependance est une condition n´ecessaire et suffisante pour une covariance

´egale `a z´ero.

(26)

5.2 Combinaisons lin´eaires de variables al´eatoires

• Le premier r´esultat concerne l’esp´erance d’une combinaison lin´eaire de deux variables al´e- atoires.

E(ara+brb)≡

n

X

i=1

hi(arai+brbi)

=a

n

X

i=1

hirai+b

n

X

i=1

hirbi

=aEra+bErb,

o`uraetrbsont des variables al´eatoires etaetbsont des constantes.

• Ce r´esultat est donc une cons´equence directe de la d´efinition d’une esp´erance.

• Cette r`egle s’´etend directement au cas demvariables al´eatoires. En g´en´eral nous avons :

E

m

X

i=1

aiYi

!

=

m

X

i=1

aiE(Yi), o`uaisont des constantes etYisont des variables al´eatoires.

• Le deuxi`eme r´esultat concerne la variance d’une combinaison lin´eaire de deux variables al´eatoires.

Var(ara+brb)≡

k

X

i=1 n

X

j=1

hij(arai+brbj−E(ara+brb))2

=

k

X

i=1 n

X

j=1

hij(a(rai−Era) +b(rbj−Erb))2

=a2

k

X

i=1 n

X

j=1

hij(rai−Era)2

(27)

+b2

k

X

i=1 n

X

j=1

hij(rbj−Erb)2

+2ab

k

X

i=1 n

X

j=1

hij(rai−Era) (rbj−Erb)

=a2

k

X

i=1

hi(rai−Era)2

+b2

n

X

j=1

hj(rbj−Erb)2

+2ab

k

X

i=1 n

X

j=1

hij(rai−Erb) (rbj−Erb)

≡a2Var(ra) +b2Var(rb) + 2·a·b·Cov(ra, rb).

• Il est encore facile d’´etendre ce r´esultat au cas demvariables al´eatoires. Nous avons :

Var

m

X

i=1

aiYi

!

=

m

X

i=1

ai2

Var(Yi) + 2·X

i<j

ai·aj ·Cov(Yi , Yj). Ici, la notation P

i<j fait r´ef´erence `a la sommation de tous les termes possibles o`u i est distinct dej et plus petit quej. Il s’agit essentiellement de toutes les covariances distinctes entre les paires de variablesYi etYj. On sait que le nombre de covariances distinctes dans le cas dem variables al´eatoires est ´egal `am×(m−1)/2. On multiplie par deux sachant que

Cov(Yi , Yj) =Cov(Yj , Yi), ∀i6=j.

• De fac¸on g´en´erale, ces propri´et´es sont des g´en´eralisations des r`egles pour le calcul des esp´erances, des variances, et des covariances.

(28)

6 Quelques lois classiques

6.1 La loi Bernoulli

• Une variable al´eatoire qui prend la valeur de1avec une probabilit´epet la valeur de0avec une probabilit´e1−psuit une loiBernoulli.

• Evidemment, la moyenne d’une distribution Bernoulli est ´egale `a´ p. On a pour une variable X qui est engendr´ee par une loi Bernoulli :

E(X) = (p×1) + ((1−p)×0) =p.

• La variance d’une variable al´eatoire Bernoulli est aussi facile `a calculer. Appliquant la d´efinition de la variance :

Var(X) = p×(1−p)2

+ (1−p)×(0−p)2

=p(1−p).

6.2 La loi binomiale

• La loibinomialeest une distribution de probabilit´e discr`ete.

• On r´ep`ete une exp´erience n fois. Deux r´esultats sont possibles `a chaque r´ep´etition (soit

succ`es soit´echec).

• Si la probabilit´e d’un succ`es estp, la probabilit´e d’un ´echec est forc´ement1−p. La variable al´eatoire naturelle associ´ee `a cette distribution de probabilit´e attribue 1 au succ`es et 0 `a l’´echec, et donc est tout simplement ´egale au nombre de succ`es lorsque l’exp´erience est r´ep´et´eenfois.

• Notez que dans les cas particuliern = 1, nous avons une variable al´eatoire Bernoulli.

• La moyenne d’une variable binomiale est facile `a calculer :

E(X) =

n

X

i=1

(p×1) + ((1−p)×0)

!

=np.

(29)

• Le calcul de la variance est facilit´ee par l’hypoth`ese que lesnexp´eriences sont ind´ependantes.

A cause de cette hypoth`ese, la variance est la somme des variances de chacune des` n exp´eriences. Puisque la variance d’une variable Bernoulli est ´egale `ap(1−p), la variance d’une variable binomiale est ´egale `anp(1−p).

Il y a plusieurs exemples dans ce chapitre de l’utilisation du langage R, dans des encadr´es.

Une lecture de ces encadr´es peut ˆetre utile pour ceux qui veulent apprendre R pour les tra- vaux pratiques, mais n’est pas n´ecessaire pour une compr´ehension de la mati`ere du cours.

Les exemples de code sont document´es. Si vous voulez une introduction au langage, re- gardez le chapitre de r´ef´erences. Un bon point de d´epart est l’article de Paradis (2005), qui est en franc¸ais. J’ai ´ecrit une courte introduction aux commandes de base en R. Voir http://www.er.uqam.ca/nobel/r10735/4272/R.pdf.

Nous pouvons utiliser l’ordinateur pour simuler des variable al´eatoires g´en´er´ees par une dis- tribution binomiale. Le code qui suit, en langage R, g´en`ere 10 000 observations provenenant d’une distribution binomiale avecn = 10etp= 0.5, et cr´ee un histogramme avec les r´esultats.

Vous pouvez vous-mˆeme installer le logiciel (il est gratuit et disponible pour plateformes PC, Mac et Linux) et jouer avec le code (en changeant, par exemple, les valeurs depet den).

Le R> au d´ebut de chaque ligne indique les caract`eres de sollicitation de commande dans la fenˆetre de commandes. Ce qu’il faut taper suit. Le caract`ere # permet d’ins´erer des commentaires qui ne sont pas ex´ecut´es.

R> #

R> # Sp´ecifier la taille de l’´echantillon.

R> # R> Size = 10000 R> #

R> # Sp´ecifier le nombre de r´ep´etitions de R> # l’exp´erience.

(30)

R> #

R> n = 10 R> #

R> # Sp´ecifier la probabilit´e de succ`es.

R> #

R> probab = 0.5 R> #

R> # G´en´erer les r´ealisations de la variable R> # al´eatoire.

R> x <- rbinom(Size,n,probab) R> #

R> # G´en´erer un histogramme avec l’´echantillon de R> # r´ealisations.

R> #

R> hist(x, xlim=c(min(x), max(x)), probability=TRUE, nclass=max(x)-min(x)+1, col="lightblue", main="Fig 1:

Distribution binomiale avec n=10, p-0.5") R> #

R> # G´en´erer une approximation lisse `a la fonction R> # de distribution.

R> #

R> lines(density(x,bw=1), col="red", lwd=3)

Essayez de deviner ce que fait chaque option de la commande hist(·) et de la commande lines(·). Pour en savoir plus, on peut utiliser la fonctionhelp(hist)ouhelp(lines).

Le graphique g´en´er´e par le code est la Figure 1. La courbe est une approximation lisse aux barres de l’histogramme. Si vous jouez avec le code, vous pouvez sauvegarder le graphique

(31)

avec les commandes suivantes :

R> dev.copy(pdf,’figure11.pdf’) R> dev.off()

La commandedev.copy(·)cr´ee le fichierfigure11.pdfen formatpdfdans le r´epertoire par d´efaut. La commandedev.off()´ecrit le graphique actif dans le fichier et le ferme.

Notez la ressemblance entre l’histogramme et la cloche classique de la distribution normale (que nous allons ´etudier plus loin), que vous avez certainement vue dans un cours ant´erieur ou ailleurs. Cette ressemblance est au coeur duth´eor`eme de la limite centrale que nous allons voir vers la fin du chapitre.

Figure 1: Distribution binomiale, n=10, p=0.5

x

Density

0 2 4 6 8 10

0.000.050.100.150.200.25

6.3 La loi uniforme

• On ne rencontre pas la loi uniforme tr`es fr´equemment en ´econom´etrie. Elle a l’avantage d’ˆetre probablement la loi continue la plus facile. On peut facilement calculer `a partir de la d´efinition d’une densit´e uniforme la moyenne et la variance de la distribution (et les

(32)

moments sup´erieurs `a deux aussi).

• La loiuniforme: distribution continue avec unsupport(gamme de valeurs possibles) fini, c’est `a dire qu’on peut obtenir un r´esultat entre une borne inf´erieure et une borne sup´erieure.

• Chaque r´esultat est ´equiprobable, ce qui donne unedensit´eplate entre la borne inf´erieure et la borne sup´erieure.

• Soitrmin la valeur minimale que peut prendreret soitrmaxla valeur maximale, alors :

hi = ¯h

o`u ¯h est une constante. Pour que ce soit une distribution de probabilit´e en bonne et due forme, il faut que :

Z rmax

rmin

hdi¯ = 1,

et donc

h¯= 1 rmax−rmin.

• La moyenne est relativement facile `a calculer. Nous avons pour une variable al´eatoire r engendr´ee par une loi uniforme :

E(r) = Z rmax

rmin

i

(rmax−rmin) di

= 1

2

i2 (rmax−rmin)

b

a

= 1 2

1

(rmax−rmin) b2−a2

= 1 2

1

(rmax−rmin)(b+a) (b−a)

= (b+a) 2 .

• La variance est ´egalement facile `a calculer. Nous avons l’expression suivante pour le deuxi`eme

(33)

moment brut de la distribution uniforme :

E r2

= Z rmax

rmin

i2

(rmax−rmin) di

= 1

3

i3 (rmax−rmin)

b

a

= 1 3

1

(rmax−rmin) b3−a3

= 1 3

1

(rmax−rmin) a2+ab+b2

(b−a)

= (a2+ab+b2)

3 .

Maintenant, sachant que Var(r) = E(r2)−(E(r))2, nous obtenons

Var(r) = (a2+ab+b2)

3 −

(b+a) 2

2

= (4a2+ 4ab+ 4b2−3a2−6ab−3b2)

12 = (a2−2ab+b2) 12

= (b−a)2 12 .

6.4 La loi normale

• La loinormale: distribution continue avec un support infini.

• Elle est caract´eris´ee compl`etement par la moyenne et la variance. Les autres moments de la distribution sont des fonctions de ces deux moments.

• Sa densit´e est donn´ee par la fonction suivante :

f(X;µ, σ2) = 1 σ√

2π exp

− 1

2(x−µ)2

.

• La variable al´eatoire estX. La moyenne estµet la variance estσ2.

(34)

• On constate imm´ediatement que la densit´e comme fonction dexest sym´etrique autour de la moyenne µ. Cela implique que la mesure d’asym´etrie de cette distribution est ´egale `a z´ero.

• Si on soustrait la moyenne d’une variable al´eatoire normale et si par la suite on divise par son ´ecart type, on a :

E

(X−µ) σ

= 1

σ(E(X)−µ) = 0;

Var

(X−µ) σ

= 1

σ2Var(X) = 1.

On appelle une telle variable al´eatoire normale une variable normalecentr´ee r´eduite.

• La variable normale centr´ee r´eduite joue un rˆole cl´e en statistique. Elle est souvent utilis´ee lorsqu’on invoque le th´eor`eme de la limite centrale (voir ci-dessous) pour justifier qu’une statistique calcul´ee est engendr´ee par une loi normale centr´ee r´eduite. Si tel est le cas, on peut utiliser les valeurs tabul´ees de la loi normale centr´ee r´eduite pour faire de l’inf´erence statistique (tester des hypoth`eses).

Il y a plusieurs fonctions utiles d´efinies dans le langageRqui peuvent ˆetre utiles pour le calcul de densit´es ou de probabilit´es. Dans le cadre de la normale, la fonctiondnorm(·)nous donne la densit´e de la normale `a un point donn´e. Par exemple,

R> dnorm(0) [1] 0.3989423

R> dnorm(0)*sqrt(2*pi) [1] 1

R> dnorm(0,mean=4) [1] 0.0001338302

R> dnorm(0,mean=4,sd=10) [1] 0.03682701

R> v <- c(0,1,2)

(35)

R> dnorm(v)

[1] 0.39894228 0.24197072 0.05399097 R> x <- seq(-4,4,by=.25)

R> y <- dnorm(x)

R> plot(x,y,main="Fig 2: Densit´e normale entre -4 et 4")

Sans autre argument, dnorm(·)donne la densit´e pour une normale centr´ee r´eduite. On peut aussi sp´ecifier la moyenne (par d´efaut z´ero) et l’´ecart type (par d´efaut un).

Le r´esultat de la fonctionplot(·)est donn´e par la Figure 2 ci-dessous.

La deuxi`eme fonction estpnorm(·). Quand on lui fournit un chiffre elle donne la fonction de distribution cumul´ee ´evalu´ee `a ce point. Les options sont identiques `a celles dednorm(·).

Par exemple, R> pnorm(0) [1] 0.5

R> pnorm(1) [1] 0.8413447

R> pnorm(0,mean=2) [1] 0.02275013

R> pnorm(0,mean=2,sd=3) [1] 0.2524925

R> v <- c(0,1,2) R> pnorm(v)

[1] 0.5000000 0.8413447 0.9772499 R> x <- seq(-4,4,by=.25)

R> y <- pnorm(x)

R> plot(x,y,main="Fig 3: Densit´e normale cumul´ee entre -4 et

(36)

4")

Le r´esultat de la fonctionplot(·)est donn´e par la Figure 3 ci-dessous.

Ensuite, il y a la fonctionqnorm(·), qui est la fonction inverse par rapport `apnorm(·).

Quand on lui fournit une probabilit´e, elle nous donne le chiffre dont la fonction de distribution cumul´ee est ´egale `a cette probabilit´e. Par exemple,

R> qnorm(0.5) [1] 0

R> qnorm(0.5,mean=1) [1] 1

R> qnorm(0.5,mean=1,sd=2) [1] 1

R> qnorm(0.5,mean=2,sd=2) [1] 2

R> qnorm(0.5,mean=2,sd=4) [1] 2

R> qnorm(0.25,mean=2,sd=2) [1] 0.6510205

R> qnorm(0.333) [1] -0.4316442

R> qnorm(0.333,sd=3) [1] -1.294933

R> qnorm(0.75,mean=5,sd=2) [1] 6.34898

R> v = c(0.1,0.3,0.75) R> qnorm(v)

[1] -1.2815516 -0.5244005 0.6744898

(37)

R> x <- seq(0,1,by=.05) R> y <- qnorm(x)

R> plot(x,y,main="Fig 4: Densit´e normale cumul´ee inverse entre 0 et 1")

Le r´esultat de la fonctionplot(·)est donn´e par la Figure 4 ci-dessous.

La derni`ere fonction est rnorm(·), qui g´en`ere des variables al´eatoires g´en´er´ees par une loi normale. Avec un seul argument, qui doit ˆetre un nombre entier, elle g´en`ere ce nombre de r´ealisations d’une loi normale centr´ee r´eduite. On peut aussi sp´ecifier en option une moyenne diff´erente et/ou un ´ecart type diff´erent. Par exemple,

R> rnorm(4)

[1] 1.2387271 -0.2323259 -1.2003081 -1.6718483 R> rnorm(4,mean=3)

[1] 2.633080 3.617486 2.038861 2.601933 R> rnorm(4,mean=3,sd=3)

[1] 4.580556 2.974903 4.756097 6.395894 R> rnorm(4,mean=3,sd=3)

[1] 3.000852 3.714180 10.032021 3.295667 R> y <- rnorm(200)

R> hist(y,main="Fig 5: 200 r´ealisations d’une normale centr´ee r´eduite")

Le r´esultat de la fonctionhist(·)est donn´e par le Graphique 1.5 ci-dessous.

Il y a des fonctions ´equivalentes pour plusiers lois, dont le chi-carr´e, laF, lat de Student, etc. Nous y reviendrons.

(38)

● ● ● ●

● ● ● ● ●

−4 −2 0 2 4

0.00.10.20.30.4

Fig 2: Densité normale entre −4 et 4

x

y

● ● ● ● ● ● ●

● ● ●● ● ● ● ●

−4 −2 0 2 4

0.00.20.40.60.81.0

Fig 3: Densité normale cumulée entre −4 et 4

x

y

(39)

0.0 0.2 0.4 0.6 0.8 1.0

−1.5−1.0−0.50.00.51.01.5

Fig 4: Densité normale cumulée inverse entre 0 et 1

x

y

Fig 5: 200 réalisations d'une normale centrée réduite

y

Frequency

−2 −1 0 1 2 3

010203040

6.5 La loi normale multivari´ee

• Cette section est un peu plus ardue que les autres.

• On peut montrer qu’une combinaison lin´eaire de variables al´eatoires normales suit une distribution normale.

(40)

• Ceci explique la popularit´e de la loi normale en ´economie financi`ere (ainsi que dans plu- sieurs autres domaines). Un portefeuille d’actifs est une combinaison lin´eaire d’actifs in- dividuels, et le rendement du portefeuille est une combinaison lin´eaire des rendements des actifs. Si on suppose que les rendements des actifs individuels sont engendr´es par des lois normales, tout portefeuille a un rendement distribu´e selon une loi normale.

• SoitX un vecteur den variables al´eatoires (de dimensions1×n) engendr´ees par des lois normales, avec µ le vecteur de moyennes de ces variables et Σ la matrice de variance- covariance (une matrice sym´etrique o`u l’´el´ement (i, i) donne la variance de la variable al´eatoirei, et l’´el´ement (i, j)donne la covariance entre la variableiet la variablej). Nous pouvons ´ecrire la densit´efX(X1 , . . . , Xn)de la fac¸on suivante :

fX(X1 , . . . , Xn) =

1

(2π)(n/2)|Σ|(1/2) exp

−1

2(X−µ)0Σ−1(X−µ)

,

o`u(X−µ)0est le vecteur(X−µ)transpos´e.2

• On constate que la densit´e de la loi normale univari´ee n’est qu’un cas particulier de cette formule.

• On peut montrer, mais nous n’allons pas le faire ici, que :

R

−∞. . .R

−∞

1 (2π)(n/2)|Σ|(1/2)

exp −12(X−µ)0Σ−1(X−µ)

dX1. . . dXn = 1.

Il s’agit ici d’int´egrales multiples. Donc, la surface en dessous de la densit´e (une surface en n+1dimensions) est ´egale `a un, ce qui doit ˆetre le cas pour toute distribution de probabilit´e.

• Petit rappel : on peut montrer que si deux variables al´eatoires normales ont une covariance

2. Nous allons revenir `a une notation matricielle dans le chapitre sur le mod`ele de r´egression multiple. Le temps est peut-ˆetre propice pour une r´evision des notions de base en alg`ebre lin´eaire. Vous devriez vous convaincre que les multipications matricielles sont bien d´efinies (les matrices et/ou les vecteurs sont conformes) et que le r´esultat est un scalaire.

Références

Outline

Documents relatifs

I Par contre, si nous avons un nombre suffisant d’observations, nous pouvons ´ ecrire nos statistiques sous une forme qui permet d’invoquer le th´ eor` eme de la limite centrale, ce

1.2 Diagnostics pour d´ etecter des observations qui ont une influence d´ emesur´ ee sur les r´ esultats de l’estimation (coefficients, valeurs pr´ edites, variance estim´ ee

I D´ efinissons ˆ β (i ) comme le vecteur de param` etres estim´ es apr` es avoir laiss´ e tomber l’observation i de l’´ echantillon, et ˆ Y (i) le vecteur de valeurs pr´

Savoir comment tester une hypoth`ese simple concernant un moment (esp´erance, variance, etc.) d’une variable al´eatoire, avec hypoth`ese alternative unilat´erale ou

• Savoir que le test F effectu´e le plus souvent dans le contexte du mod`ele de r´egression multiple, c’est le test de l’hypoth`ese jointe nulle que tous les coefficients sauf

En d´epit de l’insistance sur une variance des erreurs qui n’est pas constante dans les donn´ees, on ne pr´esente pas de tests statistiques formels dans le manuel de Stock et

I Th´ eor` eme de la limite centrale : la moyenne d’un nombre suffisamment ´ elev´ e de variables al´ eatoires qui sont ind´ ependamment distribu´ ees et qui ont une moyenne et

I But : pr´ esenter quelques strat´ egies g´ en´ erales pour sp´ ecifier et estimer des mod` eles ´ econom´ etriques non lin´ eaires.. I Mod` eles non lin´ eaires dans les