• Aucun résultat trouvé

Estimation d'un modèle Arch-Garch avec primes d'asymétrie

N/A
N/A
Protected

Academic year: 2021

Partager "Estimation d'un modèle Arch-Garch avec primes d'asymétrie"

Copied!
46
0
0

Texte intégral

(1)

ESTIMATION D’UN MODELE ARCH-GARCH AVEC

PRIMES D’ASYMETRIE

Mémoire

Adamou Yacouba Abdou

Maîtrise en économique

Maître ès sciences (M.Sc.)

(2)
(3)

Résumé

L’objectif de cette étude est de développer et analyser les déterminants du rendement excé-dentaire ( ou prime de marché) des actifs financiers dans l’hypothèse que ces derniers suivent une loi normale asymétrique. Ainsi, sous la base de cette hypothèse, nous avons élaboré un modèle dans lequel le rendement excédentaire de l’actif financier en question est déterminé par l’effet combiné du coefficient d’asymétrie(skewness), de la prime de risque et de sa variance (ou volatilité). Par la suite nous avons estimé ce modèle en supposant que la variance suit un processus ARCH-GARCH . L’analyse empirique porte sur les données du SP 500, et sont tirées de la banque de données de Fama-French. Les résultats de l’analyse montrent que l’ARCH(1) décrit mieux les données de la série du SP 500 contrairement au GARCH(1,1).

(4)
(5)

Table des matières

Résumé iii

Table des matières v

Liste des tableaux vii

Liste des figures ix

Remerciements xi

Introduction 1

1 LA SPÉCIFICATION ÉCONOMÉTRIQUE DU MODÈLE 3

1.1 Modèle avec la loi normale symétrique . . . 3

1.2 Modèle avec la loi normale asymétrique . . . 10

2 PRÉSENTATION DES DONNÉES 15 2.1 La Stationnarité . . . 16 2.2 L’auto-corrélation . . . 17 2.3 L’asymétrie . . . 18 2.4 La volatilité . . . 20 2.5 Effet Levier. . . 21 2.6 Saisonnalité . . . 22 3 MODÈLES ARCH/GARCH 23 3.1 Modèles ARCH(q) . . . 23 3.2 Modèles GARCH (p,q) . . . 25 4 ESTIMATION DU MODÈLE 27 Conclusion 31 Bibliographie 33

(6)
(7)

Liste des tableaux

2.1 Statistique descriptive du rendement excédentaire du marché . . . 15

4.1 Résultats de l’estimation ARCH . . . 28

4.2 Résultats de l’estimation GARCH . . . 29

(8)
(9)

Liste des figures

1.1 Densité de la Skew normal . . . 12

2.1 rendement excédentaire du marché . . . 17

2.2 le correlogramme de rmkt . . . 18

2.3 le correlogramme de rmkt2 . . . 19

2.4 l’histogramme de la distribution marginale du rmkt . . . 20

(10)
(11)

Remerciements

Tout d’abord, je tiens à remercier mon directeur de recherche, Benoît Carmichael, professeur au Département d’économique de l’Université Laval, qui sans relâche m’a prodigué des conseils et une démarche méthodique dans l’avancement de mon travail. Il a toujours su se montrer disponible à toutes mes interrogations relatives à ce sujet. C ’est le moment aussi de dire merci à tous les professeurs du Département et à toute l’équipe de professionnels du département pour leur encadrement. Enfin, je me permets également de remercier toute ma famille et mes amis pour leur soutien moral et leur encouragement tout au long de mes études.

(12)
(13)

Introduction

Cette étude s’intéresse à la détermination de la prime de risque des actifs financiers fondée sur un modèle qui tient compte de l’asymétrie (« skewness ») des rendements excédentaires des actifs financiers. L’estimation économétrique de ce modèle incorporera également un processus ARCH-GARCH pour la variance. Le choix du thème de notre mémoire est apparu comme une évidence dans le désir d’approfondir le mécanisme de détermination de la prime de risque sur les marchés financiers ; en ce sens que la prime de risque constitue une préoccupation majeure qui a dominé et qui continue d’intriguer le monde actuel de la finance.

L’importance du sujet d’étude est inéluctable dans la mesure où les actifs financiers jouent un rôle crucial dans l’environnement économique. Ils sont indispensables à la production et à l’accumulation de revenus et sont déterminants dans l’allocation inter-temporelle de ressources par le biais des processus d’épargne, prêt et d’emprunt. Ce mécanisme est tout à fait rationnel, dans la mesure où, sur un marché financier donné, chaque intervenant vise à maximiser son utilité. Cette maximisation consiste à concilier un niveau élevé de rentabilité et un niveau élevé de sécurité (donc moins risqué). Autrement dit, l’utilité de l’agent économique en ques-tion est une foncques-tion du rendement et du risque, communément mesuré par la variabilité du portefeuille.

Harry Markowitz est l’un des premiers auteurs à traiter de cette question d’allocation du choix optimal de portefeuille dans son article paru au Journal of Finance en 1952. Ses travaux cherchent à minimiser la variance du rendement du portefeuille étant donné un rendement espéré donné. Bien que la théorie de Markowitz, ait été révolutionnaire à son époque, elle a par la suite connu plusieurs critiques. L’approche de Markowitz porte principalement sur des titres financiers individuels. Quelques années plus tard, Treynor (1962), Sharpe (1964), Lintner (1965), Mossin (1966) et Black (1972) développent un modèle central en théorie financière qui permet de décrire de façon simple, la relation liant la rentabilité des actifs financiers et leur risque : c’est le CAPM (Capital Asset Pricing Model). Ce modèle jouit d’une certaine notoriété tant sur le plan académique qu’en pratique. En effet, à travers le « bêta » comme outil d’analyse financière, ce modèle a rencontré un vif succès auprès des praticiens car il leur permet de quantifier le risque encouru par la détention d’un actif financier.

(14)

sont modélisés selon une loi normale symétrique. Alors que dans la réalité des marchés finan-ciers (Cencia et Filippinib (2006)) les rendements ne suivent pas une distribution normale symétrique, mais plutôt une loi asymétrique. Sur la base de cette information, l’utilisation de la variance comme seule mesure du risque encouru serait inappropriée (Bawa (1975)). Par la suite, plusieurs autres chercheurs ont apporté des modifications, voire des remaniements structurels à cette règle et ont élaboré de nouveaux modèles. Ces différents modèles se fondent sur la manière dont ils mesurent la prime de risque.

Parmi la multitude de modèles qui existent dans la littérature, notre analyse se focalisera sur le modèle d’évaluation des actifs financiers fondé sur la consommation. Nous allons considérer l’analyse du consommateur gestionnaire de portefeuille. Ceci dit nous allons d’abord étudier les déterminants de la prime de marché dans un modèle où les rendements suivent la loi normale symétrique à variance constante.Par la suite, nous analyserons la cas où les rendements suivent plutôt une distribution normale asymétrique.

L’originalité de notre démarche se situe au niveau de la prise en compte de l’asymétrie (« skew-ness ») dans la distribution des rendements excédentaires des actifs financiers. Nous estimons que les rendements excédentaires suivent une distribution asymétrique et non une loi normale symétrique comme on a l’habitude de voir dans la littérature existante. Nous faisons aussi l’hypothèse que la variance des rentablités espérées n’est pas constante comme le souligne les travaux antérieurs, mais qu’elle est très volatile dans le temps. A l’égard de ces hypothèses, nous aurons un double objectif dans ce travail :

1. Analyser les déterminants de la prime de marché dans l’hypothèse d’un modèle avec une distribution asymétrique ;

2. Estimer ce modèle sous l’hypothèse que la variance suit un processus ARCH-GARCH (p,q).

Après l’introduction en chapitre I, notre travail sera structuré par les points suivants : le chapitre II décrit la spécification économétrique du modèle, il faut souligner que dans cette section nous allons d’abord développer le modèle avec la loi normale symétrique, ensuite le modèle avec la loi normale asymétrique. Le chapitre III décrit les données d’études. Dans le chapitre IV nous présentons les modèles ARCH/GARCH, puis dans le chapitre V nous analysons les résultats empiriques ; enfin nous faisons la conclusion dans le chapitre VI.

(15)

Chapitre 1

LA SPÉCIFICATION

ÉCONOMÉTRIQUE DU MODÈLE

1.1

Modèle avec la loi normale symétrique

Cette partie est basée sur les travaux de Campbell, Lo et MacKinlay (1999). Leurs travaux découlent du modèle étudié par Lucas (1978) et Breeden (1979). Il faut souligner que depuis la parution de ces études, les modèles inter-temporels d’équilibre général traitant de la valori-sation des actifs financiers ont pris une place importante dans la littérature économique. Ces modèles prédisent qu’en équilibre général, les prix et les rendements des actifs financiers sont liés aux caractéristiques des préférences des agents économiques, en particulier les paramètres d’aversion au risque et de substitution inter-temporelle.

Pour développer cet argument, nous partons de l’idée, selon laquelle les individus planifient leur consommation à la fois pour le présent et pour le futur. Dans le but de consommer davantage dans le futur, ils doivent consommer moins aujourd’hui ; c’est-à-dire qu’il existe une substitution inter-temporelle entre la consommation courante et la consommation future. La décision de savoir s’il faut investir ou accumuler du capital dépend du taux de rendement du capital et du coût d’emprunt auprès des ménages. En équilibre général le taux de rendement du capital et le taux d’intérêt de l’épargne sont liés car les firmes ne seront pas prêtes à emprunter à un taux supérieur au taux de rendement de leurs capitaux corrigé pour les risques encourus. Les ménages de leur côté ne seraient pas prêts à prêter à moins que le taux de rendement de l’épargne soit supérieur ou égal à leur taux de préférence pour le présent. Nous analyserons par conséquent une théorie de valorisation des actifs qui tienne compte de ces considérations d’équilibre général inter-temporel.

Considérons un ménage représentatif, gestionnaire de portefeuille qui choisit d’investir dans deux types différents d’actifs financiers les obligations et les actions.

(16)

Uneaction est un titre de propriété sur une partie du capital d’une firme privée. Uneobligation est un titre de créance fixe émis par un agent public ou privé

Les obligations sont des valeurs à revenu garanti, en ce sens que l’achat d’une obligation pré-sente moins de risque que l’achat d’une action. Dans cette condition nous admettons que les obligations sont des actifs sûrs et les actions sont des actifs risqués. Le ménage type connaît son revenu actuel avec certitude, mais le revenu de la période à venir est incertain ou aléatoire. Nous supposons que le ménage maximise la valeur actualisée de ses utilités courante et futures Chacune des valeurs dépend de la consommation, tout en respectant sa contrainte budgétaire. Le problème de maximisation inter-temporelle est alors le suivant :

Fonction d’utilité : Vt= max Et "+∞ X i=0 βiU (Ct+i) # 0 < β < +∞ (1.1) Budget 0 = Bt+1 

1 + rft+1+ Qt+i 1 + rt+im  − Ct+i− Bt+1+i− Qt+1+i pour ∀ i (1.2)

Où Et[.] est l’opérateur d’espérance mathématique conditionnelle à l’information dont

dis-pose le ménage. β est le facteur d’escompte, Ct représente la consommation, U (C) l’utilité

instantanée, Bt désigne le stock de l’actif financier sans risque avec un taux de placement rft et enfin Qt représente l’actif risqué du marché avec un taux de placement rtm. On remarque

bien que le prix de l’actif n’intervient pas dans ce modèle, par souci de simplification nous avons supposé qu’il est égal à 1.

Nous utiliserons la méthode de la programmation dynamique stochastique pour résoudre ce problème. L’objectif sera de maximiser la fonction valeur que nous présentons comme suit : La fonction de valeur est :

Vt(Bt, Qt) = M ax {Bt+1,Qt+1,Ct,λt} U (Ct) + βEt[Vt+1(Bt+1, Qt+1)] + λt  Bt  1 + rft  + Qt(1 + rmt ) − Ct− Bt+1− Qt+1  (1.3)

Où, λt est le multiplicateur de Lagrange associé à la contrainte budgétaire de l’agent. Les

choix optimaux du consommateur-gestionnaire de portefeuille doivent respecter les conditions

(17)

du premier ordre : 0 = −λt+ βEt  ∂Vt+1 ∂Bt+1  (1.4) 0 = −λt+ βEt  ∂Vt+1 ∂Qt+1  (1.5) 0 = −λt+ U0(Ct) (1.6) 0 = Bt  1 + rft+ Qt(1 + rtm) − Ct− Bt+1− Qt+1 (1.7)

Les équations (1.4) à (1.7) sont dans l’ordre les conditions du premier ordre des choix Bt+1, Qt+1, Ct et λt.

On trouve les différentielles de la fonction de valeur Et

h ∂Vt+1 ∂Bt+1 i et Et h ∂Vt+1 ∂Qt+1 i en appliquent les conditions de l’enveloppe :

Les conditions de l’enveloppe

∂Vt+1 ∂Bt+1 = 1 + rt+1m  λt+1 (1.8) ∂Vt+1 ∂Qt+1 = 1 + rft+1λt+1 (1.9)

Les condition d’Euler du problème d’optimisation de l’agent sont obtenues en remplaçant (1.8) et (1.9) dans les conditions du premier ordre (1.4) et (1.5).

Les conditions d’Euler

0 = −U0(Ct) + βEt h 1 + rft+1U0(Ct+1) i (1.10) 0 = −U0(Ct) + βEt  1 + rmt+1 U0(Ct+1)  (1.11) 0 = Bt  1 + rft+ Qt(1 + rtm) − Ct− Bt+1− Qt+1 (1.12)

Sans perte de généralité les deux premières équations nous enseignent que le ménage représen-tatif fait un choix efficace de son portefeuille quand il y a égalité entre la marge bénéficiaire et la marge des coûts d’une unité supplémentaire d’investissement dans l’actif sûr et l’actif risqué. Il est utile de réécrire les équations d’Euler (1.10) et (1.11) de la manière alternative suivante. Et  βU0(C t+1) U0(C t)  1 + rft+1  = 1 (1.13) Et  βU0(C t+1) U0(C t) 1 + rt+1m   = 1 (1.14)

(18)

Les conditions (1.13) et (1.14) résument les restrictions imposées par la théorie économique sur les rendements financiers rft+1et rmt+1. En termes des espérances mathématiques, le produit des rendements financiers bruts futurs, (1 + rit+1) pour i = f et m, et du taux marginal de substi-tution inter-temporelle, βU0(Ct+1)

U0(C

t) , doit être égal à un pour les deux actifs. Dans la littérature

financière, le taux marginal de substitution inter-temporelle apparaissant dans les équations (1.13) et (1.14) est souvent associé à un facteur d’escompte stochastique. Pour soumettre ces prédictions à la vérification empirique, il nous faut postuler une forme paramétrique pour la fonction d’utilité instantanée U (C). Dans la littérature on utilise souvent une fonction d’utilité de forme iso-élastique comme fonction d’utilité du ménage représentatif :U (Ct) = C

1−γ t

1−γ où le

paramètre γ désigne le coefficient Arrow-Pratt d’aversion relatif au risque. Ce paramètre se définit par : γ = −U00(Ct)·Ct

U0(C

t) avec U

00 ≤ 0.

La fonction d’utilité iso-élastique possède plusieurs propriétés intéressantes : – Plus γ est élevé plus l’investisseur a de l’aversion pour le risque. – Quand γ est égal à zéro l’individu est neutre face au risque.

– Les primes de risques associées sont invariantes quelque soient les changements prévus au niveau de l’économie ou de la richesse.

– On est en mesure d’agréger les choix des individus même si ces derniers ont des niveaux de richesses différents.

– Enfin le coefficient d’aversion au risque γ est toujours égal à l’inverse de l’élasticité de substitution inter-temporelle.

Hall (1988) mentionne dans ses travaux que cette dernière propriété n’est pas toujours dé-sirable, dans la mesure où l’aversion au risque n’a pas une dimension temporelle et qu’elle existe uniquement dans une situation d’incertitude. À l’inverse, la notion de substitution inter-temporelle requiert la dimension inter-temporelle et existe même en l’absence d’incertitude. Malgré cette lacune, la fonction iso-élastique reste prévalente dans les travaux appliqués. En tenant compte des préférences iso-élastiques les conditions d’Euler deviennent

Et " β Ct+1 Ct −γ  1 + rt+1f  # = 1 (1.15) Et " β Ct+1 Ct −γ 1 + rmt+1 # = 1 (1.16)

Par ailleurs, il est possible à l’équation (1.15) de sortir le facteur 

1 + rft+1 

de l’opérateur d’espérance mathématique car il est connu à la période t. Ces modifications permettent d’écrire

(19)

les équations d’Euler plus simplement. Et " β Ct+1 Ct −γ#  1 + rft+1 = 1 (1.17) Et " β Ct+1 Ct −γ 1 + rt+1m  # = 1 (1.18)

Étant donné que nous sommes en équilibre général inter-temporel sur tous les marchés ; on aura remarqué que Ct+1 = Ct· er

c

t+1 , cela veut dire que la consommation de demain (Ct+1)

est égale à la consommation d’aujourd’hui (Ct) multipliée par le taux de croissance brut de la consommation erct+1. Tout en faisant l’hypothèse que rc

t+1 suit une loi normale avec comme

moyenne µ et t+1 un terme aléatoire. rt+1c = µc+ t+1 où t+1 ∼ N 0, σ2. Dans le même

esprit, sachant que les rendements financiers sont des valeurs numériquement proches de zéro, les rendements bruts des actifs financiers respectent les approximations erft+1 ≈ (1 + rm

t+t) et

ermt+1 ≈ (1 + rf

t+t). Ce qui nous permet de réécrire les équations d’Euler autrement :

β · er f t+1· Ethe−γ rt+1c i = 1 (1.19) β · Et h ert+1m − γ rt+1c i = 1 (1.20)

Les équations (1.19) et (1.20) sont les formes paramétriques des équations d’Euler sur lesquelles s’appuient l’analyse empirique des prochaines sections. Comme nous le verrons à la prochaine section, il est possible, en postulant la Loi statistique des rendements, de calculer les formes explicites des espérances mathématiques et d’obtenir ainsi les expressions analytiques des rendements attendus.

1.1.1 Calcul du rendement de l’actif certain

Le calcul du rendement de l’actif certain s’appuie sur l’équation (1.19). Sachant que le taux rft+1 est connu à la période t et sous l’hypothèse que rct+1 suit une loi normale, alors nous pouvons réécrire l’équation (1.19) sous la forme agrégée de la densité de probabilité d’une loi normale gaussienne : 1 = β · erft+1E t h e−γ rct+1i = e−ρ· ert+1f · Z +∞ −∞ e−γ rct+1·e − 1 2(rct+1−µc) 2 σ2 σ√2π dr c t+1 (1.21)

(20)

L’Annexe A de Carmichael Benoît et Alain Coën (2013)1 démontre qu’il est possible de

résoudre l’intégral du côté droit de (1.21) pour obtenir l’expression simplifiée : 1 = e−ρ · er

f

t+1· eγ · µc+γ22 ·σ2 (1.22)

En prenant le logarithme des deux côtés, nous trouvons l’expression du rendement de l’actif certain prédit par le modèle.

rt+1f = ρ + γ · µc−

γ2 2 · σ

2 (1.23)

L’équation (1.23) résume les déterminants du rendement de l’actif certain. Le taux d’intérêt réel dépend du taux de préférence pour le présent, du coefficient d’aversion aux risque et de la variance du taux de croissance de la consommation. Cette dernière variable est un indicateur de la quantité de risque agrégé présent dans l’économie.

1.1.2 Calcul du rendement de l’actif incertain

L’équation (1.20) permet de calculer le rendement attendu de l’actif risqué.

e−ρ· Ethermt+1− γ rct+1i= 1 (1.24)

Sous l’hypothèse selon laquelle rt+1c = µc+ t+1 où t+1∼ N 0, σ2 nous avons

1 = e−ρ· Eter m t+1−γrt+1c  = e−ρ· Z +∞ −∞ ermt+1−γ·rt+1c e −12·(rct+1−µc) 2 σ2 σ√2π · dr c t+1 (1.25)

Sachant que le consommateur représentatif consomme l’intégralité de son revenu de portefeuille en équilibre général et sous l’hypothèse que les revenus autonomes sont nuls, il s’en suit que rt+1m = rct+1, (Etrt+1m  = Etrct+1 = µc). Nous avons donc

1 = e−ρ· Z +∞ −∞ erct+1−γ·rct+1e −1 2· (rct+1−µc)2 σ2 σ√2π · dr c t+1 (1.26)

Cette intégrale est similaire à celle développée plus haut à l’équation (1.21). Après quelques manipulations mathématiques elle se simplifie à :

1 = e−ρeµc− γµc+ γ2

2 · σ

2− γσ2+σ2

2 (1.27)

En prenant le logarithme des deux côtés comme précédemment, nous trouvons l’expression du rendement risqué espéré :

µc= γ · µc+ ρ + γ · σ2− σ2 2 − γ2 2 · σ 2 (1.28)

1. Asset pricing with skewed-normal return, Finance Research Letters, sous presse, http ://dx.doi.org/10.1016/j.frl.2013.01.001

(21)

En tenant compte du résultat Etrm t+1



= Etrt+1c



= µc découlant de l’hypothèse selon

laquelle les revenus de portefeuille sont les seuls revenus qui financent la consommation.

Etrt+1m  = ρ + γ · Etrmt+1 + γ · σ2− σ2 2 − γ2 2 · σ 2 (1.29)

Il faut souligner à ce stade que notre intérêt porte principalement sur la prime espérée de marché plutôt que le rendement espéré du marché donné à l’équation (1.29). La prime espéré de marché est le rendement excédentaire espéré, c’est à dire l’écart entre le rendement risqué espéré et le rendement sûr. On trouve le rendement excédentaire espéré de l’actif risqué en retranchant de l’équation (1.29), l’expression du rendement sans risque donnée à l’équation (1.23). Etrmt+1 − r f t+1= γ · σ2− σ2 2 (1.30) ou plus précisément, Etrmt+1 − r f t+1+ Jm = γ · σ2 = λ (1.31) Où, Jm= σ 2

2 est un terme d’inégalité de Jensen

2 et où λ désigne la prime de marché.

L’équa-tion (1.31) nous enseigne que le rendement excédentaire espéré du marché Et

h rm t+1− r f t+1 i

dépend de l’effet combiné du risque σ2 et de l’aversion au risque γ. De façon générale, cette équation permet également de déduire les déterminants du rendement excédentaire de tout actif risqué i différent du rendement du marché rtm. Commençons par noter que la variance σ2 n’est rien d’autre que la covariance du rendement rtm avec lui-même.

Et

h

rmt+1− rft+1i+ Jm = γ · V ar(rmt+1) = γ · Cov(rmt+1, rmt+1) (1.32)

Il s’ensuit pour tout actif i Et

h

rit+1− rft+1i+ Ji = γ · Cov(rt+1i , rt+1m ) (1.33)

En multipliant et divisant le côté droit par V ar(rt+1m ) nous obtenons :

Et h rt+1i − rt+1f i+ Ji= Cov(rt+1i , rmt+1) V ar(rmt+1) · γ · V ar(r m t+1) (1.34) en posant Cov(r i t+1,rmt+1) V ar(rm t+1) = βi

on aura plus précisément l’expression suivante :

Et

h

rit+1− rt+1f i+ Ji= βi· γ · V ar(rt+1m ) (1.35)

Le paramètre βi est le « bêta » de l’actif i. Il représente la sensibilité au rendement du marché, c’est-à-dire la variation du rendement expliqué par celle du marché.

2. L’inégalité de Jensen fait référence au fait que si une variable X suit une loi log normale alors, E[f (x)] 6= d(E[x]) à moins que f (·) soit une fonction linéaire.

(22)

On dit qu’il représente la part de « risque systématique » ou « risque non diversifiable » contenu dans le risque global du portefeuille.

En remplaçant λ par son expression trouvée en haut à l’équation(1.31) on aura : Et h rt+1i − rt+1f i+ Ji= βi· λ Alternativement, Et h rit+1− rft+1i+ J = βi· Et h rt+1m − rft+1i (1.36) Ainsi nous aboutissons à la fameuse équation du CAPM. Cette équation résume que dans tout portefeuille efficient, la prime de risque d’un actif particulier i est proportionnelle à la prime de risque du portefeuille du marché. Le rapport de proportionnalité est égal au rapport de la covariance conditionnelle de rit et rmt sur la variance conditionnelle de rtm et il mesure la contribution marginale du titre i au risque du portefeuille. Ce qui signifie que les primes sur les actifs risqués ne dépendent que du rendement excédentaire attendu du portefeuille de référence pour des βi donnés.

Par convention, la littérature financière ignore habituellement le terme Jid’inégalité de Jensen,

ce qui permet d’écrire plus simplement l’équation fondamentale du CAPM : Et

h

rt+1i − rt+1f i= βi· Et

h

rmt+1− rft+1i (1.37) βi mesurant ici la sensibilité du rendement de l’actif au rendement du marché, alors on peut

remarquer que

- si βi < 1, alors le rendement excédentaire du titre varie moins que celui du marché

- si βi > 1, alors le rendement excédentaire du titre varie plus que celui du marché.

Dans tout ce qui précède nous avons développé les équations sous l’hypothèse que les rentablités sont distribuées selon une loi normale symétrique. Hors cette hypothèse de symétrie n’est pas conforme à la réalité des rendements financiers. On observe plutôt des coefficients négatifs d’asymétrie chez les rendements financiers.

L’objectif de notre mémoire est de développer et d’estimer économétriquement une version du modèle CAPM qui tient compte de cette asymétrie. Pour ce faire, à la suggestion de Carmichael et Coën (2011) nous allons exploiter la loi Normale Asymétrique d’Azzalini (1985).

1.2

Modèle avec la loi normale asymétrique

Il est utile de commencer par une brève revue des principales caractéristiques de la loi normale asymétrique. Nous verrons par la suite aux sections suivantes quelles sont ses implications pour le rendement sûr et la prime de marché.

(23)

Définition

La loi normale asymétrique est une distribution de probabilité continue qui généralise la dis-tribution normale tout en introduisant une asymétrie non nulle.

L’asymétrie est le troisième moment standardisé ; elle est calculée à partir du cube des écarts à la moyenne. Si nous désignons par φ(z) la densité de probabilité de la loi normale centrée réduite φ(z) = √1 2πe −z 2 2 (1.38)

Sa fonction de répartition est donnée par : Φ(z) = Z z −∞ φ(t)dt = 1 2  1 + erf  z √ 2  (1.39) Où, erf (·) est la fonction d’erreur de Gauss. Azzalini (1985) démontre que la densité de probabilité de la distribution normale asymétrique f (z) avec paramètre d’asymétrie α est donnée par l’expression

f (z) = 2 φ(z) Φ(α z)

On peut facilement remarquer que l’on retrouve la distribution normale symétrique lorsque α = 0, et que la valeur absolue de l’asymétrie augmente lorsque la valeur absolue de α aug-mente. Cela implique que si α > 0, la distribution est asymétrique vers la droite donc une queue de distribution étalée vers la droite ; et si α < 0 la distribution est asymétrique vers la gauche, c’est à dire une queue de distribution étalée vers la gauche ; comme on peut le voir sur la figure suivante.

(24)

Figure 1.1: Densité de la Skew normal

(25)

Il arrive souvent qu’on fasse une transformation usuelle de la variable x en ajoutant un pa-ramètre de position (ξ) et un papa-ramètre d’échelle (ω). Dans ce cas la variable x se définit par x = ξ + ω z, et en tenant compte de cette transformation, les trois premiers moments se calculent de la façon suivante :

- La moyenne : µx= ξ + ω µz - La variance : σx2 = ω2 1 − µ2z - Le coefficient d’asymétrie : ηx= ϕ µz p1 − µ2 z !3 Avec, µz = ψ α √ 1 + α2, ψ = r 2 π et ϕ =  2 −2 π 4  1.2.1 La description du modèle

Pour décrire le modèle, nous formulons l’hypothèse sous-jacente que les rentablités du marché suivent une distribution normale asymétrique. Sous cette hypothèse, les équations (1.19) et (1.20) des rendements sûr et risqué deviennent :

1 = e−ρ· ert+1f · Z +∞ −∞    e−γ rct+1· e− 1 2· (rct+1−µc)2 σ2 ω√2π   · Φ(α r c t+1) · drt+1c (1.40) 1 = e−ρ· Z +∞ −∞    e(1−γ) rt+1c · e− 1 2· (rct+1−µc)2 σ2 ω√2π   · Φ(α r c t+1) · drct+1 (1.41)

Carmichael et Coën (2011) démontre que les intégrales du côté droit peuvent être résolues pour obtenir : 1 = e−ρ· erft+1·   e −γ ξ + γ2 ω 2 2   · 2 · Φ  −γ ω µz ψ  (1.42) 1 = e−ρ·   e (1 − γ) ξ + ω 2 2 − γ ω 2+ γ2 ω2 2   · 2 · Φ  (1 − γ) ω µz ψ  (1.43)

(26)

On procède par étapes pour déduire les restrictions imposées par les équations (1.42) et(1.43) sur les rendements espérés. On débute par une transformation logarithmique des deux côtés de (1.42) et( 1.43). 0 = −ρ + rft+1− γ ξ + γ2ω2 2 + ln  2 · Φ −γ ω µz ψ  (1.44) 0 = −ρ + (1 − γ) ξ + ω 2 2 − γ ω 2+ γ2 ω2 2 + ln  2 · Φ (1 − γ) ω µz ψ  (1.45)

On remplace ensuite les composantes ln [2 Φ(·)] par leurs approximations de Taylor du 3e degré au voisinage de zéro. On simplifie ensuite les expressions obtenues en utilisant les définitions de la moyenne, variance et asymétrie énoncées plus haut. Ces manipulations algébriques mènent à l’expression suivante pour le rendement excédentaire espéré de l’actif risqué.

Et

h

rt+1m − rft+1i+ J = γ σ2+ γ (1 − γ) ·η σ

3

2 (1.46)

Où, encore une fois, J = σ22 + η σ63 est un terme d’inégalité de Jensen. Remarquons tout de suite que la différence fondamentale entre cette expression et celle trouvée avec la loi normale se situe au niveau de la dernière composante de l’équation (1.46), c’est à dire γ (1 − γ) ησ23. Cette composante additionnelle, capte l’effet de l’asymétrie sur la prime de marché. Dans la littérature financière, l’asymétrie négative est souvent vue comme engendrant une prime d’asymétrie positive. L’équation (1.46) révèle que ce ne sera pas toujours le cas. Par ailleurs, le signe de la prime s’asymétrie dépend de la valeur du coefficient d’aversion au risque. L’asymétrie négative engendre une prime positive uniquement lorsque le coefficient d’aversion au risque est supérieur à l’unité. Ce résultat est discuté en profondeur dans l’étude de Carmichael et Coën (2011).

Ainsi donc, l’équation (1.46) est l’équation fondamentale sur laquelle s’appuie l’analyse empi-rique des prochaines sections.

Hypothèse : L’estimation de ce modèle par la méthode du maximum de vraisemblance don-nera un coefficient de « skewness » significativement différent de 0.

Dans la suite de notre démarche nous nous attarderons beaucoup plus sur le comportement temporel de la variance σ2.

Plusieurs travaux se basent sur l’hypothèse que la variance est constante dans le temps, hors en réalité les données financières ont une grande variabilité de la volatilité. Cette problématique sera détaillée tout au long de notre étude.

Avant de passer à la modélisation, nous allons d’abord faire une présentation des données d’études.

(27)

Chapitre 2

PRÉSENTATION DES DONNÉES

Les données portent sur le marché américain, et sont tirées de la banque de données de Fama et French.1 Elles sont constituées par 569 observations mensuelles du rendement excédentaire (période allant de février 1962 à septembre 2011).

Pour notre analyse, nous avons choisi de nommer cette série du rendement excédentaire du marché par ”rmkt”2. Pour rappel, nous avons déjà calculé l’expression du rendement excéden-taire plus haut dans l’équation (1.46). Elle s’obtient par la différence entre le rendement risqué au prix du marché Rt et le rendement sans risque désigné par Rf0 soit donc rmkt= Rt− Rf0

où Rt correspond à la différence première du logarithme du prix Pt de l’indice du marché à l’instant t, c’est à dire que Rt= log(Pt) − log(Pt−1)

Notre série rmkt présente une moyenne mensuelle de 0, 41% et d’une variance mensuelle de 0, 21%, elle est affectée d’un coefficient d’asymétrie négatif de −0, 533. L’analyse descriptive des données brutes est résumée, dans le tableau suivant.

Variable Observations Min Max Moyenne variance Skewness Rmkt 596 −0, 2314 , 1605 0, 0041 0, 0021 −0, 5330

Table 2.1: Statistique descriptive du rendement excédentaire du marché

Il faut se dire que ces résultats de l’analyse descriptive ne constituent pas une surprise pour nous, dans la mesure où ils présentent les principales propriétés qu’on retrouve dans les séries

1. http ://mba.tuck.dartmouth.edu/pages/faculty/ken.french/data_library.html 2. le rmkt remplace le rmt de l’équation (1.46)

(28)

financières. Dès lors nous allons passer en revue ces propriétés afin de bien comprendre leur spécificité.

2.1

La Stationnarité

Étant donné que nous travaillons avec des séries temporelles, nous avons besoin des données stationnaires afin de procéder à une estimation "efficace".

Par définition un processus aléatoire (Xt, ∀t ∈ Z) est fortement stationnaire si la

distri-bution marginale conjointe de (Xt, Xj), dépend seulement de l’écart entre t et j. C’est à

dire que p(Xt, Xt−1, ....Xt−k) = p(Xt−j, Xt−j−1, ....Xt−j−k). Par contre un processus aléatoire

(Xt, ∀t ∈ Z) est faiblement stationnaire ou stationnaire au second ordre si et seulement si les

conditions suivantes sont satisfaites :

(i) ∀(t) ∈ Z, E(Xt2) < ∞ cela implique la convergence des moments d’ordre deux (ii) ∀(t) ∈ Z, E(Xt) ≡ µt= µ : la moyenne inconditionnelle de Xt est constante ∀(t)

(iii)∀(t, h) ∈ Z2, cov(Xt, Xt+h) = γ(h) : les covariances de Xt et Xt+h ne varient pas par

translation du temps.

Rappelons que γ(h) représente la fonction d’auto-covariance et les définitions suivantes s’ap-pliquent sur cette fonction :

γ(h) = γ(−h)

γ(0) ≡ V [Xt] = σ2. Cela signifie que la variance inconditionnelle est indépendante du temps.

De façon précise, un processus aléatoire est stationnaire au sens faible si l’ensemble de ses moments sont indépendants du temps.

Sur la base de la définition du rendement excédentaire et au terme de la définition de la sta-tionnarité, la série rmkt est stationnaire au second ordre.

Les méthodes proposées par Dicker et Fuller (1979), permettent de tester l’hypothèse de sta-tionnarité d’une série. Or ici, nous avons des données constituées par la différence première des indices du marché, nous n’avons pas besoin de faire ce test de stationnarité. Notre série est stationnaire comme le montre ce premier graphique.

(29)

−.2 −.1 0 .1 .2 rmkt 0 100 200 300 400 500 600 Période Corrélogramme

rendement excédentaire du marché

Figure 2.1: rendement excédentaire du marché

2.2

L’auto-corrélation

Afin de vérifier l’hypothèse d’auto-corrélation, analysons le corrélogramme de la série rmkt et

celui de rmk2t. On remarque que les auto corrélations de notre série rmkt sont faibles, ce qui

sous entend que la série rmkt est proche d’un bruit blanc ; par contre nous enregistrons des fortes auto corrélations de la série rmk2t. Ce qui est incompatible avec une hypothèse de bruit blanc. Rappelons que cette absence d’auto-corrélation de la série rmktnous renvoie à la notion de l’hypothèse du marché efficient en terme anglais EMH (Efficience Market Hypothesis)3 Notez que nous ne traitons pas les détails de cette hypothèse dans notre étude. Il faut tout simplement retenir que sous l’hypothèse du marché efficient les rendements ne peuvent varier entre t et t + 1 qu’en raison de l’arrivée de «nouvelles informations» non anticipées, autrement dit les rendements d’équilibre corrigés par le risque couru sont imprévisibles.

Par ailleurs sous l’hypothèse des anticipations rationnelles, à la date t, les erreurs de prévision t+1= rmkt+1− Et(rmkt+1) sont en moyenne nulles et ne doivent pas être corrélées à aucune

autre information disponible à la même période. C’est à dire que (Et[t+1] = 0). Cette dernière

propriété est connue sur le nom de «condition d’orthogonalité». Pour résumer, on notera que l’hypothèse de EHM et l’hypothèse des anticipations rationnelles n’imposent des restrictions que sur l’espérance mathématique de l’erreur de prévision t. Dès lors la présence

d’auto-corrélation au niveau de la série de rmkt2 n’est pas incompatible avec l’EHM.

En utilisant le test de Portmanteau ou test de bruit blanc, nous pouvons vérifier l’absence d’auto-corrélation au niveau de rmkt ainsi que la présence d’auto-corrélation au niveau de 3. K. Cuthbertson (2000)"Economie financière quantitative : Actions, Obligations et Taux de Change", De Boeck

(30)

rmk2 t.

La statistique du test, qui suit une loi de Khi-deux avec k degré de liberté est définie par :

QK = T (T + 2) K X i=1 ˆ ρ2i T − i L −−−−→ T →∞ χ 2(K) (2.1)

Où ˆρi désigne l’auto-corrélation d’ordre i des processus {rmkt et rmkt2}.

Pour un ordre K donné, le test a pour hypothèse : H0 : ˆρ1=...= ˆρi=0

H1 : ∃j ∈ [1, K], tel que ˆρj 6= 0

Sur la Figure 3.2 du correlogramme de rmkt, pour une probabilité critique de 5%, on accepte

l’hypothèse H0 d’absence d’auto-corrélation jusqu’à l’ordre maximal testé deK = 20, (QK = 0, 42 > 5%). −.1 −.05 0 .05 .1 Coefficients d’autocorrélation 0 5 10 15 20 25 30 Période

Corrélogramme du rendement excédentaire

Figure 2.2: le correlogramme de rmkt

Par contre, en examinant le correlogramme de la Figure 3.3, au seuil critique de 5%, on est en mesure de rejeter catégoriquement l’hypothèse nulle d’absence d’autocorrection de la variable rmkt2 pour un ordre K = 1, (QK = 0, 0043 < 5%).

2.3

L’asymétrie

Beaucoup de tests économétriques sont basés sur l’hypothèse d’une loi normale symétrique. Il arrive bien souvent que cette hypothèse forte n’est pas toujours vérifiée, en l’occurrence dans les données financières.

(31)

−.1 −.05 0 .05 .1 Coefficients d’autocorrélation 0 5 10 15 20 25 30 Période

Corrélogramme du rendement excédentaire au carré

Figure 2.3: le correlogramme de rmkt2

Ceci dit selon sa définition, la loi normale symétrique de variance σ2 doit respecter les condi-tions suivantes :

1. le coefficient d’asymétrie (skewness), correspondant au moment centré d’ordre 3, est nul ; 2. le coefficient de l’aplatissement(kurtosis), correspondant au moment centré d’ordre 4 est

égale à 3σ4.

Si la première condition n’est pas respectée, on dira que la distribution est asymétrique, tandis que si la deuxième n’est pas respectée on parle de distribution leptokurtique ou platykurtique selon que le coefficient de l’aplatissement est respectivement supérieur ou inférieur à 3σ4.

Le graphique suivant correspond à l’histogramme de la distribution marginale du rendement excédentaire du marché. Il présente une queue de distribution épaisse vers la gauche. Ce qui montrent bien évidement que la distribution de la série rmktn’est pas gaussienne. On rejette clairement l’hypothèse de normalité de la série. Le coefficient de l’asymétrie du tableau 3.1 de l’analyse des données présentée plus haut nous confirment cela.

Nous pouvons d’ailleurs, prouver cette confirmation en nous référant aux tests d’asymétrie et d’aplatissement du chapitre 16 de Davidson et Mackinnon4.

L’idée de ces tests consiste à chercher la moyenne µ et l’écart type σ empirique du rendement excédentaire et ensuite construire un t de Student asymptotique. Cela s’exprime de la façon suivante : et≡ d rmkt − ˆµ ˆ σ 4. Inférence Statistique

(32)

0 2 4 6 8 10 −.3 −.2 −.1 0 .1 u Density p_u rmkt

rendements excédentaires asymétriques

Figure 2.4: l’histogramme de la distribution marginale du rmkt

Ainsi la statistique pour tester l’asymétrie est définie par :

(6n)−1/2

n

X

t=1

e3t

Tant dis que celle pour tester l’excès du kurtosis est :

(24n)−1/2

n

X

t=1

(e4t − 3)

Les résultats statistiques χ2 et la p-value rejettent très largement l’hypothèse de normalité de la série rmkt et on confirme l’idée que rmkt suit d’une loi normale asymétrique avec une

queue épaisse vers la gauche.

2.4

La volatilité

Comme le montre la Figure 3.1, on observe empiriquement des périodes de forte volatilité sur le marché où de fortes variations, tendent à être suivies par d’autres grandes variations. On parle de «Clusters de Volatilité». Rappelons que ce type de phénomène remet en cause l’hypothèse d’homoscédasticité. Pour tester cette hypothèse d’homoscédasticité plusieurs tests sont possibles tels que : test de Golfed et Quant, test de White, test de Breusch et Pagan et le test du multiplicateur de Lagrange. Dans notre cas nous allons utiliser ce dernier test. Le test du multiplicateur de Lagrange consiste à faire une auto régression linéaire avec constante de la série du rmkt au carré sur q retards. Pour un souci de simplification nous retenons le nombre de retards q=1 :

rmk2t = α0+ α1∗ rmkt−12 (2.2)

(33)

Les hypothèses du test sont : (

H0 : homoscédasticité : α1> 0

H1 : hétéroscédasticité : α1= 0

On utilise la statistique du test n × R2 pour mener le test, avec n= nombre d’observations de la série rmkt et R2 désigne le coefficient de détermination issue de la régression (2.29). Sous l’hypothèse H0 la statistique n × R2 suit une loi de Khi-deux avec 1 degré de liberté. On est pas en mesure de rejeter l’hypothèse d’homoscédasticité si la statistique Qi = n × R2 ≤ χ2(1).

La régression de l’équation (2.29) nous donne un R2 = 0, 0137, avec n = 596, la statistique Q596 × 0.0137 = 8.16. Cette valeur calculée est supérieure à 3, 84, soit la valeur critique de la χ2(1) au seuil de 5%. L’hypothèse d’homoscédasticité est rejetée en faveur de la présence d’hétéroscédasticité dans la série des rendements excédentaires.

Par ailleurs, l’analyse de la variance de notre série permet de bien comprendre que nous somme en présence d’un processus ARCH/GARCH, comme le montre la figure suivante.

0 .02 .04 .06 rmkt² 0 200 400 600 mois Figure 2.5: la variance de rmkt

2.5

Effet Levier

Cette propriété nous rappelle de l’existence d’une asymétrie entre les valeurs passées des rendements et la volatilité de ces derniers. Par exemple une baisse des rendements tend à provoquer une augmentation de la volatilité supérieure à celle induite par une hausse des rendements de même amplitude. Cela s’explique par le fait qu’il y a plus de mouvements fort

(34)

à la baisse qu’à la hausse. De façon explicite, un choc négatif sur le prix d’un titre va réduire la valeur d’une firme, ce qui augmentera le ratio de son endettement. L’état financier de la firme étant plus fragile, alors la volatilité augmente.

2.6

Saisonnalité

Cet aspect nous explique un peu le lien qu’il y a entre la volatilité et l’effet du week-end et des jours fériés. C’est à dire que les marchés sont très volatiles à la fermeture ( week-end et jours fériés).

Compte tenu de ces différentes propriétés et des résultats des tests statistiques qui en ont découlés, il serait impossible pour nous de modéliser la série du rmktpar un processus ARMA

linéaire, car l’hypothèse de processus ARMA ne permet pas de prendre en compte les méca-nismes d’asymétrie et de variance conditionnelle dont il est question ici. Ces phénomènes par-ticuliers se rencontrent fréquemment dans les données financières et boursières ainsi que dans les données de taux de change, où la volatilité semble être un élément essentiel à prendre en compte. D’où la nécessité d’aller vers une modélisation non linéaire.Il est bien probable qu’une modélisation ARCH/GARCH permette de bien capter le processus de notre série rmkt.

Dans le chapitre suivant nous allons définir les processus ARCH/GARCH.

(35)

Chapitre 3

MODÈLES ARCH/GARCH

3.1

Modèles ARCH(q)

Le modèle ARCH (Autoregressive Conditional Heteroscedasticity) a été présenté pour la 1ère fois par Engel en 1982. Il constitue une grande classe de modèle non linéaire qu’on retrouve surtout dans les modélisations des séries financières. L’approche ARCH propose une représen-tation auto-régressive de la variance conditionnelle à son information passée tout en permettant de tenir compte des phénomènes de volatilité. En bref l’idée générale est à la remise en cause de l’hypothèse d’homoscédasticité que l’on accepte le plus souvent dans le cas des modèles linéaires.

3.1.1 Présentation du processus ARCH

Selon l’analyse traditionnelle, de Box et Jenkins( 1970), la prévision est fondée sur la moyenne conditionnelle de la série à étudier. Par exemple si une variable Zt suit un processus AR(1) stationnaire :

Zt= θZt−1+ t

avec t i.i.d (0, σ2), alors la moyenne conditionnelle de Zt+1 est θZt tandis que sa moyenne

inconditionnelle est nulle. Par ailleurs, Engle (1982) souligne que l’amélioration des prévisions issues des séries chronologiques provient tout à fait de l’exploitation de l’information contenue dans la moyenne conditionnelle du processus. La variance conditionnelle du processus AR(1) ( σ2) et la variance inconditionnelle σ2/(1 − θ) sont constantes quelque soit la période de prévision. Alors que se passerait-il s’il y a des changements dans les variances des erreurs de prévisions ? L’économétrie classique présentera certainement des faiblesses pour modéliser ce genre de phénomène car il va sans doute se poser un problème d’hétéroscédasticité, pour la simple raison que la matrice de variance-covariance des erreurs Ωu ne sera pas définie à un scalaire près par la matrice identité I. C’est à dire Ωu 6= σ2I. C’est pour apporter une réponse

(36)

économé-trique, tenant compte de variances conditionnelles qui varient dans le temps. Plus précisément, les modèles ARCH sont des modèles auto-régressifs conditionnellement hétéroscédastiques et sont basés sur une paramétrisation endogène de la variance conditionnelle.

Il faut souligner que dans la famille des modèles ARCH, différents types de processus ont été développés par d’autres chercheurs. Dès lors on peut distinguer les modèles ARCH linéaires et les modèles ARCH non linéaires. Les modèles ARCH linéaires reposent sur une spécification quadratique de la variance conditionnelle ; on y trouve les modèles : ARCH(q), GARCH(p, q) et IGARCH(p, q) ; tant dis que les modèles ARCH non linéaires sont présentés par des spécifications asymétriques. Ce sont les modèles EGARCH(p, q), TARCH(q) et TGARCH(p, q)1.

Pour bien comprendre le processus ARCH, nous allons présenter ce processus tel qu’il a été introduit par Engel (1982).

3.1.2 Description du processus ARCH

On dit qu’une variable Xt suit un processus ARCH(q) si

Xt= zt p ht (3.1) avec ht= α0+ q X i=1 αi· Xt−i2

zt désigne un bruit blanc gaussien c’est à dire E(zt) = 0 et E(zt02)= σ2z = 1.

Plus précisément zt désigne un ensemble de variables aléatoires indépendantes,

identique-ment distribuées, centrées, réduites, tant dis que ht désigne une variable déterministe et

positive qui est conditionnelle à l’information des valeurs passées de Xt. C’est à dire que Xt= {Xt−1, Xt−2, ..., Xt−j, ..}.

L’équation (3.1) peut aussi s’écrire sous la forme de :

Xt2= zt2 " α0+ q X i=1 αi· Xt−i2 #

On s’aperçoit ici que ce n’est pas le processus Xt qu’on cherche à modéliser mais plutôt le

processus de Xt2. Rappelons que les variables Xt ne sont pas indépendantes et ne sont pas autocorrélées, ainsi les espérances conditionnelle et non conditionnelle sont nulles. C’est à dire que E[Xt] = E  zt· v u u tα0+ q X i=1 αi· Xt−i2  = 0 (3.2)

1. Bresson G, Pirotte A. Économétrie des séries temporelles. Théorie et applications 1st ed. Paris : PUF, 1995.

(37)

et E[Xt| Xt−i] = E  zt· v u u tα0+ q X i=1 αi· Xt−i2 | Xt−i  = 0 (3.3)

Comme on l’avait souligné plus haut l’idée de base du processus ARCH est que la variance conditionnelle varie dans le temps. Dès lors on vérifie que la variance conditionnelle de Xtest définie par : V [Xt| Xt−i] = α0+ q X i=1 αi· Xt−i2 ∀i ≥ 1 (3.4)

Tant dis que la variance inconditionnelle est exprimée par :

V [Xt] = α0+ q X i=1 αi· V [Xt−i] = α0 1 − α1− α2− · · · − αq (3.5)

Il y a lieu de noter que si i tend vers l’infini, la variance conditionnelle converge vers la variance inconditionnelle. De façon explicite nous avons :

lim

i→+∞V [Xt| Xt−i] = limi→+∞α0+ αiX 2 t−i =

α0

1 − α1− · · · − αq

= V [Xt]

Cependant il conviendrait d’imposer certaines restrictions sur les coefficients α0 et αi pour que les variances soient définies positives. Cela nécessite que α0 > 0 et 0 ≤ α1+ · · · + αq< 1.

Le dernier aspect à signaler est que les auto-covariances conditionnelles du processus Xt sont

nulles. C’est à dire que

Cov(Xt, Xt+k | Xt−i) = 0 ∀k ≥ 1 et ∀i ≥ 1

En d’autres termes, cela signifie que conditionnellement à Xt−i, le processus de Xt est sans mémoire.

Après avoir décrit le processus ARCH et ses différentes propriétés, nous allons passer en revue le processus GARCH.

3.2

Modèles GARCH (p,q)

3.2.1 Présentation du processus GARCH

Le processus GARCH( Generalized Auto Regressive Conditional Hetermskedasticity) a été introduit en 1986 par Bollerslev. Le processus GARCH est une extension du processus ARCH, il présente les mêmes propriétés et les mêmes fondements que le processus ARCH. Disons que la seule différence se situe au niveau de la définition. Le modèle GARCH a deux dimensions (p,q) alors que le modèle ARCH en a une(q).

(38)

3.2.2 Description du processus GARCH

Ceci dit une variable Xt suit un processus GARCH(p,q) si :

Xt= zt p ht (3.6) avec ht= α0+ q X i=1 αiXt−i2 + p X j=1 βjht−j (3.7)

et zt, un bruit blanc faible. α0> 0, αi≥ 0 et βi ≥ 0

Tout comme le processus ARCH(q), le modèle GARCH (p,q) présente aussi une moyenne conditionnelle et une moyenne non conditionnelle nulle. c’est à dire que

E [Xt] = 0 (3.8)

E [Xt| Xt−i] = 0 (3.9)

Comme précédemment, le modèle GARCH(p,q) est également stationnaire au second ordre. Cela nécessite alors que l’inégalité suivante soit respectée :

q X i=1 αi+ p X j=1 βj < 1

Cette condition nécessaire et suffisante permet de valider la définition des moments d’ordre deux. Ainsi La variance non conditionnelle est constante dans le temps et se définie par :

V [Xt] =

α0

1 − (Pq

i=1αi+Ppj=1βj)

(3.10)

Tandis que la variance conditionnelle se présente de la façon suivante

V [Xt| Xt−i] = α0+ q X i=1 αiXt−i2 + p X j=1 βjht−j (3.11)

Enfin, on remarque tout comme pour le modèle ARCH(q), les es auto-covariances condition-nelles du processus GARCH(p,q) sont nulles.

(39)

Chapitre 4

ESTIMATION DU MODÈLE

Comme nous l’avons souligné plus haut, le modèle de base est représenté par l’équation 1.46. Après l’analyse sommaire des données du rmkt, nous avons testé la présence d’hétéroscédacité ; à cet effet, nous avons supposé qu’une modélisation ARCH/GARCH pourrait bien capter le processus de cette série du rendement excédentaire.

Nous posons alors l’hypothèse que la série rmkt est identifiée par un processus ARCH(1). La prise en compte de ce postulat, nous permet de reformuler l’équation 1.46. Notre modèle à estimer se présente alors sous la forme suivante :

     rmkt+1= γσ2t + γ(1 − γ)η σ3 t 2 + εt+1 σt2 = ωt2(1 − µ2z) ωt+12 = α0+ α1ω2t

Rappelons que µz représente la moyenne d’une variable normale asymétrique standardisée.1

Elle est définie par

µz = ψ λ √ 1 + λ2 avec ψ = p 2/π

,λ désignant la forme de l’asymétrie comme nous l’avons démontré plus haut.

Quant à η, il représente le coefficient d’asymétrie au sens de Fisher et s’exprime comme suit :

η = ϕ µz p1 − µ2 z !3 avec ϕ = 2 −2π 4 t désigne l’aléa associé à l’équation fondamentale.

Les paramètres à estimer dans notre modèle sont : θ = {γ, η, α0, α1}

Par ailleurs, une certaine contrainte s’imposent à nous, afin de garantir la positivité de la variance conditionnelle qui est égale à

1. variable normale asymétrique standardisée correspondant au cas où le paramètre position ξ = 0 et le paramètre d’échelle ω = 1

(40)

ωt2= α0 1 − α1

,

Il nous faudrait imposer des restrictions sur les coefficients α0 et α1. Pour cette cause cela

nécessite que α0 > 0 et 0 < α1 < 1

Après avoir imposées ces contraintes, nous passons à l’estimation, qui sera alors une estimation sous contraintes.

Différentes approches s’offrent à nous pour estimer les paramètres du modèle, entre autres la méthode généralisée des moments et le maximum de vraisemblance.

Engle (1982) souligne que la méthode du maximum de vraisemblance reste la plus efficiente. Nous utilisons l’estimation par la méthode du maximum de vraisemblance en langage Stata pour estimer les paramètres. on s’attend à ce que le paramètre η soit négatif et significative-ment différent de zéro et aussi que les paramètres du processus ARCH c’est à dire α0 et α1

soient significatifs, tout en respectant les contraintes imposées. Le tableau suivant donne les résultats des paramètres estimés ainsi que les T-statistiques correspondants.

Nous remarquons très vite que les coefficients cadrent avec nos attentes. Paramètres Estimations T-stat

γ 2, 51 12, 03

η −1, 56 −5, 43

α0 0, 003 6, 43

α1 0, 31 6, 27

Table 4.1: Résultats de l’estimation ARCH

D’une part l’effet ARCH avec des coefficients positifs et très significatifs a été détecté dans la série du rendement excédentaire du SP 500.On trouve une valeur de0, 31 pour α1et0, 003 pour

α0. D’autre part le phénomène asymétrique qui est notre hypothèse de base est aussi présent

dans les données étudiées et cela de façon significative. Comme prévu, on trouve une valeur négative de −1, 56 et un T-stat de −5, 43pour le coefficient d’asymétrie η. Ce résultat négatif et significatif confirme l’asymétrie de la volatilité qui est l’un des faits stylisés caractérisant les marchés financiers. Pour rappel cette notion signifie que la volatilité a tendance à augmenter beaucoup plus quand il y a des rendements négatifs contrairement au cas où les rendements sont positifs. La théorie financière décrit ce phénomène de l’asymétrie de la volatilité par deux explications : l’effet levier et l’effet rétroactif. L’effet levier nous apprend que la baisse du prix d’un actif accroit sa probabilité de faillite, ce qui rend cet actif très risqué et dans le cas échéant cela fera augmenter sa volatilité future. ( Black (1976)et Christie(1982)). Quand à l’effet rétroactif, il repose sur la théorie du prime de risque selon laquelle l’anticipation des agents sur un accroissement de la prime tend à accroître son taux de rendement, qui à son tour influencera le prix de l’actif à la baisse pour permettre un accroissement du rendement futur(Campbelle et Hentschel (1992), Bekaert et Wu (2000)) Ces résultats sont parfaitement

(41)

conformes avec nos hypothèses, mais ils doivent être considérés comme provisoires et explora-toires. Nous pouvons prolonger notre analyse, en considérant que le paramètre d’échelle de la variance ω2t suit plutôt un processus GARCH(1, 1) ; et par la suite nous pourrons comparer les nouveaux résultats aux précédents pour justifier laquelle des deux alternatives est la plus appropriée pour mieux décrire les données du rendement excédentaire du SP 500

Le deuxième modèle économétrique se spécifie alors de la façon suivante :      rmkt+1= γσ2t + γ(1 − γ)η σ3 t 2 + εt+1 σt2 = ωt2(1 − µ2z) ωt2= α0+ α1ε2t−1+ α2ωt−12

Les résultats de l’estimation de ce modèle sont donnés dans le tableau suivant. Paramètres Estimations T-stat

γ 2, 585 2, 537

η −1, 80 −6, 26

α0 0, 00012 2, 442

α1 0, 323 1, 54

α2 0, 0053 1, 407

Table 4.2: Résultats de l’estimation GARCH

Maintenant que nous possédons les résultats des deux modèles exploratoires, il est possible pour nous de sélectionner lequel des deux modèles est le plus plausible de décrire les données étudiées.

Notre démarche sera d’utiliser les critères de sélection AIC et BIC afin de répondre à cette question de sélection de modèle. Il faut noter que ces deux critères s’appliquent aux modèles estimés par maximum de vraisemblance. Ainsi le critère d’information de AIC (Akaike 1974) se définit par :

AIC = −2 ∗ log(L) + 2 ∗ k

Quant au critère d’information BIC (Bayesian Information Criterion), il a été initialement proposé par Schwartz en 1978, pour sélectionner des modèles dans les cas de grandes échan-tillons.Il est définit comme suit :

BIC = −2 ∗ Log(L) + k ∗ log(n)

Dans les deux définitions, L est la vraisemblance maximisée,k est le nombre de paramètres dans la modèle et enfin n désigne la taille de l’échantillon. Le meilleur modèle est celui possédant l’AIC ou le BIC calculé le plus faible. le tableau suivant donne les résultats des deux critères de sélection pour les deux modèles étudiés.

Après analyse des critères de l’AIC et du BIC, et en tenant compte de la significativement des coefficients des deux modèles ; il ressort que le premier modèle, c’est à dire l’ARCH(1)décrit mieux les données de la série de rendement excédentaire du SP 500.

(42)

Modèles ARCH(1) GARCH(1,1) AIC −5, 75 −3, 79 BIC 11, 62 17, 92

Table 4.3: Résultats des critères de sélection

Enfin, pour quantifier l’effet de l’asymétrie sur le rendement excédentaire du SP 500 à long terme , nous pouvons déduire la part de la prime due à l’asymétrie en utilisant les paramètres du Tableau 5.1.

En effet, en ignorant l’inégalité de Jensen, le modèle prédit s’écrit :

Et h rt+1m − rt+1f i= γσt2+ γ(1 − γ)ησ 3 t 2

On peut donc déduire que la part de la prime due à l’asymétrie est :

 γ(1 − γ)ησ 3 t 2  /  γσt2+ γ(1 − γ)ησ 3 t 2 

En utilisant les paramètres du Tableau 5.1 (γ =2,51 et η =1,56), on a  γ(1 − γ)ησ 3 t 2  /  γσt2+ γ(1 − γ)ησ 3 t 2  = 2, 96σ 3 t 2, 96σ3t + 2, 51σ2t Sachant que σ2t = α0 1−α1, α0= 0, 003 et α1 = 0, 31. 2, 96σt3 2, 96σt3+ 2, 51σ2t = 0, 072

Ce résultat suggère qu’à long terme, environ 7% de la prime de marché récompense pour le risque d’asymétrie.

A travers cette étude on s’aperçoit que dans les séries financières en général, l’hypothèse d’effet asymétrique des chocs sur la volatilité, à savoir la variance conditionnelle réagit différemment aux chocs de même amplitude selon le signe de ces derniers, alors que dans les processus symétriques, les chocs positifs et négatifs de même taille ont un impact identique sur la variance conditionnelle.

(43)

Conclusion

L’analyse et la modélisation de la volatilité d’une série est un thème fondamental en finance. Pour preuve en se référant au marché bousier, on remarque que plus la volatilité d’une action est importante, plus le risque est élevé et plus les détenteurs de l’action souhaiteront une ren-tabilité élevée pour accepter de la détenir et de la conserver. Ainsi l’estimation de la volatilité de la rentabilité d’une action fournit une mesure du risque qui y est attaché. Dans le même ordre d’idées, si le processus suivi par la volatilité est correctement spécifié, celui-ci permet de prévoir la rentabilité.

Par ailleurs, il est important de noter que les séries financières sont caractérisées par une vo-latilité non stationnaire et par des phénomènes d’asymétrie qui ne peuvent pas être pris en compte par les modélisations de type ARMA. C’est dans ce contexte, qu’Engle et Granger ont développé les modèles ARCH afin de permettre à la variance d’une série de dépendre de l’ensemble d’informations disponible,notamment le temps. Les modèles ARCH sont basés sur une paramétrisation endogène de la variance conditionnelle. C’est dans cette optique que cette étude nous a permis de déterminer la prime de risque des actifs financiers à travers un modèle économétrique qui tient compte de l’asymétrie "skewness". Notre série d’analyse a été le rendement excédentaire du SP 500. Nous avons trouvé que le rendement excédentaire de tout actif est déterminé par l’effet combiné du coefficient de skewness, de la prime de risque et de la volatilité c’est à dire la variance. Par la suite nous avons estimé que le processus de cette variance suit un ARCH(1) et alternativement un GARCH(1,1). Les résultats de l’estimation ont montré que l’ARCH(1)décrit mieux les données de la série du rendement excédentaire du SP 500. Il est difficile d’imaginer ce qu’aurait été la recherche empirique en économie aujour-d’hui en l’absence des contributions de Engle et Granger. En effet, leurs travaux pionniers sont aujourd’hui le standard pour étudier, modéliser et prévoir les séries temporelles économiques et financières.Ces travaux ont ouvert de très nombreuses voies de recherche en particulier dans le monde de la finance.

(44)
(45)

Bibliographie

[1] Abderrahim Taamouti, Problèmes d’économétrie en macroéconomie et en finance : mesures de causalité, asymétrie de la volatilité et risque financier, Université de Montréal, Juin 2007. [2] Arthur Charpentier, Cours de séries temporelles :Théorie et applications,vol 1, Université

Paris Dauphine, 2003.

[3] Arthur Charpentier, Cours de séries temporelles :Théorie et applications,vol 2, Université Paris Dauphine, 2003.

[4] Bera and Higgins, ARCH Models : properties, estimation and testing, Basil Blackwell, 1993. [5] Bresson G, Pirotte A. Économétrie des séries temporelles. Théorie et applications , 1st ed.

Paris : PUF, 1995.

[6] Bruno Crepon, Économétrie, février 2003.

[7] Carmichael, B. La valorisation des actifs financiers dans les modèles de consommation :Un survol de la littérature, Université Laval, Avril 1998.

[8] Carmichael, B. et Coën, A. Asset pricing with skewed-normal return, Finance Research Letters, sous presse, http ://dx.doi.org/10.1016/j.frl.2013.01.001, Université Laval, 2013. [9] Chilarescu, C. et Viasu, I. Phénomènes financiers et mélange de lois : Une nouvelle méthode

d’estimation des paramètres., MPRA, Octobre 2011.

[10] Christophe Hurlin, Econmétrie pour la finance, Modèles ARCH-GARCH, Université d’Or-léans, Octobre 2004.

[11] Cuthbertson, K. "Economie financière quantitative : Actions, Obligations et Taux de Change, De Boeck, 2000.

[12] Gary Koop, Dale Poirier, J. and Justin L. Tobias, Bayesian Econometric Methods, Cam-bridge University Press, 2007.

(46)

[14] Lyocsa, Vyrost, T. Baumöhl ,E. The instability of the correlation structure of the SP 500, MPRA, Octobre 2011.

[15] Renaud Lancelot et Matthieu Lesnoff, Sélection de modèles avec l’AIC et critères d’in-formation dérivés, Novembre 2005.

[16] Ruey S. Tsay, Analysis of Financial Time Series,Second Edition, University of Chicago, 2005.

[17] Sandrine Lardic,Valérie Mignon, Robert F. Engle et W.J Granger : Prix Nobel d’économie 2003, Novembre 2003.

[18] Stan Hurn, Likelihood methods in financial econometrics, Economic Research Southern Africa University of Stellenbosch, April 2009.

[19] Walid Jbili, Modélisation asymétrique de titres financiers, Université Laval, Juin 2008.

Figure

Figure 1.1: Densité de la Skew normal
Table 2.1: Statistique descriptive du rendement excédentaire du marché
Figure 2.1: rendement excédentaire du marché
Figure 2.2: le correlogramme de rmkt
+6

Références

Documents relatifs

La seconde partie est consacrée à l'estimation des paramètres du processus G ARCH (1,1) pour trois sociétés : Lafarge Coppée, Peugeot et Thomson ainsi qu'à l'étude de la

– – Adapter une cycle traditionnel Adapter une cycle traditionnel – – Opter pour un cycle plus itératif Opter pour un cycle plus itératif –. – Opter pour une cycle OO Opter

Supposons de plus que chaque variable Xi soit moyenne arithmétique de wi variables indépendantes, dites composantes élémentaires de Xi, chacune avec espérance

Il est intéressant d'étendre à l'analyse des données qualitatives, groupées sous forme de table de contingence, les modèles d'analyse de variance à effets aléatoires, en

R´ esum´ e – Cet article pr´ esente une nouvelle m´ ethode de s´ election d’ordre de mod` ele pour des applications en traitement du signal dans le cadre de grandes dimensions

Les queues de distribution des rendements semblent aussi avoir grandir leurs épaisseurs : autrement dit, les variations de cours extrêmes ou les sauts sont devenus plus

Dans ce travail, nous nous int´ eressons ` a l’estimation de la fonction de va- riance en r´ egression par agr´ egation de type s´ election mod` ele (MS).. Le but de la proc´ edure

Puisqu'une fonction de densité de probabilité fournit un contenu ambigu pour la simulation, il suffit, dans ce cas, de spécifier le vecteur e afin de donner la caractérisation