• Aucun résultat trouvé

La régression linéaire est un modèle simple et facile d’utilisation. Elle est utilisée dans dif- férents domaines pour étudier la relation entre une variable réponse quantitative et une ou diverses variables explicatives et pour faire de la prédiction. On parle de régression linéaire simple lorsqu’on considère une seule variable explicative et on parle de régression linéaire multiple lorsque plusieurs variables explicatives modélisent la variable réponse.

2.2.1 Modèle

Le modèle correspondant à une régression linéaire simple est le suivant :

Yt =α+βxt+εt t=1, ..., T , (2.1)

Yt: variable réponse du modèle, soit le rendement net d’un gestionnaire pour la période t

α: ordonnée à l’origine du modèle qui correspond à l’alpha de Jensen, une mesure de per- formance du gestionnaire

β: représente le risque systématique, c’est-à-dire le risque associé à la volatilité du marché xt: variable explicative du modèle, soit le rendement net du marché à la période t

εti.i.d.∼ N(0, σ2), t=1, ..., T

T : nombre de périodes d’observations

L’ordonnée à l’origine du modèle, c’est-à-dire le coefficient α de la régression linéaire, repré- sente la valeur moyenne de Ytlorsque xtvaut zéro. Dans ce mémoire, le coefficient α indique

que, lorsque le rendement net du marché est nul, la valeur moyenne des rendements nets du gestionnaire est α. En effet, dans le cas où xt = 0 et quand l’hypothèse de linéarité est

respectée, le coefficient α représente l’espérance de Yt,

E[Yt] =E[α+β×0+εt] =α+E[εt] =α.

C’est pourquoi on peut dire qu’un coefficient α supérieur à zéro indique que le gestionnaire a réussi à battre le marché. La pente de la régression, le coefficient β, représente l’augmentation de la valeur moyenne de Ytlorsque la valeur de xtaugmente d’une unité. Ainsi le coefficient

βest l’augmentation de la valeur moyenne des rendements du gestionnaire lorsque le ren- dement du marché augmente d’une unité. Généralement en pratique, on s’attend à ce que le coefficient β avoisine 1, c’est-à-dire que le gestionnaire d’actifs suit son "benchmark". Pour utiliser la régression linéaire, certaines hypothèses doivent être respectées pour chacun des termes d’erreurs (ε). Les trois principales hypothèses sont la linéarité, l’homoscédasticité et la non-corrélation des termes d’erreurs, ce qui signifie que chacun des termes d’erreur doit être d’espérance nulle, de variance σ2(homoscédasticité) et deux termes d’erreurs provenant d’observations différentes ne doivent pas être corrélés entre eux (Cov(εi, εj) =0 pour i 6=j).

Une quatrième hypothèse est que les termes d’erreurs doivent tous suivre une distribution normale. Si l’une ou plusieurs de ces hypothèses ne sont pas respectées, les résultats obtenus à partir de ce modèle tels que les estimations de paramètres, les intervalles de confiance ou les tests utilisés ne sont pas interprétables.

2.2.2 Estimation des paramètres

Les principaux paramètres à estimer sont les coefficients α et β. Pour les estimer, la mé- thode qui est généralement utilisée est celle des moindres carrés. Cette méthode vise à mini- miser l’écart quadratique entre les valeurs observées Ytet la droite ˆYt = ˆα+ ˆβxt. L’estimé du

coefficient α est :

ˆα=Y¯ − ˆβ ¯x , (2.2)

où ¯

Y : est la moyenne des rendements nets obtenus par un gestionnaire d’actifs ¯x : est la moyenne des rendements nets du marché

et une estimation de sa variance est : ˆ var[ˆα] =σˆ2 1 n + ¯x2 Sxx  , (2.3)

ˆσ2 = 1

n−2∑ n

i=1ˆε2et Sxx =∑in=1(xi− ¯x)2.

L’estimation du coefficient α ainsi que l’estimation de sa variance sont utilisées, principale- ment, pour le calcul de mesures de performance ainsi que pour la prévision de rendements futurs, tel que présentés à la section2.2.4. L’estimé du coefficient β est :

ˆβ= ∑ n t=1Ytxt−Y¯∑nt=1xt ∑n t=1x2t − ¯x∑nt=1xt = ∑ n t=1(xt− ¯x)Yt ∑n t=1(xt− ¯x)2 . (2.4) et sa variance est : ˆ var[ˆβ] = ˆσ 2 Sxx .

L’estimation du coefficient β et l’estimation de sa variance sont surtout utilisées pour la pré- vision. Certaines mesures de performance utilisent l’estimation du coefficient β, mais ce ne sont pas celles retenues dans ce mémoire.

2.2.3 Série temporelle

Une série temporelle est une suite d’observations obtenues à des intervalles réguliers, par exemple chaque jour, chaque semaine, chaque mois. L’étude des séries temporelles vise à déterminer un modèle qui permettra de bien identifier la structure de corrélation entre les observations.

Habituellement, la régression linéaire se base sur l’hypothèse que les erreurs sont identi- quement distribuées et indépendantes (i.i.d.) de moyenne zéro et de variance sigma carrée. Par contre, dans certains cas, il peut arriver que les erreurs soient autocorrélées, c’est-à-dire que les erreurs dépendent de leurs valeurs passées, principalement lorsque les données sont obtenues à intervalles réguliers. Dans ce cas, des modèles de série temporelle doivent être utilisés pour bien spécifier la distribution des erreurs afin d’être en mesure de bien tenir compte de l’incertitude dans l’estimation de la relation entre la variable réponse et la va- riable explicative.

Un des principaux modèles utilisés dans l’étude des séries temporelles est le modèle ARMA (p, q)« Processus autorégressif moyenne mobile ». Ce modèle est composé d’une partie au- torégressive(p)et d’une partie moyenne mobile(q). Dans le cas où il n’y a pas de moyenne mobile, on parle de processus autorégressif, AR(p)=ARMA(p, 0). Un processus autorégres- sif est expliqué non pas par une combinaison de variables explicatives, mais par ses valeurs passées. Un processus autorégressif d’ordre 2 signifie que la loi de la prochaine valeur à pré- dire sera en fonction des deux dernières valeurs observées. Plus généralement, un processus

autorégressif d’ordre p signifie que la loi de la prochaine valeur à prédire sera en fonction des p dernières valeurs observées. Voici, par exemple, le modèle associé à un processus au- torégressif d’ordre 2 :

et = ϕ1et−1+ϕ2et−2+ωt , (2.5)

où les ωtsont i.i.d.∼ N(0, σω2)avec σ

2

ω >0 et ϕ1et ϕ2sont des paramètres autorégressifs.

Afin de déterminer si les erreurs de la régression nécessitent l’utilisation de séries tempo- relles, il faut tout d’abord vérifier s’il y a dépendance entre les termes d’erreur. Dans le cas où les erreurs sont simplement indépendantes, il n’y a pas lieu d’aller plus loin. Pour valider s’il y a dépendance ou non entre les erreurs, la fonction d’autocorrélation simple (ACF) est utilisée. La fonction d’autocorrélation simple notée ρ(h) est définie à partir de la fonction d’autocovariance notée γ(h)qui est la covariance entre deux variables décalées de h unités, soit γ(h) =cov(εt, εt+h). La fonction d’autocorrélation simple s’écrit de la façon suivante :

ρ(h) = γ(h) γ(0) =

cov(εt, εt+h)

var(εt) .

Pour être un processus autorégressif AR(p) les autocorrélations doivent tendre vers zéro avec h, et ce, de façon exponentielle. L’autocorrélation partielle r(h)(PACF) est définie par :

r(h) = ρ(h) − [ρ(h−1) · · ·ρ(1)]R(h−1)−1     ρ(1) .. . ρ(h−1)     1− [ρ(h−1) · · ·ρ(1)]R(h−1)−1     ρ(h−1) .. . ρ(1)    

où R(h−1)−1est la matrice d’autocorrélation du vecteur ε

t,· · · , εt+N−1 où N représente le

nombre d’observations du processus εt: R(h) =

      1 ρ(1) ρ(2) · · · ρ(N−1) ρ(1) 1 ρ(1) · · · ρ(N−2) .. . . .. . .. . .. ... ρ(N−1) ρ(N−2) · · · ρ(1) 1       Ce sont les autocorrélations partielles qui permettent de déterminer l’ordre p, car celles-ci s’annulent à partir de l’ordre p+1. L’autocorrélation partielle est définie comme la corréla- tion entre deux variables décalées de h unités en leur enlevant l’information linéaire conte- nue entre ces deux variables. Pour plus d’information sur les fonctions d’autocorrélation

simples et partielles, se référer àKirchgässner and Wolters(2007). La figure2.1présente les graphiques ACF et PACF théoriques d’un processus autorégressif d’ordre 2.

FIGURE2.1: Graphiques ACF et PACF théoriques pour un processus AR(2)

En pratique, on n’observe pas directement les valeurs associées aux autocorrélations simples et partielles, il faut les estimer à partir des données observées. Pour l’estimation des autocor- rélations simples, on utilise :

ˆρ(h) = γˆ(h) ˆ

γ(0) , h =0, 1,· · · , où ˆγ(h) = n1∑nt=1h(et−¯en) (et+h− ¯e).

Quant à l’estimation des autocorrélations partielles, elle se fait à l’aide des estimateurs sui- vants : ˆr(h) = ˆρ(h) − [ˆρ(h−1) · · · ˆρ(1)]Rˆ(h−1)−1     ˆρ(1) .. . ˆρ(h−1)     1− [ˆρ(h−1) · · · ˆρ(1)]Rˆ(h−1)−1     ˆρ(h−1) .. . ˆρ(1)     , h=0, 1,· · · , où ˆRN = ˆ Γ(h) ˆ γ(0)et ˆΓ(h) =       ˆ γ(0) γˆ(1) · · · γˆ(N−1) ˆ γ(1) γˆ(2) · · · γˆ(N−2) .. . . .. . .. ... ˆ γ(N−1) γˆ(N−2) · · · γˆ(0)       .

La figure2.2 montre un exemple de ce qui a été obtenu à partir des rendements nets ob- servés d’un gestionnaire d’obligations. Ces graphiques permettent très bien de déterminer

qu’il s’agit d’un processus autorégressif d’ordre deux. En effet, sur le premier graphique (ACF), les autocorrélations décroissent rapidement en dessous de la bande de confiance tan- dis que dans le second graphique (PACF), seules les deux premières autocorrélations par- tielles sortent de l’intervalle de confiance, et sont donc significativement non nulles.

FIGURE2.2: Corrélogrammes simples et partiels des résidus du modèle (1.1) ajusté aux ren- dements mensuels nets d’un gestionnaire d’obligations

Lorsque les erreurs de la régression sont bien de type autorégressif d’ordre 2, deux nouveaux paramètres doivent être estimés, soit ϕ1et ϕ2, et l’estimation du coefficient α sera modifiée.

Avant d’attaquer l’estimation de ces deux nouveaux paramètres et de voir l’effet d’erreurs autocorrélées sur le modèle de régression linéaire simple, il est important de définir l’opé- rateur "retard". C’est cet opérateur qui permettra la réécriture de l’équation (2.5) pour être en mesure de modifier l’estimation du coeffcient α. L’opérateur "retard", dénoté B, est un opérateur linéaire qui se définit de la façon suivante :

Bet=et−1 (et, t∈Z)

et de façon plus générale, on a :

Biet =et−i (et, t∈Z), ∀i∈N.

temps. À l’aide de l’opérateur "retard", on peut réécrire l’équation (2.5) de la façon suivante : ωt =et I−ϕ1B−ϕ2B2  | {z } Φ(B) ,

oùΦ(B)est un polynôme de degré deux. Ainsi, on a

et=

ωt

Φ(B) (2.6)

et siΦ(B)est inversible on peut donc réécrire l’équation (2.1) en substituant le côté droit de l’équation (2.6) pour εt: Φ(B)Yt=Φ(B)α+Φ(B)βxt+ωt. (2.7) De l’équation (2.7), on obtient : Yt? =Yt−φ1Yt−1−φ2Yt−2 =Φ(B)Yt (2.8) x?t =xt−φ1xt−1−φ2xt−2 =Φ(B)xt (2.9) α? = (1−φ1−φ2)α=Φ(B)α (2.10) À partir de l’équation (2.10), il est possible d’obtenir l’estimation du nouveau coefficient α :

ˆα = ˆα

?

1−φˆ1φˆ2 , (2.11)

où ˆα?est celui défini par l’équation (2.2). L’estimation de sa variance est :

ˆ

var[ˆα?] = varˆ [ˆα]

(1−φˆ1φˆ2)2 , (2.12)

où ˆvar[ˆα]est défini à l’équation (2.3).

L’estimé de la pente reste le même qu’à l’équation (2.4).

Estimation des paramètres ϕ1et ϕ2

Pour estimer les paramètres autorégressifs ϕ1et ϕ2, la méthode de Yule-Walker peut être

utilisée. Les équations de Yule-Walker dans le cas d’une série autorégressive d’ordre 2 s’écrivent de la façon suivante :

Ainsi, en remplaçant h dans l’équation (2.13) par 1 et 2, on obtient le système de deux équa- tions et deux inconnues suivant :

γ(1) = ϕ1γ(0) +ϕ2γ(−1) γ(2) = ϕ1γ(1) +ϕ2γ(0).

En utilisant la parité de γ(h)et en remplaçant les fonctions d’autocovariance par leurs esti- mations respectives, on obtient les deux équations suivantes :

ˆ

γ(1) = ϕˆ1γˆ(0) +ϕˆ2γˆ(1) (2.14) ˆ

γ(2) = ϕˆ1γˆ(1) +ϕˆ2γˆ(0). (2.15) Chaque membre des deux équations (2.14et2.15) est divisé par γ(0)pour faciliter les calculs, ce qui permettra de retrouver les fonctions d’autocorrélation simples ρ(h) = γ(h)

γ(0 :

ˆ

ϕ1 = ˆρ(1) −ϕˆ2ˆρ(1) (2.16)

ˆ

ϕ2 = ˆρ(2) −ϕˆ1ˆρ(1). (2.17)

Par la suite, il suffit de remplacer ˆϕ1donné par (2.16) dans (2.17) pour obtenir

ˆ ϕ2 = ˆρ(2) − ˆρ(1) [ˆρ(1) −ϕˆ2ˆρ(1)] | {z } ˆ ϕ1 ˆ ϕ2= ˆρ(2) − ˆρ(1)2 1− ˆρ(1)2 = ˆr(2) , (2.18)

où ˆr(2)est la fonction d’autocorrélation partielle estimée qui est une conséquence du théo- rème de Frisch-Waugh. Ceci permet d’obtenir l’estimé de ϕ2. Pour l’estimé de ϕ1, on rem-

place ˆϕ2par son estimé (2.18) dans l’équation (2.16) :

ˆ

ϕ1= ˆρ(1) − ˆρ(1)ˆr(2). (2.19)

Les équations de Yule-Walker permettent également d’obtenir une équation pour la variance du bruit blanc, notée σω2 :

σω2 =γ(0) −ϕ1γ(1) −ϕ2γ(2). Ainsi, l’estimé de la variance du bruit blanc sera

ˆσω2 =γˆ(0) −ϕˆ1γˆ(1) −ϕˆ2γˆ(2).

Utiliser une série temporelle pour modéliser les termes d’erreurs de la régression linéaire a un impact sur l’estimé des paramètres. En effet, comme le démontre l’équation (2.11), le coefficient alpha est modifié pour tenir compte de l’impact du fait que les erreurs sont pos- siblement autocorrélées. Cet impact se reflètera sur le classement des gestionnaires, car les principaux outils utilisés pour évaluer la performance de gestionnaires sont basés sur des estimés du coefficient α.

2.2.4 Prévision

Dans le contexte actuel, la prévision des valeurs futures des rendements des gestionnaires permettra à une compagnie de guider son choix lors de la sélection des gestionnaires. En effet, si la compagnie a en sa possession une prévision des rendements futurs de chacun des gestionnaires d’actifs qu’elle peut potentiellement engager, elle préfèrera un gestion- naire dont le rendement attendu est le plus élevé et le moins risqué. De plus, en connaissant l’estimation des rendements attendus des gestionnaires qu’elle aura sélectionnés, la compa- gnie sera en mesure de mieux prévoir le risque présent au sein de son portefeuille d’actifs. Pour être en mesure de prévoir les valeurs futures des rendements des gestionnaires, il faut connaître la valeur future des variables explicatives du modèle. Pour le modèle d’évaluation des actifs financiers, la seule variable explicative est le rendement net du marché. Connais- sant cette valeur, disons x0, l’équation pour prédire une nouvelle valeur de Y sachant la

valeur du rendement du marché sera, dans le cas où les erreurs sont i.i.d,

ˆ

Y0 = ˆα+ ˆβx0.

L’intervalle de confiance associé à cette prévision est le suivant :  ˆα+ ˆβx0±tn−2(1−α/2) q c varˆ Yi   , où

tn−2: quantile de la loi de student à n−2 degrés de liberté et

c varˆ Yi  = ˆσ2  1+1n+ (x0−¯x)2 ∑n i=1(xi−¯x)2  .

Dans le cas où les erreurs sont de type autorégressif d’ordre deux, la prévision d’une nou- velle valeur va dépendre des erreurs (ε) aux deux temps précédents. Par exemple, la pré- vision de Y au temps t = T va dépendre de la l’erreur au temps t = T−1, εT−1 et au

temps t = T−2, εT−2. Supposons toujours qu’au temps t = T, xT = x0. Alors on obtient la

prévision suivante :

ˆ

YT = ˆα+ ˆβx0+ϕˆ2ˆεT−2+ϕˆ1ˆεT−1

avec

ˆα=αˆ∗ (2.20)

où α∗ est obtenu à partir de l’équation (2.10) et

ˆβ= ∑ n t=1(x∗t −x¯∗)Yt∗ ∑n t=1(x∗t −x¯∗) 2 (2.21)

où x∗t et Yt∗sont obtenus à partir des équations (2.9) et (2.8). Le terme ˆεT−1est calculé à partir

de T−1 observations et ˆεT−2est calculé à partir de T−2 observations, pour plus de détails,

voirMalinvaud(1961). Les estimations des paramètres autorégressifs ϕ1et ϕ2sont obtenues

à partir des équations (2.16) et (2.17).

Un intervalle de confiance à approximativement 95% correspondant à cette prévision est :  ˆ YT±t0.025;T−2× q c var(YˆT)  , oùvarc(YˆT) = var[ˆα] (1−ϕˆ1−ϕˆ2)2 +x 2 0var[ˆβ] +σ2[ϕˆ12+ϕˆ22] +σw2.

2.2.5 Variante au modèle de régression linéaire

Deux variantes au modèle de régression linéaire simple ont été testées pour permettre d’ajuster le meilleur modèle possible aux données afin de bien comparer les gestionnaires entre eux.

1- Transformation de la variable réponse

Pour la construction des modèles, la variable réponse représentant le rendement net associé à un actif a été remplacée par le log(1+rendement). Puisqu’en finance il arrive souvent que les distributions soient asymétriques, l’utilisation du log permet souvent de corriger ce pro- blème. La constante 1 du log(1+rendement) permet de conserver les propriétés suivantes :

−lorsque le rendement tend vers l’infini, le log(1+rendement) tend également vers l’infini ; −lorsque le rendement tend vers -1, le log(1+rendement) tend vers - l’infini.

Effet sur la prévision

Pour obtenir la prévision du rendement net d’un gestionnaire en utilisant comme variable réponse le log(1+Yt), il est nécessaire d’utiliser la transformation suivante :

ˆ Yt??=exp  ˆ Yt+ 1 2ˆσ 2  −1 ,

ce qui permet d’obtenir une prévision sans biais du rendement futur du gestionnaire. 2- Pente égale à 1 pour tous les gestionnaires

Il pourrait arriver que la valeur estimée du coefficient β soit très différente d’un gestionnaire à l’autre. Comme mentionné dans la section1.4, pour comparer des gestionnaires entre eux simplement à partir du coefficient α, il est important que le risque systématique (β) soit égal, ou du moins similaire, d’un gestionnaire à l’autre. Pour ce faire, des modèles avec paramètre βfixé à 1 ont été testés. Avec un coefficient bêta fixé à 1, on a le modèle suivant :

Yt=α+xt+et.

Dans le cas où les erreurs sont i.i.d., il y a un seul paramètre à estimer, soit le coefficient α. La prévision sera :

ˆ

Yt= ˆα+xt,

où ˆα est donné par l’équation (2.2) en posant ˆβ=1.

Dans le cas où les erreurs sont de type autorégressif d’ordre deux, la prévision sera :

ˆ

YT = ˆα+x0+ϕˆ2ˆεT−2+ϕˆ1ˆεT−1.

où le coefficient ˆα est défini par l’équation (2.11).

Les estimateurs obtenus par la méthode des moindres carrés sont très affectés par les valeurs extrêmes, comme on en observe souvent dans des séries de rendements financiers. C’est pourquoi on dit souvent que la régression linéaire manque de robustesse. De plus, lorsque les données ne sont pas distribuées de façon normale, comme c’est souvent le cas avec des

données de rendement sur un indice de marché, les intervalles de confiance et les tests ob- tenus ne sont pas interprétables. C’est pourquoi une variante à cette méthode est considérée dans la section suivante.

Documents relatifs