• Aucun résultat trouvé

La régression quantile, telle que décrite parKoenker(2005), est utilisée pour généraliser la régression linéaire. L’utilisation de la régression linéaire permet d’obtenir la moyenne condi- tionnelle de la variable à prédire selon les variables explicatives, tandis que la régression quantile suppose un modèle pour la médiane ou d’autres quantiles conditionnels de la va- riable réponse.

Dans certaines situations, et c’est souvent le cas dans le domaine de la finance lorsqu’on étu- die les rendements obtenus par les gestionnaires suite à une gestion active, les distributions sont souvent asymétriques. En effet, ces distributions, dans bien des cas, s’éloignent de la loi normale. Elles ont des queues épaisses et contiennent souvent des valeurs extrêmes et des données aberrantes. Dans ces circonstances, la régression quantile est beaucoup plus robuste, car elle ne met pas l’accent seulement sur la moyenne, mais sur l’ensemble de la distribu- tion conditionnelle de la variable explicative. La médiane est une mesure plus robuste aux données aberrantes que la moyenne, car elle est beaucoup moins influencée par les valeurs extrêmes. Par ailleurs, les résultats obtenus avec la régression quantile sont généralement plus stables en terme d’estimation des paramètres que ceux qui peuvent être obtenus avec la régression linéaire lorsque les résidus sont très dispersés. C’est pourquoi la régression quan- tile est de plus en plus utilisée et populaire pour évaluer la performance de gestionnaires d’actifs, voirDavid Ellen and Powell(2009),Carlo Matallin-Saez and Tortosa-Ausina(2013) etChiang and Li(2012).

2.3.1 Modèle

Le τième quantile, qτ, est défini de sorte que P(Y ≤ qτ) = τ. Par exemple, le quantile

représentant la médiane, q0.5 , est défini de sorte que P(Y ≤ q0.5) = 0.5, ce qui divise la

population en deux groupes de même "taille". En fait, la fonction de quantile, QY(τ), d’une variable aléatoire est définie comme l’inverse généralisé de sa fonction de répartition :

QY(τ) =FY−1(τ) =inf{Y : FY(Y) ≥τ}, 0≤ τ≤1.

Cette fonction de quantile est représentée par le seuil où la probabilité d’observer une va- riable inférieure au seuil est exactement τ, comme illustré à la figure 2.3. Les rendements les moins élevés seront associés aux quantiles les plus faibles tandis que les rendements les plus élevés seront associés aux quantiles les plus élevés. Ainsi, la fonction de quantile décrit

de façon complète les caractéristiques statistiques de la variable aléatoire. L’ensemble des valeurs de τ est compris dans(0, 1).

FIGURE2.3: Fonction de répartition et fonction quantile

Tout comme la fonction de quantile, la fonction de quantile conditionnelle de la variable réponse Y sachant x est l’inverse de la fonction de répartition conditionnelle correspondante :

QY(τ|x) =FY|1x(τ|x) =inf{Y : FY(Y|x) ≥τ}, 0≤τ≤1.

Le but principal de la régression quantile est de déterminer comment chacun des quantiles de la distribution conditionnelle dépend des variables explicatives. Le modèle développé pour évaluer les rendements nets d’un gestionnaire d’actif avec une seule variable explica- tive, comme c’est le cas avec le MÉDAF, est le suivant :

QYt(τ|x=xt) =α(τ) +β(τ)xt+εt(τ), 0≤τ≤1.

Tout comme le modèle de régression linéaire qui suppose une relation linéaire entre la moyenne de Y et les valeurs prises par la variable explicative, la régression quantile postule, elle aussi, une relation linéaire, mais entre le τième quantile de Y et les valeurs prises par la variable explicative. On distingue deux principaux modèles :

1- Modèle de translation linéaire

Dans ce type de modèle, seule l’ordonnée à l’origine varie d’un quantile à l’autre et les pentes des droites restent les mêmes. Ainsi, dans ces modèles, les droites seront parallèles d’un quantile à l’autre puisque les variables explicatives ont un effet uniquement sur la moyenne des rendements et non sur la variance. Dans ce type de modèle, la variance des résidus reste la même, peu importe le quantile, et l’hypothèse d’homoscédasticité est respectée. Même si les hypothèses de la régression linéaire sont respectées, il peut être avantageux d’utiliser la régression quantile avec un modèle de translation linéaire puisque les estimateurs de la

régression quantile sont plus robustes. En effet, ils sont moins sensibles à la présence de valeurs aberrantes.

2- Modèle de translation-échelle

Dans ce type de modèle, l’ordonnée à l’origine ainsi que la pente varient d’un quantile à l’autre. Il y a un effet sur la moyenne, mais également sur la variance de la variable dépen- dante Y. La variance de Y varie en fonction des valeurs prises par la variable explicative x. Dans un modèle de translation-échelle, les pentes ne sont plus parallèles d’un quantile à l’autre. Ce type de modèle est une variante très intéressante au modèle linéaire de la section

2.2, principalement lorsque l’hypothèse d’homoscédasticité n’est pas respectée.

Dans le cas de la régression quantile, les termes d’erreurs, εt(τ), ne suivent pas nécessaire- ment une loi normale, mais sont habituellement indépendants et identiquement distribués. Comme dans le cas de la régression linéaire section (2.2.3), il est possible d’ajuster un modèle de série temporelle sur les erreurs lorsque celles-ci sont autocorrélées.

Contrairement à la régression linéaire, qui doit respecter les hypothèses mentionnées à la section2.2 sur la distribution des termes d’erreurs, la régression quantile ne nécessite pas l’homoscédasticité des termes d’erreurs.

FIGURE2.4: Droite d’une régression linéaire comparée à la régression quantile avec diffé- rentes valeurs de τ

2.3.2 Estimations des paramètres

Koenker(2005), présente une méthode d’estimation qui ne requiert pas que les données soient ordonnées, ce qui peut réduire considérablement les calculs. On sait que la moyenne peut-être définie de la façon suivante :

µ=arg min

c

De manière analogue la médiane peut-être définie de la façon suivante :

Med=arg min

c

E[|Y−c|]. (2.22)

Pour estimer les paramètres de la régression linéaire, c’est la fonction de perte quadratique qui est utilisée avec la méthode des moindres carrés. Dans le cas de la régression quan- tile, l’alternative développée par Koeker remplace la fonction de perte quadratique par une fonction linéaire ρτ(u)en forme de V. Cette fonction linéaire va donc augmenter de façon li-

néaire avec les résidus au lieu d’augmenter de façon quadratique. L’impact sera donc moins important pour des résidus plus éloignés, ce qui rend la régression quantile plus robuste que la régression linéaire aux données aberrantes. L’estimation peut se faire pour tout quantile τ ∈ (0, 1). On peut noter que ρ0.5(u) = 12|u| et donc que l’équation (2.22) peut se récrire

comme Med=arg min

c

E[ρ0.5(Y−c)].

La fonction à minimiser pour obtenir les estimations pour un quantile τ est

argmin c∈R n

t ρτ(Yt−c),

où ρτ(Yt−c) = (Yt−c){τ−1((Yt−c) <0)}avec τ ∈ [0, 1],1 représente la fonction indi-

catrice qui fait que si la différence entre la variable dépendante et les résidus (Yt−c) est plus

grande que zéro, alors un poids de τ sera assigné tandis que si cette différence est inférieure à zéro, alors ce sera un poids de(τ−1). Ainsi, pour obtenir l’estimation de la pente ou de l’ordonnée à l’origine au quantile τ, l’équation à résoudre sera :

ˆβ(τ)‘=argmin α,β n

t=1 ρτ(Yt−α+βxt) =argmin α,β t∈{t:Yt

>α+βxt} τ|Yt−α+βxt| +

t∈{t:Yt<α+βxt} (1−τ)|Yt−α+βxt| , (2.23) où ˆβ(τ)‘= ˆα(τ) , ˆβ(τ).

On remarque à partir de l’équation (2.23) que les résidus positifs et négatifs se font attribuer des poids différents. Par exemple, si l’on veut le 10epercentile, les observations se situant en dessous de la droite de régression(α+βxt)sont d’un poids de 0.9 tandis que les observations

au dessus de cette même droite sont d’un poids de 0.1, ce qui fait en sorte que 90% des observations sont des résidus positifs et 10% sont des résidus négatifs.

Il est à noter qu’il n’existe pas de forme explicite pour les estimateurs des coefficients alpha et bêta. Le recours à des algorithmes numériques est nécessaire. Les algorithmes souvent utilisés dans les logiciels sont :

1- la méthode du simplexe (voirLei and Anderson(2001)) ; 2- la méthode d’inversion des rangs (voirKoenker(2005)) ;

3- la méthode des points intérieurs de Frisch–Newton (voirKoenker and Ng(2005)).

Habituellement, l’algorithme utilisé par défaut pour calculer l’estimation des coefficients de la régression quantile est l’algorithme du simplexe modifié de Barrodale et Robert (voir,Lei and Anderson (2001)). C’est un algorithme très populaire et souvent utilisé pour résoudre des équations linéaires. Cette méthode est très pratique pour des échantillons de moins de 1 000 observations. Pour des échantillons plus grands, il est conseillé d’utiliser une méthode des points intérieurs (voir,Koenker and Ng(2005)) pour réduire le temps de calcul. Les écarts types associés aux coefficients peuvent être calculés de différentes manières et permettent de calculer des intervalles de confiance. La méthode par défaut pour calculer des écarts types suppose que les résidus sont identiquement distribués et indépendants de moyenne nulle et de variance σ2. Lorsque les résidus ne sont pas i.i.d, il est préférable d’utiliser d’autres méthodes. Par exemple, une technique de bootstrap peut être utilisée pour calculer les écarts types ou également une méthode basée sur l’estimation par noyau proposée parPowell et al.

(1990). Dans nos analyses, l’algorithme retenu est celui du simplexe modifié de Barrodale et Robert puisque pour chaque gestionnaire, le nombre de rendements nets observés ne dépas- sait pas 1 000.

Les quantiles que l’on peut estimer avec précision dépendent de la taille de l’échantillon. En effet, il n’est pas conseillé d’estimer des percentiles extrêmes lorsque l’échantillon est petit. Dans le contexte de cette étude, uniquement le quantile 0.5, soit la médiane, sera considéré, mais dans certains articles, tels que David Ellen and Powell (2009) et Carlo Matallin-Saez and Tortosa-Ausina (2013) (2013), les auteurs utilisent d’autres quantiles pour analyser la performance de gestionnaire, tels que les quantiles 0.05, 0.25, 0.5 et 0.75.

Les paramètres de la régression quantile s’interprètent de la même façon que dans le cas de la régression linéaire. Par exemple, au quantile 0.5, β(0.5) représente l’augmentation de la valeur médiane de Y lorsque la valeur de la variable explicative x augmente d’une unité. L’ordonnée à l’origine α de la régression quantile est également utilisée de la même façon qu’en régression linéaire pour évaluer la performance des gestionnaires d’actifs, c’est-à-dire qu’un coefficient α significativement supérieur à zéro indique que le gestionnaire a réussi à battre le marché. En effet, le coefficient α représente maintenant le rendement net médian du gestionnaire quand le rendement net du marché est nul.

L’estimation de la variance du coefficient α, pour permettre de calculer le ratio d’information, peut être obtenue, par exemple, soit par une technique du bootstrap ou également par une méthode basée sur l’estimation par noyau. Dans nos analyses, c’est la méthode par boostrap qui a été utilisée. Cette méthode se base sur l’hypothèse que l’échantillon aléatoire tiré est représentatif de l’échantillon de départ et peut se décomposer en 3 étapes :

1- tirer M échantillons aléatoires de taille T avec remise à partir de l’échantillon de départ ; 2- estimer pour chacun des échantillons le coefficient α à l’aide de la régression quantile ; 3- calculer l’écart-type échantillonnal des M coefficients α obtenus à l’étape 2.

2.3.3 Prévision

La prévision d’un nouveau rendement net d’un gestionnaire sachant que la valeur du rendement du marché sera de x=x0pour τ =0.5 et avec erreurs i.i.d. est :

ˆ

Yt =QYt(0.5|x= x0) = ˆα(0.5) + ˆβ(0.5)x0.

Dans le cas où les erreurs sont autorégressives d’ordre deux la prévision d’une nouvelle observation pour Y, toujours en supposant que x= x0au temps T et que τ=0.5 est :

ˆ

Yt =QYt(0.5|x= x0) = ˆα(0.5) + ˆβ(0.5)x0+ϕˆ1ˆεT−1(0.5) +ϕˆ2ˆεT−2(0.5).

Un intervalle de confiance à approximativement 95% correspondant à ces prévisions est :  ˆ Yt±1.96 q ˆ var(Yˆt)  ,

où ˆvar(Yˆt)peut être calculée en utilisant une méthode de bootstrap par bloc, voirBuhlmann

and Kunsch(1999).

2.3.4 Variante au modèle de régression quantile

Tout comme pour la régression linéaire, les mêmes variantes ont été testées afin de valider s’il était possible d’améliorer l’ajustement des modèles pour permettre de mieux classer les gestionnaires d’actifs.

Pour les mêmes raisons que dans le cas de la régression linéaire, des modèles utilisant comme variable réponse le log(1+rendement) ont été testés. La transformation à appliquer pour obtenir le rendement prévu et non le log(1+rendement) n’est pas la même que pour la régression linéaire. En fait, une propriété intéressante des quantiles conditionnels est qu’ils

possèdent la propriété d’invariance aux transformations monotones. Ainsi, pour toute trans- formation monotone h(·),

Qτ{h(Y)|x} =h{Qτ(Y|x)}

⇒ Qτ{log(Y)|x} =log{Qτ(Y|x)}

où h(·) représente une transformation non décroissante∈ R. Ainsi pour obtenir le rende- ment prédit, il suffit d’utiliser uniquement la transformation inverse, soit :

ˆ

Yt =exp(ˆα+ ˆβx0) −1.

Documents relatifs