• Aucun résultat trouvé

2.5.1 Modélisation de ARMA

Dans la partie qui suit, nous allons tenter d’identifier le processus stochastique qui ré- git la série temporelle de la liquidité. Compte tenu des conclusions que nous avons faites sur la fonction d’autocorrélation de la liquidité, nous allons tout d’abord nous intéresser aux processus dits ARMA (Autoregressive Moving Average), et nous allons éventuelle- ment utiliser les modèles qui corrigent l’hétètoscédasticité (ARCH, Garch. . . ). L’intérêt de l’application des processus autorégressifs dans le contexte de la liquidité du marché ré- side dans le pouvoir prédictif de ces modèles, et cela permettrait par exemple aux acteurs d’anticiper un faible niveau de liquidité qui pourrait conduire à une contraction des mar- chés, ou de mesurer l’impact des chocs sur la liquidité (sous l’impulsion de la régulation) sur l’activité globale sur le marché.

Au sujet de la modélisation de la liquidité par des modèles autoregressifs, Minovic et Zivkovic (2010)[267] font appel au modèle Garch multivarié pour saisir la dimension temporelle du risque de liquidité. De la même manière, Febrian et Herwany (2008)[138] modélisent les variations de la liquidité du marché (mesurée par la fourchette bid-ask, la fréquence des transactions et le ratio d’Amihud) par les modèles Arch et Garch. Tudor (2011)[317] développe un nouveau modèle de LW-Garch (Liquidity-Weighted Garch ou le modèle Garch pondéré par la liquidité) pour prendre en compte la dimension de la liquidité dans la volatilité des séries financières.

Un modèle ARMA(p,q) est un processus temporel discret (yt, t ∈ N) composé de

deux parties : une part auto-régressive (AR) et une part moyenne mobile (MA). Il s’écrit comme :

Où p est l’ordre de la partie AR et q l’ordre de la partie MA. φ et θ sont les paramètres du modèle et les εt représente un bruit blanc.

Les processus ARMA nécessitent l’utilisation des séries stationnaires. Malgré leurs avan- tages, ces processus présentent, l’inconvénient de la non prise en compte des clusters de volatilité, étant donné qu’ils supposent que la variance conditionnelle est constante.

Avec la remise en cause de l’hypothèse d’homoscédasticité, le modèle Arch (Autore- gressive conditional heteroskedasticity) développé par Engle (1982)[132] repose sur une variance conditionnelle variable en fonction du temps. Avec t l’innovation de la série et

zt un bruit blanc, un modèle Arch(q) s’écrit comme :

t= σtzt (2.40) σt2 = α0+ q X i=1 αi2t−i

Pour tenir de la dynamique de la variance conditionnelle, Bollerslev (1986)[58] définit le processus Garch(p,q) qui généralise le processus Arch(q) en ajoutant l’évolution des valeurs passées de σ2t : σt2 = α0 + q X i=1 αi2t−i+ p X j=1 βjσt−j2 (2.41)

Au final, la procédure de l’identification nous permettra d’estimer, pour chaque va- riable de la liquidité LIQ, les paramètres du modèle suivant :

        

LIQt=Ppi=1αiLIQt−i+Pj=1p βjt−j+ t = ut+ σtzt

σ2 t = α0+ q P i=1 αi2t−i+ Pp j=1βjσ 2 t−j t= σtzt (2.42)

Où ut et σt sont, respectivement, la moyenne conditionnelle et la volatilité conditionnelle

de la liquidité.

Nous allons maintenant tenter d’identifier les processus qui régissent les 6 variables de la liquidité. L’identification ARMA s’effectue à partir du corrélogramme, où la fonc- tion d’auto corrélation permet de déterminer la partie MA, et la fonction d’auto corréla- tion partielle permet d’identifier la partie AR. L’ordre p de cette dernière correspond au

nombre des coefficients d’autocorrélation partielle significativement différents de 0, tan- dis que pour un MA, l’ordre q correspond au nombre des coefficients d’auto corrélation significativement différents de 0.

La validité du modèle choisi est vérifiée à travers les résidus qui doivent respecter les hypothèses de normalité (test de Jarque Bera), de non autocorrélation (test Q de Ljung- Box ) et d’homoscédasticité (test de Arch). Les ratios d’information (Aikaike et Schwarz) et le coefficient de détermination du modèle sont également des critères de choix envisa- geables. Le tableau 2.5 résume les modèles retenus et les tests effectués. Les résultats des différentes estimations sont fournis en annexes 3.8 et3.9.

Roll CS Amihud HL ADV LIX Modèle Retenu Arch(2)

AR(4) Garch(1,1) AR(9) Arch(2) AR(3) Arch(5) AR(6) AR(8) Arch(2) AR(8) Non Autocorrélation non à partir du

21ème retard non non non non Normalité non non non non non oui Homocédasticité oui oui oui oui non oui

Table 2.5 – Les résultats de l’identification faite sur les variables de la liquidité.

Pour les variables Roll, Amihud, HL et LIX, le modèle choisi est un AR corrigé de l’hétéroscédasticité via la spécification Arch. La variable CS est modélisée par un preces- sus AR à 9 retards dont la variance conditionnelle est régie par un Garch(1,1). Tous les résidus des différentes estimations ne respectent pas l’hypothèse de la normalité, ainsi que que l’hypothèse de non autocorrélation. En revanche, la spécification Arch/Garch permet de résoudre le problème de l’hétéroscédasticité.

Le recours à des spécifications de type Arch/Garch implique la présence des clusters de liquidité, c’est-à-dire des périodes où la liquidité connaît une forte volatilité. Cela confirme ce qui se passe par exemple en période de crise où la liquidité disparaît soudainement puis réapparaît sur le marché. La possibilité de modéliser la liquidité avec des processus autorégressifs ouvre aux investisseurs la perspective de prévoir le risque de liquidité et de réduire par conséquence les coûts qui en découlent.

2.5.2 Modélisation ARFIMA

Nous avons conclu précédemment que l’hypothèse d’absence d’autocorrélation au ni- veau des variables de la liquidité, n’est pas vérifiée. Les fonctions d’autocorrélations sont toutes significativement différentes de 0, au delà même de 250 retards (ou une année). Ceci

suggère qu’un modèle de type ARFIMA (AutoRegressive Fractionnaly Integrated Moving Average) pourrait mieux modéliser le comportement de la liquidité.

La dynamique de court terme des séries peut être expliquée par les composantes au- torégressives et moyenne-mobiles ARIMA, et on peut également y ajouter les modèles Arch/Garch pour tenir compte de l’hétéroscésasticité. Cependant, pour tous ces modèles, la fonction d’autocorrélation ressemble à celle d’un bruit blanc ou d’un processus à mé- moire courte. Pour un processus Arch par exemple, la fonction d’autocorrélation tend de façon exponentielle vers 0. Plus le nombre des retards est grand, plus faible est l’autocorré- lation entre Xtet Xt−h. À l’opposé, une série temporelle à mémoire longue est caractérisée

par une fonction d’autocorrélation qui diminue lentement à mesure que nombre de retards augmente.

Historiquement, Mandelbrot et Van Ness (1968)[252] sont les premiers à proposer un processus de mémoire longue appelé le mouvement brownien fractionnaire. À l’aide de ce processus, on peut calculer la valeur de l’exposant de Hurst. Une autre classe des pro- cessus de longue mémoire est constituée des processus ARFIMA développés par Granger et Joyeux (1980)[159] et Hosking (1984)[189] et qui sont une généralisation des processus ARIMA de Box et Jenkins(1971)[33]. À la différence des precessus ARIMA(p,d,q) où le paramètre de différenciation d est un entier, les processus ARFIMA(p,d,q) sont caracté- risés par un paramètre d qui peut prendre des valeurs dans R. Ce paramètre d décrit le comportement de long terme de la série.

Les processus à mémoire longue sont souvent utilisés en économétrie financière. À titre d’exemple, Cheung et Baillie (1993)[96] et Hassler et Wolters (1995)[174] appliquent les modèles ARFIMA sur respectivement le taux de change et le taux d’inflation. Les estimations ARFIMA ont été également utilisées par Panas (2001)[277], indiquant la pré- sence d’une mémoire longue à la Bourse d’Athènes. En revanche, l’utilisation des modèles ARFIMA en microstructure des marchès est rare. Tsuji (2002)[316] fait appel à l’analyse R/S de Hurst et aux modèles ARFIMA pour prouver l’existence de la mémoire à long terme dans la liquidité et dans la volatilité de l’indice japonais NIKKEI. Singh et al. (2016)[303] utilisent un processus ARFIMA-Garch pour modéliser le coût de liquidité du marché boursier australien. Zhou et al. (2018)[331] utilisent un modèle ARFIMA-IGarch pour décrire la liquidité commune (voir chapitre 3) sur le marché boursier chinois.

la fonction d’autocorrélation est bornée :

|ρ(h)| ≤ Crh

En revanche, pour un processus stationnaire à mémoire longue, où C > 0 et d < 1/2, la fonction d’autocorrélation satisfait la condition :

ρ(h) ∼ C.h2d−1 lorsque h → ∞ (2.43) Comme l’a noté Peters (1994)[284], une valeur de d dans R est liée au concept de

dimension fractale D développé par Mandelbrot (1983)[252], telle que : D = 1.5 − d. Le paramètre d peut également s’exprimer en fonction de l’exposant de Hurst (1951)[196] : d = H − 0.5. Il est alors possible de distinguer, selon la valeur de d, plusieurs cas de figure :

— Si d=0 (ou D=1.5 et H=0.5) : le processus ne présente pas de mémoire longue, mais seulement une mémoire courte. Le processus ARFIMA(p,d,q) se réduit dans ce cas au processus ARMA(p,q) ;

— Si 0<d<0.5 (ou 1<D< 1.5 et 0.5<H< 1) le processus est persistant et présente une mémoire longue. Les autocorrélations sont positives et décroissent hyperbolique- ment vers 0 à mesure que le retard augmente, et la série ρ(h) n’est pas convergente P |ρ(h)| = ∞ ;

— Si d=0.5 (ou D=1 et H=1) : le processus peut être considéré comme une marche aléatoire, et il est par conséquent imprévisible ;

— Si d<0 (ou D>1.5 et H<0.5) : le processus est anti-persistant car les autocorré- lations diminuent de manière hyperbolique vers 0. Il s’agit donc d’une mémoire intermédiaire, la série ρ(h) est absolument convergente P |ρ(h)| < ∞.

Le processus ARFIMA(p,d,q) proposé par Granger et Joyeux (1980)[159] est exprimé ainsi : φp(B)(1 − B)dyt= θq(B)εt (2.44) Ou encore comme : 1 − p X i=1 ρiBi ! yt(1 − B) d = 1 + p X j=1 θjBj ! εt (2.45)

où (1 − B)dpermet la différenciation fractionnaire de y

les paramètres estimés de AR(p) et MA(q). B est l’opérateur de retard tel que : Bpyt= yt−p et Bqεt= εt−q

L’application du modèle ARFIMA exige l’estimation du paramètre d. Plusieurs mé- thodes sont possibles (voir Lardic et mignon(1996)[221]). Dans le cadre de notre étude, nous utilisons la procédure MPL (modified profile likelihood ) du maximum de vraisem- blance (voir Cox and Reid (1993)[106] pour plus de détail sur cette technique).

Dans le cadre de notre analyse, nous allons estimer les modèles ARFIMA pour les 5 variables de la liquidité, plus la variable différenciée DADV. Les résultats des estimations des modèles ARFIMA(p,d,q) sont données aux tableaux2.9,2.10et2.11, et sont résumés en 2.6.

Roll CS Amihud HL ADV LIX ARFIMA p 4 9 3 6 8 8

d 0.1713 0.4331 0.2990 0.4833 0.3902 0.4572 q 0 0 0 0 0 0

Table 2.6 – Les modèles ARFIMA retenus pour chaque mesure de liquidité.

Figure 2.9 – Les estimations ARFIMA(9, 0.4331, 0) pour CS, et ARFIMA(4, 0.1713, 0) pour Roll.

D’un point de vue informationnel, si la liquidité du marché constatée à travers la fourchette bid ask par exemple, reflétait toute l’information disponible sur la liquidité, il serait alors impossible de prévoir son niveau à venir à partir des informations disponibles. L’implication d’une telle hypothèse est que la liquidité est régie par un processus de type

Figure 2.10 – Les estimations ARFIMA(3, 0.2989, 0) pour Amihud, et ARFIMA(6, 0.4833, 0) pour HL.

Figure 2.11 – Les estimations ARFIMA(8, 0.3902, 0) pour ADV, et ARFIMA(8, 0.4571, 0) pour LIX.

‘marche aléatoire’ où seules des prévisions naïves sont envisagées.

En revanche, si la liquidité a une structure de dépendance de long terme, les séries de la liquidité présentent des autocorrélations significatives, et la connaissance du passé fournit alors de l’information pour prévoir le niveau de liquidité futur.

D’après les résultats des estimations ARFIMA, tous les paramètres de différenciation fractionnaire d sont statistiquement significatifs et sont tous strictement compris entre 0 et 0.5, ce qui est conforme à l’hypothèse de mémoire longue persistante de la liquidité et aux résultats obtenus à partir de l’exposant de Hurst. L’efficience de l’information en termes de liquidité est donc non vérifiée. L’asymétrie de l’information sur l’état de la liqui- dité est perceptible si l’on considère ce qu’on a discuté en chapitre 1 sur la grande variété d’investisseurs qui opèrent sur les marchés financiers et qui ont des attentes hétérogènes en termes de liquidité.

Outre la persistance de la liquidité, la validité des modèles retenus nous enseigne qu’un certain degré de prévisibilité des frictions du marché est possible, et que des points de rupture pourraient alors être détectés. Nous pensons par conséquent que la connaissance d’une information particulière sur la liquidité permettrait de tirer un avantage en termes de réduction des coûts de transaction à travers une stratégie de ‘meilleure exécution’.

En conclusion, nous avons vu que la liquidité présente une caractéristique de dépen- dance de long terme, et de court terme. Un choc de la liquidité ne s’estompe donc pas instantanément, et les investisseurs continueront à subir les conséquences sur une période plus ou moins longue. Cependant, la perception de ce choc de liquidité par les investis- seurs n’est pas toujours facile. Dans certains cas, lorsque la liquidité du marché diminue, le marché peut ne pas intégrer immédiatement et entièrement cette illiquidité. Comme nous l’avons vu au chapitre 1, Il est plausible que l’illiquidité puisse entraver le processus de formation des prix. Cette hypothèse de sous réaction des prix (ou des rendements) suite à un choc de liquidité est étudiée dans les deux sections suivantes.

3

L’étude de la relation rendements-liquidité