• Aucun résultat trouvé

Efficience informationnelle : une application au marché boursier casablancais

N/A
N/A
Protected

Academic year: 2022

Partager "Efficience informationnelle : une application au marché boursier casablancais"

Copied!
18
0
0

Texte intégral

(1)

Ce texte traite de l’efficience informationnelle du marché boursier marocain. En se basant sur l’hypothèse “standard” des marchés efficients (EMH), nous avons essayé de tester la marche au hasard des rentabilités au cas de la bourse de Casablanca. Les conclusions relatives à nos divers tests ont confirmé l’hypothèse des marchés efficients, sous sa forme faible.

Mots-clés : Efficience informationnelle, anticipations rationnelles, risque, stationnarité, auto-corrélation.

Introduction

L’hypothèse de l’efficience est l’une des hypothèses les plus controversées en économie et en finance. Selon la version “standard” de l’efficience (Fama, 1965, 1970), un marché financier est réputé efficient si et seulement si l’ensemble des informations disponibles concernant chaque actif financier coté sur ce marché est immédiatement intégré dans le prix de cet actif.

Néanmoins, suite aux critiques de Grossman (1) (1976) et de Grossman et Stiglitz (1980) concernant les coûts de transaction qui ne sont jamais nuls et la prise en compte d’une information privée coûteuse, Fama (1991) adhère enfin à la définition proposée par Jensen (1978), selon laquelle le prix reflète l’information tant que le profit marginal de la recherche de l’information n’excède pas le coût marginal de celle-ci. Il est évident dans ce cas que l’efficience a pour soubassement exclusif la rationalité.

Ceci étant, le renouvellement de l’approche théorique et la découverte de nouvelles méthodes économétriques ont permis une littérature abondante sur le sujet et une nouvelle manière de traiter l’efficacité informationnelle des prix. Sur le plan empirique, l’hypothèse des marchés efficients (EMH) a fait l’objet de plusieurs études. La plupart d’entre elles ont porté sur les marchés financiers développés et ont confirmé le caractère efficient de ces derniers. Sur le marché marocain des actions, aucune étude, à notre connaissance, ne lui a été consacrée. En effet, suite à son acceptation au sein de l’indice IFCI Emerging Market compositede la société financière internationale (SFI) avec une pondération de 0,96 % pour le mois d’octobre 1999 et son émergence au sein de la zone MEA, une étude empirique portant

Abdellatif El M’Kaddem et Abdelhamid El Bouhadi

Université Sidi Mohammed Ben Abdellah, Fès

(1) Celui-ci montrait l’impossibilité logique d’un équilibre totalement révélateur. Si tous les investisseurs ont le regard fixé sur leurs écrans, s’ils se disent que toutes les informations sont dans les cours et qu’il n’y a donc aucune raison pour regarder ailleurs, les prix signifieront-ils encore quelque chose ? Non, bien sûr. Ainsi, un marché efficient, au sens standard évoqué ci- dessus, est une impossibilité logique si l’information est coûteuse et qu’il n’existe aucune incitation à la produire et à l’utiliser.

une application au marché

boursier casablancais

(2)

sur l’examen de l’hypothèse des marchés efficients de la bourse de Casablanca mérite d’être réalisée.

Cet examen pratique répondra, en effet, à la qualité du marché boursier marocain et à son degré de transparence sous sa nouvelle configuration, hissée vers la fin des années quatre-vingt-dix au peloton de tête des marchés émergents. Nous allons en effet insister, tout au long de cet article, sur deux aspects. Le premier traite de l’efficience informationnelle sur le plan théorique à travers deux points essentiels : la relation qu’entretient l’efficience avec la rationalité dans un contexte d’incertitude et le processus d’évolution des cours.

Le second aspect traite de l’efficience sur le plan empirique.

1. Efficience informationnelle : une analyse théorique

La notion d’efficience peut être appréhendée et comprise selon trois angles différents : d’un point de vue allocatif (2), les cours des titres évoluent de manière à égaliser les taux de rendement marginaux entre les investisseurs et les épargnants (3) ; d’un point de vue opérationnel, les coûts de transaction doivent être déterminés dans un cadre concurrentiel, et les profits marginaux des teneurs de marché et des sociétés de bourse doivent tendre vers zéro.

Alternativement, un marché est qualifié d’efficient sur le plan informationnel si le prix affiché tient compte de l’information publiquement disponible.

Ces trois variantes d’efficience sont interdépendantes. L’allocation optimale des ressources ne peut se faire que si l’information pertinente est bien prise en compte dans l’évaluation des actifs financiers et si les transactions se réalisent au meilleur coût. Alors, la condition nécessaire pour que soit réalisée une meilleure allocation des fonds consacrée à l’achat des actifs financiers est l’existence de l’efficience informationnelle ; laquelle est fondée sur le concept de rationalité. Les agents sont parfaitement rationnels tant au niveau de leurs comportements qu’au niveau de leurs anticipations. La théorie des marchés efficients n’est, en réalité, que l’inclination naturelle de la théorie de l’équilibre concurrentiel dans le domaine économique.

1.1. Efficience, rationalité et anticipations rationnelles

Dans une situation d’incertitude présente sur les marchés financiers, l’agent rationnel se comporte de manière à minimiser (à maximiser) le risque (l’utilité). En effet, grâce à l’information que le marché lui fournit, il peut anticiper correctement le prix car toute information privée sera révélée et tombera très rapidement dans ce qu’on appelle la “connaissance commune”

(common knowledge).

Rationalité et comportement rationnel des agents

Face au risque que représente un investissement boursier, l’agent rationnel optimise son comportement de manière à maximiser son utilité espérée.

Sur les marchés parfaitement efficients, le risque est considéré comme une

(2) Le terme est emprunté à Michel Aglietta,Macro-économie financière, La

Découverte-Syros, 2001.

(3) Autrement dit, dans ce cas, le marché est capable d'orienter les ressources vers les emplois les plus productifs.

(3)

donnée exogène. Son degré est indifférent aux yeux des investisseurs. Cette hypothèse ne peut être admise que dans le cas de rationalité instrumentale.

Or, en se conformant à la réalité des marchés financiers, un autre type de rationalité peut caractériser les comportements des agents. Il s’agit effectivement de la rationalité limitée (capacité de l’agent plus ou moins limitée dans le recueil et le traitement de l’information).

La rationalité individuelle ou instrumentale

Cette rationalité reflète une efficacité en termes d’action. Les contraintes auxquelles l’agent est soumis sont de type externe, telles que le revenu ou l’état de la technologie. On constate donc que, tout comme l’information, les capacités cognitives de l’individu sont supposées illimitées. L’agent est supposé être un calculateur parfait, ne se trompant jamais, sauf en cas de choc extérieur venant perturber son action. Pour cette raison, une telle conception de la rationalité a fait rapidement l’objet de vives critiques.

Comme l’a souligné Arrow (1987), les hypothèses de la rationalité supposent une aptitude au traitement et à l’évaluation de l’information qui dépasse de beaucoup le domaine du possible et que l’on peut difficilement justifier comme l’aboutissement de processus d’apprentissage et d’adaptation.

Sur ces constats s’est développée une autre conception de rationalité basée sur un “infléchissement” plus ou moins prononcé de la rationalité instrumentale. Il s’agit de la rationalité limitée.

La rationalité limitée ou procédurale

Selon Simon (1964), l’agent est limité tant dans ses capacités cognitives que dans ses facultés à recueillir et à traiter l’information.

Dans la rationalité instrumentale, les contraintes sont externes, alors que dans la rationalité limitée les contraintes sont internes : « On peut désigner comme théories de la rationalité limitée celles qui incorporent des contraintes sur la capacité de l’acteur à traiter l’information (4). » Il faut noter aussi que les modèles de rationalité limitée s’intéressent à la rationalité du processus de choix et non pas aux résultats du choix. L’aspect séquentiel des choix fait que l’agent ne va pas évaluer l’ensemble des actions possibles, mais il va considérer successivement les différentes actions, les évaluer et les comparer au seuil de satisfaction. Dès qu’il trouve une action dont l’évaluation est supérieure ou égale au seuil de satisfaction, le processus de recherche s’arrête, et l’agent se contente de cette action.

De cette classification de la rationalité en deux catégories, la théorie des marchés efficients retient la première catégorie, c’est-à-dire la rationalité instrumentale. C’est au niveau des anticipations que la rationalité individuelle trouve sa justification au sein de la théorie de l’efficience.

Les anticipations rationnelles et leurs implications sur les marchés financiers Sur les marchés financiers, l’hypothèse des anticipations rationnelles renvoie à l’idée selon laquelle l’agent est parfaitement informé. Il ne peut,

(4) Simon H. (1972), cité par Mongin P., « Modèle rationnel ou modèle économique de la rationalité », Revue économique, vol. 35, n° 1, 1984, p. 9.

(4)

en aucun cas, être dupé par le comportement des autres agents. En connaissant l’état de l’économie, il forme des anticipations dites “rationnelles”.

Anticipations rationnelles

Selon Muth (1961), les anticipations rationnelles sont des prévisions informées et parfaites des événements futurs, et elles sont les mêmes que les prévisions de la théorie économique. Ainsi, si l’agent peut prévoir correctement l’évolution des variables exogènes (les fondamentaux de l’économie) et s’il connaît la relation entre ces variables et la variable endogène (titre financier), il formera des anticipations rationnelles. Sous cette hypothèse, qui sous-tend celle des marchés efficients (EMH), le cours de l’action Pt incorpore toutes les informations pertinentes, et les cours ne peuvent varier entre le temps tet le temps t+1 qu’à la suite de l’arrivée de

“nouvelles” ou événements non anticipés. Les erreurs de prévision εt+1= Pt+1– Et[Pt+1] doivent donc être nulles en moyenne et ne doivent être corrélées avec aucune information disponible Ωt au moment de la formation des anticipations. On appelle souvent cet élément de l’EMHles anticipations rationnelles (Rational Expectations : RE), et on peut le noter ainsi :

Pt+1– Et[Pt+1] + εt+1 [1]

Une conséquence de Ett+1] = 0 est que la prévision de Pt+1est sans biais (i.e., en moyenne, le cours actuel est égal au cours anticipé).

Implications des anticipations rationnelles sur les marchés boursiers Sur les marchés boursiers, le modèle unanimement utilisé pour prévoir les cours boursiers correspond à celui de l’actualisation des dividendes futurs.

En effet, d’après Muth (1961), ce modèle suppose implicitement que tous les agents ont des capacités illimitées de recueil et de traitement de l’information, et ce à un coût nul. L’autre hypothèse forte des anticipations rationnelles est que tous les agents économiques ne peuvent être systématiquement dupés ni par les autorités monétaires et financières, ni par les annonces faites sur la santé financière des entreprises.

Par ailleurs, il faut noter que les anticipations rationnelles, dont Muth parlait, ne sont pas des prévisions parfaites. Ces deux notions ne coïncident qu’en situation de certitude. Dans un contexte d’incertitude, caractéristique des marchés financiers, les anticipations rationnelles pour une variable diffèrent des réalisations par la présence d’un terme aléatoire. Ces anticipations seront donc réalisées en moyenne.

De même, si on suppose que les agents forment leurs anticipations en s’appuyant sur le modèle économique pertinent, alors les anticipations s’autoréalisent, et leur processus de formation est endogène. La notion de prophétie autoréalisatrice (self-fulfilling prophecy) est due à Merton (1957), mais on la trouve déjà dans l’œuvre de Keynes concernant le taux d’intérêt

(5)

normal : si les agents croient qu’un certain événement a une influence sur la variable à prévoir, alors on pourra constater qu’ils provoqueront l’apparition de cet événement. Les anticipations rationnelles, définies par Muth (1961), peuvent être a prioritotalement inadaptées aux situations réelles. La question qui se pose, en effet, est la suivante : est-ce que tous les intervenants sur les marchés financiers sont des fondamentalistes (c’est-à-dire des professionnels ou économistes utilisant les données issues des variables économiques pertinentes) ? Dans la pratique, sur les marchés financiers, les agents et leurs comportements sont hétérogènes. Sur les marchés boursiers émergents, la capacité de collecte et de traitement de l’information est limitée par le caractère familial des entreprises cotées et par le manque de régularité dans la diffusion des informations sur les fondamentaux économiques et financiers annoncés par les pouvoirs publics et les autorités du marché.

L’implication majeure des anticipations rationnelles (et de factocelle de l’EMH) suppose que le prix de transaction agrège l’information contenue dans les signaux privés. Néanmoins, sur les marchés continus, l’incertitude sur le vrai prix est à son niveau maximum en début de séance. Ceci montre qu’après l’ouverture et pendant toute la séance de cotation, l’afflux d’informations est très important, et le comportement des agents n’est pas tout à fait visible ; et il peut même être à l’origine d’opérations d’initiés camouflées par la présence d’agents dont les identités sont variées et variables au cours du temps : les agents qui échangent pour le besoin de liquidité peuvent se transformer, avec l’apprentissage, en agents échangeant dans le but de tirer profit de leur information découverte juste avant son intégration complète dans les prix. Ceci montre en effet, d’une part, que les délais d’ajustement à l’information nouvelle ne sont pas nuls et, d’autre part, que l’hétérogénéité des investisseurs ainsi que leurs comportements sont des contre-exemples aux anticipations rationnelles. La réaction du prix d’un actif est donc liée non seulement à l’information elle-même, mais aussi à son contenu, sa pertinence et son interprétation. Lors de la parution d’une information nouvelle, il est important, pour un investisseur, de connaître à la fois l’information et les anticipations faites par d’autres investisseurs.

Seule la connaissance de ces deux éléments permet de mieux connaître l’influence de la publication de l’information sur le niveau des prix des actifs financiers. Dans le cas où les anticipations sont rationnelles et homogènes, les cours boursiers suivent un comportement de type aléatoire. Le processus aléatoire des cours garantit l’efficience informationnelle des marchés.

1.2. Efficience et processus d’évolution des cours

L’idée originale de l’EMH porte sur l’impossibilité de prévoir dans le futur les variations des prix des actifs financiers puisque toute variation connue sur ces prix sera incluse dans l’information disponible. Cela implique que les prix des actifs suivent une marche au hasard (random walk). Dit

(6)

autrement, la variation future du prix d’un actif est indépendante de l’information connue initialement.

Les premiers travaux sur la marche au hasard des cours boursiers sont attribués à Bachelier (1900). Dans le cadre de sa thèse en mathématiques portant sur la théorie de la spéculation, Bachelier a montré que les variations des cours boursiers suivent une loi normale de Laplace-Gauss. En effet, Bachelier a effectué ses travaux pour expliquer pourquoi les prix sur les marchés financiers sont impossibles à prévoir. La clé de la perspicacité de Bachelier réside dans son observation, exprimée de façon particulièrement moderne, selon laquelle « les opinions contradictoires concernant les variations du marché divergent tellement que, au même moment, les acheteurs croient à une hausse des prix et les vendeurs à une baisse des prix (5) ». Convaincu que rien ne permet de croire que les vendeurs ou les acheteurs en savent moyennement plus que les autres sur le futur, il est arrivé à une surprenante conjecture : « Il semble que le marché, la collectivité des spéculateurs, à un instant donné, ne peut croire ni en une hausse ni en une baisse du marché, puisque, pour chaque prix coté, il y a autant d’acheteurs que de vendeurs (6). » En ce sens que l’espérance mathématique du spéculateur est nulle : ceci décrit la situation dans laquelle le jeu est

“équitable” ou “équilibré” selon les propres termes de Bachelier (1900).

En conséquence, la prédiction se présente comme un pur jeu de hasard.

Cette conjecture revient à dire non seulement qu’il y a incertitude quant à la hausse ou à la baisse des prix, mais qu’elle peut se quantifier exactement : si l’on pondère les valeurs du cours à un instant ultérieur par leurs probabilités respectives, le centre de gravité (valeur fondamentale du titre) de la répartition obtenue est la valeur présente.

La marche au hasard

Outre l’apport majeur de Bachelier (1900), Working (1934) puis Kendall (1953) ont étudié le comportement des séries historiques des prix. Working essaya une représentation graphique des variations des prix des matières premières d’une transaction à l’autre. Il remarqua quelque chose de nouveau dans son étude : alors que les niveaux des prix n’avaient pas un aspect aléatoire, les variationsde prix avaient tendance à être «en grande partie aléatoires ». Les variations aléatoires sont par définition imprévisibles.

Après la publication de l’article de Working en 1934, un vide théorique a fait irruption jusqu’en 1953 où Kendall a publié son article. Kendall avait analysé des données hebdomadaires sur 19 groupes d’actions différents couvrant la période qui va de 1928 à 1938. Les résultats de Kendall confirmèrent ceux de Working. Il ne trouva aucune structure de corrélation dans cette grande variété d’actions et dans ce long historique de variations de prix.

En 1961, une étude d’avant-garde sur l’analyse de larges quantités de données statistiques apparut sous le nom de Alexander (1961). Le but de

(5) Bachelier L. (1900), cité inBernstein P. L., Des idées capitales, Quadrige-PUF, 2000, p. 26.

(6) Ibid., p. 26.

(7)

cette étude était de découvrir si les cours boursiers suivaient des tendances que les investisseurs pouvaient identifier à l’avance. Alexander se demanda si les prix boursiers sont prévisibles ou dirigés par le démon de la chance.

La manière dont les investisseurs répondent à cette question détermine s’ils vont choisir d’acheter et de conserver (buy and hold) des actions pour une longue période ou s’ils essayeront d’alterner entre des liquidités et des actions au gré des fluctuations du marché. Cette dernière stratégie ne peut être accomplie que dans le cas où les autres investisseurs ont une «connaissance imparfaite des tendances du marché». Personne ne peut gagner si tout le monde reçoit l’information nécessaire, la comprend parfaitement et essaie de l’exploiter immédiatement. Utilisant des observations quotidiennes du Standard & Poor’s Industrial Average de 1897 à 1959, Alexander examina les résultats de stratégies consistant à acheter ou à vendre après l’amorce d’une tendance longue ou courte. Il compara ensuite ces résultats à la rentabilité qu’un investisseur aurait obtenu en achetant simplement des actions au début de la période et en les conservant jusqu’à la fin. Alexander obtint des résultats positifs : « un mouvement, une fois commencé, a tendance à persister ». La conclusion est spectaculaire et la preuve de marche au hasard de Bachelier et de ses successeurs est condamnée aux oubliettes. Cependant, les critiques de la démarche d’Alexander et ses propres réflexions ultérieures le conduisent à revoir ses propres conclusions. En 1964, il publia un second article (Alexander, 1964) sur le sujet dans lequel il a radicalement révisé les propos de son premier article : « Les profits importants de premier article doivent être remplacés par des profits plus faibles. La question se pose encore de savoir si même ces profits ne pourraient pas être le résultat d’une marche au hasard (7). »

Toutes ces idées ne se sont réellement étudiées et testées empiriquement qu’à partir des années soixante. Jusqu’aux années quatre-vingt-dix, la plupart de ces études ont corroboré la thèse de l’efficience (EMH).

Le modèle de martingale

C’est à Samuelson (8) (1965) que revient le mérite d’avoir découvert le lien existant entre l’efficience et les martingales. Une martingale (9) est un processus tel que la valeur en test égale à l’espérance de la valeur future conditionnellement à l’information disponible. L’hypothèse que la valeur actuelle des cours et des dividendes accumulés suit une martingale se formule de la façon suivante :

Xt= αxE [Xt+1+ Dt+1Ωt] [2]

avec α le facteur d’actualisation compris entre 0 et 1( étant le taux de rentabilité exigé) et Dle dividende.

Si la relation [1] est vérifiée, toute information de l’ensemble Ωt est incorporée dans le cours X.Samuelson [1965] montrait la correspondance

α = 1 1 +ρ,ρ

(7) Alexander S. (1964),

« Price Movements in Speculative Markets : Trends or Random Walks : 2 », Industrial Management Review, vol. 5, n° 2, cité par Bernstein (2000), op. cit., p. 112.

(8) Pour plus de détails, voir Le Roy (1989), op. cit., p. 1583-1621.

(9) On peut parler de sous-martingale dès qu’une martingale stricte se superpose à une tendance systématique croissante ou décroissante.

(8)

existant entre efficience et martingale. Plus précisément, si la relation de l’efficience Xt= Xt–1+ εt (où εtest un bruit blanc) est vérifiée, en appliquant le modèle de martingale de manière récursive, on obtient :

[3]

Xt est appelé “valeur fondamentale” du titre et est égal à la somme actualisée des dividendes futurs anticipés rationnellement par les agents.

L’affirmation selon laquelle les cours suivent une martingale ne signifie pas du tout que le comportement des cours est complètement erratique et sans correspondance avec les informations fondant la valeur des titres cotés. Il s’agit plutôt d’affirmer que si les cours sont une somme pondérée des flux des dividendes futurs, les cours futurs ne peuvent être prédits sur un marché efficient : toute information concernant le flux de dividendes et le taux d’actualisation est répercutée dans les cours. La propriété forte de processus de formation des rentabilités est que ces dernières sont indépendantes et identiquement distribuées (i.i.d.). En d’autres termes, le processus générateur de rentabilités est supposé stationnaire. On suppose en effet que l’on a une variable aléatoire Xtqui a la propriété suivante :

E [Xt+1Ωt] = Xt [4]

On dit alors que Xtest une martingale. Etant donnée cette propriété, la meilleure prévision de toutes les valeurs futures de Xt+j (J 1)est la valeur courante Xt. Aucune autre information de Ωt ne permet d’améliorer la prévision une fois que l’agent connaît Xt.De ce fait, on dit que Xtest une martingale si et seulement si Xt +1Xtest un “jeu équitable” (10).

Une définition simple et intuitive de l’EMHest que celle-ci formule la propriété de “jeu équitable” pour les rendements. Cette propriété a été testée empiriquement par plusieurs auteurs.

Cela dit, après avoir présenté les soubassements théoriques de l’efficience, nous consacrerons le prochain point à l’étude empirique de l’efficience sur le marché casablancais.

2. Efficience informationnelle : une application au cas de la bourse de Casablanca

Sur le plan pratique, l’examen de l’efficience est l’application de la théorie de la marche au hasard. En effet, deux points seront développés. Il s’agit de l’étude préliminaire sur la propriété des séries et l’application des tests d’efficience de forme faible.

2.1. Etude sur les propriétés des séries

Notre présente étude porte sur l’indice général boursier (IGB) et sur un certain nombre de valeurs considérées comme plus ou moins actives

Xt =

αjx E [Dt +jΩt]

j=1

(10) Appelés aussi différences martingales ou différences de martingale (martingale differences).

(9)

sur le marché de Casablanca. L’IGB regroupe toutes les valeurs cotées sur les trois compartiments (11) du marché. Notre choix de la fréquence quotidienne, nous le justifions par le fait qu’il nous a semblé plus judicieux et plus rigoureux de retenir une fréquence journalière dans la mesure où, si l’hypothèse d’efficience est rejetée sur des données quotidiennes, cela suffira à la rejeter à une fréquence plus faible (une heure, une minute, 15 secondes, etc.). Autrement dit, si l’intégration complète de l’information n’est pas réalisée au cours d’une journée, elle ne peut pas l’être, en toute logique, pendant une période inférieure. De même, si l’efficience est rejetée sur données journalières, il n’est ni important, ni rigoureux de la prouver sur données hebdomadaires et, a fortiori, beaucoup moins sur données mensuelles. Car l’information non intégrée et donc non révélée dans le prix pourra entre-temps être utilisée pour réaliser des opérations d’arbitrage.

Ceci est la preuve de l’existence d’un délai d’ajustement du prix à l’information. Si ce délai est plus ou moins long, il est vain de parler de l’efficience du marché des titres.

La période d’observation est de plus de 5 ans pour l’IGB et de plus de 4 ans et demi pour les principales valeurs de la cote. Le choix de la période et d’un type particulier de valeurs est dicté par la considération du démarrage de la bourse de Casablanca qui n’est devenu effectif qu’à partir de 1997, date à laquelle une mini-réforme boursière et financière a été engagée. De même, le choix de l’échantillon d’entreprises cotées est fait dans l’esprit de garder une image plus ou moins fidèle du secteur économique qui domine l’activité de la bourse de Casablanca.

Avant de présenter les tests de racine unitaire (tests de Dickey et Fuller et Phillips et Perron) et leur déroulement, nous nous proposons, tout d’abord, d’analyser la stationnarité. Celle-ci est l’une des caractéristiques les plus intéressantes des séries boursières.

Les caractéristiques des séries financières

La plupart des séries boursières ne sont pas stationnaires, auquel cas il faut transformer les données. De même, nous notons que la plupart des séries financières sont asymétriques. Les oscillations les caractérisant ne sont ni amorties, ni explosives, mais auto-entretenues (Mignon, 1998) et chaotiques, c’est-à-dire dénuées de toute régularité dans le temps. La mise en œuvre des divers tests d’efficience nécessite, en effet, que les séries analysées soient stationnaires. La stationnarité peut être définie de différentes façons, mais si nous voulions en donner une définition intuitive et simple, ce serait la suivante : une variable “stationnaire” a une moyenne et une variance constantes. Il faut également que la dépendance entre deux observations soit reliée à leurs positions relatives dans la série (à la distance qui les sépare) et non à leurs positions absolues (12).

(11) Ces trois

compartiments décrivent trois types de marchés : le premier est réservé aux grandes entreprises, le second aux moyennes entreprises et le troisième est consacré, quant à lui, aux valeurs

technologiques en croissance.

(12) En d’autres termes,

(10)

Puisque bon nombre de séries chronologiques utilisées en économie et en finance affichent une tendance dans le temps, elles ne satisfont pas à la condition d’avoir une moyenne et une variance constantes au cours du temps. C’est pour cette raison qu’elles ne sont pas stationnaires. En effet, l’observation des graphiques de certaines séries étudiées montre l’existence d’une tendance. Les cours en niveau indiquent une non- stationnarité en moyenne. Par contre, les cours log-différenciés (les rentabilités) indiquent une stationnarité. Leur processus générateur est le suivant :

rt= log(xt) – log(xt–1) [5]

Ainsi, pour confirmer ce résultat et tester cette non-stationnarité en moyenne des séries et déterminer leur ordre d’intégration, il convient d’appliquer les tests de racine unitaire. Le test le plus utilisé est celui de Dickey et Fuller (1979, 1981). Les séries financières présentant, en outre, souvent une variance variable au cours du temps, le test de Phillips-Perron, robuste à l’hétéroscédasticité, sera également appliqué.

Les tests de racine unitaire

Deux types de tests de racine unitaire sont de plus en plus utilisés dans la littérature sur la stationnarité, à savoir les tests de Dickey et Fuller (1979, 1981) et les tests de Phillips et Perron (1988).

Le test de Dickey et Fuller

Les statistiques de Dickey et Fuller ont pour objet de tester l’hypothèse nulle de processus non stationnaire contre l’hypothèse alternative de processus stationnaire.

Les modèles servant à la construction de ces tests sont au nombre de trois :

Modèle (1) :

(1 – φ1B)xt= εt modèle autorégressif d’ordre 1 : AR(1) Modèle (2) :

(1 – φ1B)(xt– µ) = εt modèle AR(1) avec constante, où E[xt] = µ Modèle (3) :

(1 – φ1B)(xt– α − βt) = εt modèle AR(1) avec tendance εtest i.i.d.

Le principe des tests est simple : si dans ces trois modèles φ1= 1, alors le polynôme d’opérateur du processus contient une racine unitaire (Unit Root) B = 1 (Best un opérateur retard tel que Bxt = xt–1). Le processus, d’après le théorème de Doob, est alors non stationnaire.

il faut que la fonction d’autocovariance d’une série xtquelconque, cov(xt, xs) dépende uniquement de l’écart entre tet s.

(11)

Séries Séries en niveau(en logarithmes) Rentabilités Modèle Retards Stat. ADF Modèle Retards Stat. ADF

IGB 1 0 1,4664 1 0 – 50,2894

ONA 1 0 0,6933 1 0 – 51,7540

BMCE 2 0 – 0,2808 1 0 – 58,6288

SNI 1 0 – 0,0524 1 0 – 51,4128

WAFABANK 1 0 – 0,2692 1 0 – 58,1503

BCM 1 0 – 0,4664 1 0 – 58,8409

SAMIR 1 0 0,3206 1 0 – 48,9102

SONASID 1 0 – 0,2444 1 0 – 57,9403

WAFAA 1 0 – 0,1954 1 0 – 52,5073

CIOR 1 0 0,3002 1 0 – 56,6933

LAC 1 0 – 0,3793 1 0 – 54,8865

CMA 1 2 0,2622 1 0 – 57,7649

SBM 2 0 0,9246 1 0 – 55,1195

SMI 1 0 0,2283 1 0 – 80,5814

BMCI 1 0 – 0,0547 1 0 – 58,4198

EQDOM 2 2 – 0,0207 1 0 – 58,7438

CLT 2 0 – 0,2084 1 0 – 55,9187

LESIEUR 2 0 – 1,3192 1 0 – 62,1970

CDM 1 0 – 0,5225 1 0 –61,9714

FRT 1 0 – 0,0112 1 0 – 86,1878

MAB 1 0 – 0,2242 1 0 – 61,5300

CTM 1 0 – 0,5308 1 0 – 58,2527

CIH 2 0 0,0212 1 0 – 63,3741

CSR 2 0 – 1,7557 1 0 – 54,0174

Tableau 1

Tests de Dickey et Fuller augmentés

Modèle 1 : modèle sans constante ni tendance. Modèle 2 : modèle avec constante et sans tendance déterministe. Modèle 3 : modèle avec constante et tendance déterministe. La colonne “retards” indique le nombre p de retards retenu. La statistique ADF est la valeur de la statistique t de Dickey et Fuller à comparer avec les valeurs critiques – 1,95 pour le modèle 1, – 2,86 pour le modèle 2 à 5 %. Ces valeurs critiques peuvent être lues soit sur la table simulée par Dickey et Fuller [1979], soit directement à partir des sorties TSP-Eviews.

(12)

L’application des tests ADF (Augmented Dickey and Fuller) fait ressortir la présence d’une racine unitaire dans toutes les séries en niveau. Nous constatons d’après les résultats des différents tests que T-statistique est largement supérieur, dans tous les cas et sans exception, aux valeurs critiques indiquées directement par TSP-Eviews. Nous acceptons donc l’hypothèse H0 quel que soit le seuil de 1 à 10 %. Les séries de l’indice global boursier et des principales valeurs les plus actives de la cote sont de facto non stationnaires : elles décrivent un processus de marche au hasard sans dérive (13). Afin de tester l’ordre d’intégration des séries, les tests ADF ont été mis en œuvre sur les séries en différence première (rentabilités). On constate alors, au regard des résultats trouvés, que toutes les séries sont stationnaires en différence première.

En raison de l’importance de la validité de l’hypothèse de stationnarité pour nos divers tests, un second type de test de racine unitaire a été appliqué afin de vérifier les résultats des tests de Dickey et Fuller : le test de Phillips et Perron. Ce test est particulièrement adéquat pour notre étude sur données boursières.

Le test de Phillips et Perron (PP)

Les tests de Dickey et Fuller ont connu de nombreux prolongements.

Parmi ceux-ci, on peut citer le fameux test de Phillips et Perron [1988], qui est une approche non paramétrique.

Les hypothèses envisagées dans le cadre de ce test sont beaucoup moins restrictives que celles adoptées par Dickey et Fuller. L’idée essentielle introduite par Phillips et Perron est que des erreurs récentes peuvent être dépendantes, alors que les erreurs de plus en plus distantes les unes par rapport aux autres sont indépendantes. En termes plus savants, pour éliminer les paramètres de nuisance, associés à l’existence de corrélations dans la composante stochastique du processus générateur de rentabilités, qui perturbent les résultats des tests ADF, Phillips et Perron (1988) suggèrent d’adjoindre à la statistique de Student un facteur de correction fondé sur des estimateurs convergents des paramètres de nuisance, qui élimine cette dépendance asymptotique. Soient les trois modèles suivants :

Modèle (1) : Modèle (2) : Modèle (3) : où

ρ = 1, µ = 0, T = 1,…,n ρ = 1, µ = 0

ρ* = 1

xt = ρxt –1β t – 1

2T + µ + εt

xt = ρ*xt –1 + µ εt

xt = ρ*xt-1 + εt*

(13) Ceci est confirmé en calculant le

corrélogramme de la série filtrée par les différences premières qui doit obéir à un bruit blanc. En principe, toutes les séries filtrées par les différences premières sont

caractéristiques d’un bruit blanc puisque la statistique Q a une probabilité critique (pour k= 15) largement supérieure à 0,05. Nous acceptons l’hypothèse H0 de nullité des coefficients du corrélogramme. Les séries étudiées sont donc bien des processus DS sans dérive.

(13)

Modèle 1 : modèle sans constante ni tendance. Modèle 2 : modèle avec constante et sans tendance déterministe. La colonne “retards” indique le nombre p de retards retenu. La statistique PP est la valeur de la statistique t de Phillips et Perron à comparer avec les valeurs critiques – 1,95 pour le modèle 1, – 2,86 pour le modèle 2 à 5 %. Ces valeurs critiques peuvent être lues soit sur la table simulée par Dickey et Fuller (1979), soit directement à partir des sorties TSP- Eviews.

Tableau 2

Tests de Phillips et Perron

Séries Séries en logarithmes Rentabilités

Modèle Retards Stat. PP Modèle Retards Stat. PP

IGB 1 0 1,4664 1 0 – 50,2894

ONA 1 0 0,6933 1 0 – 51,7540

BMCE 2 0 – 0,2808 1 0 – 58,6288

SNI 1 0 – 0,0524 1 0 – 51,4128

WAFABANK 1 0 – 0,2692 1 0 – 58,1503

BCM 1 0 – 0,4664 1 0 – 58,8409

SAMIR 1 0 0,3206 1 0 – 48,9102

SONASID 1 0 – 0,2444 1 0 – 57,9403

WAFAA 1 0 – 0,1954 1 0 – 52,5073

CIOR 1 0 0,3002 1 0 – 56,6933

LAC 1 0 – 0,3793 1 0 – 54,8865

CMA 1 2 0,2622 1 0 – 57,7649

SBM 2 0 0,9246 1 0 – 55,1195

SMI 1 0 0,2283 1 0 – 80,5814

BMCI 1 0 – 0,0547 1 0 – 58,4198

EQDOM 2 2 – 0,0207 1 0 – 58,7438

CLT 2 0 – 0,2084 1 0 – 55,9187

LESIEUR 2 0 – 1,3192 1 0 – 62,1970

CDM 1 0 – 0,5225 1 0 –61,9714

FRT 1 0 – 0,0112 1 0 – 86,1878

MAB 1 0 – 0,2242 1 0 – 61,5300

CTM 1 0 – 5308 1 0 – 58,2527

CIH 2 0 0,0212 1 0 – 63,3741

CSR 2 0 – 1,7557 1 0 – 54,0174

(14)

Les résultats des tests de Phillips et Perron confirment ceux obtenus au moyen des tests de Dickey et Fuller et restent stables relativement au nombre de retards retenu : présence d’une racine unitaire dans les séries en niveau, stationnarité pour les séries en différence première.

2.2. Tests d’efficience de forme faible : indépendance ou dépendance dans la structure des rentabilités ?

Ce paragraphe a pour objet de tester l’EMHau sens faible en déterminant s’il existe une structure de dépendance (auto-corrélation) dans le processus générateur de rentabilités.

Nous sommes en présence d’une auto-corrélation des erreurs lorsque ces dernières sont liées par un processus de reproduction et de dépendance.

Nous parlons en effet, dans ce cas, d’un processus à mémoire par opposition à un processus purement aléatoire.

Econométriquement, dans le cadre d’une régression simple linéaire, la détection d’une éventuelle dépendance des erreurs (source d’une inefficience du marché) ne peut donc être mise en avant qu’à partir de l’analyse des résidus de cette régression. En effet, plusieurs méthodes permettent de montrer l’auto-corrélation des résidus. Deux d’entre elles nous semblent être intéressants. Il s’agit des tests de Ljung et Box, et Breusch et Godfrey.

Les séries utilisées et la période retenue pour les deux tests restent identiques à celles retenues pour les tests de racine unitaire.

Les résultats des deux tests sont homogènes et confirment ceux obtenus par le test de Fisher : les rentabilités sont hétéroscédastiques mais ne présentent pas de corrélation sérielle. En effet, la conclusion évidente qu’on peut tirer des tests de Ljung-Box et Breusch-Godfrey est la suivante : il est impossible de prévoir les rentabilités futures à partir des rentabilités passées ; ce qui reste bien entendu en accord avec l’hypothèse de l’efficience au sens faible. En ce qui concerne les valeurs qui présentent des auto-corrélations, l’explication, à nos yeux, est la suivante :

– pour l’ONA et la SAMIR (valeurs plus ou moins actives de la cote), c’est l’hétéroscédasticité excessive qui cause l’auto-corrélation dans le comportement de leurs cours boursiers respectifs. Une correction de cette hétéroscédasticité amène à l’absence de corrélation sérielle et à l’acceptation de l’hypothèse de marche aléatoire des cours boursiers ;

– pour la SMI, valeur jugée moins active (54), nous notons l’existence d’un effet de mémoire à son égard. Celui-ci est dû à la non-cotation régulière des actions. Plus le décalage de cotation est long, plus les investisseurs ont de mémoire pour le cours de la valeur anciennement coté et plus l’auto- corrélation est grande. Ceci s’explique par le fait que l’ancien prix coté devient une référence pour le placement des ordres à cours limité.

(15)

Tableau 3

Tests de Ljung et Box, et de Breusch et Godfrey

Séries F-statistique Q-statistique de LM de Breusch Ljung et Box et Godfrey

IGB 0,0797 29,675 0,1600

ONA 5,5677* 21,388 11,074*

BMCE 0,1567 7,6384 0,3148

SNI 2,2107 23,985 4,4237

WAFABANK 1,6746 20,925 3,3542

BCM 0,2101 19,132 0,4221

SAMIR 5,4034* 11,696 10,7269*

SONASID 1,1702 24,206 2,3460

WAFAA 2,5734 9,9257 5,1460

CIOR 0,3363 9,0710 0,6752

LAC 0,2633 14,553 0,5289

CMA 0,8412 23,548 1,6874

SBM 1,3028 14,677 2,6113

SMI 49,394* 99,121* 91,091*

BMCI 0,1050 19,730 0,2110

EQDOM 0,8386 15,432 1,6823

CLT 0,1131 26,890 0,2273

LESIEUR 0,6804 30,257 1,3653

CDM 1,1736 17,318 2,3529

FRT 2,6260 11,231 5,2508

MAB 1,1019 24,890 2,2094

CTM 0,0195 31,416 0,0391

CIH 0,0948 23,684 0,1905

CSR 0,8472 14,760 1,6998

nR2 > (χ0,052

(2) = 5,99) F2,∞0,05

Pour le test de Ljung et Box, les valeurs de Q-statistique sont comparées aux valeurs lues sur la table de chi-deux aux seuils de 5 et 1 %, dont le degré de liberté est l’ordre de retard retenu ; elle est de 15 dans notre test. Elles doivent être inférieures aux valeurs critiques tabulées. La probabilité de Q-statistique doit être quant à elle supérieure à 0,05. Pour le test de Breusch et Godfrey, nous rejetons l’hypothèse nulle H0d’indépendance des erreurs au seuil de 5 % si pour le test LM et si F calculée est supérieure à la valeur tabulée qui est égale à 2,99 pour le test de Fisher. Le chiffre 2 est le nombre de retard choisi. L’astérisque (*) exprime le rejet de l’hypothèse nulle de non auto-corrélation.

(16)

Conclusion

Dans cet article, nous avons procédé, premièrement, à l’analyse de l’hypothèse des marchés efficients en nous basant sur le modèle de marche au hasard comme explication sous-jacente du comportement des cours boursiers. Nous avons, par la suite, testé cette hypothèse en nous référant à de nouvelles techniques économétriques de stationarisation des séries utilisées. Notre étude a porté, en outre, sur un certain nombre de séries boursières relatant l’essentiel de l’activité de la bourse de Casablanca. Nos séries se composent de deux variantes : un indice agrégé qui est l’Indice général boursier (IGB) comme première variante et les valeurs les plus liquides de la cote comme deuxième variante. La période étudiée est allée du 1erjuillet 1997 au 10 janvier 2002 pour l’indice global boursier et du 15 juillet 1997 au 10 janvier 2002 pour les valeurs les plus liquides de la cote.

Nos divers tests, portant sur la forme faible de l’efficience, ont confirmé le caractère indépendant des rentabilités.

(17)

Références bibliographiques

Abou A. et Prat G. (1997), « A propos de la rationalité des anticipations boursières : quel niveau d’agrégation des opinions ? », Revue d’économie politique, vol. 107, n° 5.

Aglietta M. (2001), Macroéconomie financière, La Découverte-Syros, Paris.

Alexander S. (1961), « Price Movements in Speculative Markets : Trends or Random Walks », Industrial Management Review, vol. 2, n° 2.

Alexander S. (1964), « Price Movements in Speculative Markets : Trends or Random Walks : 2 », Industrial Management Review, vol. 5, n° 2.

Alexandre H. (1992), « La quasi marche aléatoire », Finance, vol. 13, n° 2.

Allais M. (1953), « Le comportement de l’homme rationnel devant le risque, critique des postulats et axiomes de l’école américaine », Econometrica, vol. 21.

Arrow K.J. (1987), « De la rationalité – de l’individu et des autres – dans un système économique », Revue française d’économie, vol. 2, n° 1.

Bachelier L., Théorie de la spéculation, Gauthier-Villar, 1900.

Bernstein P. (1995), Des idées capitales : les origines improbables du Wall Street moderne, Quadrige/PUF, Paris.

Bouleau N. (1998), Martingales et marchés financiers, Odile Jacob, Paris.

Bourbonnais R. et Terraza M. (1998), Analyse des séries temporelles en économie, PUF, Paris.

Bourbonnais R. (2000), Econométrie, Dunod, Paris.

Boyer M., Cherkaoui M. et Ghysels E. (1997), « L’intégration des marchés émergents et la modélisation des rendements des actifs risqués : une étude appliquée à la bourse des valeurs de Casablanca », in Gouriéroux et Montmarquette (éds), Econométrie appliquée, Economica, Paris.

Chikhi M. (2001), « Le marché boursier en France est-il efficient ? Application à la prévision non paramétrique de l’indice CAC40 », Working Papern° 2001-38, Montpellier I LAMETA.

Demange G. et Laroque G. (2001), Finance et économie de l’incertain, Economica, Paris.

Dickey D.A. et Fuller W.A. (1979), « Distribution of the Estimators for Autoregressive Time Series with a Unit Root », Journal of the American Statistical Association, vol. 74.

Dickey D.A. et Fuller W.A. (1981), « The Likelihood Ratio Statistics for Autoregressive Time Series with a Unit Root », Econometrica, vol. 49.

El Bouhadi A. (1998), l’Efficience informationnelle du marché boursier : analyse théorique et test de forme faible à partir des données de la bourse de Casablanca, Mémoire de DESA, Université Sidi Mohammed Ben Abdellah, Faculté des Sciences juridiques, économiques et sociales, Fès.

Fama E.F. (1991), « Efficient Capital Markets II », Journal of Finance, vol. 3, n° 4.

(18)

Fama E.F. (1998), « Market Efficiency, Long-term Returns, and Behavioral Finance », Journal of Financial Economics, vol. 49.

Fontaine P. (1990), « Peut-on prédire l’évolution des marchés d’actions à partir des cours et des dividendes passés ? », Journal de la Société de Statistique, tome 131, n° 1.

Gillet P. (1999), L’efficience des marchés financiers, Economica, Paris.

Gillet R. (1991), « Introduction aux processus d’évolution du prix des actions en temps continu et efficience du marché boursier », Recherches économiques de Louvain, vol. 57, n° 1.

Godfrey L.G. (1978), « Testing for Higher Order Serial Correlation in Regression Equations when the Regressors Include Lagged Dependent Variables », Econometrica, vol. 46, n° 6.

Grossman S.J. et Stiglitz J.E. (1980), « On the impossibility of Informationnally Efficient Markets », American Economic Review, vol. 70, n° 3.

Jovanic F. (2000), « L’origine de la théorie financière : une réévaluation de l’apport de Louis Bachelier », Revue d’économie politique, vol. 110, n° 3.

Kendall M. (1953), « The Analysis of Time Series, Part 1 : Prices », Journal of the Royal Statistical Society, vol. 96.

Merton R. K. (1957), « The self-Fulfilling Prophecy », in Social Theory and Social Structure, Free Press.

Mignon V. (1998), Marchés financiers et modélisation des rentabilités boursières, Economica, Paris.

Mignon V. (1998), Marchés financiers et modélisation des rentabilités boursières, Economica, Paris.

Minczeles A. (1997), « Mesures du risque », Journal de la Société de Statistique de Paris, tome 138, n° 4.

Mongin P. (1984), « Modèle rationnel ou modèle économique de la rationalité », Revue économique, vol. 35, n° 1.

Muth J. (1961), « Rational Expectations and the Theory of Price Movements », Econometrica, vol. 29, n° 6.

Verdier G. (2000), Econométrie du cycle : Le cas de l’indice de la production industrielle des pays de la zone euro, Thèse de doctorat, Université de Montpellier I, Faculté des Sciences économiques, LAMETA.

Willinger M. (1990), « La rénovation des fondements de l’utilité et du risque », Revue économique, n° 1.

Working H. (1934), « A random Difference Series for Use in the Analysis for Time Series », Journal of the American Statistical Association, vol. 29.

Références

Documents relatifs

[r]

Il est proposé par Patricia Duquette et résolu à l’unanimité des membres du conseil que la Municipalité autorise la COOP Plein air du Témiscamingue d’installer une

St-Laurent le conseiller monsieur Jean-Philip Ruel le conseiller monsieur Mario Bidégaré la conseillère madame Marie-Ève D'Ascola le conseiller monsieur

RENOUVELLEMENT DU CONTRAT AVEC LE RÉSEAU BIBLIO POUR L’ANNÉE 2021 Il est proposé par Manon Légaré et unanimement résolu par les membres du conseil que la municipalité

au montant de 33 660,99 $, taxes incluses, pour l’exécution du contrat pour l’installation des barrières de sécurité et bollards pour les sentiers, ledit

Le conseiller Ronald Myles donne un avis de motion par lequel, lui- même ou un autre membre du Conseil présentera pour adoption, à une séance ultérieure du Conseil un

L’Agence Régionale de Santé Pays de la Loire rappelle les bonnes conduites à tenir pour tempérer le passage aux urgences.. La recrudescence de pathologies respiratoire due à

QUE le Conseil autorise madame Cynthia Brunelle, Directrice des loisirs, tourisme, culture et vie communautaire, à signer et à déposer, pour et au nom de la