• Aucun résultat trouvé

Chapitre 5. La mise en œuvre de l’ALM

4. Les systèmes d’information

Le système d’information est la clé de voûte de l’ALM dans sa mission d’analyse, puisqu’elle est amenée à modéliser les différents éléments du bilan dans une base potentiellement évolutive. Pour cela, l’ALM se retrouve obligée de rassembler dans une même application des données provenant de systèmes souvent bien différents les uns des autres.

Les enjeux se situent alors à la fois dans la question de la transmission de l’information que dans son organisation. Sur ce dernier point, la pratique va à une différentiation par filiale et par produit, c’est-à-dire qu’il existe des bases consacrées à chacune des filiales, disposant souvent de leur propre système d’information – même si on tend vers une uniformisation de ceux-ci au niveau groupe – bases qui elles-mêmes se divisent en sous-bases traitant chacun des produits de ladite filiale.

Etant donné une filiale et un type de produit, avec les progrès technologiques, les grands établissements bancaires sont en passe d’avoir à leur disposition des bases de données unitaires, c’est-à-dire des bases client par client. Dans ces conditions, de telles bases posent des problèmes en raison de leur taille : il est difficile à la fois de les constituer, de les exploiter et de les rendre évolutives (il faut en effet être capable d’adapter la forme des bases à l’environnement économique, commercial et réglementaire). Le problème de l’évolutivité des bases est donc liée à celui de la transmission, par conséquent il est vital pour l’ALM que des coûts soient consentis sur la partie informatique, pour la mise en place de serveurs et d’interfaces performants.

Par exemple, des bases unitaires pour les dépôts à vue du réseau d’une grande banque, on peut atteindre plusieurs millions de contrats. L’utilisation en production de bases de données contenant des informations de date d’ouverture, d’encours, de devise, de taux client, etc. sur des millions de contrats est encore trop difficile, mais des efforts sont menés dans cette direction. Ainsi, il est déjà possible de les exploiter au niveau des équipes de recherche, afin d’y étudier par exemple certains aspects du comportement de la clientèle.

Partie II - Mesures de risque et optimisation de

portefeuille

Introduction

Depuis les années 1950, la théorie du risque constitue une science axée sur l’étude des comportements d’agents économiques face à des situations de choix en présence d’aléa :

- elle s’intéresse entre autres aux problèmes de classement préférentiel de loteries, c’est- à-dire à la façon dont les agents économiques vont préférer telle situation incertaine à telle autre ;

- elle donne des méthodes de quantification des risques pris ;

- elle étudie la compatibilité de ces méthodes de quantification avec des hypothèses de comportement de l’agent.

La théorie de l’utilité espérée est un jalon majeur dans l’évolution de la pensée sur le sujet ; elle est énoncée par Von Neumann et Morgenstern dans les années 1950. Se basant sur l’hypothèse que chaque agent existe une relation d’ordre totale sur l’ensemble des loteries, relation obéissant à un certain nombre d’axiomes, elle caractérise alors le mode de sélection de l’agent à l’aide d’une fonction d’utilité. L’agent est alors capable d’évaluer les loteries qui se présentent à lui – à une transformation croissante affine près. Suivant les hypothèses de von Neumann et Morgenstern, la fonction d’utilité caractérisant les préférences de l’agent est alors continue, croissante, concave.

Les mesures de risque sont une extension de la théorie de l’utilité espérée, puisqu’elles visent à rendre compte du risque contenu dans chaque loterie à l’aide d’une fonction associant une quantité à chacune d’entre elles. De nombreux travaux s’inscrivent dans ce courant, notamment Yaari (1987), puis Denneberg (1990), Artzner, Delbaen, Eber et Heath (1999), Föllmer et Schied (2002) etc. L’idée de ces travaux est de caractériser la forme de cette fonction suivant les hypothèses qu’on attribue à la mesure de risque. Les hypothèses varient d’un auteur à l’autre, nous tâcherons, entre autres, de faire le point sur cette question dans le Chapitre 6.

Suite à la théorie de l’utilité espérée, la littérature scientifique s’attachera à remettre en cause les axiomes, dits « de rationalité », établis par von Neumann et Morgenstern, notamment avec les travaux de Kahneman et Tversky (1979), regroupés sous le nom de Prospect Theory. S’appuyant sur un sondage pratiqué sur une population d’étudiants, leur étude remet les axiomes de l’utilité espérée en question, mettant en évidence :

- une propension des agents économiques à attribuer une préférence systématiques aux loteries certaines sur les autres loteries (certainty effect) ;

- une tendance des agents à se montrer averses au risque pour les gains et avides de risque pour les pertes (reflection effect) ;

- des choix contraires de la part des agents sur des loteries aux règles différentes mais offrant pourtant des gains équivalents avec les mêmes probabilités au final (isolation effect).

Une conséquence de cela est la modification de la forme de la fonction d’utilité : elle se caractérise alors par une rupture de concavité à l’origine (convexité sur les pertes / concavité sur les gains), parfois assortie d’une rupture de pente.

En gestion d’actifs, les théories de l’utilité espérée et de la mesure du risque trouvent leur application dans le problème d’optimisation de portefeuille et dans la représentation des choix de gestionnaire. En général, cela consiste à caractériser le comportement des gérants de portefeuille par une fonction d’utilité ou une mesure de risque ; l’objectif du gestionnaire est alors de déterminer la stratégie d’investissement optimale dans ce cadre. Un des pionniers sur la question est Markovitz (1952) et ses travaux sur l’optimisation de portefeuille pour un gestionnaire à fonction d’utilité quadratique, font toujours autorité de nos jours. C’est un point que nous abordons spécifiquement dans le Chapitre 7.

Une stratégie d’investissement peut se concevoir dans plusieurs dimensions. Elle peut se concevoir dans une dimension spatiale, c’est-à-dire dans le choix de l’allocation parmi un ensemble d’actifs, et également dans une dimension temporelle, c’est-à-dire en s’intéressant à l’aspect dynamique des stratégies d’investissement. Dans cette section, nous aurons l’occasion de discuter du premier point, à savoir du choix de l’allocation optimale sous différents critères de risque, chacun représentatifs d’un comportement de gestionnaire. La question de la dimension temporelle, c’est-à-dire de la mesure intertemporelle des risques, dépasse le cadre de cette thèse.

La seconde partie de cette thèse s’organise en deux chapitres. Le Chapitre 6 concerne la mesure du risque d’un point de vue théorique. Nous y exposons les différentes approches sur la question et évoquons un certain nombre de propriétés et de résultats de représentation. Le Chapitre 7 traite plus spécifiquement du problème d’optimisation de portefeuille sous contrainte de mesure de risque. Nous y décrivons et formalisons les programmes d’optimisation. Nous illustrons également leur résolution au travers de l’exemple de la mise en place de portefeuille optimaux de fonds spéculatifs (Hedge Funds) puis de portefeuilles optimaux d’actions issues du secteur bancaire.

Documents relatifs