• Aucun résultat trouvé

Le désordre : probabilités ou déterminisme

Dans le document Td corrigé intro géné - TEL (thèses pdf (Page 164-168)

Section 1. Le déterminisme représenté par des probabilités

II. Le désordre : probabilités ou déterminisme

1. Les probabilités comme description du déterminisme.

L'idée selon laquelle des lois probabilistes régissent l'univers a toujours effrayé le monde scientifique. VON NEUMANN (cité par ISRAEL, 1992), s'inquiétait, en 1955, à l'idée qu'une description de certains phénomènes biologiques puisse être réalisée à partir d'une démarche probabiliste, aléatoire. Pourtant la description probabiliste des événements ne signifie pas obligatoirement un renoncement au concept déterministe de ce qui nous entoure.

LAPLACE justifie l'utilisation des probabilités pour pallier notre ignorance quant à la réalité des phénomènes à expliquer. L'aléa engendré par les probabilités n'aurait donc aucune réalité en tant que représentation de l'indéterminisme du monde mais constituerait simplement une manière de progresser dans notre connaissance du monde. Plutôt que d'essayer de percer les lois de la nature, il faut arriver à maximiser la part de connaissance possible de chaque phénomène. Il n'est plus nécessaire de multiplier à l'infini le nombre de variables explicatives. Il suffit de mesurer la probabilité d'accepter un lien causal entre deux phénomènes. Si la probabilité d'acceptation est de beaucoup supérieure à la probabilité de rejet alors le lien causal peut raisonnablement être considéré comme établi. Finalement,

LAPLACE crée l'inférence statistique où, à partir d'un échantillon, la cohérence d'une hypothèse va être “testée”, cette dernière étant bien entendu déterministe. La question ne porte pas sur ce problème mais sur la vraisemblance de l'existence de cette relation déterministe. Le but maintenant est d'avoir suffisamment de données afin de limiter le risque de porter des conclusions erronées. En 1810, un article de LAPLACE fonde le théorème central limite. A travers cet article, ressort la méthodologie de LAPLACE qui cherche, certes à l'aide d'outils reposant sur l'aléa, à connaître le mieux possible la relation déterministe sous-jacente au phénomène étudié. Face à cette projection aléatoire de la réalité déterministe, THOM (1990) prône la multiplication du nombre de variables explicatives. Mais dans le cas où cette technique est impossible, l'utilisation des probabilités semble la meilleure manière de procéder. EKELAND (1991) cite par exemple le lancer de dés. La représentation aléatoire qui en est faite45 n'est là que pour combler l'impossibilité de maîtriser toutes les données inhérentes au lancement (position de la main, vitesse du lancer, surface ...). Et il paraît peu probable que la technique permette de dominer suffisamment toutes les données pour rendre le lancer du dé déterministe.

Les limites avérées des équations différentielles vont promouvoir l'utilisation des probabilités. Ces dernières sont donc justifiées par l'impossibilité faite à l'être humain de maîtriser toutes les composantes d'un événement. L'échec de la théorie newtonienne de la gravitation, dans le fait que la planète Vulcain découverte mathématiquement comme Neptune n'est, elle, jamais apparu, réduit fortement l'idée d'une représentation de ces phénomènes par des modèles déterministes.

Une autre raison de la désuétude progressive dans laquelle est tombée la résolution des problèmes à l'aide des équations différentielles est que pour représenter un phénomène complexe il fallait un système très compliqué d'équations quelquefois sans solution. Par exemple, POINCARE (1890) montre l'impossibilité de résoudre le système d'équations pour le problème des trois corps.

Dès qu'il faut construire un modèle permettant de donner simultanément la position de trois corps dont les évolutions respectives sont interdépendantes, le système n'admet alors plus de solution. Or pour la représentation de l'Univers, trois corps paraissent bien peu de choses. Ainsi les systèmes déterministes ne peuvent rendre

45 Il s'agit même de l'exemple par lequel sont abordées les notions d'aléa dans l'enseignement.

compte que de phénomènes simples, laissant alors aux probabilités l'étude de la complexité.

Dans une optique selon laquelle l'Univers est régi par des lois déterministes, il ne semblerait pourtant pas absurde de vouloir obtenir une modélisation à l'aide d'outils de même nature. Nous pouvons simplement reprendre l'idée de déterminisme méthodologique selon laquelle le modèle peut être déterministe simplement parce qu'il offre une bonne approximation de la réalité. Jusqu'à fort récemment le déterminisme était incapable de rendre compte des situations désordonnées ; situations pour lesquelles le recours aux probabilités s'imposait. Or, de récentes découvertes scientifiques ont brisé cette analyse manichéenne et montré le raffinement qu'il fallait atteindre pour connaître la nature des systèmes.

2. Le désordre ordonné.

Dans le débat déterminisme-aléa, il était courant de croire que la différence entre un système présentant l'une ou l'autre de ces propriétés se faisait facilement.

Mais en conduisant l'analyse comparative de deux systèmes dynamiques un peu plus loin, la question se pose alors de savoir s'ils sont identiques, autrement dit quelle est la mesure qui soit invariante par isomorphisme46 ? Pendant longtemps les invariants utilisés pour classifier les systèmes étaient issus de la théorie ergodique.

Le théorème ergodique de BIRKHOFF montre que la moyenne temporelle d'un système aléatoire est en général égale à la moyenne spatiale. C'est-à-dire que la moyenne d'une trajectoire particulière (condition initiale particulière) va être égale à la moyenne de l'ensemble des trajectoires d'un système. Par exemple la valeur moyenne d'une fonction f d'une variable aléatoire x(t) (dépendant du temps) est indépendante du temps, puisqu'elle ne varie pas selon la condition initiale. Elle est un invariant. Tout cela découle en partie du fait qu'un système ergodique parcourt toutes les configurations possibles, il remplit l'espace entier au sein duquel il évolue

46 Deux systèmes sont dits isomorphes s'ils sont liés par un isomorphisme, c'est-à-dire une fonction qui conserve les structures.

et il existe des mesures statistiques invariantes représentatives du phénomène (DAY et PIANIGIANI, 1991). Cette propriété va être à la base des travaux sur l'analyse spectrale des systèmes.

Le problème est que la théorie ergodique fournit des invariants qui ne permettent pas toujours de distinguer certains systèmes isomorphes au système de BERNOULLI (donc aléatoire) alors qu'ils sont déterministes. Il existe, par exemple, des systèmes présentant un spectre continu47 mais issus d'un système déterministe (ARNOUX et CHEMLA, 1992). KOLMOGOROV (1958) va répondre à cette question en introduisant la notion d'entropie métrique d'un système qui est un invariant permettant de distinguer deux systèmes non isomorphes mais présentant tous les deux un spectre continu. L'entropie métrique d'un système est de la forme :

-

n

i=0

pilogpi

(2.1) où :

pi est la fréquence empirique de réalisation d'un état i du système.

Log pi est le logarithme en base 2 de pi.

Un système possédant une entropie nulle sera un système parfaitement prévisible sur la base de la connaissance des états antérieurs du système. Plus l'entropie est positive et différente de zéro, plus cela signale un système désordonné et qui tend à se comporter comme un système aléatoire. L'entropie métrique, à la différence d'invariants fondés sur la théorie ergodique, va permettre de séparer des systèmes non isomorphes mais présentant des caractéristiques identiques en termes de spectre. La distinction entre un système déterministe et un système aléatoire présentant tous deux une entropie positive va s'effectuer à l'aide de la géométrie, plus exactement de l'analyse topologique des systèmes étudiés. Au début des années soixante-dix, la notion de chaos déterministe va permettre d'effectuer un nouveau pas en avant en posant les bases de l'analyse des systèmes déterministes à entropie positive donc désordonnés.

47 Le spectre est la transformée de Fourier de l'autocorrélogramme. Un spectre continu a longtemps été considéré comme révélateur d'une dynamique aléatoire. Il correspond à une fonction d'autocorrélation qui tend vers 0 de manière exponentielle.

La théorie du chaos déterministe présente en effet cette particularité de pouvoir représenter des phénomènes complexes à l'aide de modèles simples, d'être compatible avec un phénomène apparemment aléatoire et de pouvoir représenter ce qui semble à première vue être le fait du désordre, tout cela en préservant une modélisation déterministe de phénomènes qui semblent être de même nature. En effet, KELSEY (1988) rappelle que si l'aléa est certes présent sur les marchés boursiers, dans les anticipations notamment, les décisions finales que prennent les investisseurs sont conscientes, déterministes.

Cependant de nombreux pans de la théorie financière restent fondés sur la notion d'aléa. Aussi, dans ce travail, nous adoptons le chaos déterministe dans une optique méthodologique qui consiste à privilégier l'analyse topologique en lieu et place de la théorie probabiliste afin de rendre compte de phénomènes à entropie positive. Nous espérons donc parvenir à une description de la réalité sur des fondements théoriques nouveaux. Il nous paraît, en effet, intéressant de profiter du chaos déterministe pour modéliser l'évolution imprévisible des cours. En effet, le chaos est certes déterministe mais désordonné, et nous verrons les implications que cela peut avoir en finance.

Auparavant nous allons nous attacher à montrer, à l'aide de la géométrie, la possibilité de ce nouveau concept et les raisons du grand intérêt qu'il provoque au sein de toute la communauté scientifique.

Dans le document Td corrigé intro géné - TEL (thèses pdf (Page 164-168)