• Aucun résultat trouvé

Mise en évidence du déterminisme et de la non-linéarité de dynamiques sous-jacentes à des données biomédicales par titrage du bruit

N/A
N/A
Protected

Academic year: 2021

Partager "Mise en évidence du déterminisme et de la non-linéarité de dynamiques sous-jacentes à des données biomédicales par titrage du bruit"

Copied!
115
0
0

Texte intégral

(1)

HAL Id: tel-02560759

https://hal.archives-ouvertes.fr/tel-02560759

Submitted on 2 May 2020

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Mise en évidence du déterminisme et de la non-linéarité

de dynamiques sous-jacentes à des données biomédicales

par titrage du bruit

Elise Roulin

To cite this version:

Elise Roulin. Mise en évidence du déterminisme et de la non-linéarité de dynamiques sous-jacentes à

des données biomédicales par titrage du bruit. Dynamique Chaotique [nlin.CD]. Université de Rouen,

2011. Français. �tel-02560759�

(2)

THÈSE de DOCTORAT

présentée le 29 novembre 2011

à la faculté des sciences et technique de l’Université de Rouen par

Elise Roulin

Ayant conduit à l’obtention du grade de

Docteur de l’Université de Rouen

Discipline : Physique Spécialité : Systèmes dynamiques

Mise en évidence du déterminisme et de la

non-linéarité de dynamiques sous-jacentes à des

données biomédicales par titrage du bruit.

Composition du jury :

Rapporteurs

Luis Aguirre, Professor Universidade Federal de Minas Gerais, Brazil. Marc Lefranc, Professeur Université de Lille — LPHAM UMR 8523. Examinateurs

Thomas Similowski, PU-PH Université Paris VI, Pitié-Salpêtrière. Christian Straus, MCU-PH Université Paris VI, Pitié-Salpêtrière. Sylvain Mangiarotti, Chargé de recherche IRD CESBIO, Toulouse.

Directeur de thèse

Christophe Letellier, Professeur Université de Rouen, Coria UMR 6614. Co-directeur de thèse

(3)
(4)

I can live with doubt, and uncertainty, and not knowing. I think it’s much more interesting to live not knowing than to have answers which might be wrong. I have ap-proximate answers, and possible beliefs, and different degrees of certainty about different things, but I’m not absolutely sure of anything, and in many things I don’t know any-thing about, such as whether it means anyany-thing to ask why we are here, and what the question might mean. [...] I might think about a little, but if I can’t figure it out, then I go to something else. But I don’t have to know an answer. I don’t feel frightened by not knowing things, by being lost in a mysterious universe without having any purpose, which is the way it really is, as far as I can tell, possibly. It doesn’t frighten me.

(5)

Remerciements

Durant les trois années qui m’ont conduit à la rédaction de ce manuscrit de thèse, j’ai été chaleureusement accueillie par le laboratoire du Coria UMR CNRS 6614 de Saint-Etienne-du-Rouvray, dirigé par Mourad Boukhalfa. Je tiens en premier lieu à remercier ce dernier, ainsi que l’ensemble du personnel du laboratoire, pour la bienveillance dont ils ont fait preuve envers moi durant ces trois années.

Ce manuscrit de thèse a été rapporté par le professeur Marc Lefranc du laboratoire LPHAM de Lille d’une part, et el professor Luis Antonio Aguirre de l’Universidade Federal de Minas Gerais au Brésil d’autre part. Je les remercie tous deux pour leur travail de relecture ainsi que pour leurs conseils dont j’ai pu m’inspirer pour achever la version finale du manuscrit. J’ai été honorée de pouvoir soutenir ma thèse de doctorat devant un jury présidé par le professeur Thomas Similowski ; je remercie également le professeur Christian Straus et Sylvain Mangiarotti pour leur participation à ce jury. Enfin, ces trois années de doctorat n’auraient pas été celles qu’elles ont été sans mon directeur de thèse, le professeur Christophe Letellier, que je remercie pour la liberté et l’autonomie qu’il m’a donné d’acquérir lors de l’élaboration de mon travail. Ma gratitude va maintenant à mon co-directeur de thèse, Ubiratan Santos Freitas, dont l’inconditionnelle bonne humeur quotidienne et contagieuse restera longtemps gravée dans ma mémoire. Bira, je te remercie pour ton honnêteté, ta patience, et ton intelligence.

Les données utilisées au chapitre 3 de cette thèse sont le résultat d’une coopération interdiscipli-naire entre différents groupes de recherche : l’enregistrement des données électrocardiographiques sur les rats a été réalisé par Stéphane Loriot et Frédéric Dionnet (Laboratoire du CERTAM, Rouen) et la préparation des sujets incombait à Jean-Paul Morin (INSERM E9920). Les données électro-cardiographiques chez l’homme adulte proviennent de la banque en ligne www.physionet.org. Nous remercions Léon Glass, éditeur de la revue Chaos, d’avoir proposé en 2008 le défi de répondre à la question "Is the heart rate chaotic ?", dirigeant les participants vers cette banque de données. Les enregistrements chez le nourrisson proviennent du protocole clinique mis en place entre l’unité de pédiatrie du CHU Charles Nicole de Rouen et le laboratoire du Coria de Saint Etienne du Rouvray, dans le cadre de la thèse de doctorat d’Émad Yacoub.

Je tiens à remercier l’ensemble des membres de mon équipe de recherche, qui a remarquablement contribué à la convivialité de ces trois années : Roomila et son dynamisme communicatif, Emad et sa main verte exploitée, Dounia et ses talents culinaires maintes fois prouvés, Anne et son sens de l’humour à toute épreuve... Merci également à ceux de mes collègues qui m’ont accompagné de plus près durant ces trois années, devenant bien plus que des collègues. Merci à ceux de mes amis qui n’ont jamais manqué de m’écouter et de me conseiller. Merci à toi Elise, et toi Nicolas, mes phares dans la tempête. Merci à ceux de ma famille qui m’ont apporté confiance et réconfort. Merci à toi, que personne n’a vu mais qui était bien là.

(6)

Note au lecteur

« Un être vivant est toujours en mouvement, tout au long de son existence, un être vivant émerge à partir d’autres êtres vivants, se transforme, s’engage dans une suc-cession de métamorphoses sans retour, et souvent, avant de disparaître, contribuera à la naissance de nouveaux êtres vivants, qui recommenceront, sous une autre forme, leur voyage. Ce qui caractérise les êtres vivants, c’est d’être des systèmes ouverts sur l’environnement, qui échangent en permanence avec leur environnement, y puisant et y dissipant en permanence de l’énergie, renouvelant continuellement la substance dont ils sont faits, réalisant ce que le prix Nobel de chimie Ilya Prigogine a appelé des structures dissipatives, instables, émergentes, capables de s’auto-organiser, et de se structurer dans l’espace et le temps. »

Jean-Claude Ameisen, Sur les épaules de Darwin. France Inter, émission du 1er octobre 2011.

I

l est maintes fois fait mention dans ce manuscrit d’activité biologique « normale » par opposition à « pathologique ». En médecine, l’utilisation usuelle du terme « normal » se réfère à une des-cription statistique de ce qu’est l’état de santé, vu comme l’expression d’un état moyen, résultant de mesures statistiques sur une population donnée. Il en est de même pour l’état pathologique ; le diabète, par exemple, est caractérisé comme une variation quantitative des taux de sucres dans le sang. La mesure des variables (appelées constantes !) physiologiques, telles que la glycémie, les gaz du sang, la ferritine, etc. (analyses qualifiées d’« anatomie cadavérique des fluides » par Xa-vier Bichat1), permet de comparer l’individu à un ensemble d’autres individus, appartenant à une

population donnée. Ceci s’applique également à l’évaluation du rythme cardiaque, des volumes courants pulmonaires, du temps de sommeil total, etc. L’individu sain doit présenter des valeurs comprises entre les valeurs normales : l’état de santé est défini comme l’état le plus fréquent, et il y a amalgame entre la fréquence et la norme. Sur les divers individus qui constituent un échantillon diversifié de population, aussi « homogène » soit-il, la distribution de telles valeurs se présente en général sous la forme d’une gaussienne, une courbe en cloche qui indique que chaque individu est considéré comme une variable aléatoire suivant une loi normale de distribution de probabilités. Il est alors aisé, à partir d’une telle distribution, de définir des bornes pour toute variable physiolo-gique, au-delà et en-deçà desquelles l’individu sera considéré comme présentant un comportement pathologique, trop éloigné des valeurs moyennes, hors normes.

Cette description de l’état de santé ou de maladie s’est installée au début du xixe siècle, avec l’apparition des études cliniques et l’accès à un grand nombre de résultats, ce qui a permis de rendre fiables les études statistiques. Mais elle a été relativement rapidement contestée, notamment par Georges Canguilhem2, figure de proue d’une démarche individualisée de la médecine. En effet, dans sa thèse « Le normal et le pathologique », ce médecin redéfinit la notion de constantes

physiolo-1. Marie François Xavier Bichat (1771-1802), médecin, biologiste et physiologiste français, est notamment à l’origine du principe du vitalisme.

(7)

giques, qui « ne sont pas des constantes au sens absolu du terme. Il y a pour chaque fonction et pour l’ensemble des fonctions une marge où joue la capacité d’adaptation fonctionnelle du groupe ou de l’espèce. [...] La constante physiologique est l’expression d’un optimum physiologique dans des conditions données ». Il introduit alors une relativité de la normalité : l’état pathologique est décrit comme une incapacité à s’adapter, à répondre aux fluctuations de l’environnement. Ainsi, dans la définition de l’état de santé d’un individu doit figurer son milieu, qui est un critère dé-terminant pour Canguilhem. L’état de santé devient synonyme d’une qualité d’échange avec son milieu, d’une relation du vivant à son environnement : être en bonne santé, c’est demeurer créateur de son milieu. L’individu devient auteur de ses normes de vie, et puisque c’est lui qui éprouve la santé ou la maladie ; il devient la mesure de sa propre norme.

Ceci rend évidemment la tâche et le diagnostic du médecin bien plus ardus, qui ne peut plus se contenter d’une approche quantitative et statistique d’un ensemble de variables physiologiques visant à normaliser ses patients, mais doit se rapprocher d’une consultation et d’un suivi indivi-dualisé. Le médecin va alors tenter, pour restaurer la santé du patient, de lui faire recouvrer ses normes de vie propres, qui ne sont plus considérées comme identiques à celles d’un autre individu, voir même qui doivent être considérées comme évolutives pour un même individu (un sportif qui a vieilli par exemple). Cette approche — qui n’est pas neuve puisqu’il s’agit du mode de soin pré-conisé par Hippocrate3— n’est pas toujours suivie par les médecins contemporains, à l’heure des

consultations en chaîne et du dossier médical informatisé. Il existe cependant des médecins contem-porains, tels que Jean-Christophe Ruffin (médecin, écrivain, diplomate et académicien français), qui partagent ce point de vue :

« La médecine, c’est l’école du regard. Même si ce regard doit être réduit ensuite pour produire un diagnostic. Le médecin doit d’abord apprendre à regarder, à écouter. »

3. Hippocrate (460-370), médecin grec et considéré comme le « père de la médecine moderne », est le premier à avoir classifié et répertorié les pratiques de soin, qui ont toujours eu cours dès l’apparition des premières sociétés humaines. Sa contribution principale a été de produire un corpus de savoirs validés, permettant la pérennité de la transmission de ces pratiques.

(8)

Table des matières

1 Du chaos en biologie ? 11

1.1 Du déterminisme . . . 12

1.2 Flèche du temps et devenir . . . 16

1.2.1 Indéterminisme ou indétermination ? . . . 18

1.2.2 Imprédictibilité : de l’approche probabiliste à la théorie du chaos . . . 19

1.3 Déterminisme et liberté . . . 21

1.4 Du déterminisme en biologie . . . 23

1.4.1 Déterminisme expérimental . . . 24

1.4.2 Hasard et génétique . . . 25

1.5 Éléments théoriques du déterminisme . . . 27

1.5.1 Reconstruction du portrait de phase . . . 27

1.5.2 Estimation de la dimension de l’espace de reconstruction . . . 28

1.5.3 Modélisation globale . . . 29

1.6 Chaos et modélisation en biologie . . . 30

2 Analyse critique du titrage de bruit 39 2.1 Principe du titrage . . . 40

2.1.1 Première étape : la détection de non-linéarité . . . 40

2.1.2 Deuxième étape : le titrage du bruit . . . 43

2.2 Prétentions et premières limites . . . 44

2.3 Dépendances et précautions d’utilisation . . . 46

2.3.1 Dépendance aux paramètres de modélisation . . . 47

2.3.2 Dépendance au choix de l’observable . . . 51

2.3.3 Dépendance à l’échantillonnage . . . 53

2.3.4 Dépendance à la réalisation du bruit . . . 57

2.4 Dynamique lente/rapide à modulation chaotique d’amplitude . . . 60

2.4.1 Motivation . . . 61

2.4.2 Le modèle . . . 61

2.4.3 Résultats . . . 62

2.5 Exemple des orbites périodiques . . . 63

2.6 Guide d’utilisation pratique du titrage du bruit . . . 65

2.7 Conclusion . . . 66

3 L’activité cardiaque 71 3.1 Variabilité du rythme cardiaque . . . 72

3.1.1 Notions de physiologie . . . 72

3.1.2 Régulation du rythme . . . 74

3.1.3 Enregistrement du rythme . . . 75

3.1.4 Arythmies pathologiques . . . 79

(9)

3.2.1 Préparation des sujets . . . 80

3.2.2 Reconstruction de l’espace des phases . . . 80

3.2.3 Caractérisation des arythmies cardiaques . . . 81

3.3 Analyse dynamique du rythme cardiaque chez l’homme . . . 91

3.3.1 Étude comparative chez le nourrisson . . . 91

3.3.2 Étude comparative chez l’adulte . . . 95

3.4 Recherche du déterminisme dans la dynamique cardiaque . . . 100

3.4.1 Modélisation globale . . . 101

3.4.2 Structure de l’application de premier retour . . . 101

3.4.3 Modèle non-autonome pour l’extrasystole . . . 102

(10)

Introduction

The scientist has a lot of experience with ignorance and doubt and uncertainty, and this experience is of very great importance, I think. Scientific knowledge is a body of statements of varying degrees of certainty — some most unsure, some nearly sure, but none absolutely certain. Our freedom to doubt was born out of a struggle against authority in the early days of science. It was a very deep and strong struggle : permit us to question — to doubt — to not be sure. I think that it is important that we do not forget this struggle and thus perhaps lose what we have gained4.

Richard Feynman, The Value of Science, address to the National Academy of Sciences, Autumn 1955.

C

e travail de thèse s’inscrit dans le cadre récemment qualifié par Edgar Morin de « crise de l’explication simple dans les sciences biologiques et physiques5 ». En effet, les nombreux progrès techniques associés aux différents domaines biomédicaux ont permis d’obtenir une quantité croissante de données, remarquables tant en qualité qu’en quantité, qu’il s’agisse d’acquisitions de signaux temporels ou d’informations résolues spatialement, comme c’est le cas de l’imagerie médicale. Devant un très grand nombre de données, la position la plus simple parfois adoptée est de procéder à leur traitement statistique. Cependant, ce genre d’approche ne permet qu’un constat descriptif du contenu des données, et ne fournit pas d’explication des phénomènes mis en jeu. Or la science est, traditionnellement, à la recherche d’explications causales. On cherche à déterminer quelle force ou quel principe donne naissance au phénomène que l’on considère. Ainsi, c’est devant ce paradoxe — une quantité toujours croissante de données de grande qualité liée à l’incapacité d’inférence causale qui en découle — que nous nous sommes intéressés à la mise en évidence du déterminisme dans des données expérimentales, et plus particulièrement dans le domaine biomédical. En effet, l’existence d’un déterminisme sous-jacent aux données est la condition sine qua non pour procéder à l’inférence causale.

Dans le domaine de la biomédecine, les enjeux liés à l’identification d’un comportement déter-ministe à partir d’une série temporelle expérimentale sont nombreux, aussi bien d’un point de vue physiologique que thérapeutique, voire même idéologique. Or, les systèmes biologiques sont trop souvent implicitement considérés comme déterministes, d’un déterminisme axiomatique hérité no-tamment de Claude Bernard. Concernant les systèmes biologiques tout comme tout autre objet de science, le déterminisme doit être prouvé, et non admis en tant qu’hypothèse a priori. À ce jour,

4. L’homme de science a une grande expérience concernant l’ignorance, le doute et l’incertitude, et cette expé-rience est d’une grande importance, je crois. La connaissance scientifique est constituée d’un ensemble de propositions dont les degrés de certitude sont variables — quelques-unes sont très probablement incertaines, d’autres sont presque sûres, mais aucune ne sont absolument certaines. Notre liberté de douter est née de la lutte contre l’autorité, existant depuis les premiers jours de la science. Ce fut une lutte profonde et difficile : nous permettre de questionner — de douter — de n’être pas sûrs. Je pense qu’il est important que nous n’oublions pas cette lutte, au risque de perdre ce que nous avons acquis.

(11)

la seule preuve satisfaisante de l’existence d’un déterminisme sous-jacent serait l’obtention d’équa-tions liant les états passé, présent et futur du système. C’est ce déterminisme au sens laplacien que tente de dégager la modélisation globale, processus ayant toutefois rarement abouti s’agissant du domaine de la biomédecine.

En 2001, Chi-Sang Poon et Mauricio Barahona ont proposé une technique de titrage du bruit, en affirmant pouvoir quantifier la chaoticité de la dynamique sous-jacente à partir d’une série temporelle, même si cette dernière est courte et bruitée, comme c’est souvent le cas des séries temporelles issues des enregistrements biomédicaux. Puisqu’un comportement chaotique présente un déterminisme de basse dimension, une technique permettant de prouver la présence de chaos permettrait, indirectement, de prouver l’existence d’un déterminisme de basse dimension sous-jacent aux données. C’est donc dans l’espoir de détenir une nouvelle méthode permettant de prouver le déterminisme dans une série expérimentale que nous nous sommes intéressés à la technique de titrage du bruit.

L’objectif principal de ce travail de doctorat a été d’aborder la technique de titrage du bruit de façon critique et rationnelle, afin d’en proposer un champ d’utilisation possible permettant son application à différents domaines biomédicaux. Ce manuscrit est composé de trois chapitres. Le premier aborde les notions fondamentales de déterminisme et de causalité, aussi bien dans leur définition que dans leur application au domaine de la biologie. Après une introduction concep-tuelle, rappelant les différents heurts concernant la définition du principe de causalité rencontrés lors du développement notamment de la physique moderne et de la théorie du chaos, sont abordées quelques notions fondamentales introductives de la théorie des systèmes dynamiques non linéaires. Le deuxième chapitre est, lui, entièrement consacré à la méthode de titrage du bruit. Après une description de la méthode et un rappel de ses objectifs affirmés, nous procédons à son analyse critique, en montrant dans quels cas il est possible d’obtenir des résultats biaisés, notamment par le mauvais choix de paramètres de modélisation ou d’échantillonnage de la série temporelle. Ces résultats sont mis en relation avec le problème d’observabilité d’une dynamique via le choix de la variable de mesure, censée contenir l’information relative à la description du système. Nous proposons également dans ce chapitre un système modèle présentant une dynamique non-linéaire par morceaux, pour laquelle le titrage du bruit échoue à détecter la non-linéarité sous-jacente au système. À l’issue de ce chapitre, nous proposons un « guide d’utilisation » du titrage du bruit, afin de pouvoir appliquer cette méthode dans de bonnes conditions d’utilisation. Le troisième et dernier chapitre traite de l’analyse de différentes dynamiques cardiaques par utilisation du titrage du bruit — dans les conditions dégagées au chapitre 2. Les données traitées proviennent de dif-férents protocoles expérimentaux : des enregistrements électrocardiographiques de rats sains ou insuffisants cardiaques, des enregistrements chez 14 nourrissons à risque de mort subite, et des enregistrements chez 15 sujets adultes, sains ou présentant une pathologie cardiaque. Dans ce cha-pitre, nous caractérisons les différentes dynamiques cardiaques, grâce aux outils issus de la théorie des systèmes dynamiques non-linéaires, tels que les applications de premier retour ou les entropies de Shannon. Associés à la détection de non-linéarité par titrage du bruit, ces outils permettent une quantification de la composante non-linéaire associée à la dynamique cardiaque. Enfin, une tentative de modélisation globale est réalisée sur une dynamique cardiaque d’un patient présentant une insuffisance cardiaque, afin de mettre en évidence une éventuelle composante déterministe dans le processus sous-jacent aux arythmies cardiaques.

(12)

Chapitre 1

Du chaos en biologie ?

« If the flap of a butterfly’s wings can be instrumental in generating a tornado, it can equally well be instrumental in preventing a tornado1. »

Edward N. Lorenz, Predictability : Does the Flap of a Butterfly’s Wings in Brazil Set off a Tornado in Texas ?, in the 139th. Meeting of the American Association for the Advancement of Science, 1972.

Introduction

Malgré la publication des travaux d’Henri Poincaré en 1890 [1], seul un nombre restreint de mathématiciens et de physiciens s’accordait à penser que certains systèmes dynamiques, bien que régis par des équations déterministes, peuvent parfois présenter un comportement irrégulier, et imprévisible à plus ou moins long terme. Ce n’est cependant qu’au cours des années 70 que ce concept prend toute son ampleur. La première occurrence du terme chaos dans une publication scientifique n’apparaît en effet qu’en 1975, lorsque Tien-Yien Li et James A. Yorke [2] décrivent le comportement apériodique de la fonction logistique. Ils qualifient alors de « chaotiques » les oscillations dynamiques irrégulières qu’ils observent, reflétant des phénomènes compliqués, pouvant toutefois être décrits par des modèles ou des équations simples, « même si ces modèles peuvent ne pas être suffisants pour autoriser des prédictions numériques exactes ». Ils citent Lorenz comme ayant pris ce point de vue avant eux en étudiant les comportements turbulents dans une série de papiers « fascinants » [3, 4, 5, 6]. En titrant « Non-periodic deterministic flow » ce qui deviendra un des articles fondateurs de la théorie des systèmes dynamiques non-linéaires, Lorenz pose la pierre de base de la théorie du chaos, soit la propriété de déterminisme, tout en n’employant jamais, dans cet article, le terme « chaos ».

Après avoir été adopté par Li et York en 1975, le terme « chaos »fait rapidement florès, puis-qu’on le retrouve moins d’un an après, repris par Otto E. Rössler [7] et R. M. May [8] en 1976. Ils l’utilisent pour décrire des dynamiques apériodiques complexes pouvant émaner de certains systèmes déterministes, c’est-à-dire de systèmes décrits par des équations n’incluant aucun terme aléatoire. Le concept de chaos et la théorie qui s’ensuit ont en effet été introduits pour désigner des comportements apparemment indescriptibles. Ce n’est qu’ensuite que de telles dynamiques irrégulières ont été identifiées dans des systèmes d’origine naturelle — tels que les rouleaux de convection atmosphérique étudiés par Lorenz, le système cardio-vasculaire ou l’évolution d’une po-pulation animale — ou définis par l’homme, tel que le marché de la bourse... De là à déduire que ces systèmes sont eux aussi déterministes, il n’y a qu’un pas, qui est parfois franchi avec trop peu de précautions. En effet, la question du déterminisme est fondamentale en science, et constitutive en

(13)

théorie des systèmes dynamiques. C’est pourquoi, avant toute chose, il nous appartient de définir clairement cette notion.

1.1

Du déterminisme

On trouve dans un dictionnaire cette définition du déterminisme : « conception philosophique selon laquelle il existe des rapports de cause à effet entre les phénomènes physiques, les actes humains »2. Dès lors, un problème s’impose : si le déterminisme est une conception philosophique,

comment peut-on qualifier de déterministe un système physique ? On peut également entendre qu’un système déterministe est un système dont les états présents et futurs sont déterminés par ses états passés, proposition dans laquelle le verbe « déterminer » se traduit par « être la cause directe de, provoquer ». On voit dès lors que la définition du déterminisme est intrinsèquement liée au concept de causalité, et qu’il devient nécessaire de le définir à son tour.

La notion de causalité est fondamentale et, bien que très ancienne, reste aujourd’hui encore controversée. Dans l’Antiquité grecque, elle était traditionnellement du ressort de la philosophie de la nature, qui avait pour objet autant l’interprétation des données empiriques que la spéculation pure. L’idée aristotélicienne selon laquelle nous ne connaissons les choses que lorsque nous en appréhendons les causes, subsiste encore aujourd’hui. Ainsi, la recherche des causes serait liée à un désir de savoir qui est, selon Aristote, « un désir naturel présent chez tout homme3». C’est, entre autres, ce désir de savoir qui a motivé le développement de la science, dont l’objectif, selon Henri Poincaré4 « n’est pas de connaître les choses en elles-mêmes, mais les relations entre les

choses ». C’est dans ce but que la science utilise un langage mathématique et se propose d’établir des lois causales entre les phénomènes, permettant notamment la prédiction. En effet, d’après Ilya Progogine5, « le devenir est le sine qua non de la science, et de fait, de la connaissance

elle-même6». Mais nous reviendrons plus tard au cours de ce chapitre sur la notion de prédiction.

Aristote a étayé la notion de cause en la divisant en quatre catégories. Pour les illustrer, nous prenons l’exemple d’un sculpteur qui déciderait de donner forme à un bloc de marbre. Quatre types de cause peuvent avoir pour effet la sculpture de marbre :

– la cause matérielle, ou le support de la transformation, serait le bloc de marbre par rapport à la statue ;

– la cause formelle, ou l’idée qui organise l’objet transformé selon une forme déterminée, serait ici l’intention du sculpteur ;

– la cause efficiente, ou l’agent de la transformation, serait l’action du burin qui permet de donner forme au bloc de marbre ;

– la cause finale, enfin, serait le but en vue duquel s’accomplit la transformation, soit, par exemple, la commande d’un mécène.

Dans certains cas, il peut être ardu de distinguer ces quatre causes. c’est pourquoi elles sont souvent définies comme répondant à des questions simples : la cause matérielle répond à la question « D’où vient l’objet, de quoi est-il fait ? », la cause formelle à « Quelle est sa forme, quel est est le modèle qu’il imite ? », la cause efficiente à « Quelle force ou quel principe lui a donné naissance ? » et la cause finale à « Dans quel but ? ». Le discours scientifique a implicitement offert une plus grande place à la notion de cause efficiente, plus usuelle que les trois autres car plus claire et, surtout, exprimable en termes logiques et mathématiques, propriété essentielle pour un objet de science. Ainsi, une relation causale entre deux événements A et B est traduite, en logique, par la relation A → B. Or, dans le monde réel, les interprétations d’une telle relation sont multiples. Jonathan Schaffer [10, 11] présente une vue d’ensemble des débats philosophiques autour de ces questions, appartenant à la métaphysique de la causalité. Il y a d’abord les questions concernant la nature

2. Dans Le petit Larousse illustré, ed. 2006. 3. Aristote, La Métaphysique.

4. Henri Poincaré (1854-1912), mathématicien, physicien, philosophe et académicien français.

5. lya Prigogine (1917-2003), physicien et chimiste belge d’origine russe, prix Nobel de chimie en 1971. 6. « Becoming is the sine qua non of science, and indead of knowledge itself », dans [9].

(14)

des relata causaux : sont-ils localisables dans l’espace-temps (notion d’immanence), à quel type de description répondent-ils (fine ou grossière), combien sont-ils (adicité) ? Viennent ensuite des questions concernant la nature des relations causales : quelle est la différence entre une relation causale et une relation non causale (notion de connexion), quelle est la différence entre une séquence reliant une cause à un effet et une séquence reliant un effet à une cause (direction de la relation), quelle est la différence entre une séquence impliquant une cause et une séquence impliquant de simples conditions d’apparition du phénomène ?

En tentant de répondre à ces questions, Max Kistler [12] a procédé à une distinction de la relation causale selon deux conceptions principales :

– la conception explicative (Tab. 1.1), dans laquelle une relation causale est essentiellement une explication. Elle se rattache à une conception empirique du monde, tire ses origines de l’analyse logique en termes de conditions nécessaires et/ou suffisantes, et des descriptions statistiques, basées sur l’idée que les causes augmentent la probabilité d’occurrence de leurs effets. On y retrouve principalement la doctrine de l’empirisme logique (la causalité est une explication déductive), la doctrine contrefactuelle et la doctrine probabiliste (l’occurrence des causes augmente la probabilité d’occurrence des effets).

– la conception mécaniste (Tab. 1.2), dans laquelle une relation causale est principalement fondée sur un processus de transmission matérielle. Elle se rattache à une conception réa-liste du monde, est basée sur l’idée que les causes influencent leurs effets par l’intermédiaire d’un lien ou d’une connexion physique. Elle prend racine dans la physique et dans l’analyse matérielle, s’appuyant généralement sur des lois exprimées en terme de flux ou de trans-fert d’entités quantitatives. Elle adopte ainsi une attitude naturaliste, puisqu’elle découle du discours scientifique. On y retrouve principalement la doctrine de l’agentivité (ou de la manipulabilité, puisque l’observateur peut être acteur), la doctrine processuelle qui introduit la transmission de « caractère » (ou de « marque »), la doctrine mécaniste (les causes sont reliées à leurs effets par un mécanisme), la doctrine de la continuité qualitative (une relation causale est caractérisée par un changement continu de propriétés) et la doctrine du transfert (les causes transfèrent des quantités individuelles à leurs effets, comme l’énergie par exemple).

Table 1.1 – Différentes doctrines de la conception explicative de la relation causale A → B, et leur exemples logiques.

Conception explicative Doctrine de l’empirisme logique :

B a eu lieu car A a eu lieu. Doctrine contrefactuelle :

Si A n’avait pas eu lieu, B n’aurait pas eu lieu. Doctrine probabiliste :

Plus A a lieu, plus B est probable.

Chacune de ces deux conceptions rencontre des problèmes7, et, toujours selon Kistler [12], les

intuitions mécanistes se heurtent aux conceptions explicatives, et vice-versa. En ce qui concerne la conception probabiliste, les problèmes rencontrés sont ceux de la préemption, de l’inaboutissement et des régularités fallacieuses :

– les cas de préemption se présentent lorsqu’un effet a plusieurs causes potentielles ;

7. Les doctrines du transfert et de la continuité qualitative sont notamment attaquées par Jonathan Schaffer, qui réfute l’hypothèse de la nécessité d’une connexion physique (comme un flux d’énergie) entre cause et effet en invoquant la causalité négative.

(15)

Table 1.2 – Différentes doctrines de la conception mécaniste de la relation causale A → B, et leur exemples logiques.

Conception mécaniste Doctrine de l’agentivité : A est un moyen d’obtenir B.

Doctrine processuelle : A transmet un « caractère » à B.

Doctrine mécaniste : A est lié à B par un mécanisme. Doctrine de la continuité qualitative :

La relation entre A et B traduit un changement continu de propriétés. Doctrine du transfert :

A transfert à B une quantité individuelle.

– il y a inaboutissement lorsqu’une cause potentielle ne réussit pas à produire son effet, en dépit de l’augmentation de probabilité, qui ne semble pas être une condition suffisante à la causalité ;

– une régularité fallacieuse est une connexion nécessaire entre deux événements qui n’est pas une connexion causale : par exemple, la chute d’un baromètre peut être régulièrement suivie par une tempête, mais il est généralement admis que cette chute ne cause pas réellement la tempête. Il semble donc que l’augmentation de probabilité ne soit pas une condition nécessaire à la causalité.

En ce qui concerne la conception processuelle, ce sont les problèmes de la déconnexion et de la méconnexion qui dominent :

– les cas de déconnexion se présentent lorsqu’une cause opère en bloquant un processus qui aurait empêché son effet : par exemple, un avion s’écrase parce qu’un terroriste sabote l’an-tenne radio qui aurait permis à la tour de contrôle d’avertir le pilote du danger. Ainsi, si l’acte terroriste est bien la cause de l’écrasement, il semble alors qu’un processus de transmission de caractère ne soit pas une condition nécessaire à la causalité ;

– il y a méconnexion lorsqu’un effet est modifié, dans certains de ses aspects, jugés sans importance. À partir de l’exemple précédent, supposons qu’un oiseau frappe l’avion qui est en train de s’écraser, de sorte que l’oiseau soit relié à l’écrasement de l’avion sans le causer. Il semble alors que le processus de transmission ne soit pas une condition suffisante à la causalité.

Des conceptions hybrides (mêlant conceptions explicative et mécaniste) ont également été élabo-rées8, sans toutefois faire l’unanimité.

Il semble alors évident que la caractérisation de la causalité dépend largement de nos concep-tions ontologique et épistémologique. Ainsi, en grande partie, la distinction précédente recoupe les éléments du débat entre empirisme et réalisme ; elle montre que nous avons des attentes devant les relations causales, dont l’interprétation vient, en partie, renforcer notre mode de pensée. Ainsi, la recherche d’une définition commune de la causalité nous impose de concilier nos expériences, nos intuitions fondamentales, et les concepts, principes et lois des sciences modernes. Car la causalité demeure au centre de la plupart de nos inférences, démarche logique à la base de l’établissement des lois. Mais ce que nous révèle notre expérience, ce n’est pas le principe de causalité en lui-même, ce

8. Jonathan Schaffer [13] a par exemple proposé une théorie causale en termes d’augmentation de la proba-bilité d’un processus et Phil Dowe [14] réunit des aspects de la causalité comme processus avec une conception contrefactuelle.

(16)

sont les événements perçus qui vont nous permettre d’induire — d’inférer de manière inductive — un rapport de causalité. Il s’agit, d’après David Hume, du troisième principe de connexion [15], ou d’association, entre les idées particulières (la première étant la ressemblance et la deuxième la contiguïté). En effet, dans sa thèse associationniste de la croyance [16], David Hume affirme que nos idées ne sont pas des concepts généraux ou idéaux (selon la conception platonicienne des idées), mais qu’elles dérivent toutes de nos impressions. Selon lui, si on affirme qu’une relation entre des événements est causale, ou lorsqu’une inférence causale est au moins possible, c’est parce qu’il y eu une conjonction nécessaire entre ces événements. Ainsi, il extrapole la « régularité observée » de l’enchaînement de faits à la « propriété supposée de causalité » :

« Par conséquent, notre idée de nécessité et de causalité naît entièrement de l’uniformité observable dans les opérations de la nature, où des objets semblables sont constamment joints entre eux, et l’esprit est déterminé par la coutume à inférer l’un de l’apparition de l’autre. Ces deux circonstances forment le tout de la nécessité que nous attribuons à la matière. En dehors de la constante conjonction d’objets semblables et de l’inférence de l’un à l’autre, qui en est la conséquence, nous n’avons aucune notion d’une quelconque nécessité ou connexion9. »

Ainsi, Hume tente de vider le concept de causalité de toute implication ontologique, pour le rapporter au statut de généralisation posée par l’esprit et engendrée par l’expérience. Pour lui, la causalité n’est rien d’autre qu’une association engendrée par la répétition, l’habitude ; elle est affaire de conjonctions constantes ou comparativement fréquentes : lorsqu’un événement du type cause apparaît, un événement du type de l’effet s’ensuit plus fréquemment que si aucun événement du type de la cause n’a eu lieu. Notre esprit, désireux de comprendre et d’établir des liens entre les événements, en viendrait à lier cause et effet, ainsi définis dans la relation de causalité. La propriété de causalité est ainsi déplacée de l’objet vers le sujet : la relation n’est pas dans les événements, mais dans l’esprit qui les pense. Ce déplacement est également présent dans la thèse critique de Kant, qui refuse toutefois, à la différence de Hume, de faire de la causalité une simple habitude associative. Pour Kant, la causalité est un concept pur, une structure a priori de l’entendement, qui organise l’expérience et oriente nos observations. Le développement de cette idée conduit Auguste Comte à aller jusqu’à récuser le concept même de causalité, en qualifiant d’état théologique l’état de l’esprit qui chercherait encore la cause des phénomènes ; cet état correspondrait à l’âge de l’enfance de l’humanité, dans lequel les causes sont attribuées aux objets eux-même (fétichisme), ou à des interventions surnaturelles ou divines [17].

Toutefois, une telle définition de la causalité reste subjective, puisque les conjonctions néces-saires que nous observons sont inextricablement liées à notre expérience. Ainsi, Max Kistler pose encore la question : existe-t-il des relations causales objectives et réelles, préexistantes à tout évé-nement, ou n’existe-t-il que des apparences causales ? Puisque tout ce qui existe et qui nous est accessible n’est qu’une représentation du réel, nous n’avons accès qu’à des représentations de la causalité, et on pénètre alors le domaine subjectif de la psychologie. En cela, Kistler interroge le bien-fondé de l’ontologie10 de la causalité, invoquant que les prétentions à l’objectivité et à

l’uni-versalité du concept de causalité imposent des contraintes majeures, qui paraîssent insurmontables. Il existe alors deux solutions radicales : poser l’idée de cause comme un principe nécessaire, ou à l’inverse s’en affranchir complètement. Ainsi, certains modèles épistémologiques la place au centre de toute explication rationnelle concernant le monde physique. C’est le cas de celui de Wesley Salmon [18] ou de Mathias Frisch [19, 20], qui érigent le concept de causalité au rang du sacré et des bases constitutives de la science. John D. Norton [21], en revanche, estime que la causalité ne fait partie que du folklore de la science et, suivant les idées de Bertrand Russell [22] et d’Auguste Comte, voit le concept de cause comme une relique d’un âge révolu. Dans son ouvrage On the notion of cause, Russell a non seulement pour but d’interroger la loi de causalité éternellement invoquée en science, mais également de procéder à l’extrusion définitive du terme « cause » du vocabulaire

9. David Hume, Enquête sur l’entendement humain, 1748, p.70. 10. Ontologie : théorie des types d’entités qui existent objectivement.

(17)

scientifique et philosophique, d’après lui trop inextricablement lié à des associations fallacieuses. Il estime résolument que si les sciences physiques ont cessé de rechercher les causes, c’est parce qu’elles n’existent pas en elles-mêmes. Il en déduit donc qu’elles n’ont pas de place légitime dans une conception du monde respectueuse de la science, et propose de les abandonner au profit de « lois de la nature ». Mais le problème n’est que déplacé, le statut de ces lois étant tout aussi contesté : sont-elles des structures objectives, ou ne sont-elles — elles aussi —que des régularités observées ? La question n’est pas clause pour autant, mais la notion de lois de la nature a l’avan-tage d’introduire les critères de continuité et de persistance dans la caractérisation des relations causales. Le respect de ces critères a notamment conduit aux théories mécanistes processuelles, du transfert et de la continuité qualitative. C’est ainsi que Max Kistler [23, 12] a notamment pu pro-poser sa théorie causale de conception mécaniste, dans laquelle la relation de causalité est basée sur la transmission d’une quantité conservative entre événements. Kistler énonce ainsi sa thèse, qu’il revendique comme étant « fondamentale et généralement applicable » : « deux événements sont reliés comme cause et effet si et seulement s’il existe une quantité d’énergie, de charge électrique ou de toute autre grandeur, conservée en vertu d’une loi fondamentale de la nature » ([12], p. 68). L’hypothèse plaçant l’énergie au centre de la causalité peut sembler fertile, puisque l’énergie est considérée comme non spécifique, c’est-à-dire comme appartenant à tout système physique. Ainsi, Kistler estime sa théorie du transfert conçue « sur mesure pour rendre compte des situations qui constituent des contre-exemples aux théories contrefactuelles et probabilistes. » ([12], p. 67). Bien que le débat ne soit pas clos, l’approche processuelle basée sur la transmission de l’énergie de Kist-ler permet au moins de répondre de façon satisfaisante aux objections adressées aux conceptions explicatives.

1.2

Flèche du temps et devenir

Un des aspects essentiels du déterminisme est — outre la réduction de tous les phénomènes existants à des causes et/ou des effets liés les uns aux autres par des relations de causalité — sa capacité prédictive. En effet, d’après Bertrand Russell [22], lorsque nous envisageons le futur comme « déterminé », c’est au sens de l’existence d’une formule mathématique dans laquelle le futur peut figurer, ou, tout au moins, être calculé théoriquement comme une fonction du passé. Ainsi, alors qu’avec la causalité nous sortons de la régularité de la conjonction pour organiser les éléments réunis par l’expérience, avec la prédiction nous franchissons un pas temporel : nous sortons du passé pour aller vers le futur. Une des conceptions déterministes réalistes11 qui a longtemps

dominé la pensée scientifique dès le début du xixe siècle est celle de Pierre Simon de Laplace. Ayant procédé à l’analyse mathématique de l’approche géométrique de la mécanique newtonienne, déjà performante en matière de prédiction, Laplace énonce fermement un déterminisme causal.

« Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux12. »

Ainsi, le déterminisme laplacien met en jeu une « intelligence » suprême, qui, si elle s’avérait assez vaste pour englober toutes les données de l’Univers, serait capable de prédire son avenir, et de retrouver tout son passé. Cette omniscience est rendue possible par une « formule », qui permet d’apporter un lien de nécessité aux relations causales. Ce lien de nécessité va légitimer en retour les inférences, autant en prédiction (avenir) qu’en explication (passé). Ainsi, la définition laplacienne du déterminisme universel est intimement liée à la notion de temps et à son sens,

11. Ici, réaliste est entendu comme tendant vers une réalité extérieure indépendante, une vérité. 12. Pierre-Simon de Laplace, introduction à l’Essai philosophique sur les probabilités, 1840.

(18)

définissant passé et avenir. Bien que Laplace ait procédé à l’interprétation de la mécanique céleste qui, étant conservative, autorise le renversement du temps, les événements causaux tels qu’il les définis s’inscrivent sur ce qui sera par la suite appelé la « flèche du temps »[24], se distinguant ainsi, de part leur position sur cette flèche, entre cause et effet. Ainsi, l’effet ne pouvant pas précéder la cause, la position temporelle des événements implique leur fonction possible. Nécessairement, on assiste à l’intrication des définitions des relations causales et temporelles.

Avant Laplace, c’est Paul Henri Thiry d’Holbach13, grand contributeur à l’Encyclopédie de

Diderot, qui énonce le principe du déterminisme universel.

« Dans un tourbillon de poussière qu’élève un vent impétueux, quelque confus qu’il paraisse à nos yeux ; dans la plus affreuse tempête excitée par des vents opposés qui soulèvent les flots, il n’y a pas une seule molécule de poussière ou d’eau qui soit placée au hasard, qui n’ait sa cause suffisante pour occuper le lieu où elle se trouve, et qui n’agisse rigoureusement de la manière dont elle doit agir. Un géomètre, qui connaîtrait exactement les différentes forces qui agissent dans ces deux cas et les propriétés des molécules qui sont mues, démontrerait que, d’après des causes données, chaque molécule agit précisément comme elle doit agir, et ne peut agir autrement qu’elle ne fait14. »

D’Holbach énonce une nécessité de l’avènement des événements, sans toutefois avoir recours à la temporalité invoquée par Laplace. Il va plus loin que le monde physique, en extrapolant le déterminisme régissant la nature aux mouvements sociaux. Il est également intéressant de noter que d’Holbach envisage, dès son énoncé, les difficultés que pourra rencontrer le déterminisme universel, et notamment la difficulté de l’observabilité de l’état d’un système et sensibilité aux conditions initiales :

« Enfin, si tout est lié dans la nature ; si tous les mouvements y naissent les uns des autres, quoique leurs communications secrètes échappent souvent à notre vue, nous devons être assurés qu’il n’est point de cause si petite ou si éloignée qui ne produise quelquefois les effets les plus grands et les plus immédiats sur nous-mêmes. C’est peut-être dans les plaines arides de la Lybie que s’amassent les premiers éléments d’un orage, qui, porté par les vents, viendra vers nous, appesantira notre atmosphère, influera sur le tempérament et sur les passions d’un homme, que ses circonstances mettent à portée d’influer sur beaucoup d’autres, et qui décidera d’après ses volontés du sort de plusieurs nations. »

D’Holbach énonce lui aussi un principe de déterminisme causal, mais que Laplace a l’avantage de formaliser. C’es ainsi que, d’après eux, l’intelligence qui connaîtrait avec une absolue précision la position et l’énergie de tout objet à un instant donné pourrait calculer l’évolution de l’Univers à tout moment ultérieur. C’est cette hypothèse du déterminisme universel — où déterminisme implique ici la prédictibilité — qui a gouverné la science du xixesiècle. L’exemple des lois mathématiques est le plus probant, puisque celles-ci peuvent déterminer des valeurs quantitatives à partir de conditions données. Cette aptitude à inférer paraît être essentielle à l’établissement de la preuve légitime du déterminisme. Cependant, nous allons voir que les difficultés de prédiction rencontrées lors du développement de la physique moderne soulèvent des questions d’un nouvel ordre, car plus encore que la capacité à inférer, c’est la capacité à expliquer, puis à prédire, à prévoir, qui semble être une nécessité scientifique. Par la mathématisation, on passe d’un déterminisme idéologique, voire d’une volonté divine, à un déterminisme formel et rigoureux. La nature, écrite en langage mathématique, est alors régie par des lois et des principes qui permettent de la décrire comme un enchaînement de causes, et d’en prédire le devenir.

13. Paul Henri Thiry d’Holbach (1723-1789), savant et philosophe d’origine allemande et d’expression française, ouvrait sa table deux fois par semaine à ses amis, entre autres Buffon, d’Alembert, Rousseau, Hume, etc. Le but de ces réceptions était la rédaction d’articles de l’Encyclopédie ; ainsi, D’Holbach et ses convives en rédigèrent 376.

(19)

1.2.1

Indéterminisme ou indétermination ?

En mécanique quantique, ce sont le principe de superposition et le phénomène d’intrication quantique qui mettent à mal l’ensemble des conceptions mécanistes, soulevant de nouvelles objec-tions.

Le principe de superposition implique qu’avant la mesure, il est impossible de connaître l’état du système quantique ; on dit alors de lui qu’il peut être dans un état ou dans un autre15. Or, le premier postulat de la mécanique quantique stipule que le vecteur d’état contient toute l’in-formation sur l’état quantique du système ; la possibilité que l’imprévisibilité de la mesure résulte d’une méconnaissance de l’état quantique au regard du vecteur d’état est donc exclue. Il semblerait alors qu’il y ait, selon ces considérations, un indéterminisme fondamental de la mécanique quan-tique. Or ceci ne peut être vrai car l’équation de Schrödinger, qui régit la propagation de l’onde associée à toute particule quantique, est, elle, parfaitement déterministe. Il existe donc bien une loi, une équation déterministe, régissant les vecteurs d’état associés aux particules quantiques. Il ne s’agit donc pas d’un indéterminisme fondamental venant du système, mais d’une indétermination de l’état du système. Concrètement, il est impossible de mesurer simultanément et avec exactitude toutes les composantes du vecteur d’état. L’indétermination quantique étant issue de la mesure, qui perturbe nécessairement l’évolution du système, il faut souligner que la physique quantique est entièrement causale et déterministe tant que n’intervient pas un processus de mesure.

C’est ensuite le phénomène d’intrication quantique qui pose problème aux défenseurs des conceptions continues. Dans ce phénomène, les particules corrélées interagissent à distance : lorsque deux systèmes quantiques ont interagi dans le passé, il n’est plus possible de factoriser le vecteur d’état de la paire qu’ils forment en deux vecteurs d’état, correspondant à chacun d’entre eux. Le nouveau vecteur d’état s’écrit alors comme une superposition linéaire de produits tensoriels de vecteurs d’états. On dit des états des deux systèmes qu’ils sont devenus « entremêlés » ou « intri-qués » ; pour Erwin Schrödinger, ce phénomène constitue le trait caractéristique de la mécanique quantique [25]. Mais les solutions présentées pour répondre aux problèmes issus de conceptions explicatives impliquaient — ou du moins suggéraient — un processus continu selon une loi, comme celui développé par Kistler. Or, les phénomènes quantiques ne sont pas toujours compatibles avec la causalité dite « locale » des conceptions continues, car des particules, bien que séparées dans l’espace, peuvent encore interagir : la mesure sur l’une des deux particules corrélées exerce une influence sur la valeur de la mesure opérée sur l’autre particule, et cela simultanément, même si elles sont séparées de plusieurs kilomètres. Cette influence à distance, manifestée par l’intrication quantique, n’admet donc pas de description compatible avec un processus continu.

Pour tenter de répondre aux incompatibilités des théories causales de type mécaniste avec le principe de superposition et le phénomène d’intrication quantique — qui suggèrent, à première vue, que le concept de causalité n’est pas universel — certains auteurs [26] séparent le principe de causalité en deux sous-principes : un principe fort, qui stipule qu’une cause doit toujours être précédée d’un effet, et ce même au niveau microscopique ; un principe faible, qui stipule qu’un message contrôlable ne peut être envoyé en arrière dans le temps. Certains auteurs, comme Pegg [27], avancent alors une interprétation « rétrocausale » de l’indéterminabilité quantique, qui ne viole pas le principe faible de causalité. Cette interprétation paraît insatisfaisante dans la mesure où le principe faible traite davantage de temporalité que de causalité. Mario Bunge [28] a même audacieusement proposé de considérer les phénomènes quantiques comme des phénomènes sui generis, soit « ayant leur propre cause », ou « générés par eux-mêmes », au même titre que Descartes

15. On trouve souvent l’amalgame « le système quantique EST dans plusieurs états possibles », évoquant notam-ment le fameux paradoxe du chat de Schrödinger qui serait à la fois vivant ET mort. Or il n’existe pas de simultanéité d’états quantiques, mais seulement une indétermination de l’état du système : le chat est vivant OU mort, cette information étant inaccessible à l’observateur tant qu’il n’effectue pas de « mesure » du système, c’est-à-dire tant qu’il n’ouvre pas la boîte. En revanche, la mesure perturbant le système, il sera impossible de dire a posteriori dans quel état était le système avant la mesure (à la différence de la mécanique classique, à l’œuvre à l’échelle macroscopique, dans laquelle l’ouverture de la boîte informe sur l’état du chat...

(20)

considérait Dieu comme une causa sui16, une cause en soi. L’idée générale de l’indéterminisme de

la physique quantique est qu’un événement est imprédictible à partir d’événements antérieurs ou, au mieux, peut seulement être prédit avec une certaine probabilité, mais jamais de certitude. Les événements quantiques sont alors envisagés par Bunge comme la causa sui des anciens, initiant une nouvelle chaîne causale d’événements dans le monde macroscopique. En tentant absolument de concilier déterminisme et prédictibilité, on retombe dans une description mystique, voire fétichiste, de la causalité.

Certes, les phénomènes quantiques ont très peu à voir avec les phénomènes communs sur lesquels nous basons nos jugements causaux habituels. En effet, la plupart des raisonnements que nous émettons aboutissant à des relations de causalité sont basés sur notre intuition, or il existe une grande diversité de cas présentés par les sciences modernes qui est en contradiction avec celle-ci ; ces cas conduisent — la plupart du temps — à des conclusions fallacieuses en ce qui concerne les objets de la mécanique quantique par exemple. Mais faut-il pour autant, afin de combler les lacunes laissées béantes par notre propre ignorance, s’engouffrer dans de telles justifications ? La quête d’un concept universel de causalité, rendant compte de façon unique les relations entre les événements et les changements dans le monde, est millénaire. La recherche d’un concept unique de causalité est semée d’embuches qui dépendent grandement des conceptions métaphysiques et épistémologiques sur lesquelles repose un tel concept. Mais la justification de l’unicité du principe de causalité n’est pour ainsi dire jamais abordée. Serait-ce implicitement ceci : il n’y a qu’un monde et, donc, un seul principe (causal ou non, d’ailleurs) gouvernant son évolution ? Ou y aurait-il une pluralité de déterminations comme le suggère Bunge ? Nous entendons alors sourdre les objections des adeptes de la théorie des cordes et de la pluralité des Univers... Il reste, à défaut de satisfaction, ou bien à réinterpréter la théorie quantique, qui demeure performante quant à ses prédictions en terme de probabilité, ou bien à accuser l’abandon de l’universalité de la causalité.

1.2.2

Imprédictibilité : de l’approche probabiliste à la théorie du chaos

La notion de déterminisme universel a été remise en cause dès le début du xxe siècle par le développement de la physique quantique, qui met en avant des systèmes déterministes et cependant non prédictibles à long terme. C’est le fameux principe d’incertitude17 — appelé parfois principe

d’indétermination — qui formalise cette incapacité à la détermination énoncé dès 1927 par Werner Heisenberg [29], il implique l’impossibilité de connaître avec une infinie précision la position et la vitesse d’une particule, bien que toutes deux régies par des lois déterministes (en l’occurrence, l’équation de Schrödinger). Il s’agit encore là, non pas d’un indéterminisme intrinsèque au système ou à la théorie physique utilisée pour décrire et prédire son état, mais bien de l’impossibilité d’accéder aux informations, avec une précision suffisante ou en nombre assez élevé. La prédiction, projection mentale du système vers son devenir, devient impossible. Les résultats de mesure d’un état quantique étant fondamentalement imprévisibles, ils ne peuvent, actuellement, être quantifiés qu’en termes de probabilités.

Tout en énonçant son principe de causalité, Laplace soulignait déjà la difficulté d’envisager et de connaître l’ensemble des causes qui pourraient produire un seul effet donné. Le déterminisme devient idéologique : de façon pratique, la connaissance des causes est une limite vers laquelle l’esprit se doit de tendre.

« L’esprit humain offre, dans la perfection qu’il a su donner à l’Astronomie, une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en Géométrie, jointes à celle de la pesanteur universelle, l’ont mis à portée de comprendre dans les mêmes

16. Causa sui est le nom latin désignant un pévénement auto-causée, un phénomène qui n’est le résultat d’aucun autre événement préalable. En théologie, la causa sui est liée au pouvoir de Dieu d’exercer des miracles, souvent considérée comme la cause de changements majeurs dans le monde physique.

17. Le principe d’Heisenberg régit les propriétés que va manifester une particule selon son confinement, soit l’« environnement » dans lequel elle va être placée. Lorsque la dimension du système est telle que les particules sont considérées comme des particules quantiques, les propriétés corpusculaires disparaissent au profit des propriétés ondulatoires.

(21)

expressions analytiques, les états passés et futurs du système du monde. En appliquant la même méthode à quelques autres objets de ses connaissances, il est parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que des circonstances données doivent faire éclore. Tous ces efforts dans la recherche de la vérité, tendent à le rapprocher sans cesse de l’intelligence que nous venons de concevoir, mais dont il restera toujours infiniment éloigné18. »

C’est pourquoi Laplace développe finalement une théorie des probabilités, renonçant, d’une cer-taine façon, à décrire le monde selon des lois déterministes. L’avenir est alors décrit en termes de probabilités, de possibilités, et non plus de certitudes déterminées selon des lois causales. Ainsi dans son traité Théorie analytique des probabilités, il expose la méthode des moindres carrés, méthode de base pour le calcul des erreurs. On procède alors de prédictions sciemment « fausses », mais dont l’erreur est évaluée et rendue « la plus petite possible » au regard de la réalité, concédant notre incapacité à accéder à l’information vraie, au profit d’une prédiction imparfaite. Devant la multitude des variables et des incertitudes de mesures, Boltzmann est l’un de ceux qui prônent l’approche probabiliste, plus à même d’appréhender les données empiriques. Développant sa théorie cinétique des gaz, basée sur les lois déterministes de la mécanique classique, Boltzmann arrive à reproduire correctement les chocs entre les atomes ou les molécules de gaz (qui sont des particules de taille inférieure à la limite quantique définie par Heisenberg). Cependant, c’est la multitude des particules qui rend ici impossible la connaissance exacte de leur mouvement. Cette incapacité à la description exacte du système, en raison d’un trop grand nombre de variables, peut également être imputée à la description mathématique des écoulements turbulents, régis par des lois détermi-nistes que sont les équations de Navier-Stokes, mais qui comportent tant de variables nécessaires à leur description que la dimension du système devient infinie. Il est donc nécessaire, si on souhaite prédire l’état futur d’un écoulement turbulent, de procéder à sa description statistique.

Figure 1.1 – Ernest Rutherford (à gauche) et Hans Geiger devant l’instrument ayant servi à compter les particules α.

Les expériences de Hans Geiger et Ernest Marsden19 [31] sont elles aussi correctement expli-quées par la mécanique classique, car la dimension des noyaux des atomes d’or (7 fm) est supérieure à la limite d’Heisenberg, au-delà de laquelle les particules sont décrites leurs propriétés

ondula-18. Pierre-Simon de Laplace, introduction à l’Essai philosophique sur les probabilités, 1840.

19. Appelées aussi « expérience de Rutherford » car placées sous la direction d’Ernest Rutherford. Dans ces expériences Geiger et Marsden ont bombardé des feuilles d’or avec des particules α. La majorité des particules α traversaient la feuille d’or sans être déviées, mais environ 0,01 % de ces particules a été déviée. De cette expérience a été notamment déduit que la matière a une structure lacunaire.

(22)

toires. L’imprédictibilité de la trajectoire des particules α, après avoir heurté les noyaux des atomes d’or, vient ici d’une connaissance imparfaite des conditions initiales, c’est-à-dire des positions re-latives des deux particules avant le choc. Ainsi, la méconnaissance des conditions initiales peut — tout autant que la multitude de variables — empêcher la prédiction de l’état futur du système. Henri Poincaré pointe lui aussi la limite des capacités de prédictions, due au caractère imparfait des observations, liée au statut d’être humain de l’observateur :

« Mais alors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrions connaître la situation qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois. Mais il n’en est pas toujours ainsi. Il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux : une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impos-sible20. »

Cette description énonce deux des caractéristiques principales des systèmes chaotiques, soit la sensibilité aux conditions initiales et l’amplification des petites erreurs. Ces deux caractéristiques rendent impossible la prédiction à long terme. Toutefois, une des propriétés essentielle et nécessaire des systèmes chaotiques est de présenter un déterminisme de basse dimension (à la différence des descriptions des écoulements turbulents ou de la théorie cinétique des gaz qui comportent un très grand nombre de variables). En effet, la plupart des systèmes chaotiques peuvent être décrits à l’aide de quelques variables seulement : c’est le cas du système de Rössler que nous utilisons en tant que système modèle dans deux des chapitres de cette thèse. Ainsi, bien que l’avenir du système ne soit pas prédictible à long terme, le système est déterministe, puisque régit par des lois mathématiques. La trajectoire solution des équations décrivant le système s’inscrit sur un attracteur invariant sous l’action du temps ; la trajectoire solution est donc bornée, impliquant que le système ne va jamais diverger hors de l’attracteur.

Malgré la conception d’Ilya Prigogine qui affirmait que sans devenir, point de science, « pré-dire n’est pas expliquer21» et on se place, en bornant le déterminisme à sa capacité prédictive, bien loin de l’idéal aristotélicien, reprit par Descartes, qui stipule que la science se définit comme une connaissance par les causes : par l’intelligence des causes, l’esprit retrouve les principes qui engendrent l’ordre des choses. Si la prédiction semble donner le contrôle du monde (et par là du devenir, et par extrapolation, de la mort) elle ne donne pas le savoir, la compréhension du monde. La volonté de contrôle peut même parfois s’opposer à la notion de causalité, notamment celle qui implique une fin, une finalité, concept est central dans la philosophie d’Aristote : « Tout art et toute investigation, et pareillement toute action et tout choix, tendent vers quelques fins22». Ici,

c’est la cause finale d’Aristote qui est invoquée, délaissée par la science qui s’est attachée à décrire le comment (cause efficiente) et non le pourquoi. Or dans cette conception finaliste, impliquant la prédétermination de toute action et de tout choix, l’homme peine à trouver sa place, entre objet et sujet du monde, spectateur et acteur de sa vie.

1.3

Déterminisme et liberté

Comme le révèle notamment la controverse entre Norton et Frisch, le sujet n’est pas dénué d’affect. Il est lié à notre perception du monde, à nos convictions profondes, et la virulence des débats — encore nombreux aujourd’hui — laisse entrevoir cette subjectivité. Il s’agit effectivement de savoir si le monde est régit par des lois déterministes, et, implicitement, si nous-même en tant qu’objets du monde le sommes également. La question du déterminisme est notamment en friction avec le concept du libre-arbitre : comment, dans un monde entièrement déterminé, peut-on être libre

20. Henri Poincaré, Calcul des probabilités 21. René Thom, .

(23)

de prendre une décision ? Ne sommes-nous pas maîtres de nos actes ? Ce débat — de société — a encore cours aujourd’hui puisque le magazine grand public Philosophie du mois d’Août 2011 titrait « Notre vie n’est-elle qu’une succession de hasards ? ». Or, si le hasard gouvernait de façon directe toute notre vie, nos actes et nos décisions seraient aléatoires, et nous ne les contrôlerions pas plus que s’ils étaient pré-déterminés. Comment alors rendre compte des notions de liberté et de volonté, essentielles et fondamentales à notre condition d’êtres humains, dans un monde déterministe ?

La conception familière du « libre-arbitre » entraîne la possibilité de choix, devant plusieurs alternatives possibles. Ainsi, c’est la volonté de l’agent qui fait le choix, et pas l’extérieur. Ce-pendant, lorsque la volonté fait le choix de poursuivre l’une ou l’autre des alternatives, elle est seule déterminante, elle est seule cause de son acte de choix, devenant source ou origine ultime de son action23. D’aucuns soutiennent que notre liberté d’action, en ce sens, ne peut exister dans un monde purement déterministe. Ils proposent alors des théories « incompatibilistes », dont on connaît trois types principaux :

– Les théories non-causales, qui stipulent que toute action libre ne résulte ni d’une cause extérieure quelconque, ni d’une structure causale interne. Ces théories très restrictives se heurtent d’emblée à deux problèmes fondamentaux : nous ne sommes pas isolés dans le monde, et prendre une décision morale ou exercer une action physique, tout acte ou choix exercé par une volonté libre au sens de l’acausalité n’est pas sans retentir sur les autres volontés. Celles-ci se voient alors contraintes, voire contrôlées, et perdent une partie de leur propre liberté de décision et d’action. La seconde objection concerne les actes intentionnels. Nous n’agissons pas (toujours...) sans raison ; il se peut que nos actions aient un but. Les actes intentionnels exercés librement sont alors au moins gouvernés par la cause finale, telle que définie par Aristote. On ne peut donc pas prétendre à une volonté totalement libre et acausale.

– Les théories des événements causaux, qui semblent concilier la notion de libre-arbitre avec celle du déterminisme : sur une base d’événements déterministes est superposée la notion de liberté d’action, c’est-à-dire que la volonté se réserve le choix d’exercer ou non cette action, par ailleurs déterminée. Il existe donc une possibilité que l’action ne soit pas exercée, ou qu’une action différente soit exercée à sa place. Cette grande ouverture laisse toutefois béante la notion de déterminisme, et une objection commune à ces théories est que l’indétermination qu’elles engendrent les rend non seulement superflues, mais également destructives. Superflues car elles ne semblent rien apporter de nouveau ou d’essentiel à une description déterministe ; destructive car elles diminuent le contrôle exercé par l’agent (qui prend la décision ou exerce l’action).

– Les théories des agents causaux, qui stipulent quant à elles que toute « décision libre » (ou tout événement interne à une telle décision) doit être causée par un agent, l’agent étant défini comme une « substance persistante », qui ne peut pas, elle-même, être un effet. Les causes d’un tel agent ne sont donc pas déterminées a priori. Dans cette définition, l’agent est, au sens littéral, à l’origine de ses décisions. Ce point de vue est difficilement défendable, dans la mesure où la définition de l’agent est peu intelligible. De plus, elle implique encore une fois — à l’instar de l’intelligence suprême de Laplace, de la causa sui cartésienne ou des particules quantique sui generis — une entité supérieure, existant et agissant en dehors des lois du monde auquel elle appartient24...

Dans toutes ces descriptions, la notion centrale de liberté fait écho avec celle de responsabilité individuelle. En effet, si tous nos actes sont déterminés par des causes antérieures indépendantes de notre volonté, nous n’avons pas besoin de répondre de nos actions devant une quelconque entité. Mais Ilya Prigogine donne un message de responsabilisation :

23. Dans Incompatibilist (nondeterministic) theories of free will, Stanford Encyclopedia of Philosophy, 2008. 24. On retrouve dans ces conceptions le même mouvement que celui qui anime la philosophie morale de Kant qui tente, en rétablissant sa liberté, de placer l’homme en une position particulière, constituant une remarquable exception. Une part de lui existe indépendamment des lois qui régissent tout l’Univers : sa liberté.

Figure

Figure 1.1 – Ernest Rutherford (à gauche) et Hans Geiger devant l’instrument ayant servi à compter les particules α.
Figure 2.2 – Applications de premier retour d’une dynamique stochastique (a) décrite par x n+1 = aξ n +bξ n−1 (1 − ξ n ) et déterministe (b) décrite par x n+1 = µx n (1 − x n ) où µ = 3, 62
Figure 2.3 – Représentation de l’attracteur chaotique solution du système de Rössler (2.13), pour les paramètres (a, b, c) = (0, 398, 2, 4).
Figure 2.5 – Plongement différentiel induit par deux variables différentes du système de Rössler.
+7

Références

Documents relatifs

l’intermittence de la conduction : pour un champ élec- trique donne E, certains canaux de conduction sont.. toujours ouverts, certains toujours fermes et les

De même, l’analyse de données supplétives [5] peut seulement être utilisée pour révéler un processus non-linéaire sous-jacent à la dynamique ; mais dans la mesure où elle

This table representation simplifies the task into a table-filling problem, and makes the task flexible enough to incorporate several en- hancements that have not been addressed in

Le comportement de la poutre étant linéaire, on propose alors d’utiliser une méthode de sous-structuration dynamique de type Craig-Bampton qui dit que le champ de dé-

[r]

The current study compared patients on HHD with CHD patients matched for gender, time and age at onset of dialysis as well as for primary renal disease, with a follow-up over 20

Les recherches que nous avons menées au cours de cette thèse permettent de développer la modélisation mathématique et la résolution d’un problème de commande optimale d’un