• Aucun résultat trouvé

Sommaire

3.1 D’un perpétuel problème à un perpétuel conflit . . . . 38

3.1.1 Problèmes inhérents aux substances et symboles . . . . 38 3.1.2 Dualité et évolution des sciences . . . . 40

3.2 Théories à base de processus . . . . 41

3.2.1 Émergence et auto-organisation . . . . 41 3.2.2 Normativité . . . . 41 3.2.3 Continuité et relativité . . . . 43 3.2.4 Relation aux systèmes dynamiques . . . . 44

Introduction

Avant de rentrer davantage dans les détails, il semble primordial d’insister sur le cadre très large dans lequel s’insère cette thèse. Si les sections suivantes traitent de processus, d’interactions et de dynamique, celle-ci s’attache à synthétiser les oppositions fondamentales qui existent entre substances et processus. Il ne s’agit pas ici d’un souci de modélisation ou de simplicité, mais d’une réelle question de fond qui peut entraver la compréhension de la thèse. Le piège revient régulièrement et demeure très tentant, notre vie quotidienne étant faite d’objets discrets, de catégories et d’actions/lieux différenciés. S’attacher à un arbre comme entité isolée peut néan-moins nous cacher la forêt, en masquant tout l’écosystème qui régit sa croissance et apporte les nutriments nécessaires à son existence. L’arbre est somme toute partiellement définit par son environnement et les relations qu’il y entretient.

L’approche adoptée ici est naturaliste. Le terme est à prendre ici dans son acception philo-sophique originale, c’est-à-dire un monisme excluant le surnaturel et le non causal. En pratique et moins formellement, c’est une plongée infinie pour tenter d’expliquer tous les phénomènes. Un tel travail n’est certainement jamais achevé, s’accomplit au cours de milliers d’années de recherche scientifique, mais ne doit jamais être limité par des barrières culturelles ou sociales. Cette plongée est bidirectionnelle, autant vers l’infiniment grand que l’infiniment petit, aussi bien temporelle que spatiale ; elle pousse à aller toujours plus loin, fractionner les atomes en nucléons, décomposer les baryons en quarks, étudier la nucléosynthèse suivant le Big-Bang. Plus généralement, elle conduit à l’étude de phénomènes qui échappent à notre perception directe, et

surtout rejette les a priori ou évidences qui retiennent l’investigation et nous facilitent pourtant tellement la vie quelques fois. Cette approche est similaire à la volonté initiale de la majorité des philosophies, tel l’exprime Maurice Merleau-Ponty : "La difficulté n’était pas seulement de détruire le préjugé de l’extérieur, comme toutes les philosophies invitent le commençant à le faire" [Merleau-Ponty, 1945] p.84.

Les paragraphes ci-dessous tirent quantité d’exemples de la physique, car non seulement c’est un des domaines les plus cités quand il s’agit de dynamique et de substance, mais aussi parce qu’il illustre parfaitement et visuellement la plupart des problèmes abordés. C’est aussi un domaine qui a connu maintes tensions et oppositions au cours de l’histoire des sciences et sur lequel on dispose d’une trace assez précise des courants de pensée remontant à l’Antiquité.

3.1 D’un perpétuel problème à un perpétuel conflit

3.1.1 Problèmes inhérents aux substances et symboles

Pour poursuivre la métaphore de l’introduction et développer un exemple précis, l’arbre seulement décrit comme un amas de molécules est défini comme un simple agencement spatial d’éléments plus primitifs. Pour que cet éclatement soit moins violent on pourra le considérer de façon intermédiaire comme la composition organisée de fleurs, de feuilles, de branches, d’un tronc, de racines... Si l’on remonte à l’époque des Grecs et des théories d’Empédocle, la matière devait être formée de quatre éléments primitifs : l’eau, l’air, la terre et le feu. L’arbre sortant du sol et poussant au soleil devait comporter de la terre et du feu. Lors d’un incendie, le feu était libéré et les cendres correspondaient à la terre résiduelle. Malgré des efforts intelligents pour expliquer quantité de phénomènes physiques, tel que la flottaison du bois sur l’eau ou bien la combustion en termes de proportions et de propriétés des éléments constitutifs, des incohérences apparaissaient vite vu la faible liberté offerte par une base réduite à quatre éléments [Bickhard, 2003].

Par la suite, la matière fut décomposée en atomes, grains indivisibles, pour là aussi autoriser la stabilité et conservation à travers le temps de propriétés. Ce fut initialement une simple in-tuition défendue par des philosophes grecs tels que Leucippe, Démocrite ou Epicure, mais dont l’apparente réalité s’est confirmée au fil des siècles. Néanmoins en 1897, un physicien anglais du nom de Thomson découvre l’électron et décompose pour la première fois l’atome en éléments fondamentaux plus petits. L’atome n’était donc plus indivisible comme le laisse supposer sa définition et étymologie. Cette course à l’infiniment petit se poursuit jusqu’à maintenant, par exemple lors de l’introduction des fermions. Dans tous les cas, il reste nécessaire d’inclure des forces d’interaction pour que ces atomes fassent quelque chose. Ainsi la gravitation ou l’électro-magnétisme sont désormais expliqués dans le modèle dit standard de la théorie quantique des champs par la présence de particules de champ, communément appelées bosons. Certaines de ces particules sont d’ailleurs surnommées médiateurs à cause de leur rôle relationnel extrêmement bref. Il subsiste de nombreux problèmes et quantité de paramètres, et les modèles théoriques continueront de se développer17.

Le point essentiel de ce paragraphe est qu’à aucun moment les substances primitives n’ex-pliquent fondamentalement un quelconque phénomène ou ne permettent l’apparition de

nou-17. D’autres théories telles la théorie des cordes tentent en contrepartie d’introduire les notions d’interaction et d’espace aux niveaux les plus profonds, évitant ainsi le paradoxe de l’apparition de notions spatiales dans un monde ponctuel [Greene, 2000]

veauté. Les propriétés de la matière dérivent de celles de ses composantes. Même lorsqu’il s’agit de relations spatiales, celles-ci restent à expliquer en termes de propriétés ou d’éléments parti-culiers spécifiquement créés pour jouer ce rôle de liant : les gravitons pour l’attraction gravita-tionnelle ou bien les photons pour les forces électromagnétiques. Les problèmes inhérents aux intuitions grecques restent entiers, même si les modèles discrets actuels modélisent l’essentiel des phénomènes physiques, rien n’a réellement changé sur le fond si on reste avec un modèle strict de substances.

Ces barrières théoriques peuvent se généraliser à toute description fondée sur une liste de propriétés. En effet, il faut toujours un homoncule pour interpréter le système et faire agir les élé-ments entre eux. Les substances sont par définition inertes sans les forces qui les unissent, qu’elles soient physiques ou issues de l’esprit d’un concepteur humain ou même divin. Les interactions dans le système peuvent bien sûr être décrites : si c’est dynamiquement et que l’importance des processus devient première, les substances deviennent marginales et somme toute inutiles. Si à l’inverse on les décrit avec de nouveaux atomes constitutifs, le problème est juste repoussé à un niveau d’organisation inférieur. L’histoire des sciences montre aussi qu’une phase de découverte massive de nouveaux éléments constitutifs (tels les atomes de la table périodique de Mendeleiev) est souvent suivie d’une réduction de la diversité par des propriétés plus fondamentales (couches électroniques et phénomènes d’interférence entre électrons).

...

quark proton

matière visible molécule atome noyau

Figure 3.1 – Décomposition de la matière, faite de molécules composées d’atomes. Chaque atome comporte des électrons et un noyau, lui même composé de protons et de neutrons. A son tour, le proton peut être découpé en up et down quarks. Présentée de manière synthétique, cette descente vers l’infiniment petit semble interminable...

De plus, la liste de traits à produire pour un objet donné doit être exhaustive, provenant directement d’une combinaison des traits de ses constituants. Hélas, les propriétés à prendre en compte dépendent du contexte dans lequel cet objet doit évoluer. Ce qui suppose qu’aucune réelle nouveauté ne peut être rencontrée, sans quoi la situation ne pourrait être exprimée dans le lexique limité des propriétés existantes. Pour donner un aperçu de cette irréductibilité hors de la physique, voici une citation du biologiste chilien Humberto Maturana, reprise d’un article de John Stewart [Stewart, 2005] :

"Je pouvais énumérer des traits des systèmes vivants, tels que la reproduction, l’héré-dité, l’irritabilité, la croissance, et ainsi de suite ; mais jusqu’où devait-on continuer la liste ? Comment pourrait-on savoir si elle était complète ? Afin de savoir quand la liste serait complète il me fallait savoir ce qu’était un organisme vivant, ce qui me ramenait à la même question qui avait motivé l’élaboration de la liste. Je pourrais parler de l’adaptation et de l’évolution, du développement et de la différenciation, et montrer comment tous ces phénomènes étaient interconnectés par le phénomène de la sélection naturelle ; mais la question "Quel est le trait invariant des systèmes

vivants autour duquel la sélection naturelle opère ?" restait sans réponse. Chacune de ces tentatives me ramenait au point de départ".

De même dans le champ d’application du traitement automatique du langage naturel, les syntaxes avec structures de traits et unification, dans le cas d’une grammaire lexicale fonction-nelle par exemple, ne permettent pas de produire de nouvelles briques de base sans l’intervention d’un expert qui modifie la grammaire. Plus généralement et pour aborder un autre obstacle à l’apprentissage et à l’émergence, un symbole n’a aucune signification sans un interprète (le terme utilisé dans la littérature est homoncule). Les symboles ne se combinent à partir de règles for-melles (telle que l’unification) qu’en fonction de leur forme/structure arbitraire. Leur articulation est donc syntaxique et non sémantique. Le gouffre entre les notions de représentant et représenté illustre bien le problème, et dans un tel cadre symboliste, il est difficile d’échapper au "Symbol grounding problem" comme formulé par Stevan Harnad en 1990 [Harnad, 1990]. L’argument est quasiment le même que celui que proposait Searle quelques années plus tôt avec l’expérience de pensée de la chambre chinoise [Searle, 1980].

3.1.2 Dualité et évolution des sciences

Pour illustrer davantage les évolutions qu’ont connues nombre de sciences en termes de sub-stances et processus, ces paragraphes présentent quelques unes des tensions, parfois millénaires, qui ont vu le jour en physique. Leurs équivalents en philosophie, dont la dualité du corps et de l’esprit, de la matière et de l’ether, de même qu’en psychologie ou biologie ne sont pas repris ici car déjà vaguement abordées dans le premier chapitre.

Trop d’incohérences lors de la fusion de deux systèmes scientifiques ont souvent amené une hypothèse de dualité. Dans cette optique, les systèmes sont supposés de nature fondamentale-ment différente, il n’y a donc pas de lien possible entre eux et la recherche de toute explication quand aux origines d’une telle distinction devient inutile, sauf en invoquant une génération spontanée ou une différenciation immédiate. Des exemples de dualité parsèment l’histoire de la physique, mais les plus connues restent la dualité entre les natures ondulatoire et corpusculaire de la lumière, et celle entre la matière et l’énergie.

Nous avons déjà eu un premier aperçu des substances invoquées du temps de la Grèce an-cienne. Le feu était au départ considéré comme un élément fondamental de la matière, et cette croyance/théorie était encore reconnue par les alchimistes et chimistes jusqu’au XVIIèmesiècle18. A cette époque, Johann Joachim Becher introduisit 2 formes additionnelles de Terre en rempla-cement de l’air et du feu. L’une des deux, la terra pinguis, plus tard nommée phlogiston, devait expliquer les propriétés des matériaux inflammables. Plus tard, Antoine Laurent Lavoisier dé-veloppa la théorie du calorique, substance sensée expliquer la chaleur. Le feu comme substance disparu alors mais le problème fut transféré à la chaleur jusqu’à ce que les travaux cumulés du comte de Rumford [Thomson, 1798], de James Prescott Joule et de Rudolf Clausius permirent d’intégrer la chaleur comme simple énergie cinétique des molécules dans la thermodynamique moderne. La substance initiale fut donc progressivement expliquée en termes d’énergie et d’in-teractions entre d’autres éléments constitutifs de la matière.

Les lois de la physique liant la matière et l’énergie ont plus généralement été étendues et uni-fiées. Pour Aristote, le comportement des objets dépend du contexte, plaçant ainsi une barrière

18. Les deux "domaines" étaient relativement confondus jusqu’à la publication de "The Sceptical Chymist or Chymico-Physical Doubts & Paradoxes" par Robert Boyle en 1661

entre des lieux proches, alors que la loi universelle de la gravitation d’Isaac Newton s’applique partout. Là où la relativité restreinte impose une invariance des lois relativement à la vitesse, la relativité générale introduit une invariance selon l’accélération. Encore aujourd’hui, de nombreux chercheurs tentent de dissoudre l’incompatibilité des lois quantiques avec la relativité générale. De tout temps, l’introduction d’une substance ou d’une valeur absolue ne résultant pas d’inter-actions a tôt ou tard conduit à un conflit et une réfutation. Bien qu’elles restent pratiques et nécessaires pour modéliser les phénomènes à une échelle donnée, les substances ne doivent jamais être conçues comme une réduction définitive. Le modèle de Bohr permet ainsi d’expliquer bien des phénomènes, mais la petite boule en rotation autour du noyau est très éloignée de l’onde électronique introduite par Shrödinger ou des modèles quantiques probabilistes actuels.

3.2 Théories à base de processus

Une substance pouvant être modélisée par un processus en équilibre, on n’a rien à perdre à basculer vers une théorie à base de processus. Si ce n’est pour avoir la joie de changer de paradigme, voyons ce que l’on a néanmoins à y gagner.

3.2.1 Émergence et auto-organisation

Contrairement à des atomes statiques, des processus peuvent s’influencer mutuellement et en être profondément modifiés. Quoique la nature de leurs interactions puisse être simple, le phénomène résultant de leur couplage peut être stable et novateur, on parle alors d’émergence. On parle d’auto-organisation si les processus entretiennent alors des relations structurées. Il n’est jamais besoin ni possible de connaître les propriétés émergentes au niveau des processus composants, car ceux-ci ne peuvent qu’interagir localement et n’ont pas la vue globale sur le système que peut avoir un observateur au niveau émergent.

Dans ce cadre, Christiaan Huygens étudia le couplage de 2 pendules apparemment indé-pendants après avoir observé la synchronisation d’horloges suspendues à un même mur en 1665 [Bennett et al., 2001]. Alors qu’un simple choc est transmis par le mur lorsqu’un pendule atteint une position extrême, celui-ci suffit à quasi-irrémédiablement conduire à la synchronisation des horloges. Celle-ci peut se faire en phase ou en antiphase (par une évolution similaire à celle décrite dans la section systèmes dynamiques du chapitre sur les théories), mais les deux horloges adoptent de plus la fréquence moyenne de leurs fréquences propres (si elles ne sont pas trop différentes). De telles propriétés émergent du couplage et ne sont en aucun cas inscrites dans la mécanique de l’un ou de l’autre, ni dans les lois de propagation d’une onde dans un solide. Davantage de détails sur le couplage d’oscillateurs sont fournis dans l’annexe dédiée nommée

Oscillateurs couplés et synchronisation.

3.2.2 Normativité

La normativité, c’est-à-dire dans le cas qui nous intéresse la capacité du système à détecter ses propres erreurs, ne découle pas directement d’une métaphysique de processus. Néanmoins si on ajoute aux processus temporels la notion d’anticipation, ceux-ci peuvent facilement acquérir cette propriété intéressante. En effet si un individu a la capacité d’interagir avec son environnement en y effectuant des actions et en en prédisant les conséquences, trois situations extrêmes peuvent se produire :

choc

angle limite

(a) (b)

Figure 3.2 – Les deux oscillateurs représentés (ici des pendules d’horloge) sont couplés par les chocs transmis via le mur qui les supporte. Au départ asynchrones (a), les deux pendules finissent en phase (b) ou antiphase (non représenté). Les deux pendules ont ici les mêmes dimensions et donc la même période propre, mais le même phénomène se produit si les pendules ont une longueur légèrement différente.

– Si les actions sont effectuées et que l’anticipation est satisfaite, le comportement de l’agent était adapté à l’environnement et sa connaissance19 est vérifiée.

– Si les actions sont effectuées mais que l’anticipation est contrariée, c’est qu’un élément quelconque participant dans la dynamique n’était pas adapté. L’infirmation ne permet pas de savoir lequel, mais la connaissance s’est avérée incorrecte et doit être révisée. – Enfin si le contexte ou la dynamique interne de l’agent font que les actions ne peuvent

pas être effectuées, quelle que soit la situation résultante, l’anticipation ne pourra pas être considérée comme vérifiée, mais ne remettra pas en question la connaissance de l’individu. Une supervision ou un observateur humain ne sont donc pas nécessaires pour fournir les clés du problème ou interpréter les résultats, les interactions permettent un contact épistémique direct avec la situation. La validation des connaissances de l’agent par interactions avec l’environ-nement évitent ainsi le dramatique mais néanmoins classique "frame problem" [McCarthy and Hayes, 1969]. En effet, l’environnement (la "frame") n’est pas supposé immuable et indépendant mais dynamique et couplé à la dynamique de l’agent.

Pour fournir une analogie dans des domaines opposés, le code d’un programme informa-tique ne fait rien en soi. Malgré toute l’intelligence requise pour produire la série de caractères qui le composent, seul le flot d’instructions exécuté par l’ordinateur effectue quelque chose au sein d’un processus interactif. De façon extrême, lorsqu’une interface homme-machine est lan-cée, l’adaptation du programme dépend de la présence d’êtres humains, que le programme soit bogué ou non. Seule l’exécution ou l’interprétation permettent donc le contact avec l’environne-ment. Alors qu’on pourrait l’imaginer aux antipodes d’un code informatique, le code génétique repose lui aussi sur une interprétation. Sans la présence d’ARN pour la transcrire en protéines actives dans le milieu interne de l’individu, l’ADN n’est qu’une chaîne passive de molécules, aussi passionnante qu’une ligne de code gravée dans la pierre.

19. Étant donné que l’agent construit ses prédictions et comportements par interactions avec son environnement et sans formalisation aucune, on devrait plutôt parler de croyance.

?

(a) (b) (c)

Figure 3.3 – Ce schéma illustre la normativité des interactions par un comportement de pré-hension. Si la main est initialement ouverte (a) et l’objet présent, on atteint tôt ou tard la situation (b) et l’anticipation du contact et de la résistance de l’objet est vérifiée. Si la main était initialement vide (a), l’objet ne sera pas rencontré (malgré une possible illusion visuelle de l’objet) (c) : l’interaction était erronée. Enfin si la main était déjà totalement fermée (c), la serrer davantage pour attraper un objet est tout simplement inadapté.

3.2.3 Continuité et relativité

Comme l’indiquait déjà les réflexions de Hume dans sa théorie des agrégats20, il semble im-possible de produire du continu à partir du discret. En effet, si la construction mathématique de R (ensemble des réels) se fait à partir de N (ensemble des entiers naturels), c’est que ce dernier porte déjà en lui la notion d’infinité (par sa propre construction et son cardinal ℵ0). En revanche, pour un substrat physique constitué d’un nombre fini de particules élémentaires, le nombre de combinaisons et donc de représentations possibles avec une complexité maximale donnée est donc limité. A l’inverse, le discret peut être facilement approximé par le continu (figure3.4).

Impulsion unité