• Aucun résultat trouvé

La simulation conçue comme computation spatialisée : répliquer pour calculer

jeu des forces moléculaires n’impose pas seulement l’établissement d’un réseau cellulaire de forme précise, mais il

CHAPITRE 9 La simulation conçue comme computation spatialisée : répliquer pour calculer

Du point de vue de la représentation formalisée de la morphogenèse, il en est tout autrement du travail du mathématicien Stanislaw Ulam (1909-1984). Ayant été un des premiers, avec von Neumann (1903-1957), à se servir du calculateur numérique ENIAC, et cela au départ dans une problématique de calcul numérique en physique nucléaire, Ulam a été celui qui a véritablement infléchi l’usage de l’ordinateur, d’abord du calcul vers la simulation numérique, avec la méthode de Monte-Carlo, puis de la simulation numérique vers la simulation concrètement représentative et spatialisée. En ce sens, il a été le premier à vouloir que l’ordinateur ne rende pas seulement possible la réplication du réel par simulation du hasard, mais qu’il rende aussi et surtout possible la réplication des phénomènes dans leur spatialité, dans leur hétérogénéité spatiale à première vue irréductible aux équations analytiques.

C’est en quoi on peut dire qu’il est également à l’origine des « automates cellulaires ». La genèse de cette technique de formalisation et de simulation sur ordinateur a déjà été racontée par ailleurs, mais soit dans une perspective d’une histoire de la « physique du calcul »1, soit essentiellement pour elle-même et dans une perspective de réflexion d’épistémologie générale sur la théorie que cette notion appelle2, ou sur la formalisation nouvelle et transdisciplinaire qu’elle suggère3. La fonction que cette formalisation a pu avoir dans la représentation par ordinateur de la morphogenèse biologique et de sa mise en place spatiale n’a donc été qu’incidemment étudiée. Or, c’est elle sur laquelle nous souhaitons revenir ici, fidèle à notre but de comprendre le rôle à la fois technique et conceptuel qu’a pu jouer l’émergence du calculateur numérique dans l’évolution de cette modélisation. Nous allons donc rappeler brièvement ce qui a amené von Neumann à la problématique des automates formels afin de saisir très précisément ce qui a ensuite incité Ulam à imaginer une spatialisation concrète du réseau d’automates. Car, comme nous le verrons, c’est bien un glissement progressif dans la représentation et dans l’interprétation de ce réseau d’automates qui a finalement mené Ulam à une analogie avec la morphogenèse biologique, mais non point une analogie immédiatement comprise comme telle et dès le début. Notre question sera donc ici la suivante : comment en est-on passé d’un problème de logique à un problème matérialisable et représentable spatialement, c’est-à-dire faisant directement représentation pour une situation biologique et non plus seulement logique ? Autrement dit, qu’est-ce qui a conduit à concrétiser et à spatialiser les représentations logiques et permis ainsi en retour une certaine logicisation des formes biologiques en même temps que leur représentation sur ordinateur ?

Les automates auto-reproducteurs et la première simulation numérique sur l’ENIAC

Rappelons tout d’abord brièvement qu’à la fin des années 1940, John von Neumann et Stanislaw Ulam avaient travaillé ensemble sur la première simulation numérique par ordinateur de la fission et de la diffusion des neutrons intervenant dans la bombe H4. C’est dans ce contexte qu’un peu avant, en 1945-1946, von Neumann, avait également été à l’origine de la structure des

1 Voir [Ramunni, G., 1989] et [Chazal, G., 1996]. 2

Voir [Mosconi, J., 1989], [Heudin, J.-C., 1994], [Goujon, P., 1994a] et [Goujon, P., 1994b].

3

Voir [Fatès, N., 2001] et [Wolfram, S., 2002].

ordinateurs modernes qui, en substance, permettait une programmation plus souple. À partir de 1946, Ulam et von Neumann furent parmi les premiers à utiliser l’ENIAC qui venait d’être transféré à Los Alamos. Ulam, inspiré d’un côté par les récents théorèmes mathématiques sur l’ergodisme de von Neumann et Birkhoff, de l’autre par sa fréquentation du jeu de solitaire, de laquelle il avait tiré l’idée que pour estimer des probabilités de tirage de carte, il valait mieux parfois multiplier les parties et en tirer des estimations empiriques plutôt que de se livrer à des calculs mathématiques1, mit au point en 1947 ce que Nicholas Metropolis appellera, en 1949, la méthode de « Monte Carlo »2. Quant à l’expression d’« automate cellulaire » proprement dite, elle est pour la première fois proposée beaucoup plus tard, en 1966, par un mathématicien et ancien élève de von Neumann, Arthur W. Burks3. Il entendra ainsi rassembler sous un vocable unique un ensemble de travaux qui ont cependant connu divers avatars et dont voici les jalons qui nous intéressent plus directement.

Dans les années 1948-1949, von Neumann travaille en effet à un projet qui lui est cher : sa « théorie des automates reproducteurs ». À partir de 1943, von Neumann a gravité dans les milieux de ce qui devait devenir la Teleological Society où il côtoie Aiken, Wiener, Goldstine mais aussi McCullochs et Pitts. Ces derniers sont les inventeurs du premier réseau de neurones formels et logiques. Leur article a été publié, on s’en souvient, par Rashevsky lui-même, en 1943. Walter Pitts était un jeune mathématicien brillant et un ancien élève de Rashevsky4. Selon les propos de Goldstine, le but de ces rencontres était de discuter de « l’ingénierie de la communication, des calculateurs, des systèmes de commande, des séries temporelles et de ce qui concerne la communication et la commande dans le système nerveux »5.

C’est donc dans ce contexte que von Neumann projette l’idée de concevoir une machine qui sache se répliquer identiquement mais, selon le paradigme de la « communication », plus précisément de la « communication » de signaux6, tel qu’il prédomine dans cette vision de la cybernétique naissante. Comme nous le verrons, et il est important de le signaler à la différence de ce qu’affirment certains récits historiques, von Neumann ne se pose donc pas encore à ce moment-là une question de morphologie ni a fortiori de morphogenèse. Il se sent davantage porté

1 Pour le récit personnel de cette origine de la méthode de Monte-Carlo, voir [Ulam, S., 1976, 1991], pp. 196-201. 2

Dans ses mémoires, Ulam semble s’attribuer toutefois la paternité de ce nom. Voir [Ulam, S., 1976, 1991], p. 199.

3

Dans ses Essays on Cellular Automata. C’est également lui qui publiera de façon posthume le travail de son maître :

Theory of Self-Reproducing Automata, by John von Neumann, ed. by A. W. Burks, Urbana, University of Illinois Press,

1966.

4 Voir [Dupuy, J.-P., 1994, 1999], p. 51. Il est étonnant mais sans doute significatif que l’article de McCulloch et Pitts ne

fasse aucune référence aux travaux que Rashevsky avait lui-même menés dans les années 1930 sur l’application de sa théorie de l’excitation et de l’inhibition des nerfs (nommée théorie des « deux facteurs ») à une structure nerveuse en

réseau (simplifiée et hypothétique). Voir, sur ce point, [Rashevsky, N., 1960b], p. 144 et [Rosen, R., 2000], pp. 58, 120-

121, 133 et 285. Rashevsky avait été jusqu’à montrer qu’une telle structure nerveuse en réseau pouvait manifester des signes de discrimination, de mémoire et d’apprentissage. Mais il n’a pas poursuivi ce travail car l’approche analytique qui était alors la sienne se trouva très vite en butte à de permanentes non-linéarités. Selon Rashevsky lui-même, comme selon un de ses autres élèves, Robert Rosen, ce serait ces travaux qui auraient été de véritables précurseurs pour McCulloch et Pitts. Ces derniers se seraient contentés, dix ans plus tard, de représenter le réseau de neurones formels, que Rashevsky avait d’abord conçu sous une forme analytique, sous une forme booléenne grâce à laquelle on peut appliquer la logique propositionnelle calculable de Whitehead, Russell et Carnap, et qu’affectionnait particulièrement McCulloch. Rosen résume cette évolution en disant qu’ils sont simplement passés de l’analyse à l’algèbre. Voir [Rashevsky, N., 1960b], p. 144 et [Rosen, R., 2000], p. 121. Ce jugement sévère, vraisemblablement partial, s’il vaut sans doute pour Pitts qui ne pouvait pas ignorer les travaux de son maître, est peut-être plus discutable pour McCulloch qui, selon Pierre Lévy, dès 1923 et de son côté, « avait imaginé une équivalence entre le calcul des propositions des

Principia Mathematica et les règles régissant l’excitation et l’inhibition des neurones dans le réseau nerveux », (in Cahiers du CREA, n°7, p. 204, cité par [Pélissier, A. et Tête, A., 1995], p. 85).

5 [Ramunni, G., 1989], p. 72. 6

L’historien des sciences Philippe Goujon insiste sur l’importance de ce passage, antérieur historiquement, du « sens » au « signal » en physiologie théorique des phénomènes régulés, spécifiquement chez Sechenov puis chez Pavlov. Voir [Goujon, P., 1994a], p. 67. Selon Goujon, ce glissement a préparé l’approche de la première cybernétique.

à réfléchir sur un problème biologique d’apparence nettement plus logique que morphologique. C’est le problème de la reproduction des êtres vivants. Or, il se le pose en des termes informationnels et communicationnels, c’est-à-dire selon des formalismes qui réfèrent traditionnellement à une approche fonctionnelle et non structurelle du substrat biologique1. En outre, l’intérêt de von Neumann pour le vivant a souvent été souligné sans que l’on insiste non plus sur la parenté entre ce problème de la métaphore logique d’une fonction biologique (et non d’une structure morphologique) et une solution mathématique assez technique qu’Ulam et lui aperçoivent à la même époque pour la résolution des équations aux dérivés partielles par la méthode de Monte-Carlo. Or, sans cette parenté formelle, et avec ce seul intérêt pour la fonction biologique de reproduction, il est vraisemblable que von Neumann ne se serait pas tant investi dans une enquête sur l’automate auto-reproducteur. Et il est probable qu’Ulam n’aurait pas été tenté de lui en suggérer par la suite une représentation spatialisée. Il nous faut donc éclairer ce point. Car il apparaît de plus en plus que von Neumann ne s’est pas penché sur les réseaux d’automates uniquement pour tâcher de concevoir une machine auto-reproductrice ou bien un cerveau artificiel (en sa structure logique) mais aussi pour figurer une formalisation nouvelle ouvrant à une technique de calcul susceptible de résoudre des problèmes de calculabilité pratique pour des formules intervenant en hydrodynamique, turbulences et diffusion-multiplication, c’est-à-dire, comme il le dit lui-même d’ailleurs, avant tout pour des problèmes de « physique mathématique »2. Comprendre cela, c’est mieux éclairer les apports respectifs de von Neumann et Ulam dans l’histoire des simulations de la morphogenèse par ordinateur et c’est percevoir plus précisément le lieu et le moment où la physique et ses formalisations nouvelles font une place inédite au substrat biologique et à sa morphologie, et non pas simplement à la structure formelle ou informationnelle du cerveau ou des agrégats de cellules.

Il n’est pas possible d’exposer ici, dans le détail, la théorie générale des automates que préconisait von Neumann3. Mais rappelons quand même le contexte de naissance de cette notion. Il nous faut pour cela préciser d’abord le sens que Turing donne, le premier, à la notion d’« automate de calcul » ou « machine automatique », dans son fameux article de 19364. La notion d’automate cellulaire s’en inspirera. Un automate de calcul est un objet conceptuel simple, une « boîte noire » qui possède un nombre fini d’états possibles5. Le fonctionnement de l’automate consiste à décrire comment on le fait changer d’état. Turing montre que n’importe quel calcul arithmétique peut être ainsi réalisé selon cette méthode. Il ouvre en conséquence la voie à la modélisation reproductrice de règles.

Modéliser n’est plus abstraire des lois mais reproduire des règles

En 1948, en effet, von Neumann montre que, conformément à ses attentes, à partir d’un certain degré de complexité, le calcul numérique, faisant intervenir des valeurs discontinues, approchées et traitées par l’arithmétique, est plus précis que le calcul analogique, c’est-à-dire que

1

Voir les termes employés page 63 de [Neumann (von), J., 1948, 1951, 1996]. Il y est question de « connexion », de « boîtes noires » et de « réponses à des stimuli ». L’analogie du circuit électronique est bien évidemment patente et prime donc sur l’évocation de la morphologie biologique. Même s’il prétend parfois faire entr’apercevoir une formulation schématique de la « multiplication cellulaire » (ibid., p. 102), le fond biologique de cet article reste donc essentiellement un renvoi permanent à la structure réticulaire et informationnelle du « système nerveux central », ibid., p. 65.

2

[Neumann (von), J., 1948, 1951, 1996], p. 61.

3 Pour une présentation générale, voir [Ramunni, G., 1989], pp. 53-78. 4

[Turing, A. M. et Girard, J.-Y., 1995], pp. 47-103. L’introduction de la « machine automatique » se trouve au début de l’article, §2, ibid., page 52.

le calcul classique avec des grandeurs continues1. Il prolonge alors le résultat de Turing au sujet de la « machine automatique universelle » selon lequel un automate peut fonctionner comme un autre automate dès lors qu’on lui fournit les fonctions adéquates2. En vertu de ce théorème en effet, la nature même d’un automate doit, selon lui, pouvoir être avantageusement « modélisée » par un autre automate. La motivation principale des recherches de von Neumann en 1948 réside bien dans le projet de concevoir des automates producteurs d’eux-mêmes (auto-reproducteurs) et ainsi d’élargir la notion d’automate de calcul.

Mais, ce faisant, von Neumann n’a pas du tout l’intention de développer des mathématiques gratuites, coupées de toute préoccupation concrète. Ce qui l’intéresse aussi, c’est de rendre un automate analogue à la logique qui anime les être vivants avec leur faculté de se reproduire. C’est ce qu’il désigne comme un des « aspects fonctionnels de l’organisation dans la nature »3. Or il montre que les automates formels sont de bons modèles du vivant à la condition qu’ils aient eux-mêmes cette particularité d’être à eux-mêmes leur propre modèle, c’est-à-dire à la condition qu’ils puissent se reproduire. Ces automates portent alors en eux-mêmes leur propre modèle, parce qu’ils contiennent les plans de la production d’un automate qui leur est identique. Ils sont ainsi leur propre modèle, mais en un sens nouveau, au sens d’un modèle de conception, d’un modèle logique de production conçu à l’image d’un plan de machine automatique. Dans ces automates reproducteurs en effet, moyennant certaines précautions qui fait que l’on distingue un mécanisme de contrôle d’un mécanisme de copie d’instructions4, la représentation et la production se confondent. Faire fonctionner un de ces automates, c’est en fabriquer un et fabriquer un de ces automates, c’est en faire fonctionner un.

Or, von Neumann montre qu’à partir d’une certaine complexité numérique (un assez grand nombre d’instructions), la conception de ces objets analogues au vivant est envisageable5. Il veut ainsi rendre manifeste l’analogie entre une machine formelle auto-reproductrice et le vivant. Aussi n’hésite-t-il pas à écrire que, dans le cas particulier où l’on a un automate reproducteur, « [une instruction] a en gros les fonctions d’un gène »6. Il rapproche alors ostensiblement les automates reproducteurs de la fonction essentiellement ambivalente des gènes : construire en instruisant et se reproduire à partir du substrat qu’ils ont instruit. L’ambition de von Neumann est donc bien de mettre en évidence les analogies que l’on peut faire entre les êtres vivants et les machines à calculer numériques. Lorsqu’à la même époque Turing s’intéresse à la mise en forme du vivant en vue de la conception d’un cerveau artificiel et de son incarnation, von Neumann s’intéresse plutôt à l’auto-reproduction comme propriété générique du vivant pour tenter d’affronter l’obstacle de principe que semble opposer à toute tentative de modélisation ce qu’il appelle la « complexité » du vivant. Il définit alors cette « complexité » comme ce qui caractérise un objet dont la plus simple description ne peut être que lui-même7.

Mais, même si l’on accepte une simplification à l’extrême de la représentation du substrat biologique, il demeure dans les propos de von Neumann une ambiguïté qui peut expliquer en

1

[Neumann (von), J., 1948, 1951, 1996], pp. 72-73: « La véritable importance d’une procédure digitale réside donc bien dans sa capacité à réduire le niveau de bruit relatif dû au calcul dans des proportions qui sont complètement inaccessibles dans toute autre procédure (analogique). En outre, il est de plus en plus difficile de réduire le niveau de bruit dans une machine analogique alors que c’est de plus en plus facile pour une machine digitale […] C’est ici, et non dans sa fiabilité absolue mais sans intérêt pratique, que réside l’importance de la procédure digitale ».

2

[Turing, A. M. et Girard, J.-Y., 1995], §§6-7, pp. 66-71.

3 [Neumann (von), J., 1948, 1951, 1996], p. 62. 4

[Neumann (von), J., 1948, 1951, 1996], p. 102. Pour une présentation plus circonstanciée, voir [Emmeche, C., 1994, 1999], pp. 51-57. 5 [Neumann (von), J., 1948, 1951, 1996], p. 102. 6 [Neumann (von), J., 1948, 1951, 1996], p. 102. 7 [Neumann (von), J., 1948, 1951, 1996], p. 94.

partie ce qui a empêché que la biologie ne s’en saisisse immédiatement, mise à part la neurobiologie théorique avec ce qui deviendra le programme de l’intelligence artificielle à partir de 1956 et du colloque de Darmouth. Car, à la fin du texte de 1948, avec la démonstration de la faisabilité de l’auto-reproduction formelle, on ne sait finalement pas si von Neumann aboutit à un modèle très simple de multiplication cellulaire, donc valable au niveau des cellules matérielles d’un organisme vivant, ou à un modèle de fonctionnement du cerveau où la notion de reproduction joue cette fois-ci à un niveau cognitif1. La « neurologie »2 devient en fait incidemment un modèle pour la morphogenèse. Le glissement vers la problématique cognitive du formalisme des automates, censée au départ contribuer à une théorie de la reproduction organique, peut s’expliquer par le fait que von Neumann laisse dans l’ombre une problématique physico-mathématique qui a pourtant été, pour lui comme pour Ulam, décisive. Nous reviendrons sur cette hypothèse en temps utile.

Toujours est-il que c’est une modélisation d’un nouveau genre qui est introduite par ces travaux sur la difficulté de modéliser le vivant. Quand la logique du biologique est un modèle de modélisation, la modélisation formelle peut faire évoluer ses formalismes. La modélisation n’est plus seulement ici le fait d’observer le réel, d’en simplifier l’image puis de le refléter dans le comportement de langages mathématiques pourvus de lois de construction arithmétiques, algébriques ou géométriques et de choisir enfin parmi ces langages celui qui décrit le mieux ce réel. Car ce genre nouveau de modélisation du vivant par des automates reproducteurs annule de fait la distance entre le modélisé et le modélisant. Il n’y a de modélisation que parce que le modélisé est en même temps modélisant. La modélisation n’est plus une abstraction représentative à partir du modélisé puisqu’elle est inséparable de la production de ce modélisé, de sa reproduction, c’est-à-dire du fait qu’il fonctionne et se donne à voir. Modéliser en ce sens signifie produire et reproduire, mais non plus représenter directement de façon abstractive.

Une genèse logique sans morphogenèse chez von Neumann

Pour ce qui est des êtres vivants dont von Neumann essaie d’extraire la fonction logique qu’il juge essentielle, la modélisation devient la capacité de produire des êtres logiques qui interagissent entre eux dans l’autonomie, à la façon d’un être vivant. Modéliser la reproduction dans ce cadre-là, ce n’est donc plus tout à fait abstraire, c’est reproduire la capacité de reproduction. C’est donc parce que l’objet que von Neumann veut modéliser possède une propriété essentielle, étrange et inédite, que la méthode de modélisation mathématique en ressort elle-même transformée. Elle devient une façon de doubler la réalité en en produisant des modèles purement logiques et numériques. La réussite de la modélisation réside alors seulement dans l’identité présumée entre les règles d’interaction interne du système vivant et celles du système logique. La modélisation s’apparente ainsi à la recherche de règles, les règles d’un jeu de production qui soit en même temps un jeu de reproduction. Elle devient une modélisation formelle mais ascendante. Elle est une méthode de formalisation qui part d’éléments aux comportements simples (les règles) et qui se complexifie, étape par étape. À l’issue de ce processus, la complexité atteinte est le plus souvent non représentable de manière analytique et condensée.

Car la difficulté de cette modélisation tient à ce qu’elle n’est plus mathématique et déductive au sens d’une mathématique des structures, comme l’algèbre, mais inductive et logique de par son constructivisme pas à pas. Von Neumann a ainsi conscience que l’on a affaire à des

1

[Neumann (von), J., 1948, 1951, 1996], p. 94.

objets formels mal connus et auxquels manquent encore une véritable théorie générale1 puisque les automates n’ont pas été conçus axiomatiquement à partir de leurs relations (comme dans une