• Aucun résultat trouvé

Introduction à la dynamique des nanotechnologies

B. L’émergence#des#nanoJprophètes#

Soudain, avec « The Beginning », les nanotechnologies prennent une tournure toute matérielle. S’y juxtaposent d’autres prédictions, ultérieures, formulées par l’ingénieur Erik K. Drexler. Celui-ci, dès 1986, se faisait un devoir de prédire l’avenir : « we have to try to

predict and guide development » (Drexler, 1986, p. 40). Il inscrit alors ses prophéties dans la

prolongation du discours de Feynman32, l’enjeu consistant, pour lui, à s’engager dans la voie de ce qu’il appelle la « nanomachinerie », c’est-à-dire la mécanisation des particules. Il oppose cette approche à l’alternative qui consiste à travailler des masses de particules simultanément, selon des processus plus proches de la chimie ou de la biochimie. Pour lui, des machines doivent être rendues capables de fabriquer par elles-mêmes d’autres machines plus petites, et ainsi de suite, jusqu’à atteindre le nanomètre. C’est pour lui l’utopie essentielle des nanotechnologies : décomposer la matière jusqu’à atteindre un degré de contrôle absolu sur l’atome, qui permette de créer, décomposer à nouveau et recomposer à volonté les formes et les objets les plus variés, à partir de l’expression la plus minimaliste possible de la matière : l’atome. Il hérite de Feynman ce but primordial de manœuvrer les objets atome par atome.

32 Une seconde édition de l’ouvrage, actualisée et complétée, a été publiée en 2006, à l’occasion du vingtième

anniversaire de sa parution initiale. Intitulé Engines of Creation 2.0., cette version reprend le discours de Feynman dans son intégralité en guise de prélude. Cette version est disponible gratuitement en ligne, sur www.wowio.com (dernière consultation le 25 octobre 2012).

Drexler déploie une approche des nanotechnologies fortement marquée par une utopie d’ingénierie. Il justifie sa position en distinguant le rôle de la science, qui est d’identifier des lois naturelles qui seraient « aussi solides qu’une pierre tombant sur un orteil ». Ces lois-là, annonce-t-il, sont si fortes qu’aucun acte politique, aucun mouvement social ne pourra les changer ; seules le pourront une falsification ou une révolution paradigmatique. Leur problème est qu’elles ne sont pas possibles à prévoir. C’est une impossibilité logique, proclame Drexler, puisqu’il est impossible de prévoir dès à présent des faits que nous allons seulement apprendre dans le futur (ibid., pp. 44-45). C’est bien la raison pour laquelle il faut distinguer la science de la technologie, car cette dernière, affaire d’ingénieurs, est susceptible de prévision. Et Drexler de déployer le cœur de son utopie révolutionnaire, une révolution des moyens de production par la voie de l’assemblage moléculaire33. En d’autres termes, des programmes informatiques sophistiqués pourront concevoir des systèmes moléculaires capables de fabriquer des compositions dont la forme, à terme, pourrait varier à volonté : « under development will be the greatest production tool in history, a truly general fabrication system able to make anything that can be designed ». Dès lors, isoler des atomes de xénon, comme l’ont fait les chercheurs d’IBM quatre ans après le texte de Drexler, c’est donner un premier signal dans ce sens, celui d’un contrôle — certes encore pataud — de la matière à l’échelle du nanomètre. La prophétie est en marche.

Ces éléments forment le point de départ d’un rapport complexe à la temporalité que n’auront de cesse de nourrir les nanotechnologies. S’y déroule une constante réécriture du passé. Quatorze ans après Engines of Creation, en 2000, les États-Unis initient un grand plan de politique publique, la National Nanotechnology Initiative (NNI), qui systématise à la fois l’appellation « nanotechnologie » et la stratégie qui fera advenir celle-ci. À partir de ce moment-là commence à émerger un récit plus ou moins stabilisé sur les origines des nanotechnologies. Ce récit est fidèle à la chronologie esquissée ci-dessus : la vision de Feynman, le « père fondateur34 » en 1959, la confection du mot « nanotechnologie » par le Professeur Norio Taniguchi en 1974, l’invention du microscope à effet tunnel en 1981, la prophétie de Drexler en 1986, l’image « I.B.M. » de 1990 et, enfin, l’irruption dans l’espace public au tournant du siècle nouveau. Voilà pour la brève histoire que l’on pourrait dire « autorisée » des nanotechnologies, une « histoire héroïque » qui est une ressource importante de légitimation des programmes de politique scientifique mis en œuvre en la matière (Laurent,

33 Drexler invoque notamment le microscope à effet tunnel — qui deviendra l’instrument scientifique « phare »

des nanotechnologies — à l’appui de ses dires. Il cherche à renforcer ses prophéties par une connaissance ferme des avancées techniques et des capacités des instruments de pointe. Voir la note de la p. 14 (Drexler, 1986, p. 245)

34 Cette mythologie, cette narration « héroïque » de l’origine des nanotechnologies, n’a rien de très original —

toute science, toute technologie dispose de son récit préfabriqué, où la part belle est souvent faite aux « pères fondateurs ». En l’espèce, ce terme de « founding father », évoquant Richard Feynman, circule abondamment, et en premier lieu sur les documents de popularisation des nanotechnologies aux USA (voir http://www.nano.gov, dernière consultation le 22 octobre 2012).

pp. 26-28).

Pourtant, Richard Jones, Professeur de physique à l’Université de Sheffield et auteur d’un des ouvrages les plus lus et commentés dans le domaine des nanotechnologies, Soft

Machines (Jones, 2004), déclare lors d’une conférence qui se tient à Avignon, en 2006, non

sans une pointe d’ironie : « Drexler, of course, is the name that can’t be spoken in polite

society ». Rip et Von Amerom (2009), qui rapportent cette anecdote, explicitent le propos :

par société polie ou, mieux, policée, il faut entendre le gotha du nanomonde, un milieu restreint composé de personnes influentes ; celles-là ne sont désormais plus habilitées à se réclamer de Drexler. C’est que Drexler a associé son utopie de l’assemblage moléculaire avec une dystopie : celle de la gelée grise, ou gray goo. Il s’ensuit que, d’après Rip & Von Amerom, le patronyme « Drexler » départage désormais, dans le domaine des nanotechnologies, les « drexleriens » des autres, et que ceux-là sont inexorablement condamnés à la marginalisation. Il se joue là, selon les auteurs, un enjeu de légitimité des nanotechnologies. Si cette causalité instrumentale établit peut-être un peu rapidement un lien de cause à effet concernant cette disqualification, celle-ci ne s’en est pas moins produite.

Le débat sur la gelée grise a été largement étudié et documenté (par ex., Bensaude- Vincent, 2006) ; il convient donc de le résumer brièvement. Dans Engines of Creation, après avoir exploré les vastes potentialités de l’assemblage moléculaire, Drexler évoque toutefois l’hypothèse que cette nanomachinerie puisse également conduire à certains dangers, non souhaitables, ce qu’il appelle des « Engines of destruction ». L’hypothèse centrale qu’il formule alors est celle d’un « problème » gray goo (Drexler, 1986, pp. 170-176). Ce problème prend corps dès lors que l’humanité parvient à fabriquer des assembleurs moléculaires, eux- mêmes capables de produire des nanomachines de façon autonome. Dans une perspective par ailleurs très technico-machiste, Drexler imagine que les organismes les plus forts et les plus destructeurs sont naturellement destinés à supplanter les faibles. Ainsi, de la même façon que des générations de nouvelles « plantes photovoltaïques » pourraient finir par supplanter leurs cousines naturelles et leur vieux procédé de photosynthèse, rendues obsolètes, par la seule force de leur supériorité, ou encore comme ces bactéries « omnivores » qui ne feraient qu’une bouchée des « vraies bactéries », l’assemblage moléculaire aurait la capacité de créer des « replicators », des robots moléculaires capables de s’autoreproduire. Ces replicators pourraient produire « davantage d’eux-mêmes », c’est-à-dire qu’ils pourraient accomplir tout ce dont la vie elle-même est capable, et davantage, grâce à leur supériorité technologique. Se profile alors le spectre de la « gelée grise », c’est-à-dire d’une reproduction sans fin des

replicators, qui finiraient par consommer, dans ce cycle infini de reproductions incontrôlées,

l’ensemble des ressources biosphériques : « they could spread like blowing pollen, replicate

swiftly, and reduce the biosphere to dust in a matter of days » (ibid., p. 172). Ce risque est

celui de « l’écophagie », pour reprendre le nom que lui donne le philosophe Jean-Pierre Dupuy (2004a).

Ce scénario a fait l’objet d’une vive controverse opposant Drexler à Richard Smalley, Prix Nobel de chimie en 1996 (avec Robert F. Curl et Sir Harold W. Kroto) pour avoir découvert les fullerènes, soit des molécules composées entièrement de carbone, et qui prenaient en l’espèce une forme sphérique, évoquant un ballon, d’où leur surnom de « Buckyball ». La controverse a porté sur la possibilité concrète de réalisation du scénario de la gelée grise, que Smalley déniait35. Elle a été résolue en 2003 au profit de ce dernier, et nous n’allons pas nous y attarder davantage (sur l’historique de cette controverse, voir Baum, 2003 ; Rip et von Amerom, 2009). Ce dont témoigne en revanche l’éclatement de cette dispute, c’est que l’histoire linéaire des nanotechnologies va un peu vite en besogne, et qu’au fond, ce domaine d’activité scientifique est traversé par des ruptures et des divisions (Bensaude-Vincent, 2006 ; Shew, 2008). Nous venons d’en voir un premier aperçu : dans la controverse Drexler vs. Smalley se joue un rapport mécaniste aux atomes et aux molécules, plutôt marqué par une forme d’ingénierie du vivant et de la matière, contre un rapport davantage « bio-chimique », au sens où les nanotechnologies seraient plutôt le fruit de processus complexes, d’émulsions, de catalyses, etc. Cette ligne de fracture est clairement visible au travers des images. Ainsi, dans la foulée du succès de Engines of Creation, Drexler a fondé l’institut Foresight, un think tank dédié à la prévision dans le domaine technologique et, plus particulièrement, à la révolution des nanotechnologies36. Or, Drexler et l’institut

Foresight ont développé une imagerie très particulière de ce à quoi correspond, pour eux, le

nanomonde37. En voici un exemple typique :

35 Smalley a invalidé la thèse de la gelée grise sur un plan technique, en mettant en cause la capacité à se

reproduire des hypothétiques nanomachines de Drexler : « Smalley maintained that manipulator fingers on the “hypothetical” self-replicating nanobot would be “too fat” to pick up and place individual atoms with precision and “too sticky” to let them go after having picked them up » (Rip et von Amerom, 2009, p. 139). Il reproche également à Drexler de porter l’emphase sur le potentiel révolutionnaire des nanotechnologies, soulevant des craintes infondées, sans que l’on puisse spécifier lequel de ces deux arguments s’est avéré décisif pour clore la controverse. Sur le rejet de Drexler, voy. également Laurent, 2010, pp. 28-32.

36 http://www.foresight.org/ (dernière consultation le 21 février 2013).

37 Milburn (2008, p. 29) reproduit, dans son ouvrage Nanovision, une photographie prise par Peter Menzel,

représentant le prophète Erik K. Drexler, posant devant l’une de ces structures boursouflées qui représentent des assemblages moléculaires, chefs d’œuvre d’ingénierie qui dirigent et contrôlent avec précision la disposition des atomes dans une structure déterminée.

Figure 4: nanosystème moléculaire, composé d’atomes agencés individuellement

Source : Emblème de la quatrième conférence sur la nanotechnologie moléculaire, organisée par le

Foresight institute du 9 au 11 novembre 1995 à Palo-Alto (lieu du siège social du Foresight Institute).

Cette imagerie tend à représenter les fameux assembleurs moléculaires chers à Drexler, ou du moins à imaginer ce à quoi ils pourraient ressembler. Il existe de nombreuses variantes de ces machines moléculaires, composées de tas d’atomes parfaitement agencés, dont la disposition ne doit rien au hasard ; elle est au contraire toute délibérée et conçue en fonction d’un but particulier, comme la construction de nanomachines répondant à des fonctions bien précises38. Ce type de représentation s’inspire des mécanismes d’engrenage ; on peut d’ailleurs en trouver des versions animées sur internet, qui montrent un principe de transmission mécanique d’une rangée d’atomes à l’autre39. Si de telles inventions graphiques de machines moléculaires, délibérément imaginaires, existent encore aujourd’hui, elles ont cependant cédé le pas sur d’autres canons iconographiques, par exemple des représentations magnifiées de surfaces atomiques40.

On pourrait avancer l’idée que ce type de représentations, très lié aux prédictions de Drexler, a popularisé l’idée d’une dystopie consécutive à l’avènement des nanotechnologies. Ainsi, en 2002, le célèbre auteur de science-fiction Michael Crichton rédige un best-seller,

Prey (traduit par « La proie »), qui contribue largement à populariser le scénario de la gelée

grise. Il imagine le développement d’une nano-robotique qui échappe à ses créateurs et

38 Pour bien d’autres illustrations de décompositions et réagencements atomiques de la matière, voir Deffeyes et

Deffeyes (2008).

39 Voy. par exemple la page y consacrée sur le site de la sart-up Zyvex (« Unlocking the power of

nanotechnology »), disponible sur http://www.zyvex.com/nanotech/visuals.html (dernière consultation le 21 octobre 2012), ou encore le site internet (rubrique « gallery ») de la compagnie Nanorex, http://nanoengineer- 1.com/ (dernière consultation le 21 octobre 2012).

40 L’un des exemples les plus fréquents est l’image fabriquée par Crommie et consorts, intitulée « Quantum Corral ». Elle s’apparente à une surface d’eau dans laquelle se serait écrasée une goutte, formant des cercles concentriques. Considérablement retouchée et colorée, mise en relief à l’aide d’un effet 3D, elle a été publiée en couverture de Science (numéro d’octobre 1993, n° 262-5131, pp. 218-220).

« consomme » littéralement les êtres humains de l’intérieur, des nuages de nanorobots doués d’une intelligence artificielle évolutive — capable d’apprentissage ainsi que d’étonnantes capacités de mimétisme (Crichton, 2002). S’est alors profilée la crainte, dans les cénacles autorisés, d’un rejet général des nanotechnologies auprès « du public ». Rip et von Amerom racontent en détail l’histoire de la disqualification de Drexler — le nom à ne pas prononcer dans la société policée —, condition préalable nécessaire à un développement non conflictuel des nanotechnologies. En 2004, Nature publie un article qui entérine la défaite de Drexler. Intitulé « Nanotech takes small step towards burying ‘grey goo’ », cet article relate cette phrase de Drexler qui signe sa capitulation : « I wish I had never coined the term ‘grey goo’ » (Giles, 2004).

C’est que, entretemps, une nouvelle génération de prophètes avait vu le jour, et prônait un tout autre discours, celui de la convergence des technologies et du futur industriel radieux pour les nanotechnologies. Ceux-là poursuivent la chimère d’un grand soir de la science. Enfin unifiée par la grâce du nanomètre, elle condamnerait à l’obsolescence les frontières disciplinaires, par exemple entre chimie, physique et biologie. Ces prophètes, très connus de ceux qui s’intéressent aux nanotechnologies, sont Mihail Roco et William Sims Bainbridge. Dans un rapport devenu classique (Roco et Bainbridge, 2002), ils établissent les lignes directrices d’une convergence entre les nanotechnologies, les biotechnologies, les sciences de l’information et les sciences cognitives, la convergence dite « NBIC ». Il est à noter que l’ONG critique des nanotechnologies, ETC Group41, a préféré à cette appellation celle de

small BANG (2004, p. 5 ; depuis lors reprise dans la littérature, voir par exemple Klein, 2011 ;

ou encore Bensaude-Vincent, 2009a, p. 70), dans une évidente référence au modèle cosmologique des origines de l’humanité, le Big Bang. Il s’agit là aussi d’un acronyme, puisque « BANG » désigne les termes « Bits, Atoms, Neurons, Genes » et s’avère, en ce sens, beaucoup plus évocateur que celui de NBIC. Evocateur car il illustre mieux la portée proprement révolutionnaire prêtée à cette convergence, à laquelle Roco et Bainbridge attribuent rien moins que la capacité d’améliorer significativement la condition humaine. « With proper attention to ethical issues and societal needs42, converging technologies could achieve a tremendous improvement in human abilities, societal outcomes, the nation’s productivity, and the quality of life » (Roco et Bainbridge, 2002, p. ix, nous soulignons). Ils l’annoncent avec fracas : la convergence fera histoire !

Mais l’acronyme BANG est également évocateur du projet philosophique fondamental de cette convergence. Il désigne ce que le philosophe Miguel Benasayag désigne comme un « archi-nominalisme » (Benasayag et Gouyon, 2012) ; différentes appellations pourraient sans

41 Sur cette ONG, cf. infra, chapitre II, partie 2, section D).

42 Cette « attention spéciale aux enjeux éthiques et sociétaux » est fondatrice de l’attention constante portée aux

doute recouvrir, tout aussi correctement43, ce projet d’en arriver — enfin — aux particules élémentaires : le bit pour les technologies de l’information, l’atome pour le nanomètre, le gène ou le segment d’ADN pour les biotechnologies et, enfin, le neurone, la synapse, pour les neurosciences. Il ne s’agirait plus d’ouvrir « le grand livre de la vie », selon la métaphore souvent employée au sujet du décryptage du génome humain (Kay, 1995), mais bien de le réduire au rang de simple chapitre dans le magnum opus de la convergence. Ainsi, dans cette vision marquée par sa forte dimension d’ingénierie, les atomes seraient les « briques » de toute matière (Bensaude-Vincent, 2009b), le bit deviendrait le principe ordinateur — au sens littéral44 — de l’organisation de l’information et de notre puissance de calcul. Quant au neurone, il permettrait de retracer les vastes réseaux de synapses, de recréer des avatars du système cérébral ; par lui, les sciences cognitives deviendraient sans doute le ciment de la convergence. Le neurone permettrait de connecter entre eux ces différents ordres de la particule élémentaire, pour le plus grand bénéfice de l’humanité. À ce titre, la convergence NBIC, ou BANG n’est jamais bien loin d’une sorte de fantasme cybernéticien, une utopie du contrôle absolu du tout, de ses parties, et de leurs interactions multiples.

Figure 5: la convergence pour améliorer l’être humain

Source : Roco et Bainbridge (2002), couverture du rapport

C’est bien ce qu’exprime l’image placée en couverture du rapport de Roco et Bainbridge, Converging Technologies for Improving Human Performance. Celle-ci illustre le

43 Benasayag choisit le terme « nominalisme » à dessein, pour convoquer la querelle des universaux qui, selon

lui, est en train de jouer une énième partition ; ainsi, le nominalisme procède toujours d’une forme de réductionnisme radical, « qui tend à ‘réduire’ le monde vivant à sa plus petite échelle pour l’étudier et le modeliser ». Si une telle approche peut s’avérer féconde et productrice de connaissance, ce n’est plus le cas lorsque l’on en arrive à ces fameuses « particules élémentaires » qui méprennent fondamentalement le fait que « la matière se donn[e] toujours comme dynamique et comme forme » (Benasayag et Gouyon, 2012, p. 25).

44 Le terme « ordinateur », qui matérialise évidemment le projet de l’informatique, et d’ailleurs traduit de

l’anglais par la firme Intelligent Business Machines (IBM) vient du latin ordinare, qui désigne le fait de « mettre de l’ordre dans les rangs » — une propriété d’ailleurs consacrée par les ecclésiastiques pour faire référence à Dieu, ordonnateur de toutes choses. Voyez « Ordonner » in Bloch O. et von Warthburg W. (2002 [1932]), Dictionnaire étymologique de la langue française, Paris : Quadrige / PUF, p. 447.

phénomène de la « convergence » comme une flèche à quatre composantes qui se rejoignent dans un mouvement d’ensemble. Cette flèche semble activer certaines zones d’un cerveau ; le tout chapeaute littéralement un être humain générique, anonyme, qui semble aspiré vers le haut par la flèche, vers un ailleurs qui l’élève hors de sa condition, un ailleurs supérieur en

soi. Le projet de la convergence se différencie du projet de Drexler en ce qu’il ne se focalise

plus sur la fonction, comme dans le cas des assembleurs moléculaires, mais bien sur une

direction qu’il permet d’impulser. Il propose une projection orientée vers la construction d’un

futur encore relativement indéterminé, mais qu’il s’agit de faire advenir. En ce sens, la convergence est étroitement associée à un horizon téléologique, celui de « l’amélioration des performances de l’être humain » et, accessoirement, la fin des disciplines scientifiques telles que nous les connaissons. En ce qu’elle englobe les bits, les atomes, les neurones et les gènes dans une vaste perspective unificatrice, la vision de la convergence cède à un holisme débridé, à l’extrême opposé de ces particules fondamentales (b.a.n.g.), tout en s’appuyant sur elles. Le projet conçu par Roco et Bainbridge s’avère donc éminemment et résolument moderne dans le sens où il assigne un sens à l’histoire en train de s’écrire, et surtout en propose une résolution en forme de point final45.

La prophétie de la convergence ne paraît pas pouvoir résister bien longtemps à l’analyse critique, tant le projet que proposent Roco et Bainbridge semble méconnaître ses conditions concrètes de réalisation et reposer sur une métaphysique plutôt pauvre46, et pour