• Aucun résultat trouvé

Le second axiome oppose l'humain à la machine. Il entre de ce fait en contradiction avec la conception cybernétique du "cyborg" de Clynes et Kline (1960), à savoir l'être hybride construit par une symbiose entre l'humain et la machine. Le concept de cyborg, très populaire aux États-unis, s'exprime en art chez un artiste comme Stelarc (depuis 1980) ou, depuis la fin des années 1990 dans certains œuvres de bio art d'Eduardo Kac comme A-positive (1997) ou Time Capsule (1997). Il se poursuit dans la conception du "posthuman" postulée par Katherine Hayles (1999) et est à la base de sa réflexion théorique sur la littérature numérique. La conception posthumaine est désincarnée et ne traite pas la spécificité de l'interprétation au regard du traitement de données opérée par un ordinateur. Hayles indique que "In the posthuman, there are no

essential differences or absolute demarcations between bodily existence and computer simulation, cybernetic mechanism and biological organism, robot teleology and human goals" (Hayles, 1999: 3)

La conception post-humaine nie donc les différences entre un traitement humain et un traitement machinique de l'information, sauf à concevoir l'incarnation humaine comme purement technique et à disjoindre le fonctionnement cognitif et affectif du fonctionnement purement mécanique et chimique du corps. Une telle conception montrerait vite ses limites lorsqu'on tenterait de l'appliquer à l'art interactif.

La psychologie cognitive montre clairement des différences fondamentales entre les processus percepto-cognitifs et le traitement de l'information réalisé par un ordinateur :

- Tout d’abord, le traitement technique fonctionne selon des cycles de détection ou capture suivie de phases de traitements des données détectées ou capturées. L'équivalent cognitif de ce processus serait une interprétation qui fonctionnerait selon des cycles de perception suivie de cognition. Or ce n'est pas ainsi que les choses se passent, c'est pourquoi on parle de traitement percepto-cognitif : perception et cognition sont simultanées et régies toutes deux par des attentes et stratégies cognitives : « Le but que se fixe un individu influence la

manière dont il va l’atteindre. La fonction des attentes est de permettre à l’individu de déterminer les stratégies cognitives (contrôle exécutif) qui lui permettront de passer d’une situation réelle à une situation désirée (attente). Les attentes sont déterminées par l’individu ou par des informations provenant de l’environnement » (Robert 1992: 210-

212), ce qui fait que « l’objet perçu est construit par le sujet » (Roulin 1998: 139). L'objet perceptible n'est donc pas une donnée au sens de l'informatique. La relation qui relie l'information perceptible à son interprétation n'est pas une relation causale comme peut l'être le traitement d'une donnée numérique par un programme. La relation causale se situe en fait dans le fonctionnement percepto-cognitif entre le couple formé par l'objet perceptible et les attentes d'une part et le résultat de leur interprétation d'autre part. Cela détermine deux grandes stratégies cognitives : la reconnaissance et l'apprentissage. Dans la reconnaissance, le résultat attendu est reconnu dans l'objet perçu. Dans cette stratégie, la perception a pour résultat de stabiliser une

représentation mentale activée par les attentes. Dans l'apprentissage, l'objet perçu entre en opposition avec l'objet attendu. Il en résulte une réorganisation des stratégies et un affaiblissement des représentations mentales mises en œuvre dans l'attente déçue.

- Le traitement machinique, à savoir le programme dans les dispositifs numériques, partitionne l'ensemble des informations en deux catégories : les informations traitables et celles qui ne le sont pas. Les informations traitables sont les instructions et les données reconnues par le programme, toutes les autres ne le sont pas. Lorsque la machine tente de traiter une information "non traitable" cela produit un arrêt du processus de traitement (par exemple ouvrir une musique dans un logiciel de dessin). Rien de tout cela ne se produit pour le cerveau : perception et cognition ne cessent jamais. Par ailleurs, les attentes et stratégies cognitives ne sont pas des catégories figées mais des points de vue dynamiques portés sur les objets perceptibles. Ainsi, des caractéristiques inutiles en début de processus, peuvent faire l'objet d'un traitement cognitif ultérieur.

- La perception est contextualisée, variable selon le contexte psychologique du sujet et ses attentes alors que l’acquisition ne dépend que des performances du périphérique d’entrée ou du capteur. Ce qui signifie que, devant un phénomène donné, des sujets différents pourront attribuer la valeur « utile » à des éléments différents, et ainsi conduire à des constructions de sens distinctes, alors que ce qui est utile pour un appareil l’est pour tous les appareils du même type et ne varie pas selon le contexte.

- Le traitement sémantique est permanent et réversible : les nouvelles significations peuvent modifier et réévaluer des significations anciennes ou, au contraire, des significations anciennes peuvent imposer des modifications à un traitement cognitif. Autrement dit, la signification n’est jamais achevée, elle est toujours susceptible d’un réajustement, d’une remise en cause, elle est toujours autant état initial d’un processus de construction du sens qu’état final d’un tel processus.

Alors que le résultat d’un traitement technique de l’information est définitif : l’information traitée peut donner lieu à des traitements ultérieurs différents, mais la logique d’un traitement ne s’ajuste pas aux informations entrées. C’est pourquoi un traitement technique de l’information nécessite un « domaine de validité » de cette information qui doit être formatée d’une certaine façon, qui doit couvrir un périmètre donné (notamment pour les informations numériques) alors qu’il n’y a pas de « domaine de validité » dans le traitement de la signification par le cerveau.

- Enfin, la construction du sens dépend fortement du contexte général dans lequel sont plongés les signes en cours d’interprétation. Le test du B/13 de Bruner et Minturn (1955) constitue une excellente démonstration de cette contextualisation : présentée rapidement, une forme ambiguë (Figure 19), tenant graphiquement du B et du 13 sera interprétée comme le chiffre 13 si on l’encadre d’un 12 et d’un 14, alors qu’elle sera interprétée comme la lettre B si on la présente précédée d’un A et suivie d’un C. L’ambiguïté de la figure n'apparaît au sujet testé que lorsque les deux contextes sont présentés simultanément. Le contexte d’information, quant à lui, n’influence pas un traitement technique, une donnée y est considérée comme élément d'un ensemble prédéfini, non à partir d’un contexte qui la catégorise.

Figure 19 : test de Bruner (Roulin 1998: 140)

En fait, toutes les conditions préalables à la construction du sens, à savoir ce qui fait qu’un élément sera considéré comme signe, conditions dont nous venons de voir l’extrême mobilité, ont dû être prédéfinies par les concepteurs de l’appareil

d’acquisition pour qu’un traitement technique puisse s’effectuer. Il n'y a donc pas de place pour le point de vue dans un traitement technique.

On peut considérer en revanche qu’un traitement technique de l’information est la délégation d’un traitement de sens. En effet, les concepteurs ont dû définir la relation signifiante qui relie les données au résultat de leur traitement, mais, ce faisant, ils ont fossilisé les processus cognitifs dans des formes fixes : un programme est incapable de prendre une décision qui n'est pas, d'une façon ou d'une autre, préprogrammée, même si cette programmation est réalisée sous une forme obscure pour le programmeur comme ce peut être le cas dans les programmes d'intelligence artificielle qui mettent en œuvre des réseaux de neurones formels.

Ces différences nous incitent donc, au contraire de la tendance post-humaine, à opter pour une cognition incarnée et à nous ranger du côté de l'interprétation de l'intelligence artificielle que donnait Turing en 1950 et qui est à l'origine même de la littérature numérique : l'intelligence artificielle a pour objet une simulation des productions de l'intelligence humaine et non de ses processus. En clair, l'intelligence artificielle ainsi comprise fonctionne sur le mode du leurre, ce que montre clairement le test de Turing (1950) : si la machine passe le test de Turing, et est donc considérée comme "intelligence" au regard du résultat de ce test, c'est parce que sa production "ressemble à s'y méprendre" à une production de l'intelligence humaine. Le test de Turing constitue donc un simulacre d'intelligence, c'est-à-dire qu'il en simule le produit créatif, non le processus créatif. Il ne s'agit dès lors plus vraiment d'intelligence mais de performance. : " Le test de Turing vaut d’abord par le but empirique qu’il assigne à l’IA – faire que la machine rivalise par ses performances avec l’humain dans différents registres réputés requérir de l’intelligence." (Marquis et all, 2012)

Même si la recherche en intelligence artificielle, après Turing, s'est orientée vers la simulation des processus cognitifs, notamment selon la voie connexionniste impulsée par le modèle des réseaux de neurones formels de McCulloch et Pitts (Lettvin et all, 1959), il n'en demeure pas moins qu'aujourd'hui, les objets avancés en intelligence artificielle sont des objets purement logiciels et sont de toute façon très éloignés des objets technologiques qui produisent les productions numériques auxquelles nous nous intéressons. Il n'est pas non plus prouvé que le modèle post-humain sera pertinent en ce

qui concerne la question de l'interprétation si demain la machine s'intègre davantage au corps humain.