• Aucun résultat trouvé

Extension du domaine de la communication :

rencontres pendant la Guerre (1943 1945) :

C. Résultats, rencontres et second cycle de conférences Macy (1949-1953) :

1. Extension du domaine de la communication :

Dans les années 1947-1948, l’ingénieur Warren Weaver 774 était « très

impliqué dans les premiers développements de la “théorie mathématique de la communication” formalisée peu avant par C. Shannon et popularisée peu après sous le nom de “théorie de l’information de Shannon et Weaver” (1948). » Weaver était aussi « concerné au premier chef […] par les premiers pas de la cybernétique […] » 775 du fait de ses responsabilités

à la fondation Rockefeller, laquelle finançait certains programmes de recherche cybernétique. En juillet 1949, il a publié “Les mathématiques de

la communication”.776 Cet article, qui précède de deux mois la sortie de

l’ouvrage qu’il a coécrit avec Shannon, “La Théorie Mathématique de la

Communication”, « constitue l’abrégé de la seconde partie du livre signée par Weaver tandis que la première, rédigée par Shannon, développe la formulation mathématique de la théorie. » 777

Weaver commence son article en soulignant l’importance de la nouvelle théorie « fondée sur le caractère statistique du langage, » dans laquelle le

concept d’entropie « est étroitement lié au concept d’information. » 778 Il

prévient que le mot communication « sera employé ici dans un sens très

large afin d’englober toutes […] procédures qui permettent à un esprit d’entrer en contact avec un autre. » Outre la parole, il inclut notamment

la musique et les images. Considérant que « dans la communication, des

problèmes semblent se poser à trois niveaux : 1/ technique, 2/ sémantique et 3/ d’influence, » Weaver indique que « les problèmes techniques touchent à la précision de la transmission de l’information de celui qui envoie à celui qui reçoit […], » et qu’ils sont inhérents à toute

forme de communication. Quant aux problèmes sémantiques, ils

« concernent l’interprétation de la signification par le récepteur, comparée à la signification intentionnellement donnée par la personne qui envoie.»779

Weaver va étendre la théorie de la communication de Shannon au domaine de la sémantique. Il va prendre également en compte « les

problèmes d’influence ou d’efficacité […], » lesquels « sont affectés par le

774

« Warren Weaver, mathématicien et physicien de formation, chef de la division des sciences naturelles de la

fondation Rockefeller à partir de 1931. » (MORANGE M., op. cit., 1994, 2003, p. 107.)

775 LE MOIGNE J.-L., “Complexité”, Dictionnaire d’histoire et philosophie des sciences, PUF, Paris, 1999, 2006, p.

241.

776

WEAVER W., “The Mathematics of communication,” Scientific American, vol. 181, n°1, July 1949, p. 11-15. © Pour la science, Paris., trad. Pélissier A., op. cit., 1995, pp. 217-229.

777

PELISSIER A., TETE A., op. cit., 1995, p. 215.

778

WEAVER W., op. cit., 1949, 1995, p. 217.

succès avec lequel la signification transmise au récepteur conduit de sa part au comportement désiré. » Weaver convient qu’il peut sembler limité « de laisser entendre que le but de toute communication est d’influencer

780 le comportement du récepteur. » Cependant, l’adoption d’une

« définition raisonnablement élargie du comportement […] » implique « que soit la communication affecte le comportement soit elle n’a aucun effet discernable et démontrable. »781 La théorie mathématique de la

communication va montrer qu’il est faux de « penser que les problèmes

techniques ne consistent qu’en détails d’ingénierie concernant la bonne réception d’un système de communication tandis que les problèmes de sémantiques et d’efficacité supporteraient la majorité sinon tout le contenu philosophique du problème général de la communication. » 782

Si le travail de Shannon « ne s’applique en premier lieu qu’au problème

technique […], » Weaver entend démontrer que la théorie a une portée

plus large, » et qu’« une analyse théorique du problème technique révèle

qu’il empiète sur les problèmes de sémantique et d’efficacité plus qu’on ne pourrait le soupçonner. » Se référant au schéma de la communication, il

rappelle que « la source d’information sélectionne un message désiré dans

un ensemble de messages possibles. » Weaver applique le schéma à la

communication orale : « Quand je vous parle, mon cerveau est la source

d’information, le vôtre la destination ; mon système vocal constitue le transmetteur et votre oreille et son huitième nerf le récepteur. » L’auteur aborde ensuite le problème du bruit. Dans le processus de transmission du signal, il est « caractéristique que certaines choses non prévues par la

source d’information soient ajoutées au signal » :

« Ces éléments supplémentaires non désirés peuvent être des distorsions de sons (dans le téléphone par exemple) ou des parasites (la radio) ou des distorsions dans la forme ou les ombres d’une image (télévision) ou des erreurs de transmission (télégraphie ou fac-similé). Toutes ces transformations du signal peuvent être définies comme du bruit. » 783

Les questions à étudier dans un système de communication concernent « la quantité d’information, la capacité du canal de

communication, le processus de codage qui peut être utilisé pour transformer un message en un signal et les effets du bruit. » 784 A ce stade

de son exposé, Weaver trouve nécessaire de revenir sur le sens que Shannon donne au mot information. Ce mot « ne doit pas du tout être

confondu avec celui de signification. » Pour bien marquer qu’il n’a pas

changé d’idée à ce sujet, Weaver ajoute que, de son « point de vue, deux

messages, dont l’un est très chargé de sens et l’autre est un pur non- sens, peuvent être équivalents du point de vue de l’information. » Dans la

théorie de Shannon en effet, « le mot information est en rapport non pas

tant avec ce que vous dites qu’avec ce que vous pourriez dire. Ainsi,

780

Le concept d’influence va connaître un grand succès en psychologie sociale et cognitive. Note de l’auteur.

781 WEAVER W., op. cit., 1949, 1995, p. 218. 782

Ibid., pp. 218-219.

783

Ibid., p. 219.

l’information est une mesure de votre liberté de choix lorsque vous sélectionnez un message. » Partant de ce principe, les auteurs ont convenu d’un mode de comptage de l’information : « Si vous êtes

confronté à une situation très élémentaire où vous devez choisir un message parmi deux, alors, de façon arbitraire, on dit que l’information associée à cette situation est l’unité. » 785

Weaver aborde ensuite la situation « dans laquelle la source d’information

fait une série de choix à partir d’un ensemble de symboles élémentaires, la séquence sélectionnée formant alors le message. » Ces symboles

peuvent être des mots tirés l’un après l’autre, « ces mots individuellement

choisis s’ajoutant alors au message. » L’auteur souligne l’importance de la

probabilité dans la formation du message, et des choix précédents dans les choix des symboles successifs :

« Si, par exemple, nous nous intéressons au discours en langue anglaise, et si le dernier symbole choisi est “le” [Le mot anglais est l’article “the”, NdT.], alors la probabilité que le mot suivant soit un article ou un verbe autre qu’une forme verbale est très petite. Après les trois mots “dans l’éventualité”, la probabilité que “que” soit le mot suivant est très grande, elle est très faible pour le mot “éléphant”. » 786

Cette approche statistique du langage nous interroge. Un avion de combat cherchant à éviter des tirs de D.C.A. est sous la contrainte de paramètres physiques qui ne permettent pas au pilote de choisir librement à chaque instant sa trajectoire. Wiener a mis au point des méthodes de calcul statistique permettant de prévoir cette trajectoire à partir des positions passées. Avec le langage, en revanche, le meilleur moyen de prévoir qu’un mot va venir après un autre ne semble pas être le calcul

statistique787 mais la connaissance de la langue. On peut bien sûr étudier

celle-ci d’un point de vue statistique, comme Shannon l’a fait avec l’anglais. Il « a montré que, quand des lettres ou des mots choisis

aléatoirement sont assemblés en séquence en fonction de seules considérations probabilistes, ils tendent à s’organiser en mots et phrases signifiantes. » 788 Mais, tandis qu’on ne peut prévoir la trajectoire d’un

avion ennemi qu’au moyen d’un calcul statistique, avec une langue le moyen pertinent de prendre en compte les contraintes ne semble pas être le calcul statistique mais l’étude de ses caractéritiques syntaxiques et sémantiques.

Poursuivant son approche statistique, Weaver rappelle que l’information est « une mesure de la liberté de choix que possède un individu quand il

sélectionne un message. » Plus grande est cette liberté de choix, plus

grande est l’incertitude. « Ainsi une plus grande liberté de choix, une plus

grande incertitude et une information plus importante vont tous les trois

785

Ibid., p. 220.

786 WEAVER W., op. cit., 1949, 1995, p. 220 787

Les sites de traduction en ligne montrent les limites du traitement probabiliste des langues. Note de l’auteur.

de pair. » 789 Quant à la redondance, elle n’est « pas nécessaire, dans le

sens où, si elle manquait, le message serait encore complet pour l’essentiel ou au moins pourrait être complété. » Aussi, « puisque la langue anglaise est redondante à environ 50%, on pourrait économiser la moitié du temps de télégraphie ordinaire par un processus d’encodage convenable, pourvu que la transmission se fasse par un canal non bruité.»790 Pour Weaver, la théorie mathématique de la communication

concerne tout type de symboles, « lettres ou mots écrits, notes de

musique, mots parlés ou musique symphonique ou images. » 791 Les idées

développées dans la théorie de la communication « sont en connexion si

étroite avec le problème de la conception logique des machines à calculer […] » qu’il n’est pas surprenant pour Weaver que Shannon ait écrit un

article sur la conception d’une machine qui joue aux échecs. L’article en

question se termine d’après Weaver « sur la remarque selon laquelle soit

on doit dire qu’un tel calculateur “pense”, soit on doit modifier de façon substantielle l’implication conventionnelle du verbe “penser”. » 792 Nous

allons voir que remis dans leur contexte les propos de Shannon sont bien plus nuancés.

Conformément à son projet d’étendre le domaine d’application de la théorie de la communication à la sémantique, Weaver propose d’ajouter deux autres boîtes au schéma de la communication, l’une appelée

récepteur sémantique, l’autre bruit sémantique. Alors que le concept

d’information développé dans la théorie de la communication « semble au

premier abord décevant […] parce qu’il n’a rien à voir avec la signification […], » un examen plus approfondi de la théorie montre, selon Weaver,

que « cette analyse a si fortement clarifié le problème qu’on est peut-être

prêt maintenant, pour la première fois, à élaborer une réelle théorie de la signification. » L’étude de Shannon sur la structure statistique de la langue anglaise suggère « comme une piste partiellement prometteuse,

l’application de la théorie des probabilités aux études sémantiques. » 793

Weaver évoque les processus de Markoff :

« Est particulièrement pertinente la partie de la théorie des probabilités qui traite de ce que les mathématiciens appellent les processus de Markoff, selon lesquels des événements passés influencent les probabilités présentes : cette théorie est spécialement adaptée pour manipuler un des plus significatifs mais des plus difficiles aspects de la signification, à savoir l’influence du contexte. » 794

789 Ibid., p. 222. 790 Ibid., p. 224. 791 Ibid., p. 225. 792 Ibid., p. 226. 793 Ibid., p. 227. 794 Ibid.

2. La théorie mathématique de la communication et sa