rencontres pendant la Guerre (1943 1945) :
C. Résultats, rencontres et second cycle de conférences Macy (1949-1953) :
1. Extension du domaine de la communication :
Dans les années 1947-1948, l’ingénieur Warren Weaver 774 était « très
impliqué dans les premiers développements de la “théorie mathématique de la communication” formalisée peu avant par C. Shannon et popularisée peu après sous le nom de “théorie de l’information de Shannon et Weaver” (1948). » Weaver était aussi « concerné au premier chef […] par les premiers pas de la cybernétique […] » 775 du fait de ses responsabilités
à la fondation Rockefeller, laquelle finançait certains programmes de recherche cybernétique. En juillet 1949, il a publié “Les mathématiques de
la communication”.776 Cet article, qui précède de deux mois la sortie de
l’ouvrage qu’il a coécrit avec Shannon, “La Théorie Mathématique de la
Communication”, « constitue l’abrégé de la seconde partie du livre signée par Weaver tandis que la première, rédigée par Shannon, développe la formulation mathématique de la théorie. » 777
Weaver commence son article en soulignant l’importance de la nouvelle théorie « fondée sur le caractère statistique du langage, » dans laquelle le
concept d’entropie « est étroitement lié au concept d’information. » 778 Il
prévient que le mot communication « sera employé ici dans un sens très
large afin d’englober toutes […] procédures qui permettent à un esprit d’entrer en contact avec un autre. » Outre la parole, il inclut notamment
la musique et les images. Considérant que « dans la communication, des
problèmes semblent se poser à trois niveaux : 1/ technique, 2/ sémantique et 3/ d’influence, » Weaver indique que « les problèmes techniques touchent à la précision de la transmission de l’information de celui qui envoie à celui qui reçoit […], » et qu’ils sont inhérents à toute
forme de communication. Quant aux problèmes sémantiques, ils
« concernent l’interprétation de la signification par le récepteur, comparée à la signification intentionnellement donnée par la personne qui envoie.»779
Weaver va étendre la théorie de la communication de Shannon au domaine de la sémantique. Il va prendre également en compte « les
problèmes d’influence ou d’efficacité […], » lesquels « sont affectés par le
774
« Warren Weaver, mathématicien et physicien de formation, chef de la division des sciences naturelles de la
fondation Rockefeller à partir de 1931. » (MORANGE M., op. cit., 1994, 2003, p. 107.)
775 LE MOIGNE J.-L., “Complexité”, Dictionnaire d’histoire et philosophie des sciences, PUF, Paris, 1999, 2006, p.
241.
776
WEAVER W., “The Mathematics of communication,” Scientific American, vol. 181, n°1, July 1949, p. 11-15. © Pour la science, Paris., trad. Pélissier A., op. cit., 1995, pp. 217-229.
777
PELISSIER A., TETE A., op. cit., 1995, p. 215.
778
WEAVER W., op. cit., 1949, 1995, p. 217.
succès avec lequel la signification transmise au récepteur conduit de sa part au comportement désiré. » Weaver convient qu’il peut sembler limité « de laisser entendre que le but de toute communication est d’influencer
780 le comportement du récepteur. » Cependant, l’adoption d’une
« définition raisonnablement élargie du comportement […] » implique « que soit la communication affecte le comportement soit elle n’a aucun effet discernable et démontrable. »781 La théorie mathématique de la
communication va montrer qu’il est faux de « penser que les problèmes
techniques ne consistent qu’en détails d’ingénierie concernant la bonne réception d’un système de communication tandis que les problèmes de sémantiques et d’efficacité supporteraient la majorité sinon tout le contenu philosophique du problème général de la communication. » 782
Si le travail de Shannon « ne s’applique en premier lieu qu’au problème
technique […], » Weaver entend démontrer que la théorie a une portée
plus large, » et qu’« une analyse théorique du problème technique révèle
qu’il empiète sur les problèmes de sémantique et d’efficacité plus qu’on ne pourrait le soupçonner. » Se référant au schéma de la communication, il
rappelle que « la source d’information sélectionne un message désiré dans
un ensemble de messages possibles. » Weaver applique le schéma à la
communication orale : « Quand je vous parle, mon cerveau est la source
d’information, le vôtre la destination ; mon système vocal constitue le transmetteur et votre oreille et son huitième nerf le récepteur. » L’auteur aborde ensuite le problème du bruit. Dans le processus de transmission du signal, il est « caractéristique que certaines choses non prévues par la
source d’information soient ajoutées au signal » :
« Ces éléments supplémentaires non désirés peuvent être des distorsions de sons (dans le téléphone par exemple) ou des parasites (la radio) ou des distorsions dans la forme ou les ombres d’une image (télévision) ou des erreurs de transmission (télégraphie ou fac-similé). Toutes ces transformations du signal peuvent être définies comme du bruit. » 783
Les questions à étudier dans un système de communication concernent « la quantité d’information, la capacité du canal de
communication, le processus de codage qui peut être utilisé pour transformer un message en un signal et les effets du bruit. » 784 A ce stade
de son exposé, Weaver trouve nécessaire de revenir sur le sens que Shannon donne au mot information. Ce mot « ne doit pas du tout être
confondu avec celui de signification. » Pour bien marquer qu’il n’a pas
changé d’idée à ce sujet, Weaver ajoute que, de son « point de vue, deux
messages, dont l’un est très chargé de sens et l’autre est un pur non- sens, peuvent être équivalents du point de vue de l’information. » Dans la
théorie de Shannon en effet, « le mot information est en rapport non pas
tant avec ce que vous dites qu’avec ce que vous pourriez dire. Ainsi,
780
Le concept d’influence va connaître un grand succès en psychologie sociale et cognitive. Note de l’auteur.
781 WEAVER W., op. cit., 1949, 1995, p. 218. 782
Ibid., pp. 218-219.
783
Ibid., p. 219.
l’information est une mesure de votre liberté de choix lorsque vous sélectionnez un message. » Partant de ce principe, les auteurs ont convenu d’un mode de comptage de l’information : « Si vous êtes
confronté à une situation très élémentaire où vous devez choisir un message parmi deux, alors, de façon arbitraire, on dit que l’information associée à cette situation est l’unité. » 785
Weaver aborde ensuite la situation « dans laquelle la source d’information
fait une série de choix à partir d’un ensemble de symboles élémentaires, la séquence sélectionnée formant alors le message. » Ces symboles
peuvent être des mots tirés l’un après l’autre, « ces mots individuellement
choisis s’ajoutant alors au message. » L’auteur souligne l’importance de la
probabilité dans la formation du message, et des choix précédents dans les choix des symboles successifs :
« Si, par exemple, nous nous intéressons au discours en langue anglaise, et si le dernier symbole choisi est “le” [Le mot anglais est l’article “the”, NdT.], alors la probabilité que le mot suivant soit un article ou un verbe autre qu’une forme verbale est très petite. Après les trois mots “dans l’éventualité”, la probabilité que “que” soit le mot suivant est très grande, elle est très faible pour le mot “éléphant”. » 786
Cette approche statistique du langage nous interroge. Un avion de combat cherchant à éviter des tirs de D.C.A. est sous la contrainte de paramètres physiques qui ne permettent pas au pilote de choisir librement à chaque instant sa trajectoire. Wiener a mis au point des méthodes de calcul statistique permettant de prévoir cette trajectoire à partir des positions passées. Avec le langage, en revanche, le meilleur moyen de prévoir qu’un mot va venir après un autre ne semble pas être le calcul
statistique787 mais la connaissance de la langue. On peut bien sûr étudier
celle-ci d’un point de vue statistique, comme Shannon l’a fait avec l’anglais. Il « a montré que, quand des lettres ou des mots choisis
aléatoirement sont assemblés en séquence en fonction de seules considérations probabilistes, ils tendent à s’organiser en mots et phrases signifiantes. » 788 Mais, tandis qu’on ne peut prévoir la trajectoire d’un
avion ennemi qu’au moyen d’un calcul statistique, avec une langue le moyen pertinent de prendre en compte les contraintes ne semble pas être le calcul statistique mais l’étude de ses caractéritiques syntaxiques et sémantiques.
Poursuivant son approche statistique, Weaver rappelle que l’information est « une mesure de la liberté de choix que possède un individu quand il
sélectionne un message. » Plus grande est cette liberté de choix, plus
grande est l’incertitude. « Ainsi une plus grande liberté de choix, une plus
grande incertitude et une information plus importante vont tous les trois
785
Ibid., p. 220.
786 WEAVER W., op. cit., 1949, 1995, p. 220 787
Les sites de traduction en ligne montrent les limites du traitement probabiliste des langues. Note de l’auteur.
de pair. » 789 Quant à la redondance, elle n’est « pas nécessaire, dans le
sens où, si elle manquait, le message serait encore complet pour l’essentiel ou au moins pourrait être complété. » Aussi, « puisque la langue anglaise est redondante à environ 50%, on pourrait économiser la moitié du temps de télégraphie ordinaire par un processus d’encodage convenable, pourvu que la transmission se fasse par un canal non bruité.»790 Pour Weaver, la théorie mathématique de la communication
concerne tout type de symboles, « lettres ou mots écrits, notes de
musique, mots parlés ou musique symphonique ou images. » 791 Les idées
développées dans la théorie de la communication « sont en connexion si
étroite avec le problème de la conception logique des machines à calculer […] » qu’il n’est pas surprenant pour Weaver que Shannon ait écrit un
article sur la conception d’une machine qui joue aux échecs. L’article en
question se termine d’après Weaver « sur la remarque selon laquelle soit
on doit dire qu’un tel calculateur “pense”, soit on doit modifier de façon substantielle l’implication conventionnelle du verbe “penser”. » 792 Nous
allons voir que remis dans leur contexte les propos de Shannon sont bien plus nuancés.
Conformément à son projet d’étendre le domaine d’application de la théorie de la communication à la sémantique, Weaver propose d’ajouter deux autres boîtes au schéma de la communication, l’une appelée
récepteur sémantique, l’autre bruit sémantique. Alors que le concept
d’information développé dans la théorie de la communication « semble au
premier abord décevant […] parce qu’il n’a rien à voir avec la signification […], » un examen plus approfondi de la théorie montre, selon Weaver,
que « cette analyse a si fortement clarifié le problème qu’on est peut-être
prêt maintenant, pour la première fois, à élaborer une réelle théorie de la signification. » L’étude de Shannon sur la structure statistique de la langue anglaise suggère « comme une piste partiellement prometteuse,
l’application de la théorie des probabilités aux études sémantiques. » 793
Weaver évoque les processus de Markoff :
« Est particulièrement pertinente la partie de la théorie des probabilités qui traite de ce que les mathématiciens appellent les processus de Markoff, selon lesquels des événements passés influencent les probabilités présentes : cette théorie est spécialement adaptée pour manipuler un des plus significatifs mais des plus difficiles aspects de la signification, à savoir l’influence du contexte. » 794
789 Ibid., p. 222. 790 Ibid., p. 224. 791 Ibid., p. 225. 792 Ibid., p. 226. 793 Ibid., p. 227. 794 Ibid.