R EVUE DE STATISTIQUE APPLIQUÉE
J. O SWALD
Essai sur la théorie de l’information (logodynamique statistique)
Revue de statistique appliquée, tome 20, n
o1 (1972), p. 25-65
<http://www.numdam.org/item?id=RSA_1972__20_1_25_0>
© Société française de statistique, 1972, tous droits réservés.
L’accès aux archives de la revue « Revue de statistique appliquée » (http://www.
sfds.asso.fr/publicat/rsa.htm) implique l’accord avec les conditions générales d’uti- lisation (http://www.numdam.org/conditions). Toute utilisation commerciale ou im- pression systématique est constitutive d’une infraction pénale. Toute copie ou im- pression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
ESSAI SUR LA THÉORIE DE L’INFORMATION
(Logodynamique Statistique)
J. OSWALD
Directeur
des Laboratoires de
MARCOUSSIS(C.G.E.)
SOMMAIRE
Pages
AVANT-PROPOS 27
CHAPITRE I DEFINITIONS FONDAMENTALES RELATIVES A
L’INFORMATION ...
30Information et états
discernables...
30Quantité
d’information ouénergie diacritique...
31Message
et travailsémiodynamique...
33CHAPITRE II ENERGIE
DIACRITIQUE
MOYENNE D’UN SYSTEME ET D’UN MESSAGE... 38Pression
diacritique
moyenne d’unsystème...
38Puissance
diacritique
d’un message - Théorème de Shannon... O 40 CHAPITRE III RELATIONS ENTRE ENERGIEDIACRITIQUE
ET TRAVAILSEMIODYNAMIQUE...
o 45 Relation fondamentale... 45Théorème... 50
Problème de Shannon... 51
Comparaison
avec laThermodynamique ...
53CHAPITRE IV DEVELOPPEMENT ET EXEMPLES SIMPLES... 55
Groupement
ou"multiplexage"
des Informations ... 55Premier
exemple
d’une distributionsimple...
56Deuxième
exemple
élémentaire... 59Troisième
exemple : Alphabet
Morse... 60 CHAPITRE V INFORMATION INCERTAINE : . CORRECTION ETDETECTION DES ERREURS ... O Correction des erreurs...
Détection des erreurs ...
26
Pages
CHAPITRE VI APPLICATION DE LA THEORIE DES ERREURSAUX MESSAGES BINAIRES ...
Système
à deux états...Système
à l états différents...- Définition des erreurs...
- Correction des erreurs...
- Détection des erreurs...
ANNEXE 1 MAXIMUM DE H = X
pi log-. pi
.ANNEXE II DEMONSTRATION DE
L’INEGALITE
1...ANNEXE III ADAPTATION DU MESSAGE AU SYSTEME LORS-
QUE
LE NOMBRE DE SYMBOLES N’EST PAS IMPOSE ...ANNEXE IV MAXIMUM DE
HI = L pi 7~jj log
Pi ni ...ij 1
Pi TC i j
ANNEXE V DETERMINATION DU GRADIENT SEMIODYNAMI-
QUE...
BI B LI OGRA PHI E ...
Revue de Statistique Appliquée. 1972 - vol. XX N° 1
AVANT - PROPOS
C’est courir un
grand risque
que de créer de nouveaux termes, surtout pourremplacer
ceux quel’usage
adéjà
consacrés. Les savants ne s’enpri-
vent pas, mais il faut bien reconnaftre que l’introduction d’un mot nouveau
peut
trouver sajustification
dans l’élaboration d’un nouveauconcept,
ou d’unobjet
encore inconnu. S’ils’agit
au contraire d’unsujet largement
traitépar des auteurs de
premier plan,
il convient d’accueillir avec méfiance lesnéologismes proposés
par unquelconque
ouvrier de la onzième heure.La Théorie de l’Information a quarante ans
d’âge,
si l’on en attribue -apparemment
entoute justice -
lapaternité
àHartley [1].
Elle estmajeure depuis plus
devingt
ans,grâce
à Shannon et àquelques
autres. Peut-on en- core luiapporter quelque
chose d’essentiel ? Il estpermis
d’en douter. On voudra biencependant pardonner
à l’auteurd’y
avoir introduitquelques
motsnouveaux,
quelquefois
pourremplacer
ceux qui sont en usage.Ce n’est ni un bouleversement des
concepts,
ni une théorienouvelle,
que le lecteur trouvera dans les pages
qui
suivent. Ils’agit
d’un essai, quiprend
sondépart
dans une réflexion surl’analogie
formelle entrel’Energé- tique
et la Théorie de l’Information. L’une comme l’autre décrivent àgrands
traits des
phénomènes
trèsgénéraux,
en n’examinant que le bilan des échan- ges entresystèmes,
d’où résultent diverses transformations de ces gran- deurs que sontl’énergie
d’unepart,
l’information d’autrepart.
Dès
l’origine,
la similitude entre les deux théories s’estimposée
auxcréateurs de la science de l’Information. Ce n’est pas par
hasard,
ou parcaprice, qu’ils
ont introduit des termes bien connus desphysiciens,
telleque
l’entropie,
pourdésigner
laquantité
d’informationproduite
par une sour-ce : c’est bien parce que
l’analogie
formelle entre les deuxgrandeurs - j’entends
par là la similitude desexpressions mathématiques -
leur appa- raissait avec une évidence totale. Mais sont-ils allésjusqu’au
bout de cette"équivalence" ? C’est
laquestion
queje
me suisposée,
et il m’a bien fallurépondre
par lanégative.
Le raisonnement suivi par Shannon est celui d’unmathématicien, l’explication, l’exploitation
de ses résultats sont des travauxd’ingénieurs, d’experts
en Télécommunications. Il manque à toutcela,
mesemble-t-il,
unecomparaison permanente
avec une théoriedéjà
bien ancien-ne, que les
physiciens appellent Thermodynamique Statistique.
Le résultat de cette confrontation est extrêmement
frappant :
les deuxthéories se
superposent
presquecomplètement.
Ce sont, mot à mot, formu- leaprès formule,
les mêmes raisonnements, les mêmes calculsqui sont développés
dans les deux cas. Il est alors inévitablequ’on
soit tenté de met- tre enregard
lesgrandeurs homologues,
de vérifier leursignification,
deleur donner des noms semblables.
En
premier lieu,
il m’a paru utile de donner un nom à cette science desrapports
entre les"messages"
et les"systèmes"
quijouent respective-
ment les rôles de véhicules et de sources d’information. Les raisonnements
28
employés
sont exactement ceux de laThermodynamique Statistique :
c’estpourquoi Logodynamique Statistique
m’a paru un termeapproprié, l’analyse portant
sur le"langage" (logos)
au senslarge
du terme, et nonplus
sur lachaleur
(ou plus généralement l’énergie).
Il faut bien remarquer au passage que lalogodynamique
neprête
nullement attention auxpropriétés physiques
des circuits
électriques,
auxproblèmes
de bande passante, despectre utile,
etc... Toutes ces
questions
relèvent de la théoriephysique
des communica-tions
qui doit,
à mon sens, êtresoigneusement distinguée
de la théorie abs- traite etgénérale qu’est
lalogodynamique,
exactement comme l’électricité n’est pasl’énergétique,
encore que les lois de l’électricité satisfassent bien évidemment auxrègles beaucoup plus générales
del’énergétique.
Laplupart
des auteurs ont, me
semble-t-il, mélangé quelque
peu les deuxdisciplines,
.ce
qui
nepeut
êtrequ’une
source de confusion.Dans
l’analyse
del’information,
deuxgrandeurs apparaissent, qui jouent,
àl’évidence,
les mêmes rôles que le travail etl’énergie
enthermodyna- mique.
La
"quantité
d’information" liée à la connaissance d’unsystème
n’estrien d’autre que le dénombrement des états discernables :
je
lui ai donné le nomd’énergie diacritique
(ou encore depression diacritique
pour des rai-sons
qui apparaftront
dans la suite). C’estl’analogie
formellequi
conduit auchoix du mot
"énergie",
alors quel’adjectif "diacritique" exprime
l’idée du dénombrementd’objets
ou de situations discernables. La richesse (ou si l’on veutl’encombrement)
du message doit êtrecomparée
à un travail : c’est ef- fectivement lapeine
que l’on sedonne,
leprix
que l’on paye lareprésenta-
tion ou la traduction de la suite des
configurations
dusystème analysé, géné-
ralement pour la transmettre à distance. Je l’ai
appelé
travailsémiodyna- mique,
parce quel’analogie
avec le travail estfrappante,
et parce que ce"travail" met en
jeu
dessignes
ousymboles.
Là encore, il semble
qu’une
confusion soitfaite,
par laplupart
des auteurs, entrel’énergie diacritique
et le travailsémiodynamique.
La dis-tinction est
essentielle, puisque
ladépense
réellement faite pourtranspor-
ter l’information à distance
dépend
énormément de l’habileté de celui qui s’encharge,
de la redondancequ’il donne,
volontairement ou non, à son moded’expression.
Mais cetteconfusion,
faite sifréquemment,
est très instruc-tive : elle
provient
del’équivalence
entre"l’énergie"
et le"travail", principe
aussi bien
applicable
à lalogodynamique qu’à
lathermodynamique.
Paradoxalement, j’ai
renoncé au mot"entropie",
choisi par Shonnon pour définir laquantité
d’information. Pourtant, il estparfaitement
exact quel’expression mathématique
de"l’entropie"
au sens de Shannon est la même que celle de lagrandeur
utilisée par lesphysiciens.
Onpeut
aussi mettreen
regard
des formulessemblables,
où elles interviennent de la même fa- çon etjouent
des rôleshomologues.
Le choix du mot"énergie diacritique"
ou
plutôt
du mot"pression diacritique"
m’a parupréférable,
d’abord parcequ’"entropie" évoque,
par sonétymologie,
une notion d’évolution irréversi- ble que l’on ne retrouve pas enlogodynamique,
ensuite et surtout parcequ’il n’y
a aucune différence entre"l’entropie
d’une source" au sens de Shannon et ce dénombrement des états discernablesqui,
enlogodynamique, joue
exactement le même rôle quel’énergie
enthermodynamique.
Comme onle verra, les
grandeurs
de lalogodynamique
sont des nombres purs, elles n’ont pas de"dimensions",
cequi
rend inutiles ou illusoires certaines dis-Revue de Statistique Appliquée. 1972 - vol. XX N° 1
tinctions
qui,
au contraire,jouent
un trèsgrand
rôle dans les théoriesphy- siques.
On rencontrera encore, dans
l’exposé,
uneexpression
quej’ai appelée
"gradient sémiodynamique".
Ce termedésigne
unegrandeur qui joue
un rôlehomologue
à celui de latempérature
enThermodynamique.
Nous verronsqu’il
a
quelqu’importance
etquelqu’intérêt
pour évaluer larépartition
du "travailsémiodynamique"
entre les diverssymboles qui représentent,
dans un mes-sage, les divers états du
système analysé.
Cette notion,n’a,
me semble-t-il,
étéproposée
par personne, et c’est une lacunequ’il
convient de combler.Au terme de cette tentative de
justification
d’uneterminologie nouvelle ,
on ne
peut échapper
à unequestion importante : l’analogie
entre lalogodyna- mique
et lathermodynamique
est-ellesimplement formelle,
ou en réalitébeaucoup plus profonde ? N’y
a-t-il pas, à défaut d’une véritableidentité,
une liaison
étroite,
de caractèrephysique
entre les deux théories ? Ce pro- blème a été traité parbeaucoup d’auteurs,
et L. Brillouin lui a consacréun livre
[III].
Il s’endégage
l’idée que laquantité
d’information etl’entropie
sont de même nature et
s’échangent
mutuellement. Enréalité,
ils’agit
d’unproblème
decouplage, qui
estcaractéristique
de la théorie de la mesure.Toute mesure
physique
introduit nécessairement uneperturbation
dansle
système étudié ;
dans les cas lesplus fréquents,
onprélève
une certainequantité d’énergie,
et sipetite soit-elle,
on modifie par là même l’état d’é-quilibre qu’il
avait atteint. Si l’onobjecte qu’il
suffit de rendre cecouplage
extrêmement faible pour réduire à une valeur
négligeable
ouinappréciable
la
perturbation apportée, l’argument
n’est pasdéterminant ;
en effet la mi-crophysique
montre bien que nous ne pouvons pas réduire cet effet indéfi- niment car nous ne pouvons pas effectuer unprélèvement
inférieur au quan- tumd’énergie
élémentaire. Or si la"quantité
d’information" que nous pou-vons rechercher est une
grandeur
tout à faitabstraite,
de naturepurement intellectuelle,
sonacquisition
passe, pour toutsystème physique réel,
par l’intermédiaire d’unappareil
de mesurequi
doit lui être raccordé. On en déduitqu’aucune
information nepeut
être effectivementacquise
sur un sys- tèmephysique
sans que ce dernier soitperturbé ;
c’est-à-dire sans que sonentropie augmente.
C’est en ce sens, et en ce sensseulement, qu’il peut
y avoir"échange",
à défautd’identité,
entrel’entropie
et laquantité
d’infor- mation.Mais il serait tout à fait erroné d’en déduire que la
logodynamique -
théorie
abstraite,
de caractèrepurement mathématique - pourrait
êtreplus
ou moins
incorporée
dans lathermodynamique.
Ce que nousappelons
enPhy- sique,
chaleur outravail,
ce sont des mesures dephénomènes observables , qui
ont des effets que nous pouvons constater par nos sens. Au contraire ceque nous avons
appelé énergie diacritique
ou travailsémiodynamique,
cesont des
dénombrements,
desdécomptes opérés
par un processus purementintellectuel,
sans référenceprécise
à unsystème physique
donné. Il faut donc segarder
de voir, dans les définitions et les raisonnements qui vont suivre, autre chosequ’une analogie
formellequi
est sans doutefrappante,
mais ne
permet
en aucune manière d’identifier cettemathématique (élémen-
taire
d’ailleurs) qu’est
lalogodynamique
avec une branche de laPhysique.
30 CHAPITRE I
DEFINITIONS FONDAMENTALES RELATIVES A L’INFORMATION
INFORMATION ET ETATS DISCERNABLES
La notion d’information n’a de sens que si on l’associe à un ensemble d’états ou de situations
possibles prédéterminées.
Etreinformé,
c’est con-naftre, parmi
tous les évènementsqui
sontpotentiellement concevables,
ce-lui
qui
s’est effectivementproduit.
Un messagen’apporte
d’information à sondestinataire que s’il lui est
intelligible :
celuiqu’on
informe a donc néces- sairement la mémoire de tous les évènementspossibles,
et la faculté d’in-terpréter
le message, c’est-à-dire de discerner l’événementqui
lui est rap-porté.
Nousparlons
de mémoire et nond’intelligence,
car les machines n’ont que de la mémoire : le casexceptionnel
del’homme,
de sa facultéd’adapta-
tion, de sonaptitude ’à s’instruire,
c’est-à-dire à enrichir sesconnaissances,
de sonimagination
et de sonintelligence -
sources de sonpouvoir
créateur -échappe
à cettedescription.
Il est toutefois commode de se référer à
l’exemple
del’homme,
aumoins
qualitativement.
Lapensée joue
le rôle de la sourced’information,
lelangage
celui du message. De même que lapensée
nepeut
se communi-quer sans le
langage,
et ne saurait pour autant être confondue aveclui,
lamesure de la
quantité
d’information est inconcevable sans unsupport physi-
que
auquel
nous donnons le nom de message. Il en est d’ailleurs de même dans toute mesurephysique : chaque grandeur
semanifeste,
directement ouindirectement,
dans un certain nombre dephénomènes naturels,
et la me-sure est liée à une
expérience qui
met enjeu
l’un de cesphénomènes.
La théorie moderne des communications,
plus généralement appelée
théorie de
l’Information,
et tellequ’elle
a étéproposée
il y a 20 ans par C. E.Shannon [ II ],
fait usage des notions de "source d’information" et de"voie de transmission"
(channel). Quoique
ce vocabulaire soit assez naturel et très familier auxingénieurs
detélécommunication,
nous luipréférons
la notion,apparemment plus
vague, de"système",
et celle de"message" -
cedernier mot étant au demeurant moins
ambigu
que "voie" ou "canal"qui
dé-signent déjà
communémentbeaucoup
d’autres choses. Eneffet, l’image
laplus
commode est celle d’unsystème,
d’ailleurs absolumentquelconque,
sus-ceptible
deprendre
étatsdifférents, auquel
on associe un messagecomposé
designes
ousymboles caractéristiques
de chacun de ces états. Il reste à donner une définitionquantitative
de l’informationpermettant
d’identifier sansambiguité
la succession d’états de cesystème,
ainsi que du coût querepré-
sente l’émission du message
qui
luicorrespond (1).
---
(]) Dans toute cette étude, nous nous contentons d’analyser le cas d’un nombre fini d’états discrets, auquel on cherche généralement à ramener celui plus complexe
des grandeurs variant de façon continue.
Revue de Statistique Appliquée. 1972 - vol. XX N° 1
QUANTITE
D’INFORMATION OU ENERGIEDIACRITIQUE
L’information
permet
de discerner les états dusystème,
c’est-à-dire de connaftre la situation danslaquelle
il se trouve à tout moment. Il est raisonnable d’admettre que laquantité
d’information associée à unsymbole
est une fonction croissante du nombre d’états différents entre
lesquels
il per- met dechoisir,
carplus grand
est le nombre d’étatspossibles, plus
le pro-cessus d’identification de l’état effectivement réalisé est laborieux.
Un raisonnement
simple,
d’ailleursclassique, permet
d’établir la fonc- tion du nombre d’états discernablesqui peut
êtrejudicieusement
associée à la"quantité
d’information".Considérons un
système
Spouvant prendre
l étatsdistincts,
et asso-cions un
signe
ousymbole
si à chacun de ces états. Nousappellerons
q = f(l)
la
"quantité
d’information"correspondant
àl’apparition
de cesymbole(1).
Sil’évolution du
système
S le conduit àprendre
successivement n états diffé- rents, il en résulteral’affichage
de nsymboles successifs,
choisis dans l’en- semble(s 1,
S2, ... ,sd.
Sil’apparition
d’unsymbole
skcorrespond
à unequantité
d’informationf (1), l’apparition
successive de deuxsymboles
indé-pendants s~
et slcorrespond,
par une convention dont la raison d’être estévidente,
àf (1)
+f (1) =
2f (1) (Principe
de l’additivité del’information).
Or,
il estpossible d’employer
une autre méthode pour identifier l’état dusystème.
Au lieu d’associer àchaque
état unsymbole
déterminé appar- tenant à l’ensemble(sl,
...,sl),
onpeut imaginer
un classement apriori
des étatspossibles
en deux classesCI
etC2,
chacune de ses classes étant elle-même constituée de deuxsous-classes,
et ainsi de suite. Ceprocédé dichotomique permet
une identification deproche
enproche,
comme dans lejeu
de société danslequel
onprocède
par questions etréponses,
ces der-nières étant restreintes à oui ou à non. Comme
f (1)
est "l’information" liée à l’identification d’unsymbole,
et en admettant quechaque
classe et cha-que sous-classe
puissent
être divisées en deuxparties égales,
le processusdichotomique
est caractérisé par les relations suivantes,qui
tiennentcompte
du principe d’additivité :(1)
D’où :
(2)
(1) Nous supposons implicitement que la quantité d’information f (1) ne dépend pas du
symbole qui est apparu, ce qui est légitime si les états de système (S) sont équi- probables. Le cas plus complexe des états de probabilités différentes est traité
au Chapitre II.
32
qui
s’écrit encore :La fonction
f (x), qui
satisfait à la relation fonctionnelle(3),
est manifeste-ment la fonction
logarithme
de base 2 :f(x) = log2 (x).
Ceci revient à dire que l’identification d’un état
parmi
lpossibles peut
être faite par le nombre m de chiffres binaires le
plus
voisin, parexcès ,
delog2
l. Dans cesconditions,
l’information liée à l’émission de nsymbo-
les successifs sera :
en
désignant
parlog
lelogarithme
naturel.De même que l’unité de
surface,
engéométrie,
a été liée à lafigure
la
plus simple
que l’onpuisse imaginer,
à savoir lecarré,
de même l’unité d’information a été rattachée ausymbole
leplus simple possible,
l’élémentbinaire, qui permet
ladiscrimination,
c’est-à-dire le choix leplus
som-maire :
négation
ouaffirmation,
existence ou inexistence. Dans ces condi- tions, la base 2 pour leslogarithmes s’impose naturellement,
et l’élément binairecorrespond
à laplus petite quantité
d’information concevable.Par seul souci de
simplification
dans l’écriture des relations mathé-matiques,
nousemploierons pourtant,
dans la suite del’exposé,
lelogari-
thme naturel
(1),
en écrivant :Par convention, nous
exprimerons Q
en"logons" :
1 élément
binaire = 0, 69 logons -
0, 7logon.
Il
n’y
a évidemment aucune difficulté à passer d’une unité à l’autre.La relation
(5) exprime
enquelque
sorte la définitionquantitative
de l’information. Il estimportant
de remarquer queQ comporte
2 facteurs net
log l,
cequi suggère
uneanalogie
formelle entre l’information et l’éner-gie.
Eneffet,
npeut
être considéré comme le facteurappelé quelquefois
"d’extensité" ou de
"capacité" :
iljoue
le même rôle que laquantité
d’élec- tricité dansl’expression
del’énergie électrique,
que le volume V dans l’ex-pression pV
du travail d’un gaz, que ledéplacement
dans le travail d’uneforce,
etc.L’expression logl
est au contraire le facteur "d’intensité"(ou d’équilibre) homologue
dupotentiel électrique,
de lapression,
de laforce,
etc. Il est en effet à peuprès
intuitif que laquantité
d’information doit con-tenir ces deux facteurs : il
y a le
nombre d’informationspartielles
recueil-lies,
et il y a la "richesse"qui
contient chacune de ces informations par-tielles, qui
est mesurée par le facteurlogl.
--- - ---
(1) On pourrait tout aussi bien poser Q = n
log2t -
K n log 1, avecIC
1 = log 2. Nousallègerons
l’écriture en choisissant le logarithme naturel comme unité, ce qui con- duit à K = 1.Revue de Statistique Appliquée. 1972 - vol. XX N° 1
Par
définition,
le facteur n seraappelé
volumed’information,
et il estexprimé
en nombres purs ; le facteurlogl
l seraappelé pression diacritique ,
et la
quantité Q
= nlog
l sera considérée comme uneénergie diacritique (1).
La
pression
etl’énergie diacritiques s’expriment,
par convention, en"logons"
(ou si l’on veut, en éléments
binaires).
Ces définitions
appellent
deux remarques trèsimportantes.
La pre-mière,
c’est quel’énergie diacritique Q
dont il vient d’êtrequestion
carac-térise l’information elle-même associée au
système (ou
à la"source")
indé-pendamment
de sonsupport physique
ou véhicule constitué par le message . Si ce dernier estindispensable
à la manifestation de l’évolution dusystème étudié,
il ne saurait se confondre aveclui,
pasplus
que lapensée
nepeut
s’identifier aulangage.
Nous reviendrons abondamment sur cepoint
dans la suite del’exposé.
La deuxième remarque est que les deux facteurs "volume" et
"pression diacritique"
sont sans dimension. Il en résulte que le volume d’information n’a designification
réelle que si letype
d’états discernables est bien défini . Onpeut parfaitement
écrire :Q =
nlog
1 =log (Zn) = log
L ; si la succes- sion de n états donnés est considérée comme un évènementunique, Q
devient la"pression diacritique" log
L associée au nouveausymbole complexe qui
lui est affecté etqui peut prendre
L valeurs différentes. Iln’y
a donc au-cune différence de nature entre
"pression"
et"énergie" diacritiques.
MESSAGE ET TRAVAIL
SEMIODYNAMIQUE
Le message, véhicule de
l’information, possède
une structureplus
oumoins
complexe ;
ilpeut
être limité dans letemps,
doncposséder
un "for-mat" ou être
"fluent",
c’est-à-dire sans limitation de durée : mais il pos- sèdetoujours
une certaineorganisation.
Nous
appellerons
élémentprimaire
laplus petite
fraction que l’onpeut
isoler"physiquement"
dans le message. Aucun élément identifiable n’a de duréeplus
courte. Cette entité n’anéanmoins,
dansbeaucoup
de cas, au-cune
signification
propre, car elle necorrespond
pas nécessairement à uneinformation utilisable.
Nous
désignerons
sous le nom desymbole
laplus petite
fraction du messageayant
unesignification,
c’est-à-direcorrespondant
à un état du sys- tème. Laréception
dusymbole apporte
uneinformation,
car ellepeut
êtreinterprétée
comme affirmant l’existence d’une situationappartenant
au cata-logue
des situationspossibles.
L’ensemble des
symboles
utilisables constituel’alphabet.
Les
groupements
desymboles
serontdésignés
sous des nomsdivers ,
tels que"mot", "séquence"
ou"message".
On réservera lesexpressions
"mot" et
"message"
auxassemblages ayant
unesignification,
c’est- à-direappartenant
à un ensemble ordonné etcohérent,
tandis que"séquence"
dé----
(1) Le substantif "diacrisis" signifie en grec : distinction, caractère discernable C’est bien la signification profonde de la "quantité d’information" qui est une me-
sure de la possibilité de choix associée à un jeu de symboles.
34
signera plutôt
une suitecomportant
un nombre arbitraire desymboles,
suitequi
est souventdépourvue
designification
parcequ’elle échappe
à un clas-sement.
Il est
important
de revenir sur la notiond’alphabet.
Si on le suppose constitué de lsymboles différents,
il est nécessaire dedéfinir :
a)
Comment cessymboles
se différencient les uns des autres.b)
Aquelles règles d’assemblage -
ou si l’on veut àquel "langage"
ils obéissent.
La différenciation des
symboles
résulte de la nature dessignaux qui
leur sont affectés. Lescaractéristiques
lesplus
couramment utilisées sontl’amplitude
et la durée. Dans le cas, considéré ici, d’un nombre fini d’étatsdiscrets,
la discrimination parl’amplitude (1) correspond
à la définition de niveaux"quantifiés"
discernables les uns des autres. Il faut évidemment en-visager
au moins deux niveaux différents pourpouvoir distinguer
lessymbo-
les.
Lorsque
la discrimination se fait par ladurée,
on affectegénéralement
à cette dernière des valeurs
multiples
d’un intervalle detemps élémentaire ,
mais cette contrainte n’est pas absolue.
La notion d’intervalle de
temps
élémentaire Tjouera
un rôleimportant
par la suite. On
désigne
par ce terme leplus petit
intervallesignificatif ,
et il
dépend,
non seulement dessymboles,
mais de leursrègles
d’assem-blage.
Précisons-le par unexemple :
Considérons un
alphabet comportant
3symboles
si’ s2, S3’ dont les duréesrespectives
sont, avec une unité detemps arbitraire, égales
à 2, 3 et 5 ; supposons deplus
que si a uneamplitude égale
àzéro,
tandis que s2 et s3 ont uneamplitude égale
à 1. Si larègle d’assemblage
consiste àtoujours
faire suivre lesymbole
S2 dusymbole
Si, letemps
élémentaire estégal
à 2, car c’est leplus petit
intervalle detemps qu’il
faut savoir évaluer pourne pas confondre s2 avec s3. Si au contraire la
règle d’assemblage
consisteà
prohiber
la suite S2 s3,qui
est indiscernable de s3 S2, mais à admettre la suite s2 s 2’ letemps
élémentaire a pour valeur 1,puisqu’il
fautpouvoir distinguer
s2 s 2 de durée 6 de s3 dont la durée est 5(Bien entendu,
dansun tel cas, il faudra
prohiber
d’autrescombinaisons,
comme S2 S2 S2 S2 S 2qui
est indiscernable de s 3 s 3s 3 ) .
On voit donc que le
temps
élémentaire Tdépend
non seulement de la durée dessymboles,
mais aussi de leursrègles d’assemblage. Lorsque
lessymboles
ne se différencient que parl’amplitude,
letemps
élémentaire est leplus petit
intervalleséparant
deuxchangements
de niveau successifs.Donner un
alphabet,
c’est donc définir un ensemble desymboles
ainsique leurs
règles
élémentairesd’assemblage,
c’est-à-dire les suites discer- nablescomposées
à l’aide de cessymboles.
Définition : Etant donné un
alphabet
et sesrègles d’assemblage,
letemps
élémentaire T associé à cetalphabet,
est leplus petit
intervalle de tempsqui
doitpouvoir
être discriminé pour que deuxséquences
distinctes de même durée soient discernables. L’inverse w =1/T
est la"rapidité
de modulation "associée à
l’alphabet.
---
(1) Ou encore par la phase, la fréquence, etc...
Revue de Statistique Appliquée. 1972 - vol. XX N° 1
Nous allons maintenant associer au message une
grandeur quantitative qui
soit enquelque
sorte la mesure de ladépense
effectuée en transmettant de l’information. Il est évident que lacorrespondance
entre l’information à transmettre, qui résulte de l’évolution dusystème (énergie diacritique)
et le messagechoisi,
n’est pas stricte. Onpeut
en effetemployer
un messageinutilement
long
pourcommuniquer
une information très faible : chacun saitqu’un
écrivain ou un orateur n’est pastoujours
très concis. Donc, le dis-cours ou le message
correspondent
à un certain"travail",
à une certaine"dépense", qu’on
nepeut identifier, purement
etsimplement,
avec l’infor-mation transmise.
A la suite des travaux de
Nyquist
et deHartley [ I] ,
il a été reconnu quece travail
pouvait
être considéré commeproportionnel
au nombre maximal"d’éléments
primaires"
quecomporte
le message.Or,
l’élémentprimaire,
a, pardéfinition,
une durée T =1 /w ;
il y a donc w éléments par unité detemps,
et le "travail" Eaccompli pendant
untemps
Tpeut
se mettre sous la forme :(6)
E = K x wTNous
appellerons
E le travailsémiodynamique
de laséquence
dedurée T(1 ) .
Nous allons
expliciter
le facteur Kqui
a été introduit dans la formule(6) ;
maisauparavant,
faisons une remarque sur la définition du travail sé-miodynamique.
Le
concept
que nous avons introduit ne fait pas intervenir la structureparticulière
de telle ou telleséquence
ou de tel ou tel message : il ne meten
jeu
que le nombre "d’instants élémentaires" contenus dans un intervalle detemps
T. Eneffet,
c’est la cadence ou variation de niveau laplus
ra-pide
que l’onpeut
rencontrer dans unelongue séquence qui
est le critère de"dépense"
ou de travailaccompli,
la durée étant le deuxième facteur àprendre
en considération. C’estpourquoi
on introduit larapidité
de modula- tion ou "vitesse demanipulation"
w. Il est bien connu que cette vitesse est liée à la bandepassante A
f de la voie de communication utilisée : mais la relation entre w et ~ f est d’un autreordre,
ellerelève,
non de ce que nousavons
appelé
la"logodynamique",
mais de la théoriephysique
de la trans-mission et de la
réception
dessignaux électriques.
Dans un souci degéné- ralité,
nous conservons ainsi à la notion de"message"
son caractére abs- trait, en ne le confondant pas avec lesupport physique
leplus
commun qui est la voie de communication. C’est une des raisons pourlesquelles
nousavons
adopté
cetteterminologie.
Revenons maintenant au facteur K pour le
préciser.
Il est commode depouvoir
comparer lagrandeur
E, que nous avonsappelée
travail sémio-dynamique
du message, à lagrandeur Q qui
estl’énergie diacritique
du sys- tème.Or,
wT est le nombre d’élémentsprimaires
que contient l’intervalle T, et pour que KwT soit de même nature(2)
que E, il faut que Kpuisse
---
(1) De "seméion", signe. E caractérise essentiellement le nombre maximal de si- gnes ou éléments, de durée minimale T qui peuvent être mis en jeu pendant un temps T.
(2) Nous parlons de "nature", c’est-à-dire de forme, et non de "dimension", puisque
E comme Q sont des nombres purs, dépourvus de dimension.
36
être considéré comme une
pression diacritique,
ainsi que le montre la for- mule (5). Nousdésignerons
par v la valence del’émission,
c’est-à-dire le nombre de niveaux que l’onpeut
rencontrer dans l’ensemble desséquences
constituées àpartir
del’alphabet utilisé,
et nousprendrons,
pardéfinition ,
K =
log
v. Avec cetteconvention, l’expression
du travailsémiodynamique
E d’une
séquence
de durée T a pour valeur :Ce choix va être
justifié
par unexemple particulièrement simple, qui
meten évidence
l’équivalence
del’énergie diacritique
et du travailsémiodyna- mique.
Considérons un
système (S) pouvant prendre
l étatsdifférents,
et ob-servons une suite de N états successifs
pris
par lesystème. L’énergie
dia-critique
mise enjeu
est Nlog l, qui peut
encore s’écrire :est le nombre d’éléments binaires nécessaire pour identifier un état donné
parmi 1.
A la succession des N états
pris
par lesystème,
onpeut
faire cor-respondre
un messagebinaire,
derapidité
de modulation w. Ce message de durée T aurafourni,
sans omission nirépétition,
l’information relative à la succession des N états de S, s’ilcomporte
un nombre N’ d’éléments bi- naires tel que :Donc :
(10)
Nlog
1 = mNlog
2 = wTlog
2.(10)
Nlog
1 = mNlog
2 = wTlog
2.La formule
(10)
n’estqu’un
casparticulier,
obtenu pour v = 2(émission bivalente)
de la formulegénérale (7).
Il y a donc bien
"équivalence"
entreénergie diacritique
et travail sé-miodynamique.
Cette
équivalence
est démontrée dans le casgénéral,
si on observequ’on peut toujours
transformer un message de valence v(v
>2)
en un mes- sage binaireéquivalent
derapidité
de modulation w’ = w, enposant :
ou encore :
(11)
Revue de Statistique Appliquée. 1972 - vol. XX N° 1
Remarquons
en outre que, n et n’ étant des "facteurs d’extensité" ana-logues
à desvolumes, log
v etlog
2 des"pressions diacritiques",
la for-mule
(11)
est formellement semblable à la relation des gasparfaits :
Toutes ces
analogies
entrel’énergie
et l’informationjustifient
la ter-minologie employée ;
parsurcroît,
nous verronsplus
loin que les mêmesty-
pes de raisonnement interviennent dans l’établissement des relations entre les
grandeurs.
Elles ne doivent pas néanmoins faireperdre
de vuel’aspect purement
formel del’analogie.
Eneffet,
enthermodynamique, l’équivalence
entre le travail et la
chaleur,
la loi de Mariotte, etc. , résultent del’expé-
rience. Au
contraire,
enlogodynamique,
les relations se déduisentsimple-
ment de transformations
mathématiques élémentaires,
car ils’agit de
gran- deursdépourvues
dedimensions,
et c’est là une différence trèsprofonde
entre les deux théories
(1).
(1) Il en est exactement de même dans la comparaison classique entre la "limitation
temps-fréquence" d’un signal et le principe d’incertitude d’Heisenberg. Dans le premier cas, il s’agit d’une simple propriété mathématique de la transformation de Fourier, alors que le deuxième constitue un véritable principe de la physique corpusculaire.
38 CHAPITRE II
ENERGIE
DIACRITIQUE
MOYENNE D’UN SYSTEME ET D’UN MESSAGELe
chapitre qui précède
a été consacré aux définitionsfondamentales ;
il apermis
depréciser
la notiond’information,
sous sa formed’énergie
dia-critique
ou dénombrement d’états discernables. Mais les considérationsqui
ont été
développées
concernent enquelque
sorte l’information"statique"
ou"potentielle"
dusystème :
richesse d’information d’unsymbole pris parmi
lpossibles, dépense
effectuée en fonction de larapidité
de modulation et de la valence dusignal.
Nous allons maintenant allerplus loin,
en évaluant laquantité
d’informationqui
est offectivement associée à l’évolution d’un sys-tème,
ainsi que cellequ’est
effectivementsusceptible
de véhiculer un mes-sage,
compte
tenu de sa structure.PRESSION
DIACRITIQUE
MOYENNE D’UN SYSTEMESoit un
système (S) susceptible
de se trouver, à un instantdonné,
dansun état
(Sk) déterminé, parmi
l états différents admissibles. Examinons sonévolution en l’observant N fois de suite. Si N est très
grand,
lesystème (S)
apris
tous les étatspossibles :
supposonsqu’il
aitpris
ai fois l’état(sl),
a2 fois l’état(S2),
..., a ~ fois l’état(s~).
On aura :(12)
al + a2 +... + a~ = NSi nous
appelons configuration
l’ensemble des N situations examinées successivement, le nombreP (N)
deconfigurations possibles
a pour valeur :P
(N)
est le nombre deconfigurations
discernables :d’après
la définition don- née auchapitre précédent, log
P(N)
estl’énergie
oupression diacritique
d’une
configuration.
Si N est très
grand,
les ai sont eux-mêmes trèsgrands,
eton peut
déterminer la valeurasymptotique
delog
p en faisant usage de la formule deStirling,
réduite à son termeprincipal :
log
x : = xlog
x - xOn en déduit :
ou encore,
puisque
Revue de Statistique Appliquée. 1972 - vol. XX N° 1