HAL Id: jpa-00208424
https://hal.archives-ouvertes.fr/jpa-00208424
Submitted on 1 Jan 1976
HAL
is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire
HAL, estdestinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Sur le coût minimum de l’information. Comparaison du principe de Carnot et du principe de carnot généralisé
de Brillouin
A. Marchand
To cite this version:
A. Marchand. Sur le coût minimum de l’information. Comparaison du principe de Carnot et du principe de carnot généralisé de Brillouin. Journal de Physique, 1976, 37 (4), pp.297-301.
�10.1051/jphys:01976003704029700�. �jpa-00208424�
SUR LE COÛT MINIMUM DE L’INFORMATION.
COMPARAISON DU PRINCIPE DE CARNOT ET DU
PRINCIPE DE CARNOT GÉNÉRALISÉ DE BRILLOUIN
A. MARCHAND
Centre de Recherches
Paul-Pascal,
DomaineUniversitaire,
33405Talence,
France(Reçu
le23 juin 1975,
revise le 13 octobre et le 8 dgcembre 1975,accepté
le 11 décembre1975)
Résumé. 2014 Brillouin énonce de la manière suivante le principe de Carnot
généralisé :
la sommede la néguentropie et de l’information d’un système isolé ne peut que décroître [4]. Il affirme aussi que dans une transformation réversible information ~
néguentropie,
le coût de l’information est k Log 2 par bit [5]. On montre, dans le présent article, que le calcul de Brillouin est entaché d’erreurset que la valeur k Log 2 par bit est
toujours
inférieure au coût de l’information. Onsuggère
que cette perte inéluctable d’information seproduit
à l’interface del’esprit
et du milieu matériel.Abstract. 2014 Brillouin stated a
generalized
Carnot’s principle in thefollowing
way : the sum of negentropy and information in an isolated system canonly
decrease [4]. He stated also that in areversible information ~ negentropy transformation the cost
of
information is k Log 2 per bit [5].The present paper shows that Brillouin’s calculation is erroneous, and that, the value k Log 2 per bit is only a lower limit which is
approached asymptotically.
It issuggested
that thisinescapable
loss ofinformation occurs at the mind-matter
interface.
Classification
Physics Abstracts
1.600 - 1.680
1. Introduction. - Les liens 6troits
qui
existententre
1’entropie chang6e
designe,
ounéguentropie
et
l’information, pressentis
par Shannon[1],
furentpr6cis6s
par Brillouin[3].
C’est Brillouinqui,
6tudiantplus particulièrement
les transformations mutuelles de1’entropie
et del’information,
proposa lePrincipe
de Carnot
généralisé, qu’il 6nonrait
ainsi : la sommede la
n6guentropie
et de l’information d’unsysteme
isol6 ne peut que diminuer
[4].
Si ond6signe
par N = - S1’entropie
et par Il’information,
ceprincipe
s’6crit pour toute transformation d’un
systeme
isol6 :Si AI =
0,
il se réduit au secondprincipe
de lathermodynamique
ouprincipe
de Carnot.Dans le cas ideal des transformations réversibles d’un
systeme isol6,
leprincipe
de Carnot s’ecrit :et l’on peut
s’interroger
sur la forme queprendrait
le
principe generalise
de Brillouin :ou bien
En d’autres termes, une transformation reversible de
n6guentropie
en information(ou
viceversa)
seferait-elle sans perte, et
quel
serait dans ce cas lecofit de
l’information
ennéguentropie?
Ou encore,quelle
est1’augmentation
minimale de1’entropie
universelle
qu’il
faut payer pour obtenir 1 bit d’infor- mation ?Brillouin pense que la formulation
[4]
est correcte pour une transformation reversible. Il. se propose de montrer,dit-il,
que laplus petite quantité
denéguen- tropie
ngcessaire à uneinformation
est de l’ordre de k(constante
deBoltzmann).
Une étudeplus complète
conduit à la valeur minimum exacte de k
Log
2. Enunites
binaires,
ce minimumcorrespond
exactementà 1 bit
[5].
Nous allons montrer que ce n’est pas
rigoureuse-
ment exact : le cout de l’information est
toujours sup6rieur
i kLog
2 par bit. Autrementdit,
les trans-formations mutuelles de l’information et de la
n6guen- tropie
se fonttoujours
avec perte et c’est la formu- lation[3] qui
esttoujours
correcte.2. Le
dispositif
de Brillouin. - 11 est evident que les instruments de mesurereels,
par suite de leur fonctionnement irreversible et de leurinertie, dissipent
sous forme de chaleur 6norm6ment
d’6nergie
etcr6ent donc
beaucoup plus d’entropie
que ne1’exigerait
la
quantite
d’informationsqu’ils
fournissent. Brillouinimagine
donc un instrument aussiparfait
quepossible [6] :
un détecteur designaux
constitu6 par ununique
oscillateurharmonique
defrequence
v échan-Article published online by EDP Sciences and available at http://dx.doi.org/10.1051/jphys:01976003704029700
298
geant
son6nergie
de maniere reversible avec le milieu ext6rieur.Lorsque
lesignal
6tudi6 est absorbe par led6tecteur,
l’élévationcorrespondante
de1’energie
de ce dernier constitue la
réponse
de l’instrument demesure. Un tel
appareil
foumit doncsimplement
desr6ponses,
soitpositives,
soitnegatives,
sur 1’existence dusignal
et sonabsorption.
Enfait, malgr6
sasimpli- cite,
le fonctionnement de ce d6tecteur n’est pas si facile aanalyser,
et 1’etablissement du bilann6guen- tropie-information
demandequelques
calculs. II faut tenir compte en effet de 1’excitationthermique
dud6tecteur a la
temperature
T ou ilopere :
uner6ponse positive
del’appareil
peut etre due a 1’excitationthermique
et non al’absorption
d’unsignal.
11 fautdonc
imposer
ausignal
detransporter
un minimumd’6nergie
et decider apartir
dequel
niveau lar6ponse
du d6tecteur sera consideree comme
positive.
Ce que Brillouin
appelle
le minimum nécessaire à uneobservation
correspond
au cas où lar6ponse positive
du d6tecteur a une chance sur deux d’etre due a la
reception
d’unsignal;
il est evident que cette definition estparfaitement arbitraire;
onpourrait
aussi bienfixer cette
probabilite
a 1%
ou 99%.
Une telle evalua- tion est d’ailleursincompatible
avec la th6orie de l’information. Mais 1’examen du calcul de Brillouinfait apparaitre
en outre diverses erreurs, aussi bien dans le calcul desprobabilités
que dansl’application
de la th6orie de l’information.
Nous allons donner un calcul correct, sur ce meme
dispositif,
du bilaninformation-néguentropie.
Le d6tecteur est en
6quilibre thermique
avec lemilieu ext6rieur a la
temperature
T.Le d6tecteur
poss6de
des niveauxd’6nergie (n
+î) hv (avec n
=0, 1, 2, 3, ...). Chaque signal
est
suppose
transporter une6nergie qhv (q
entierpositif,
h constante dePlanck).
Lar6ponse
du detec-teur est donc
positive
si son6nergie
E estsup6rieure
ou
egale
a(q
+])
hv(puisque
lesignal
apporte une6nergie qhv
a un d6tecteurd’6nergie
minimalehv/2).
Le
signal
n’existe pas en permanencemais,
s’ilexiste,
il esttoujours
absorbe par le d6tecteur. 11 existe donc uneprobabilité
apriori
a pour que lesignal
existe
(et
soitabsorbe)
a un instant donne(1) (c’est-A-
dire
pendant
l’intervalle de temps n6cessaire a unemesure).
On suppose par contre que le d6tecteur fonc- tionne en permanence, donnant uner6ponse
tantotpositive,
tantotnegative.
L’incertitude(2)
sur 1’exis-tence du
signal,
avantchaque
mesure, est donc :Un d6tecteur
parfait (c’est-a-dire
fonctionnant a 0K)
donnerait uner6ponse positive chaque
foisqu’il
absorberait unsignal,
et unereponse negative
tout le reste du temps. La
probabilité
d’unereponse positive
a un instant donne serait alors a. Un tel detecteur foumirait le maximum d’informations pos- sible sur lesignal :
Mais en
fait,
a cause de 1’excitationthermique,
le d6tecteur
peut
donner uner6ponse positive (E > (q
+1) hv)
sans avoir absorbe designal.
Laprobabilite
d’uner6ponse positive
a un instant donne est doncsup6rieure
a a, si T > 0.La
r6ponse positive implique,
soit que le d6tecteura recu un
signal,
soitqu’il
a 6t6port6
a1’6nergie
Epar excitation
thermique. Chaque
mesure(positive
ou
negative)
ne fournit donc en moyenne sur lesignal qu’une
information I auplus 6gale
aIo.
Lorsqu’un signal
a 6t6absorb6,
son6nergie qhv
est ensuite
restítuée
sous forme de chaleur au milieuext6rieur,
et le d6tecteur est de nouveaupret
a fonc-tionner. Comme on suppose que le milieu ext6rieur
(thermostat)
est enéquilibre
à latemp6rature
cons-tante
T, 1’entropie
du milieu ext6rieur(3) augmente
doncchaque
fois deqhv/T.
En moyenne1’augmenta-
tion
d’entropie
par mesure(positive
ounegative)
est :fl
s’agit
d’évaluer I et lerapport 6SIL
3. Probabilite d’une
rkponse positive
du d6tecteur etinformation
correspondante.
- Laprobabilite
pour que le d6tecteur a latemperature
T ait1’6nergie (n
+1/2)
hv est donn6e parla. thermodynamique
sta-tistique.
Elle vaut, comme on le sait :en posant x =
hv/kT.
La
probabilité
pourqu’a
latemperature
T led6tecteur
ait,
par suite de 1’excitationthermique,
une
6nergie
Esup6rieure
ou6gale
a(q
+2)
hv estdonc :
de sorte que,
lorsqu’on
fait une mesure, onpeut
avoirles
quatre possibilit6s
suivantes :RTPONSE NEGATIVE DU DTTECTEUR
(ni signal,
niexcitation
thermique) : probabilité .
(1)
Brillouin ne tient pas compte dans son calcul de cette pro- babilité : c’est IA 1’origine des difficultés qu’il rencontre pour définir le minimum ngcessaire d une observation.(2) Nous prenons ici le mot incertitude au sens de l’entropie H de Shannon [2].
(3) On remarque que ce raisonnement ne presuppose rien quant a la r6versibilit6 ou l’irréversibilité du passage de l’energie qhv
du détecteur au milieu ext6rieur. Brillouin fait I’hypoth6se d’un echange reversible : outre que la notion meme de réversibiHté demanderait dans ce cas une discussion d6taill6e, cette hypothèse
est en fait inutile.
RÉPONSE POSITIVE DU DTTECTEUR. -
a) signal
sansexcitation
thermique : probabilite a( 1 - Pq), b)
exci-tation
thermique
sanssignal : probabilite Pq(1 - a),
c) signal
+ excitationthermique : probabilite otP.;
la
probabilite totale
d’uner6ponse positive
6tantLorsque
lareponse
estpositive,
laprobabilité
pourqu’il
y ait euabsorption
d’unsignal
est donc(4)
Une
r6ponse positive
du d6tecteur laisse un doute : l’incertitude restant dans ce cas sur l’existence dusignal
est :par
reponse positive
du d6tecteur.4. Information
acquise
par mesure. -Lorsque
lar6ponse
du d6tecteur estnegative
on saitqu’il n’y
apas eu de
signal
absorbe : il ne reste donc pas d’incer- titude.En moyenne
après chaque reponse (positive
ounegative)
dud6tecteur,
l’incertitude sur 1’existence dusignal
est donc :L’information
acquise
sur lesignal
achaque
mesure(positive
ounegative)
est donc mesur6e par la dimi- nution d’incertitude :et, en tenant compte de
(10), (9)
et(8) :
(4) On observe que cette formule (9) est tout a fait diff6rente de celle donn6e par Brillouin [6] :
En particulier p( + S) vaut I si
alors que Brillouin trouve que
(indépendant de a, ce qui est absurde).
et
finalement,
en tenant compte de(6) :
Malgr6
sonexpression compliqu6e
la fonctionI(qx)
ouI(aqx)
a unerepresentation simple :
lafigure
1 montrequelques
courbesrepresentatives
pour diverses valeurs de a.
Quand
qx -+ oo on a 6videmment I -+Io puisque,
1’excitationthermique
ne
jouant plus
aucun role(T -+
0 ou q -+oo),
led6tecteur devient
parfait :
mais cetteperfection
croissante est
acquise
auprix
d’une consommation croissante den6guentropie
comme on le verraplus
loin.
FIG. 1. - Repr6sentation théorique de l’information I acquise par mesure, en fonction de agx = aqhv/kT = aS/k (bS 6tant la creation d’entropie par mesure). La limite de I pour
aqx -+ co (q -+ oo ou T -+ 0)
est
5. Cout de l’information.
- Lafonction I(qx) dépen-
dant de a, il n’est donc pas
possible
d’evaluer le « cofitnéguentropique
» deI,
ou si l’onpréfère
le rapportbS/l,
sans connaitre a.
Mais comme
[5]
donne bS =akqx,
on voit sur lafigure
1 que lerapport I/bS
est6gal (au
facteur kpres)
a la pente de la droite
joignant l’origine
aupoint
Mde la courbe
I(aqx).
Les valeurs lesplus
6lev6es durapport,
c’est-à-dire les meilleurs rendements de la transformationn6guentropie -+ information,
pourune valeur donn6e de a,
correspondent
donc a latangente à 1’origine
dechaque
courbe.Le calcul de la d6riv6e
dl/d(qx) donne,
apartir
de (13) :
300
ou, en posant :
Le rendement en
information
est doncproportionnel
a Log ( 1 + u) ,
. Comme u esttoujours positif,
u
Log (1 + u)
est
toujours
inferieur’1
et ne tend 1u
que si u ->
0,
c’est-A-dire si cx -> 0.La
quantite
deneguentropie qu’il
faut consommerpour avoir de l’information est donc
toujours sup6-
rieure A k
Log
2 par bit. Elle ne tend vers cette limite que si a -0,
c’est-d-dire si l’information obtenue devient nulle(signal
ayant uneprobabilite
d’exis-tence
nulle).
Pour une valeur donn6e non nulle de a, le meilleur rendement de la transformation
n6guentropie -+
infor-mation est obtenu pour u
minimum,
donc pour qx =0,
c’est-d-dire(si
T restefinie)
pour q = 0(tangente
a,l’origine
d’une courbe de lafigure 1 ).
Il vaut :
mais il
correspond
li encore al’acquisition
d’uneinformation nulle
(car
1= 0 si qx =0).
On voit enfin que la detection
parfaite (I
->10) exige
une consommation infinie den6guentropie (aqx - oo).
On retrouve d’ailleurs ainsi un resultatclassique
de la th6orie de 1’information sur la trans- mission par uneligne
de communication avec bruitthermique [1].
6. Conclusion. - Nous avons donc montre que,
avec le
dispositif imagine
parBrillouin,
et contraire-ment a ce que celui-ci avait affirm6 a la suite d’un raisonnement
critiquable,
le cout de l’information esttoujours superieur
a kLog
2 unit6s den6guentropie
par bit. Cette valeur de k
Log
2 n’estapproch6e
que dans le cas limite ou l’informationacquise
tend verszero.
On peut se demander s’il
s’agit
Id d’un resultatgeneral,
ou si ledispositif
de Brillouin n’est passimplement
mal utilise. Onpeut
en effetimaginer
des variantes.
Le calcul conduit exactement au meme resultat
si,
au lieu de considerer un
signal
emis parintermittence,
on considere un
signal qui
est, soit emis en perma-nence
(avec
laprobabilité a)
soit non 6mis en perma-nence
(avec
laprobabilite
1 -a) :
le cout de l’infor-mation, toujours sup6rieur
a kLog
2 parbit,
ne tendvers cette valeur que si a
(et
donc 1’informationacquise)
tend vers zero.Mais on peut
r6p6ter
la mesure et augmenter ainsi l’informationacquise.
Si l’on seplace
dans lesmeilleures conditions de rendement
(a
->0),
onobtient a
chaque
mesure une informationqui
tendvers
zero,
maisqui multipliée
par un tresgrand
nombre N de mesures peut ne
plus
etrenégligeable.
Cependant,
le cout de l’information resteratoujours supericur
4 kLog
2 parbit,
etd’autant plus
d’ailleursque l’information
suppl6mentaire acquise
achaque
mesure diminue
quand
Naugmente.
On peut encore
imaginer
leprobleme
suivantsuggere
par R.Castaing.
Soit a
rechercher, parmi
ungrand
nombreNo
desystemes,
dont un seul 6met lesignal qhv,
celuiqui
emet. Avant toute mesure l’incertitude est
log2 No.
On
place
successivement le d6tecteur de Brillouin devant lesNo systemes.
11 absorbera un vraisignal,
a la suite
duquel
il foumira1’entropie
65 =qhv/T
au milieu exterieur
(thermostat),
et(No - 1) e - qhvlkt signaux parasites
dus a 1’excitationthermique,
etqui n’apportent
aucuneentropie
au thermostat. A la suite de cesNo
mesures, le nombre desystemes soupçonnés
d’6mettre lesignal
est r6duit àd’ou un
gain
d’informationobtenu au
prix
de lan6guentropie
6S =kqx.
Le cout de l’information est :
Log
Le terme est
toujours
négatif puisque
eqA - I > U ; 11 tend a s’annuler siNo ->
oo. Le cout de l’information est donctoujours sup6rieur
a kLog
2 par bit et tend vers cette limite si le nombreNo
desystemes
est tresgrand. Cependant,
l’information
acquise
dans ce cas tend vers la valeurnon nulle 65 =
qhv/kT Log
2. Comme dans1’exemple precedent,
on peut donc obtenir une informationnon nulle avec un rendement
proche
dumaximum,
a condition d’utiliser un
grand
nombre de fois le d6tecteur de Brillouin pour rechercher unsignal
detres faible
probabilite
d’existence(a
trespetit
ouNo
tres
grand).
Une variante du
probleme precedent
consiste à supposer que lesignal
dusysteme
6metteur n’aqu’une
probabilite 3
d’etre absorbe par le d6tecteur de Brillouinlorsque
celui-ci estplace
devant 1’6metteur : autrementdit,
le d6tecteur estimparfait.
Un calculrelativement
long
mais tout a fait semblable a celuiqui
a etepresente
en4)
et5) permet
de retrouver la formule(17) lorsque
=1,
mais montre aussi que le rapportI16S
d6croit tres vite en meme tempsque 3
des que cette
probabilite
n’estplus 6gale
a 1 : la perte de rendement entrain6e par unelégère imperfection
du d6tecteur est
importante.
On
pourrait multiplier
lesexemples :
le cout de l’information demeuretoujours sup6rieur
a kLog
2par bit et ne tend vers cette valeur que dans des cas
limites. 11 n’est donc
jamais possible
de transformertotalemept
lan6guentropie
en information.Cette perte de
n6guentropie
s’observe aussi dans la transformation inverse informationn6guentropie :
les diverses 6tudes menees sur ce
sujet (par
Brillouinnotamment a propos du demon de
Maxwell)
montrenttoutes que la
n6guentropie
cr66e ON esttoujours
inferieure a l’information consomm6e AI.
L’origine
de cette perte semble se situer dans le transfert de1’6nergie qhv
du d6tecteur au thermostat.Nous
avons noteprecedemment qu’il
n’6tait pasn6cessaire,
pour le calcul de 1’accroissement d’entro-pie
du milieuext6rieur,
de supposer que ce transfert s’effectue réversiblement. Enfait,
onpeut
se demander si ce transfert n’est pasobligatoirement
irreversible.Dans cette
optique
les transformations information Hn6guentropie
seraient nécessairement irréversibles. Leprobleme suggere
parCastaing
montrerait que l’onpeut obtenir une information non nulle avec un cout presque minimal en
n6guentropie
a condition derépartir
l’irréversibilité du transfert deqhv
sur ungrand
nombreNo
desystemes.
En fait l’information n’est pas v6ritablement une
grandeur physique
au meme titre que1’entropie
ou lan6guentropie.
On ne peut pasparler
de l’information contenue dans unsysteme
purementmateriel,
ouplutot lorsqu’on
enparle,
ils’agit
en fait den6guen- tropie :
c’est de laneguentropie qui
estproduite
parun
g6n6rateur
designaux,
c’est encore de lan6guen- tropie qui
est transmise par uneligne
de communi-cation, qui
est stock6e dans la m6moire d’un ordina- teur ou sur un microfilm.Pour
qu’un systeme
contienne a proprementparler
de
1’information,
il fautqu’il
contienne au moinsun
esprit qui
lapercoive
comme telle. Et la transfor- mation information Hn6guentropie
se fait donc enrealite a
l’interface
de cetesprit
et du milieu matériel.C’est Id peut etre
qu’intervient
une irréversibilité fondamentale.Remerciements. - Nous sommes heureux de remer-
cier le Professeur R.
Castaing
pour ses commentaireset pour les fructueux
6changes
de vues que nous avonseus concernant
l’interpr6tation
de la perte den6guen- tropie.
Bibliographie [1] SHANNON, C. E. et WEAVER, W., The mathematical theory of
communication (Univ. of Illinois Press, Urbana) 1949.
[2] Ibidem : Théorème 2.
[3] BRILLOUIN, L., La Science et la théorie de l’information (Masson),
1959. 2014 Science and Information Theory (Academic Press) 1956.
[4] Ibidem : plus particulièrement chapitres 12, 13 14,
[5] Ibidem : p. 178 (Edition française) et p. 184 (English text).
[6] Ibidem : p. 179-182 (Edition française) et p. 185-188 (English text).