A NNALES DE L ’I. H. P., SECTION A
M ICHÈLE M ASTRANGELO
V ICTOR M ASTRANGELO
Entropie, paramètres thermodynamiques, information associée aux événements et aux expériences
Annales de l’I. H. P., section A, tome 30, n
o4 (1979), p. 295-314
<http://www.numdam.org/item?id=AIHPA_1979__30_4_295_0>
© Gauthier-Villars, 1979, tous droits réservés.
L’accès aux archives de la revue « Annales de l’I. H. P., section A » implique l’accord avec les conditions générales d’utilisation (http://www.numdam.
org/conditions). Toute utilisation commerciale ou impression systématique est constitutive d’une infraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
295
Entropie, paramètres thermodynamiques,
information associée
auxévénements et
auxexpériences
Michèle MASTRANGELO
Victor MASTRANGELO Université Pierre-et-Marie Curie, Paris VI
Conservatoire National des Arts et Métiers, Paris, Université Claude-Bernard, Lyon 1
Vol. XXX, n° 4, 1979, Physique ’ théorique. ’
RÉSUMÉ. En
thermodynamique l’entropie
est l’un desparamètres
thermo-dynamiques,
les autres étant :l’énergie interne, l’enthalpie,
lepotentiel thermodynamique,
etc. Ils permettent de définir l’état dusystème.
Uneétude
approfondie
del’entropie
et desparamètres thermodynamiques,
nous conduit à la notion d’information telle
qu’elle
a été axiomatisée par B.Forte,
J.Kampe
de Feriet et N. Pintacuda[6 ], [7], [9], [10 ].
Aumoyen de
techniques empruntées
à W.Sierpinski [7J],
C. Dellacherie[J],
M.
Dehen-Mastrangelo et
al.[4 ],
nouseffectuons, ici,
une étude de l’infor- mation nous permettant d’obtenir des résultatsanalogues
à ceux connusdans le cas des
probabilités
ou descapacités.
Nous lesétablissons, ici,
entoute
généralité
dans le cadre de l’information sur lesexpériences, plus précisément,
nous définissons la notiond’expérience
informative de la manière suivante. Nous introduisons deux classesd’expériences,
uneclasse
r,
surlaquelle
l’information se définit de manière naturelle et uneclasse A permettant de formuler une continuité à droite
précisée
ci-dessous.Nous appelons
information sur r,adaptée
à~,
touteapplication
H de rcroissante pour la finesse et continue à droite relativement pour tout réel 8 strictement
positif
et pour touteexpérience a
Er,
il existeune
expérience b plus
fine que oc et telle que touteexpérience
y E r vérifiant oc ~y b
satisfasse àH(y) - H(fx)
8.Annales de l’Institut Henri Poincaré-Section A-Vol. XXX. 0020-2339/1979/263 $ 4,00/
A toute
expérience
(x, nous associons son informationinférieure,
et son information
supérieure
en suivant la convention
inf 03C6 =
+ oo etsup 03C6
= 0. Nous disons que a estune
expérience
informative siH*(a)
=H*(a).
Nous montrons que, si r est stable par borne
supérieure
finie alors elle estcomposée d’expériences
informatives. Nous étudions des conditions suffi- santes pour que toute bornesupérieure
finied’expériences
informatives le soitégalement.
De même nousétablissons,
sous deshypothèses
assezpeu
restrictives,
l’informativité des bornessupérieures
de familles dénom-brables,
des bornes inférieures de tellesfamilles,
et,plus généralement
desexpériences
nodales relatives à un pavaged’expériences
informatives.SUMMARY. - In
thermodynamics, entropy
is one of thethermodynamic
parameters, the others
being :
internal energy,enthalpy, thermodynamic potential,
etc. Thèse make itpossible
to define the state of a system. Anin-depth study
of entropy and ofthermodynamic
parameters leads us to the notion of information as axiomatizedby
B.Forte,
J.Kampe
de Ferietand N. Pintacuda
[6], [7], [9], [10 ]. Using techniques
taken from W. Sier-pinsky [15 ],
C. Dellacherie[5 ],
M.Dehen-Mastrangelo et
al.[4 ],
wecarry out a
study
of informationmaking
itpossible
for us to obtain resultsanalogous
to thosealready
known in the case ofprobabilities
and ofcapacities.
Thèse results are established in the mostgénéral
terms withinthe framework of information derived from our
experiments ;
more pre-cisely,
we define the notion of informativeexperiment
in thefollowing
way :we introduce two classes of
experiments,
one classr,
in which the infor- mation is definednaturally,
and another class Amaking
itpossible
toformulate a
continuity
from theright
as detailed below. We term informationon r
adapted
toA,
anyapplication
H from r inincreasing
in thinnessand continuous from the
right
relative for every real E which isstrictly positive,
and for everyexperiment
oc Er,
there exists anexperiment 03B4
EA,
thinner than oc and such that anyexperiment
y E rverifying
a ~ y ~ b satisfies the conditionH(y) - H(a)
E.To every
experiment
a, we associate its inferiorinformation,
and its
superior
informationfollowing
£ the convention + ~ and = 0. VVe state that ocis an informative
experiment
if*
=*
Annales de Henri Poincaré - Section A
We demonstrate
that,
if r is stable with the upper finitelimits,
then ris
composed
of informativeexperiments.
Westudy
sufficient conditions for every upper finite limit of informativeexperiments
to be also informative.Similarly,
weestablish, using relatively
non-restrictivehypothesis,
theinformativity
of the upper limits of numerablefamilles,
of the lower limits of thèsefamilies, and,
moregenerally speaking,
of nodalexperiments
rela-tive to a set of informative
experiments.
1. ENTROPIE ET INFORMATION
La définition
statistique
del’entropie
d’unsystème
A est donnée par la relation de Gibbs :où
W(X) désigne
une densité deprobabilité
Pour les
systèmes quantiques l’entropie
se définit par des sommations discrètes :Pour les
systèmes
enéquilibre statistique,
on peut utiliser indifféremment soit la définition del’entropie
deGibbs,
soit celle de Boltzmann.Dans ce
qui suit,
nous nousintéressons, également,
auxsystèmes
horsd’équilibre
en considérant letemps
t comme unparamètre ;
cequi
nouspermet de
garder
la définitionprécédente.
L’entropie
dusystème
horsd’équilibre
est inférieure àl’entropie
calculéeà l’état
d’équilibre :
Toutefois,
un état horsd’équilibre
fournitd’avantage
d’informations que l’étatd’équilibre.
Parconséquent,
moindre estl’entropie plus
d’informationsavons nous sur le
système.
L’entropie négative
peut être considérée comme mesure de l’informationsur le
système.
Nous pouvonsprendre l’entropie négative
de l’étatd’équi-
libre
(
-So)
pourpoint
zéro dans le calcul de la mesure de l’information.Désignant
par( - S) l’entropie négative
d’un état horsd’équilibre
laquantité
peut être
considérée,
comme la définition de l’information associée ausystème.
Vol.
D’après
larelation (1),
cette information peut aussi être définie par la formule :r /* /’
et, pour un
système quantique,
par la formuleOÙ
~V
etdésignent respectivement
laprobabilité
de l’état dusystème
et la
probabilité
de l’étatd’équilibre.
Le concept d’information ainsi introduit coïncide totalement avec le concept d’information défini en
cybernétique.
L’information la
plus complète possible
transmise à l’aide d’un ensemble designaux quelconques
est aussi définie par la relation(4)
où l’onprend
comme état
d’équilibre
le « bruit » naturel crée par des fluctuations ther-miques. Ainsi,
toute transmission del’entropie négative
dans le sens ther-modynamique
etstatistique
peut être considérée comme transmission d’une certaine information dans le senscybernétique
etinversement,
la transmission de l’information à l’aide dessignaux
doit être considéréecomme un processus de transmission de
l’entropie négative
de l’émetteurau
récepteur [1].
Nous donnons d’autresexemples
d’information. Si Q est un ensemble discretcomposé
de 2"points équiprobables
l’information associée à l’un de cespoints
est n, nombre desymboles
binaires nécessaires pour le caractériser.Nous pouvons remarquer que, si a E Q
où p est la
probabilité
de a.Cette dernière relation constitue un cas
particulier
de la formule deWiener-Shannon
[16 ].
Si
(Q, P)
est un espaceprobabilisé
et si A estmesurable,
la mesure de l’informationfournie,
par le fait que l’événement A seproduit,
est définiepar la relation de Shannon
[16 ]
où C est une constante
positive qui
permet de choisir l’unité de mesured’information.
Lorsque 03C0
est unepartition
finie deQ,
l’informationdisponible
par la réalisation de l’unquelconque
des événements A est donnée par la formule de Wiener-Shannon relative aux expériences :Henri Poincaré - Section A
Un second
exemple
d’information sur les événements est celuiexposé
par R. S.
Ingarden
et K. Urbanic[8 ] ;
si P etQ
sont deuxprobabilités
sur
Q,
alors pour tout ensemble Amesurable,
on poselorsque
cette relation a un sens.Un autre
exemple physique analogue
à celui donné par la formule de Gibbs enmécanique statistique
peut être obtenu enoptique
en faisantintervenir la
longueur
d’onde ~,.2. INFORMATION SUR LES
ÉVÉNEMENTS
Nous considérons un ensemble Q
qui
estappelé
événement certain.Nous notons ? un sous-ensemble de
~(S2)
stable par réunion finie et par intersection finie etqui
estappelé
ensemble des événements. Nous allons introduire une définition dont lasignification physique
est assez intuitive.Si ff est un sous-ensemble de nous notons la tribu
engendrée
par ~ . Si est une famille de tribus dans
~(~) ;
elle est ditealgébri-
quement
indépendante si,
pour tout sous-ensemble J fini et contenu dansI,
pour toute famille où
Aj
etAj =1= qy,
pourtout jE J,
nous avonsNous disons
qu’une
famille g d’événements estalgébriquement
indé-pendante,
si la famille des tribus(cr({
A estalgébriquement
indé-pendante.
L’indépendance
de gsignifie, physiquement, qu’aucun
des événements de g n’entraîne uneconjonction
d’autres événements de celle-ci ni sanégation.
Nousrappelons
qued’après
un théorème de Banach-Marczew- ski[77] ] l’indépendance algébrique
estéquivalente
à l’universelle indé-pendance stochastique.
En termes intuitifs une information sur ~ est une
application
de ~ dansles réels permettant de mesurer
l’apport
de caractérisation despoints,
dû à la connaissance de
l’appartenance
de ceux-ci à un événement. Elleest
adaptée
à la classe X si la connaissance del’appartenance
à A n Bapporte une caractérisation
égale
à la somme de celles obtenues pour Aet pour B
séparément, lorsque
ceux-ciappartiennent
à Jf. Le choix de Xn’est, généralement,
pascanonique
et il est souventsuggéré
par laphysique
du
problème.
4-1979.
Définition de l’information associée aux événements
Soit T une
application
de[R+
x[R+
nous disonsqu’une appli-
cation est une information
T-compositive
sur ~(adaptée
à la famillealgébriquement indépendante
si :1" J
applique ~
dansR+
20 A B E
g,
A c B =>J(A) ~ J(B)
30 A B A n
J(A u B)
=J(A)TJ(B)
4° J est dite
adaptée
à la famille Jf siNous voyons que cette définition
s’applique
bien àl’exemple
donnéprécédemment.
Nous
indiquons
la loi decomposition
T dans le casparticulier
de l’infor- mation associée à la formule de Wiener-Shannon. Soient A et B deux événementsdisjoints,
alors :La loi Test
l’application R+ ~ R+ définie
parSi ~ est une
tribu,
unepartie
N c Q est diteJ-négligeable,
s’il existe unévénement A tel que N c A et
J(A)
=J(~).
N. Pintacuda a démontré le théorème de
complexion
suivant[72] :
- si cff est une
tribu,
si J estcompositive
et vérifie pour toute suite d’événementsdisjoints ;
alors la classe étant
J-négligeable}
est une tribu.L’ensemble M est
égal
à ~si,
et seulementsi,
~ est une tribucomplète ;
J se
prolonge
de manièreunique
en une mesure d’informationJc
sur~/l,
et ~l est
complète
pourJ C.
Dans le même
exposé,
l’auteurindique
commeprobable
l’existence de résultatsplus forts,
obtenus en construisant descapacités
de G.Choquet.
Nous nous proposons d’établir de tels
prolongements.
Cette étude est faite dans le cadre
plus général
desexpériences.
Dansla
suite,
nous nousinspirons
destechniques développées
par G.Choquet [3] ]
et W.
Sierpinski [15 ].
Annales de l’Institut Henri Poincaré - Section A
3. INFORMATION
ASSOCIÉE
AUXEXPÉRIENCES
Une
expérience
a est un ensemble d’événementsquelconques
dans
&>(.0), disjoints
deux à deux. Nous notons o l’ensemble desexpériences.
Si oc E
e,
oc= {
nous posonsU(oc)
= et nous disons que ociEI
est une
expérience complète
siU(a)
= Q.Sur l’ensemble 8 des
expériences
nous pouvons définir deux ordrespartiels
différents. Lepremier
a été donné par B. Forte et N.Pintacuda ;
ilest bien
adapté
à l’information deShannon-Renyi.
Le secondcorrespond davantage
à l’intuition de l’informationapportée
par uneexpérience
etnous a été
suggéré
par de fructueuses discussions avec J.Kampe
de Feriet.Toute notre étude est faite en considérant indifféremment l’un ou l’autre ordre.
10 Ordre de B. Forte et N. Pintacuda. Nous disons que oc est moins fine
que 03B2,
oc03B2,
siU(oc)
=U({3)
et tel que Y c X. Si(03B1i)i~I
est un ensembled’expériences,
admettant toutes la mêmeréunion,
ai
= ~ X~
Nous définissons :Il est immédiat de voir que
ai
est la bornesupérieure,
danse,
tel
des ai ; nous voyons de
plus
que, si 1 estdénombrable,
et si les événements des aiappartiennent
tous à une même tribu il en est de même pour les événements detel
Nous nous proposons de définir la borne inférieure de l’ensemble
d’expé-
riences Sur les éléments de
ai
c~(5~~,
nous définissons la relationtêt
d’équivalence
X ~ Ysi,
et seulement s’il existeX2,
...,X,~
appartenant à tels que :iEI _. __ . __ __ . __ __ .
Si X
~~
oci, nous notonstel _ r
et
Vol.
Nous voyons que est la borne
inférieure,
danse,
des Si 1iEI
est dénombrable ainsi que
chaque
oc~ et si tous les événements des ai appar- tiennent à une même tribuS,
il en est de même pour 11 oc,.L’étude d’informativité
qui
suits’applique
à cetordre ;
ilfaut
alors selimiter à des
expériences
admettant toutes la même réunion.2° Second ordre
partiel
sur 0. A touteexpérience
oc= ~ X~
nousassocions
l’expérience complète oc El), SZ~U(a), ~ ~ .
Nous disonsqu’une expérience
oc est moins finequ’une expérience 03B2(03B1 03B2)
siU(oc)
cU(fJ)
et dY
E ’{3, 3X
Eoc
tel que Y c X.Nous pouvons remarquer que, si oc
~ ~
alors :2014 VY
E /3,
ou bien Y nU(oc) =
ou bien Y ciU(x).
2014 {
Y Y c forme unepartition
deU(oc) plus
fine que oc.En
effet,
si Y E~8,
il existe un X Eoc
tel que YeX;
ou bien X EX = et Y n
U(oc) = ~ ;
ou bien X E oc, et Y cU(oc).
Soit
(03B1i)i~I
une familled’expériences quelconques (pas d’hypothèse
surles
réunions).
Nous allons voir que cette famille admet une bornesupérieure
et une borne inférieure. Comme
précédemment,
nous notonso~ = { X)
La borne
supérieure
se définit par :Nous voyons que, pour tout 1~
~ I, U(ak)
cu( B /
et, si YE
~,~I - - ~I
Y =
n
et Y cX Jk
doncB / ~r
Il est, parailleurs,
évidentiEI
de voir que cette
expérience
est la moins fine desmajorantes
des ak.Dans le but de définir la borne
inférieure,
nous introduisons l’ensemble~ _ ~ X~ : a~,
ie 1} .
Nous le munissons de la relationd’équivalence
X ~ Y
si,
et seulement s’ilexiste { Xl, X2,
..., c= ~ tels que X n~, Xi
nX2 ~ ~,
...,Xn
n Y ~ Nousnotons ~
l’ensemblequotienté
et,pour tout X Nous remarquons que
{U(X) :
XE ~ ~
forme unepartition
de Q. La borne inférieure des oc, sedéfinit alors par :
Nous voyons, en
effet,
que, pour tout k EI,
et,Annales de l’Institut Henri Poincaré - Section A
pour tout Y E
âk,
ou bienU(Y)
c1 U(ai)
et Y cU(Y)
Eai,
ou bien0
et Y cU(Y)
cilB u( ai
Eai.
Doncai
têt iEl iEI
est moins fine que Il est évident de voir que
ai
est laplus
finetel
des
expériences
minorantchaque
ak(k E I).
Ce second ordre
partiel présente,
parrapport
aupremier, l’avantage
que toute famille
d’expériences
admet une bornesupérieure
et une borneinférieure. Il
apparaît cependant qu’il
ne peut être utilisé pour l’étude de l’information deShannon-Renyi,
Il est, par contre, bien
adapté
à l’étude d’une information de la formeoù P est une
probabilité
sur Q.Lorsque
a est uneexpérience,
nousappelons
information de (X, un réel permettant intuitivement de mesurerl’acquis
de connaissance sur la structure dusystème physique,
révélé parl’expérience.
Nousconsidérons,
à titre
d’exemple, l’entropie
donnée par la formule Wiener-Shannon. Si Q est un espace muni de laprobabilité P,
la formule de Wiener-Shannon définie sur l’ensemble desexpériences complètes, finies,
à événementsmesurables :
V. I. Arnold et A. Avez
[2] (cf.
Ch. II.9 12)
montrent que:10
a ~ ~ ~ H(a) ~
20
H(a
V~3)
~H(a)
+H(/3)
Dans le but d’axiomatiser la notion d’information associée aux
expé-
riences,
nous introduisons deux classesd’expériences
F et1B,
toutes deuxcontenues dans 0.
La classe r est celle où se définit de manière naturelle l’information.
Dans
l’exemple
donné auparagraphe VI,
r est formée desexpériences
constituées d’un nombre fini d’événements tous
F6
sauf l’un d’entre eux,ce dernier étant un fermé soumis à une certaine
condition ;
la classe A est celle desexpériences
formées d’événements compacts. Si Q est un espace muni d’une tribu r peut être la classe formée desexpériences
admettantun nombre fini d’événements appartenant la classe 1B peut alors
être,
par
exemple,
l’ensemble desexpériences
formées d’une famille éventuelle- ment non dénombrable d’événements appartenant à ~.Nous
appelons
information sur radaptée
àA,
touteapplication
2° H croissante pour la finesse
3 ° H continue à droite relativement à
0,
c’est-à-dire :Nous disons que
(Q, r, A, H)
est un espaceexpérimental.
La trace de cette
information,
relative auxexpériences,
sur l’ensembledes
expériences
constituées d’un seul événement est une information surles événements.
4. INFORMATION
INFÉRIEURE
ETSUPÉRIEURE ;
EXPÉRIENCE
INFORMATIVESi a est une
expérience appartenant
à0,
nous définissons :son information inférieure
son information
supérieure
En suivant la convention + oo,
sup 03C6
= 0.Nous disons que a est une
expérience
informative si =H*(a).
Il est immédiat de voir que les
expériences
de 0394 sont informatives. Nous allons étudier des classes aussilarges
quepossible d’expériences
infor-matives.
PROPOSITION 1. Soit
(Q, r, A, H)
un espaceexpérimental,
où rAnnales de l’Institut Henri Poincaré - Section A
Démonstration. Soit si
H*(y)
= oo, nous voyons queH*(y)
=H~(y).
Si
H*(~~)
oo,d’après
la continuité à droite relativement àL1,
Ve >0,
3b EA, 5 ~
y tel que V’0153 Er,
y ~ b =>H(oc) - H(y)
s.Nous voyons que
Par
conséquent
ce
qui
entraîneNous pouvons remarquer que :
si r est stable par borne
supérieure
finie la condition de laproposition
1est
toujours
vérifiée.Or,
dans les cas concrets que nous avons vuprécédem-
ment r est
toujours
stable par bornesupérieure
finie.Dans la suite nous supposons que r est
composée d’expériences
mfor-matives.
PROPOSITION 2. Soient T et 1B deux classes
d’expériences
stables par bornessupérieures finies et
Alors,
toute borne ,supérieure finie d’expériences informatives
est,elle-même,
,informative.
,Démonstration. Nous montrons d’abord o que .
si 51
etb2
sont deuxexpériences
deA,
si 03B31 et 03B32 sont deuxexpériences
de 0393 vérifiantD’après
la seconde condition de l’énoncé :Il suffit ensuite de montrer si etl et a2 sont deux
expériences informatives,
al V a2 l’est aussi.
Si
H(a 1 )
ouH(x~) =
+ oo, alorsSi
H(CX1)
et sont toutes deux finies : pour tout E >0,
ilexiste r~
> 0 et il existe desexpériences, 51
et et yi et y, ~ et Vol. XXX, n° 4-1979.H(5) -
~, alors ~~1 V~l2 ~
al V a251
V52
et Vb2)
-
1 V
~’2)
8. Parconséquent
a 1 V a2 est informative..
PROPOSITION 3. Soit
(Q, h, 0, H)
un espaceexpérimental vérifiant
lesconditions de la
proposition 2,
est stable par bornesupérieure
dénom-brable et tet que
1 0 Pour toute
famille (03B1i, 03B4i)1in d’expériences
de 0 telles que03B4i
alors2~ Pour toute ’ suite croissante
Alors,
pour toute ’ suite , croissante ’ dans0,
De
plus la
# borne ,supérieure
, d’une # suited’expériences informatives
est,elte-méme, informative.
,Démonstration. - Soit , une suite croissante - contenue . dans
0,
s’il existe ~ un no tel que ~ + oo, nous avons :Sinon,
’V8 >0,
VnE~3n ~n
tel queE2’";
par suite :
Comme A est stable par borne
supérieure dénombrable,
et
Si est une suite
d’expériences informatives,
nous pouvons,d’après
la
proposition 2,
nous ramener à une suitecroissante,
et conclure que la bornesupérieure
des an est informative.Annales de l’Institut Poincaré - Section A
REMARQUE 4. -
Lorsque
0393 et .1 sont contenues dans l’ensemble des expé- riences constituées d’un seul événement, nous obtenons des résultatsanalogues en faisant l’étude dans
ce dernierensemble, indépendamment
de soninjection
dans 0.
Il existe des cas où la condition 2° de la
proposition 3,
relative auprolon-
gement de H à il est uneconséquence
depropriétés intrinsèques
de r etA ;
par
exemple,
si pour toute suite croissanted’expériences
de il ettoute
expérience
y Er telles que 7 ~V
existe un entier ~o tel que~ ~ ne~j
5
EXPÉRIENCES
NODALESNous
pourrions
effectuer une étude directe sur l’informativitéd’expé-
riences obtenues par bornes
supérieure
ou inférieure dénombrables àpartir
d’une classe
d’expériences
informatives.Cependant,
nous allonsappliquer, ici,
une étudesystématisée
desexpériences
nodales.Nous
appelons
pavage TI un sous-ensemble de0,
stable par bornessupérieure
et inférieure finies. Si est une suite décroissanted’expé-
riences de
0,
nous disons que 03B1 ~ 0398 est unen-envcloppe
de s’ilexiste une suite décroissante telle que pour
une
capacitance
si touteexpérience plus
finequ’une expérience
de ’P appar- tient encore à ’P etsi,
pour touteexpérience
03B1 ~ 0398 et toute suite croissante le fait que a 11appartienne
à ’Pimplique
l’existence d’un entier no pourlequel
oc Aappartienne
à T. Nous supposons, danstout ce
paragraphe,
que pour toute suite croissante dans e et toutoc E
0,
nous avons :nous pouvons en déduire que, pour tout r E
f~,
est une
capacitance.
Nous
appelons application
nodale relative à unecapacitance
’ unesuite F =
d’applications
telles que:~(0~~ ...~)~~V~~~
3°
(ln E ’ => ...~)E~.
Nous disons
qu’une
suite(oci,
a2, ..., an,... ) E 8~ d’expériences
estF -dominée si :
a}
03B1n + 1fn(03B11, ... , 03B1n) ~n (ce qui implique
an + 1an)
Une
expérience
a est ditecompatible
avec uneapplication
nodaleF =
si,
pour toute suite F-dominée et vérifiant al ~ a, alors a est unen-enveloppe
deNous
désignons
parexpérience
nodale relative à unecapacitance
’JItoute
expérience
pourlaquelle
existe uneapplication
nodalecompatible.
THÉORÈME 5.
(Généralisation
d’un théorème de W.Sierpinski relatif
â
~(Q)
pour un ensemblepavé [15 ]).
La classe 0396 des
expériences
nodales est stable par bornesupérieure
desuites croissantes et par borne
inférieure
dénombrable.Démonstration. -
a)
Démonstration pour les bornessupérieures
desuites croissantes. Soient une suite croissante
d’expériences
nodaleset pour tout Fk - une
application
nodalecompatible
avec ak.Nous
désignons
par a =V
ak. Si ... °~3n)
sont nexpériences
de0,
nous posons :
oû k est le
plus petit
entier tel que ak 11~31
E La suite F = ainsidéfinie est une
application
nodalecompatible
avec oc. En effet siceci est évident.
Si oc E
B}l,
soit une suite F-dominée telle que a. Nous avons,puisque
oc 11{31
E~
oû k est défini comme
précédemment.
Ceci
implique
que la suite 03B1k 1103B22 ... /3n ...
est Fk-dominée et.
.Il en résulte que x~ est une
n-enveloppe
de cettesuite,
donc aussi de la suite[31’ ~32,
... ,~n
...comme «,~
o:, nous pouvons en déduire que o:est encore une
n-enveloppe
de cettesuite ;
« est uneexpérience
nodale.b)
Démonstration de la stabilité par borne inférieure dénombrable : Soit une suited’expériences nodales,
et pourtout k,
soit Fk uneapplication
nodalecompatible
avec 03B1k. Nous notons (1. =03B1k
et mon-trons que oc est une
expérience
nodale. Tout entier n 1 s’écrit d’une manièreunique :
n =
(2qn -
où pn et qn sont des entiers > 1.Annales de Henri Poincaré - Section A
Comme le dernier indice
(2qn - 1).2~ ~
estégal à n,
la suite F =est une
application
nodale.Montrons
qu’elle
estcompatible
avec oc. Si~
c’est évident. Si oc E~,
nous considérons une suite
(03B2n),
F-dominée et telle que03B21
a. Lesexpé- riences ak appartiennent
alors à B}J. Pour que ex soit une03A0-enveloppe
de(03B2n)
il suffit que 03B1k soit une03A0-enveloppe
de(/3n),
pour toutEn
effet,
dans ce cas, si les ak sont tous des03A0-enveloppes
de/3m
pourtout k,
nous pouvons déterminer une suite décroissante c II telle que :Comme fi est stable par bornes inférieures
finies,
la suite 7p=/ B 7~
estencore contenue dans n et vérifie :
!~
~tel que 03B2s 03B3p et 03B1 03B3p.
Par
conséquent
x est unen-enveloppc
de(~n).
p=~Nous allons maintenant établir le fait que oc~ est une
n-enveloppe
de(~3n),
pour tout k. Nous posons :
Nous avons a 03B1k. Démontrons que la suite est
Fk-domi-
née.Comme 03B1k
et Fk sontcompatibles,
celaimplique
que ak est une n-enve-loppe
de(~n)
et donc aussi de(/~n), puisque (~n)
est une suite extraite de Il nous faut établir que, pour tout n :ou encore, de manière
équivalente,
quemais ceci résulte du fait que la suite
(~n)
est F-dominée et que :Finalement nous pouvons conclure que x est une
expérience
nodale.Nous allons démontrer une
généralisation
du théorème 5, pour desexpériences
obtenues par uneopération plus générale
que celles de bornessupérieure
et inférieure dénombrables.Soit ~ = ~ l’ensemble des suites 6 =
... ),
d’entiers naturels et S = ~J~ l’ensemble des suites finies s =
(~, b2,
...,bi
E N d’entiers naturels.4-1979.
Si SES,
s = ...,bn),
nousappelons longueur
de s, et notons = n, le nombre d’entiersqui
constituent la suite s.Si r = a2, ... ,
an)
et s =b2,
... ,bn)
sont deux suites de mêmelongueur
nous écrivons r ssi,
pour toute composante i, on a(dans ~).
Si r et s sont deux suites finies et si 6 est une suiteinfinie,
nousécrivons r s
[resp.
r -6 si r
est une section commençante de s[resp.
de
6 ] :
[resp.
6 =(al,
a2, ..., ap, ..., an,...)].
Nous
appelons système
déterminantd’expériences
touteapplication (s
~as):
S -~ 0 vérifiant r ~ s ~ as(pour
lafinesse).
Nous disons que
l’expérience
a est le noyau dusystème
déterminants
~as)
siSi r est une classe
d’expériences
stables par borne inférieurefinie,
nousvoyons que la classe
r6,
stabilisée de r par bornes inférieure etsupérieure
dénombrables est contenue dans la classe des noyaux de
systèmes
déter-minants dont
l’image
est contenue dans r. Parailleurs,
comme il existedes ensembles
analytiques
nonboréliens,
cette dernière classe est, engéné- ral,
strictementplus grande
queH6.
Utilisant le résultat établi au théorème 24 de
[4 ],
nous pouvons énoncer : THÉORÈME 6. La classe 8 desexpériences
nodales est stable par noyau desystème
déterminant.En effet si a est une
expérience,
noyau d’unsystème
déterminantoù les aS sont des
expériences nodales,
alors a est,elle-aussi,
uneexpérience
nodale. La démonstration de ce théorème se
copie
sur celle que nous avons donnée au théorème 24 de[4] ] dans
le cas du treillis desexpériences.
L’intérêt des
expériences
nodales réside dans le faitqu’elles
sont infor-matives,
sous unehypothèse
assezlégère,
comme nous allons le démontrer ci-dessous.THÉORÈME 7. Soit
(Q, F, A, H)
un espaceexpérimental tel
que, pour toute suite croissante et tout CX E0,
nous ayonsAnnales de l’Institut Nenri Poincaré - Section A
Soit II un pavage de
O, formé d’expériences informatives,
tel que, pour toutesuite décroissante
(03B1n)n~N
c TI, nous ayons :Alors,
toute ’expérience
’ nodale relative à # toute ’capacitance
’ estinformative.
Démonstration. - Soit x une
expérience
nodale E 0 relative à toute -capacitance C~ (~ réel > 0)
où :Soit F = une
application nodale,
relative àCE,
etcompatible
avec oc.Nous notons suite dérivée de oc :
Comme a est une
n’enveloppe,
il existe une suite cn,
décroissanteet vérifiant :
Par
conséquent
Comme
H*(ex) ~ H*(ex),
nous avons nécessairementégalité
etl’expérience
nodale a est donc informative.
COROLLAIRE 8. Si r
[resp. 0 ] est
stable par bornessupérieure
etinfé-
rieure
finies
et si :a) pour
toute suite décroissante c r]
b)
pour toute ’ sui~e croissante( J~~,)
c 0 e~ tout oc E ealors toute
expérience
appartenant au stabilisé de r]
par bornessupérieure
croissante ouinférieure
dénombrables estinformative.
Plus
généralement,
touteexpérience
noyau d’unsystème
déterminant âimage
dans r] est informative.
Démonstration. Ce corollaire se déduit des théorèmes 5 et 7 ou bien 6 et 7 en considérant le pavage II = r
[resp.
II= ~ ].
4-1979.
6. EXEMPLE D’APPLICATION : UNE
GÉNÉRALISATION
DE L’INFORMATION SHANNONIENNE DANS UN CADRE NON PROBABILISTE
B. Forte et J.
Kampe
de Feriet[70] ont
introduitl’information, portée
par les événements
(boréliens)
d’un groupeabélien,
invariante par trans- lation. Dans ceparagraphe
nous étudions l’informationportée
par desexpériences complètes
sur un groupe abélien.Soit Q un groupe abélien localement compact, non compact il n’existe pas de
probabilité
de Haar nous pouvons munir l’ensemble II desexpé-
riences
complètes
constituées d’un nombre fini d’événements(boréliens
ou universellement
mesurables)
d’une information semblable à celle de Wiener-Shannon.Soit
une mesure de Haar surQ;
si e est uneappli-
cation de dans
lui-même, décroissante,
et vérifiant0(+ oo)
=0,
la fonction définie sur la tribu 8 des ensembles universellement mesurables parJ(~) == C
est alors une mesure d’information sur lesévénements,
invariante par translation.Lorsque
8 estcontinue,
il est immédiat que tout ensemble,u-mesurable
est J-informatif.Par
analogie
avec l’informationshannonienne,
nous cherchons s’il existe une informationH,
définie surII,
telle que, siX2,
...,X~}, H(a)
soit une fonction de(,u(X1)
... de la forme :oû p
soit uneapplication
continue de dans lui-même. Pour que H soitcroissante,
il suffit alors que, si X et Y sont deux événementsdisjoints
En
particulier,
nous pouvons choisir p - 8 avec, parexemple, P(x)
=e(x)
= e x ou03C1(x) = 03B8(x) = 1.
.rL’information sur II s’écrit alors:
avec les conventions oo . 0 = 0 pour que
H( { Q } )
= 0 2014 et,lorsque (}(O) =
+ 00, 0 . oo = 0 car si X est un événement de mesurenulle,
H({X, CX} )
= 0.Nous pouvons
appliquer
l’étudeprécédente
dans le treillisSc
desexpé-
riences
complètes.
Annales de l’Institut Poincaré - Section A