A NNALES DE L ’I. H. P., SECTION B
D IDIER D ACUNHA -C ASTELLE F ABRICE G AMBOA
Maximum d’entropie et problème des moments
Annales de l’I. H. P., section B, tome 26, n
o4 (1990), p. 567-596
<http://www.numdam.org/item?id=AIHPB_1990__26_4_567_0>
© Gauthier-Villars, 1990, tous droits réservés.
L’accès aux archives de la revue « Annales de l’I. H. P., section B » (http://www.elsevier.com/locate/anihpb) implique l’accord avec les condi- tions générales d’utilisation (http://www.numdam.org/conditions). Toute uti- lisation commerciale ou impression systématique est constitutive d’une infraction pénale. Toute copie ou impression de ce fichier doit conte- nir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
Maximum d’entropie et problème des moments
Didier DACUNHA-CASTELLE et Fabrice GAMBOA
Université de Paris-Sud, U.R.A. D 0743, C.N.R.S.,
Statistique appliquée, Mathématiques, bât. n° 425, 91405 Orsay Cedex, France Vol. 26, n° 4, 1990, p. 567-596. Probabilités et Statistiques
RÉSUMÉ. - Nous
présentons
une extension duprincipe d’entropie
maxi-mum
(principe d’entropie
maximum pour lamoyenne).
Cecipermet
deprendre
encompte
des contraintes non linéaires dans laproblématique,
donne de nouveaux résultats pour les
problèmes
de moments et unevue
plus
unifiée des différentsprincipes d’optimisation (moindres carrés, entropie usuelle, entropie
de laprédiction, etc.).
Mots clés : Maximum d’entropie, discrétisation, moments, espaces fonctionnels, analyse
convexe, procédés sommatoires.
ABSTRACT. - We
give
an extension of the so-called maximumentropy
principle
in order to extend itsapplication
to non linear situation. We call the newprinciple
maximumentropy
for the mean. Itgives
also new resultsfor classical moments
problem
and also a more unifiedinsight
towardsthe different
principles
ofoptimization
as least squares, usualentropy, entropy
ofprédiction,
and so on.Classification A.M.S. : 62 A 99, 60 A 99, 4100.
Annales de l’Institut Henri Poincaré - Probabilités et Statistiques - 0246-0203
Vol. 26/90/04/567/30/$ 5,00/ © Gauthier-Villars
I. INTRODUCTION
La méthode du maximum
d’entropie (ME)
est utilisée pour reconstruireune
densité g
àpartir
d’informationsincomplètes,
essentiellement demoments. Elle est fondée sur le choix d’une mesure ~ dite de référence
(choix
fait enphysique
àpartir
deprincipes d’invariance). L’entropie de g
est
S (g) _ - log g (x) g (x) dx lorsque
E estIRk
oulrk et ~
estégale
à dx.Si P est une
probabilité
et Jl une mesurepositive quelconque
sur(Q, ~)
espace
mesurable,
on pose pS ~( ) (P) = - r log
~ dP et K(P, p)
= -S, (P);
Jo dJl ( ~I~)
lorsque ~
est uneprobabilité,
K est l’information de Kullback.Rappelons
que
(ME) reconstruit g
par leprincipe métamathématique,
(arg signifiant :
lepoint
où le maximumsupposé unique
estatteint).
Notre but est d’étendre ME
lorsque
l’onimpose à g
d’être dans unensemble ~
(qui
seraprécisé plus tard), ~
étant défini par contraintes nerelevant pas de ME
(i.
e. ME ne donne engénéral
niméthode,
nisolution).
Examinons de
plus près
ces contraintes. La littérature([1], [2])
traitedes contraintes de moment du
type
Lorsque
ceproblème
estremplacé
parnous
parlerons
de contraintes relaxées. Outre cettegénéralisation qui
relèved’une
technique
minimax[6],
onpeut
traiter de nouvelles contraintes quenous situons maintenant sur des
exemples.
Plaçons-nous
dans le cas oùQ=[0,l] ]
et considérons d’abord des contraintesd’interpolation
dutype g (Xi) = di,
i =1... k avec la contraintesupplémentaire
g continue. La forme linéaire~xi (g)
esttrop
« locale » pour être traitée par(ME)
pour la mesure deLebesgue.
Une méthode naturelleest de
remplacer
la mesure deLebesgue
par la loiQ
d’un processus[Xx,
x E(o,1 )].
Lestrajectoires
ne satisferont pas p. s. la contrainte mais la réaliseront en moyenne pour uneprobabilité QME,
choisie suivant leprin-
cipe d’entropie,
laplus
voisinepossible
deQ.
Si par le choix deQ,
l’onimpose
auxtrajectoires
d’autresconditions,
on pourra traiter de nouvelles contraintes.On
peut
aussi chercher g comme unedérivée, Q
étant la loi d’unemesure aléatoire
dXx (dérivée
deXx
au sens desdistributions)
et lacontrainte sera alors réalisée par la dérivée de la moyenne de
Xx.
Par
exemple,
pour un processus de loiQ,
les contraintes s’écrirontEQME u C (x) Xxdx j =
c,EQME Xxi = d;
et la fonctioncherchée sera
EQME Xx;
pour une mesurealéatoire,
elles s’écrirontEQME [~03A6 (x) dXx] et
la fonction
gMEM (x)
cherchée sera définie parNous
appellerons
méthode du maximumd’entropie
pour la moyenne et noterons MEM cetteconstruction,
dont ME est un casparticulier.
Elle se formule ainsi
généralement.
Soit B unE.V.T.L.C., ~
un convexede
B,
X une v. a. à valeurs dans B de loiQ,
v uneprobabilité
de référencesur
B, ~ E (B*)k, c E k.
MEM consiste à minimiserK (Q, v)
sous lacontrainte
EQ (~ ~, X ~ ~ =
c.Soit ~.
une mesure deréférence, %
le groupe desautomorphismes
laissantp invariante
et g1
1 un sous groupe de g. On s’intéresse aux constructions invariantespar % ou td 1.
Parexemple,
pour ~, mesure deLebesgue
sur[0, 1 ],
la %-invariance amène à travailler avec des processus à accroissements
échangeables
et leurs dérivées.Dans le cas de
R,
les bruits blancs stationnaires(BBS) joueront
le rôlecentral;
lapartie
II est consacrée à ces situations.Les
parties
III et IV sont consacrées à l’introduction de contraintes nonlinéaires. Prenons un
exemple important qui permet
des calculsexplicites.
g
continue, a g (x) b
pourx E [o, 1 ] (3)
et
Là encore,
(ME)
nepeut prendre
encompte
naturellement le non linéaire.Heuristiquement,
on cherche une construction MEM%-invariante,
c’est-à-dire une
probabilité
%-invarianteportée
par le convexe deC ([0,1])
desfonctions vérifiant
(3).
Les BBS ne sont pas de bons candidats du faitqu’ils
sont àtrajectoires
non bornées.Nous proposons donc de définir
(MEM)
par une discrétisation(i.
e.grossièrement
par une méthodeprojective),
que l’onpeut
décrire ainsi sur Vol. 26, n° 4-1990.l’exemple
choisi. Soit F une mesurepositive
dontl’enveloppe
convexe dusupport
contient[a, b] .
Soit{i n ,
i = 0 ... n - 1}
la discrétisation de[0, 1 ] .
Soit
(1 , 03C8(i n) g(i n) = c, la version discrétisée de (1) (avec
ici ç
pour O) .
A
l’étape
n, soit Pn = Pn(03C8, c) l’ensemble desprobabilités Pn
sur Rn tellesque 1 n £ =
où(Xni)i=o,...,n-1:n~N
est une famille devariables aléatoires
(v,a.)
de loi Définissons alors QMEM pararg max SF~n(Pn)
et enfingMEMn(x) =
n03A3 EQMEMn
Nousi = o
’
démontrerons que, sous des
hypothèses raisonnables, gMEMn (x)
tend verssolution de
(MEM).
En fait pour tout xLes
parties
suivantes serontplus analytiques.
Leproblème
MEM pour la bandea g (x) b
est lié à unproblème d’optimisation
d’une fonctionnelleconcave. Ce
qui permet
de lier MEM et desproblèmes
usuelstype
moindrescarrés, entropie
deBurg,
etc.Les
techniques simples
degrandes
déviations donnent unéclairage
nouveau sur le
problème
des moments dit de Markov(traité
surtout par Krein-Nudelman[11]).
Enfin,
leproblème
d’une suite infinie de moments est traité sousl’angle
des méthodes sommatoires par
(ME)
et(MEM),
méthodesqui peuvent
avoir ungrand
intérêtnumérique (Gassiat [8]).
II.
NOTATIONS,
LEPROBLÈME LINÉAIRE
II.1. Notations
(Q, ~)
est un espacemesurable,
M(Q) (Q)]
est l’ensemble desmesures
positives (resp.
desprobabilités)
sur(Q, .91).
Pour
est l’information de Kullback de P sur
Q (o K _
+oo ).
Pour des mesures
positives bornées ~
et v,Pour
est la
a-entropie
de Plorsqu’elle
est définie.Si J.l
est uneprobabilité, S~ (P) _ - K (P, ~).
Soit 03A6 une
application
mesurable(fixée)
de Q dansRk.
On notera
et par 0-arc
d’Hellinger
de j, on entendraSi c E
f~k
estfixé,
on noteII.2. Le
problème
linéaireLes données d’un
problème
de maximumd’entropie (ME)
telqu’il
vaêtre
rappelé
ci-dessous seront letriplet (~,
c, p(ou Q)).
Parproblème
deME on entend : trouver P
dans ~
tel que soit maximum. Leproblème
estlargement
résolu par le théorème suivant dû à Csiszar(cf. [1]).
THÉORÈME 1. - Soit
Q (Q).
Si(Q)
est ouvert, etsi fi
contient aumoins une
probabilité
Péquivalente
àQ,
alors il existe uneunique probabilité
Q de fi
telle que :Q~
est l’élément de l’arcd’Hellinger
deQ défini
parDe
plus
COROLLAIRE 1. -
Soit ~
E M(Q),
on suppose que(p)
est ouvert nonvide,
alors on a un énoncéidentique
au théorème 1 enremplaçant Q
paret K (P, Q) par - S~ (P).
DÉFINITION 1. - On dira que c est ~-réalisable par
Q
si il existe Pe P
avec P
équivalente
àQ.
Notation. - Dans la suite
lorsque Q~
sera définie on la noteraplus
simplement QME.
Considérons d’abord la
technique
usuelle ME pour reconstruire g.Considérons les contraintes suivantes pour g définie sur
[0, 1] : (1) g continue,
(2) g > o.
On s’intéressera
particulièrement
aux reconstructions invariantespar td,
groupe des
réarrangements
de[0, 1] laissant
la mesure deLebesgue
inva-riante. Sous les contraintes
1, 2, 3, 4,
si c est03C8-réalisable
pour dx le théorème 1 donne la solution MEet
Si l’on
remplace (4)
par(4’),
leproblème
ME est sans solution dansC (0, 1).
Nous allons introduire dans le cas linéaire la méthode
MEM,
àpartir
d’exemples.
Exemple
1. - Soit(Xx)x E
~o,1 ~ un processus à accroissements échan-geables [10],
c’est-à-dire pour tout tout choixIl, ... , Ik
d’inter-valles
disjoints
de même mesure, siXI = Xb - Xa
pourI = [a, b[,
alors...,
XIk)
sont des v. a.échangeables.
Les processus
positifs échangeables (distincts
de latranslation)
formentun convexe
ayant
pourpoints extrémaux,
les processus dont les dérivées(au
sens desdistributions)
sont les mesures aléatoiresoù
(an)
est une suitepositive
de somme 1 et(Un)
une suite de v. a.uniformes sur
[0, 1]
etindépendantes [10].
SoitQ
la loi d’un tel processus.Parmi les processus de loi absolument continue par
rapport
àQ
on a lesprocessus de dérivée
Commençons
par le casao== 1, a~ = 0
pour i > o.Supposons
c réalisablepar la
densité g
pourdx, g
continue. SoitV~
de densitég (x) dx.
Alors lamesure aléatoire
bvo
estéquivalente
à Le théorème de Csiszar donneQME
avecEQME [~]
= c. Et donc on obtient comme réalisation MEM.solution.
Plus
généralement
siAlors
et de
(on
donne immédiatement un sens à cettenotation).
On tire
- Soit
dU(n) correspondant
à1
et i>n.
On trouve encore la solution ME pour
Q
associée à- Soit dN la mesure de Poisson
(dérivée
du processus dePoisson).
Alors
et donc dN
pris
comme mesure de référenceQ
donne encore la solutionME dans le
problème
MEM.. Dans le cas où
[0, 1] ]
estremplacé
parI~ + (ou R),
dNgarde
cettepropriété (voir ci-dessous).
Exemple
2. - Considérons un bruit ~ blanc stationnaire surR,
i. e. uneapplication
A - B(A)
des boréliens dans l’ensemble des v. a. telle que B(A 1 ) ... ~ (An)
soientindépendantes
siA 1... An
sontdisjoints
et que laloi
Q
de B soit invariante sous ~. Donnons une introductionformelle,
sans étudier les
problèmes
d’existence.Remarquons
que les bruits blancs sont associés auxpoints
extrémaux des processuséchangeables sur f~ +
etgénéralisent
en ce sensl’exemple
1[10].
Soit
Supposons
c ~-réalisable pourQ.
Le théorème 1 donne
où Uc est calculée par
EQME (0)
= c.Toujours
formellementPosant
EQME
dB(t)
=gMEM (t) dt,
on voit que est solution du pro- blème. Nous verrons(problème d’interpolation)
que, si C n’est pas conti- nue, engénéral
ne vérifie pas(1)
et que, si dB n’est pas p. s. unemesure
positive, gMEM
ne vérifie pas(2).
Justifions ce formalisme sur les
exemples
suivants :Exemple
A. - dB est le bruitpoissonnien
dN.La densité d’un bruit
poissonnien d’intensité g
parrapport
au bruithomo gène [4]
est donnée par exprr logg(M)JN(M)+ r i
donc
QME
est le bruitpoissonnien
d’intensitéLe
problème
MEM deréférence
un bruitpoissonnien
donne la même solution que leproblème
ME deréférence
la mesure deLebesgue.
Exemple
B. - dB est le bruit brownien dW:Le théorème de Girsanov
[4]
montre queQME
est la loi de la dérivée du mouvement brownien de i. e. sousQME
le processusXt canonique
définie surC[0,1] vérifie
Pour
W,
MEM donne la même solution que la méthode des moindres carrés.Remarque. -
Pour un bruit blanc de loiy (a, p).
si onimpose (3),
ontrouve que MEM est
équivalent
à uneentropie
dite deBurg,
poura== 1, P=0,
parexemple -
doit être minimisée sous contrainte.On reverra en détail ces
aspects
dans lapartie
IV.Revenons par
exemple
au cas de W mais pour la contrainte(4’),
onsouhaite écrire
Soit
La solution de MEM s’écrit
Si l’on veut une solution m fois
différentiable,
il fautprendre
pour référence le processusXt =~t0(t-u)mdWu,
et on obtient alors la méthoded’interpola-
tion par
fonctions splines.
III. LE CAS NON
LINÉAIRE
Nous nous limiterons à la situation suivante :
Les contraintes non linéaires sur la fonction à
reconstruire g
seront dutype
où C est un convexe ouvert del’espace C ([0, 1])
des fonctions continues. Nous traiterons en détail deux casparticuliers :
La contrainte linéaire sera du
type
avec cp
application
continue de[o, 1 vers ~k.
Comme nous l’avons vu en
introduction,
les méthodesd’entropie
sontfondées sur une mesure de
référence ~,
sur ~.S’il y a des contraintes non
linéaires,
si l’onexige de J.l
unepropriété
d’invariance du
type
de cellesévoquées
auparagraphe précédent,
on arriveà une
impossibilité :
il n’existe pas sur ~ de telle mesure. C’est le cas, parexemple
du tore muni du groupe destranslations,
et du groupe des transformationsorthogonales pour C03B8.
Pourrespecter
cetteexigence d’invariance,
nous allonsemployer
uneprocédure d’approximation
par desproblèmes
de dimension finiequi
ne définira pas engénéral
unemesure sur C
([0, 1])
ou sur un espace fonctionnel utile.Précisément,
soit~ i/n, i = o ... n -1 ~
la discrétisation de[0, 1]. Soient hn
la trace d’unefonction
h, hn = { h (i/n), i = o ... n -1 ~
et~n
la trace de ~. Pourchaque
n, on va définir une mesure de référence
portée par n
et satisfaisantaux
propriétés
d’invariance pour les traces des groupes considérés[par exemple (~T)n
sera le cube]a, b[n
et = F une mesurepositive
sur]a, b[ : (~e)n
seraBn
la boule unité de [R" et sera la loi uniforme sur laboule].
Les contraintes non linéaires seront donc satisfaites avec les invariances souhaitables par les suites
(~n, ‘~n
convexe ouvert de ~n. La contraintelinéaire sera discrétisée en
1/n Epn Ltl (i/n) Xn = c, où ..., Xn)
sont
les n
coordonnées;
etQME,
si elle existe sera la solution duproblème d’entropie
associé à pour la contrainte discrétisée.DÉFINITION 2. - Soit
(~, (~n)n E ~,
la donnée d’une suitede
problèmes d’entropie
sur la moyenne obtenus par discrétisation àpartir
d’un convexe ouvert de
C ([0, 1]).
On dira que la suite estconvergente (pour n -~ oo )
si :(1)
pour tout n assezgrand,
leproblème (MEM)
de taille n admet unesolution
unique QME;
(2)
pour tout x,lorsque n -
oo, i(n)/n
- x,X?
étantla i-ème coordonnée dans le n-ième
problème;
LEMME 1. - S’oit ~ un convexe ouvert de
C ([0, 1]).
On suppose que la contrainte est réalisable c’est-à-direqu’il
existeg E
tel queg (x) cp (x)
dx = c. Si de plus
cp est de rang k (i.
e. ; si ~
a, cp (x) ~
= 0,
pour tout x E
[0, 1],
alorsa = 0),
alors pour n assezgrand,
la contrainteest réalisable
dans Cn,
c’est-à-direqu’il
existe telle que- 03A3
cp(i/n) an
= c.n i= 1
Démonstration. -
Remarquons
que le résultat est presque évident si k= 1.centre g
et de rayon s, où E est tel que B(g, E)
ce ~.Soit
Bn (gn, E)
la boule ouverte de [R"(pour
la norme dusup)
centrée engn et de rayon 8.
n
Notons pour
i= 1
Supposons
que pour tout n deN, cTn(Bn(gn,E)).
Choisissons 6n de la forme
~n
= g(i/n)
+ ~~n, ~ On I __
1.Comme
Bn (gn, E)
est convexe, il existe unhyperplan
qui sépare
c deTn (B~ (gn, s)).
Donc,
pour tout choix deOn,
on aet donc
Soient le module d’uniforme continuité des
composantes
de cp et de g et K le sup des normes de ces mêmes fonctions dansC ([0, 1]).
Le terme de
gauche
del’inéquation (A)
estmajoré
par Comme le choix desOn
est arbitraire dans[-1,1],
on doit avoirLa suite an est relativement
compacte (sur
lasphère
unité de(~k).
Soita~ un de ses
points
d’adhérence. On aurait doncce
qui
contreditl’hypothèse
faite sur le rang de cp.LEMME 2. - Si les
hypothèses
du lemme 1 sontvérifiées,
sil’enveloppe
convexe du support de n
contient Cn,
et siest un ouvert non vide alors le
problème d’entropie
de taille n admet unesolution
unique définie
paroù
et un est
défini
pargrad [Log Zn (un)]
= c.Démonstration. -
D’après
le lemmeprécédent,
il existe an de tel6n
cp(i/n)
= c. Pourpouvoir appliquer
le corollaire1,
il suffit de trouver vnéquivalente
à de moyenneEvn [X?]
=6n.
Sous les
hypothèses
dulemme,
il existe pour tout an de~n
une loiéquivalente d’espérance
an[7],
d’où le résultat.Remarques. - L’hypothèse
sur lesupport de n peut
êtreremplacé
par : il existe vnéquivalente
et où(an)
est une suitequelconque
satisfaisant la contrainte
(il
est des situations oùpeut
être construiteindépendamment
du lemme1).
Pour un convexe ~
quelconque,
iln’y
a pasd’approximation privilégiée
par des espaces de dimension finie. La formulation la
plus
naturelle estde choisir pour Iln la loi uniforme sur Nous allons étudier les deux cas
particuliers et C03B8
introduitsplus
haut. La méthode définie pourrc T
vaut pour toute et non pas seulement
pour a et b bornés. De
plus
onpourrait
transformer facilement leshypothè-
ses, pour
remplacer a
para (x)
et b parb (x) (avec a (x)
etb (x)
desfonctions
continues)
etremplacer C ([0, 1])
par un espace Loo(voir [7]).
La méthode introduite
pour ~8
est aussi valable pour unellipsoïde
deL2 ([~~ il) fi
C([~~
IV. LE CAS DES CONTRAINTES
Soit F une mesure
positive
sur[a, b] qui vérifie
leshypothèses : (Hl) ]a, b[
est inclus dansl’enveloppe
convexe du support de F.(H3)
V= {~Rk,
V je e[0,1], A,
cp(x) )
E D(F)}
est nonvide,
et coincideavec
V’ _ ~ A E ~k, ~r (~ A, cp (x) ~)
est dxintégrable
sur[o,1] ~,
où l’on aposé,
exp(t)]
=[exp ty] dF (y).
Ces
hypothèses
ne sont pas très restrictives.Lorsque a
et b sont finis(H 1 ), (H2)
et(H3)
sont vérifiées si F est une mesure de masse totale finie dontl’enveloppe
convexe dusupport
est[a, b].
Dans le cas noncompact
leshypothèses (H2)
et(H3)
sont vérifiées parexemple lorsque
la trans-formée de
Laplace
de F est définie sur R tout entier. Hl entraîne l’existence d’une mesureéquivalente
à F etd’espérance
arbitraire dans]a, b[.
Remarquons
que l’on atoujours
V’ inclus dans l’adhérence deV,
et quesous
(H2), (H3)
V’ est un ensemble ouvert et non vide.An = n -
est défini(lorsqu’il
existe et estunique)
parSi
QME
est la solution du n-ièmeproblème
ME associé à la contraintealors
On a
LEMME 2 bis. - Sous les
hypothèses (H 1 ), (H2), (H3), An
estdéfini
demanière
unique,
pour n assezgrand,
paret le n-ième
problème
ME associé à la contraintede
référence
admet pour solutionQME définie
parD’autre
part
Il
résulte
alors du lemmeci-dessous
que limAn
=A ~ .
n ~ o0
En résumé. - Le
problème
du(MEM)
pour une contrainte a g(x)
badmet dans ce cadre la solution
(x) _ (~ A~~ ~ (x) i )~
où~ (t)
=Log exp (ty)
dF(y),
est la suite des mesures deréférence
etA
est donné par
LEMME 3. - Sous les
hypothèses Hl, H2,
H3 lim avecA
donné par
Pour prouver le
lemme
3 nous avons besoin d’unlemme d’analyse
convexe. Soit U un ouvert de
M"
et soit U* lafrontière
de U dansVol. 26, n° 4-1990.
(~k U ~
oo~,
nous dironsqu’une
suite(An) An E U
tend vers U* et nousnoterons
An U*,
si lespoints d’accumulation
de(An)
sont tous inclusdans U*.
LEMME 4. - Soit
(A, c)
- K(A, c)
unefonction
de deux variablesdéfinie
sur U X
W,
U(resp. W)
est un convexe ouvert de(resp. (I~m).
On suppose que K(A, c)
est strictement convexe enA,
concave en c et que :(a)
Il existe c* de W tel que K(A, c*) atteigne
son minimum en unpoint
A* de U.
(b)
Il existe unefonction
L à valeurfinie
sur W telle que(c)
En convenant queK (A, c)=
+ o~o si pour c de Wfixé,
lafonction
K(., c)
est semi-continueinférieurement.
Alors V CE
W,
K(An, c)
- + o~o siAn -~
U*.Preuve du lemme 4. - Soit
c E W,
il existe c* * de W et un réel À de]0,
1[ tels
que c = À c* +( 1- À)
c**(car
W est un convexeouvert).
Utilisons maintenant la
concavité
de KOn conclut en
remarquant
queK (An, c*)
--~ + oolorsque An
U*.Preuve du lemme 3. - Posons
pour c élément de
(qui
un convexe ouvertde Rk
parapplication
du théorème del’image ouverte)
on poseet
On a lim la convergence est uniforme sur tout
compact
deV,
donc si l’on montre que H(A, c) possède
un minimum enPoincaré - Probabilités et Statistiques
un
point A~
de V le lemme sera établi. Pourcela,
montrons que leshypothèses
du lemme 4 sont vérifiées pour la fonction H.minimum de H
(A, c*),
etl’hypothèse (a)
du lemme 4 est vérifiée par H.n
Posons
c~n~ =1 /n ~
leproblème d’entropie
sur lai=1
moyenne associé à
~,n = F°n,
cp, a pour solution avecet
Soient xn la loi de densité
(par rapport
àet pour y de
]a, b[,
la transformée de Cramer de la mesure F.
On a alors
et
La loi xn vérifie les contraintes discrétisées pour
c(n)
cequi implique l’inégalité
Par passage à la limite on en déduit que
Vol. 26, n° 4-1990.
Pour g rF (g)
esttoujours
fini car la fonction yF est continue sur]a, b[.
Ainsil’hypothèse (b)
du lemme 4 est vérifiée. Le lemme de Fatoudonne
l’hypothèse (c)
et le lemme 3 est démontré.Remarquons
que la loi xn est la solution duproblème
de maximisation del’entropie (Pn)
sous les contraintesOn
peut
rassembler les résultatsprécédents
dans leTHÉORÈME 2. - Soient cp :
[0, 1]
-~k
uneapplication continue,
cé~k donnés;
soit(P)
leproblème :
trouver gtelle que
Alors les conditions suivantes sont
équivalentes : (1) (P)
a une solution.(2)
Il existe03C8,
tel queexp 03C8
soit latransformée
deLaplace
d’une mesurepositive véri.f’iant (Hl), (H2)
et(H3),
telle que(P)
ait pour solution~’ (~ Aoo,
cp(x) ~)
oùA~
estdéfini
par(3)
Pourtout 03C8
tel queexp 03C8
soit latransformée
deLaplace
d’une mesurepositive vérifiant Hl,
H2 etH3, (P)
a pour solution~’ (~ Aoo,
cp(x))
oùest
dé, fini
parLe
Remarquons
d’abord que si lamesure de référence est la densité uniforme sur la boule unité
Bn
de ~n devolume vn
alors leshypothèses
du lemme 2 sontvérifiées,
et l’on a pour udans Rk
où
Zn (u)
nedépend
en fait que de la norme du vecteur1 /n ( u,
cpn),
En effet pour t de
~n,
est
la norme euclidienne surtR",
dans la suite on noteraI (t)
cetteintégrale.
On a donc
De
où
on déduit que
où un est défini par
et
Gn (u)
parPosons alors . ).
où
An
estl’unique
minimum deLa suite
Hn
converge(uniformément
sur toutcompact)
versqui possède
ununique
minimum en[M~J -1
c(où M~
est la matrice desproduits
scalaires descomposantes
de cp dansL2).
Vol. 26, n° 4-1990.
La suite
(x))
est doncconvergente
de limitequi
est la reconstruction des moindres carrés.Remarquons
queIl gMEM
est bienplus petite
que1,
en effet lacontrainte est par
hypothèse
réalisée par une fonction de normeL2
infé-rieure à
1,
etgMEM minimise Il g Ik2
sous la contrainteV. MAXIMISATION
DES FONCTIONNELLES CONCAVES ET MAXIMUM D’ENTROPIE SUR LA MOYENNE
Comme cadre
général
à la minimisation de normes, à la maximisation del’entropie
usuelle ou de celle deBurg,
onpeut
proposer la situation suivante :Soit exp
(u)]
la transformée deLaplace
d’une mesure F(positive)
surR;
on suppose que F vérifie leshypothèses Hl, H2,
H3. Leproblème (MEM)
a comme solution ainsi que nous venons de le voiroù
Les fonctions de
type négatif jouent
donc un rôle trèsparticulier.
Sil’on considère la fonctionnelle de
Legendre
définie alors
THÉORÈME 3. -
gMEM
estl’unique
solution deg = arg max r (h),
oùDémonstration. -
D’après
la démonstration du lemme 3 on aUn
simple
calcul donne d’autrepart
H(A ~, c)
= r(gMEM),
cequi
entraîneque
gMEM
est une solution duproblème d’optimisation.
On conclut enremarquant
que y est une fonction strictement convexe cequi
assurel’unicité de la solution.
Remarquons
que l’on aurait pu conclure directement par un calcul standard de variation(par
leséquations d’Euler).
Exemples :
(1) ~ (t)
=t2/2,
F la loi normale centréeréduite, ~’ (t)
=(~’) -1 (t)
= t, dans ce cas le critère est(MEM)
est ici la discrétisation duproblème usuel,
pour la mesure de Wiener surC([0,1]) (cf. exemple
B dansII).
(2)
F la loi de Poisson deparamètre 1, ~r’ (t) =
exp t,(~r’) -1 (t) = Log t,
le critère est icil’entropie
usuelleEn
général l’entropie
est utilisée pour reconstruire une densité deproba-
bilité
(cp =1
et c~= 1),
on retrouve dans ce casl’expression
habituelle(MEM)
est encore la discrétisation d’unproblème
usuel(mesure
dePoisson, cf exemple
A deII).
(3)
F est la mesure deLebesgue
sur]o, + oo [,
~r’ (t) _ (~r’) -1 (t) _ -1 /t~ (t o).
Le critère associé est
l’entropie
deBurg
Dans le cas où on
peut
aussiinterpréter l’entropie
deBurg
comme un
problème
usuel avec la mesure apriori
G associée à la mesurealéatoire définie par le
semi-groupe y (t, 1)
de lois indéfiniment divisibles.(4)
Navaza[12], [13]
propose pour reconstruire une densitéélectronique
bornée
(on
se ramène au cas où elle estcomprise
entre 0 et1)
deprendre
pour F la loi uniforme sur
]0, 1 [,
la solution est alorsLe critère concave associé n’est pas ici
explicitement
calculable.Remarque
sur le groupe naturel associé à une mesure. - Considérons lamesure de
Lebesgue
sur[0,1].
Onpeut
demander que toute suite demesures sur ~n associée à la discrétisation soit invariante par le groupe des
permutations qui
est la trace sur [R" du groupe des transformationsconservant la mesure. La recherche de densité par
rapport
à la mesure deLebesgue
se fera alors à l’aide de suites deprobabilités (J.ln) échangeables [mais
non nécessairement cohérentes dansC ([0, 1])].
On s’intéresse
particulièrement
à des contraintes non linéaires invariantes parréarrangement;
les cassimples
sont les normesLP,
les normes d’Orliczou de
Lorentz,
ou des combinaisons de ces normes. Ainsi~T correspond
VI. EXISTENCE D’UNE SOLUTION AU
PROBLÈME
DES MOMENTSDANS CT
Nous allons maintenant étudier l’existence d’une fonction telle que
où
Un des cas bien connu est celui où
]a, b[ = f~ + *
et où cp est unsystème
d’exponentielles (
exp(i203C0
ax), 03B1 I _ k } .
Ce cas
peut
être entièrement résolu par des méthodes hilbertiennes et de variablecomplexe [11].
Leproblème
a alors une solution si et seulement si c est detype positif.
La solutioncontinue, classiquement introduite,
estde la forme
(I Pk (e - i2 "") ( - 2),
oùPk
est lepolynôme
dedegré k
défini par,Tk (c) Pk
=(0, 0,
...,1), Tk (c)
est la matrice deToeplitz
associée à c. Cettefonction est la densité
spectrale
du processusd’entropie
maximale dont la covariance est une extension de c.Remarquons
que le théorème 2 nousdonne, quand
c est detype positif,
une solution~r’ [Pk (exp (
- i2 ~x))]
avec0/
detype négatif.
C’est une famille très intéressante pour la réalisationpratique
d’une covariance.Avant d’énoncer le
théorème,
faisons une remarque trèsimportante :
laconstruction par discrétisation
qui
est à la base des sections IV et V n’utilise pas lespropriétés particulières
de l’ensemble[0, 1] sur lequel
cp et g sont définis. En fait[0, 1] ] pourrait
êtreremplacé
par un ensemble Ecompact, métrique, séparable.
En
particulier
dans le cas dessystèmes d’exponentielles
onpeut
rem-placer [0, 1] par [o, 1 ]d = ~d,
etprendre el E 7Ld.
Ce
type
d’extensions estbeaucoup plus
difficile à mettre en oeuvre avecles méthodes hilbertiennes
(dans
le cas]a, b[
= R +*).
Nous noterons,
et
V2 =
d’intérieurV2.
On dira que c est réalisable dans
reT
sic E V 1.
On suppose que cp
(x)
est de rangplein
pour presque tout x. Alors c estréalisable dans si et seulement si h*
(c)
0Vol. 26, n° 4-1990.
et
Remarques. -
En renormalisant~,
on a un résultatidentique
pour a et bquelconques.
- Ce résultat est à
rapprocher
de celui de Krein Nudelman[11] : c E V
1si et seulement si pour tout A de
RB
on aCOROLLAIRE 2. - Soit cp
(x) défini
par unsystème d’exponentielles
soit
Pk (ei2 "x)
unpolynôme trigonométrique
réel dela forme
Alors c est réalisable
dans T
si et seulement si pour toutpolynôme Pk,
on a
Il existe alors une réalisation de c
dans T
dela forme
Pour démontrer le théorème 4 nous avons besoin du lemme suivant : LEMME 5. -
(1)
Soit CEV2
et B(c, E)
une boule ouverte de centre c, derayon ~ > 0 et d’adhérence incluse dans
V 2.
Alors il existe no tel que(2)
On peut dans(1) remplacer ]0,
1~n.
Démonstration du lemme. -
( 1 )
Soient la matrice k X nTn
=(cp ( j/n))~ -1...n
et m un entier fixé tel que
Tm
soit derang k (ce qui
estpossible puisque
cp est de rang
k).
Soit
E 1 > 0
tel que :Supposons qu’il
existe une suite(cj)~ ~ o
deB (c, E)
telle queoù n
(/)
est une suite croissante d’entiers.Il existe un
hyperplan
aqui sépare
G deV 1;
on a alorsPosons
B = { ~ E I~ô’n, Tm ~ = r~, ~ E B (o, ~1) ~;
B est unvoisinage
de 0 et ona, pour tout pour
tout 03BE ~ B.
On en déduit
où 03B2
>0,
et(En (l))l
est une suite de réelspositifs qui
tend vers 0.L’inégalité précédente implique
que,ce
qui
contreditl’hypothèse
sur le rang deTm.
(2)
Il suffit de considérerB (~, c + (1- ~,) c*, ~)
avecc* E Vl,
et~, E ]o, 1 [,
tels que l’adhérence de cette boule soit incluse dans
V2
et d’utiliser(1).
Démonstration du théorème 4. -
(a)
Soit CEd’après
le théorème 2la fonction
gMEM (x) = 0/’ (( A~,
cp(x) ))
vérifieSi y
désigne
commeprécédemment
laconjuguée
deYoung-Legendre
de~
et sion a
(cf
démonstration du théorème3)
doncpour
yE]o, 1[.
(b)
Soitc ~ 2
etB (c, E)
d’adhérence incluse dansV2.
Notons
IIn = ( 1 /2 ~o + 1 /2 b 1) on
etX~, j =1 ... n,
lesapplications
coor-données.
D’après
le lemme 5pour n ~ n0
on a :Le théorème de
grandes
déviations([5], p. 47) donne,
et donc h*
(c) =
+ ce .(c)
Soitc E V2/V2,
comme h* est convexefermée,
Il existe une suite
(An)
avecLim Il =
+ oo,(d’après
leparagraphe IV,
siA,* -~
A alorsCE V 1).
On a
d’après
le théorème deLebesgue,
de mêmedonc
en
prenant An
= n a, on ad’après
le raisonnementprécédent
VII. LA
MÉTHODE
DE MAXIMISATION DE L’ENTROPIE SUR LA MOYENNE COMMEMÉTHODE
SOMMATOIRE DE FOURIER
Supposons
que On se donne donc pour unefonction
réelle g
les coefficients Fourierc = (cj)j = o...k (par
la contrainteUne méthode sommatoire est la donnée pour
chaque k
d’uneapplication, Rk ~ C ([0,1 ])
telle que
(au moins) :
lim gk = g.Les
qualités
de la méthode sommatoire par maximumd’entropie
ME pour une fonction
positive
ont étésignalées
dans[3]
et[8].
(ME)
consiste à poser : est la densité de la mesured’entropie
maximum
(par rapport
à la mesure deLebesgue)
vérifiant la contraintep. (ME) est très supérieure
aux méthodes usuelles pour
k « moyen » et g
de forte concentration. Elle consiste d’après
ce qui précède
à
approcher g
par desexponentielles
depolynômes trigonométriques.
Si l’on utilise
(MEM),
enimposant à gk d’appartenir
à un convexedonné a
priori,
alors on définit pourchaque
convexe ~ etchaque
suite demesures de
référence
une méthode sommatoireoù gk
E. Ces méthodessont
convergentes
aux sens des distances en mesures(LP, etc.)
et ne donnentévidemment que des
interpolées.
Onpeut
aussiregarder
les fonctionnellesconcaves introduites
précédemment
et associées àchaque
méthode(MEM),
comme méthode sommatoire. Chacune d’entre elles est