HAL Id: hal-00175237
https://hal.archives-ouvertes.fr/hal-00175237
Preprint submitted on 27 Sep 2007
HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from
L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de
Un théorème de Helson pour des séries de Walsh
Jean-Pierre Kahane
To cite this version:
Jean-Pierre Kahane. Un théorème de Helson pour des séries de Walsh. 2007. �hal-00175237�
hal-00175237, version 1 - 27 Sep 2007
Un th´eor`eme de Helson pour des s´eries de Walsh
Jean–Pierre Kahane Laboratoire de Math´ematique,
Universit´e Paris–Sud `a Orsay
Henry Helson a ´etabli en 1954 le th´eor`eme suivant : Si les sommes par- tielles d’une s´erie trigonom´etrique sont positives, les coefficients tendent vers z´ero [1]. C’est une des perles de la th´eorie des s´eries trigonom´etriques, en- core mise en valeur par le fait que l’hypoth`ese n’entraˆıne pas que la s´erie trigonom´etrique est une s´erie de Fourier–Lebesgue (Katznelson 1965 [2]).
Nous allons montrer l’analogue des th´eor`emes de Helson et de Katznelson pour les s´eries de Walsh, avec un compl´ement au th´eor`eme de Katznelson qui s’´etend aux s´eries trigonom´etriques.
Th´ eor` eme I.— Si les sommes partielles d’une s´erie de Walsh sont posi- tives, les coefficients tendent vers z´ero.
Th´ eor` eme II.— Soit ψ une application croissante de R
+sur R
+, telle que lim
x→0
(ψ(x)/x
2) = 0. Alors a) il existe une mesure de probabilit´e singuli`ere µ sur [0, 1] dont les sommes partielles de la s´erie de Walsh sont positives, et dont les coefficients de Fourier–Walsh, µ(n), v´erifient b
P
∞ 0ψ( |b µ(n) | ) < ∞ b) le mˆeme ´enonc´e vaut pour les s´eries et les coefficients de Fourier au sens usuel.
Pr´ecisons les notations pour les s´eries de Walsh. Au lieu de [0, 1], il
est commode de les d´efinir sur le groupe multiplicatif {− 1, 1 }
N∗, que nous
d´esignerons par D . Les fonctions coordonn´ees r
1, r
2, . . . sont les fonctions de
Rademacher, et elles engendrent par multiplication les fonctions de Walsh
w
n(n = 0, 1, 2, . . .) qui sont les caract`eres de D . On ordonne ainsi les w
n= 1,
w
1= r
1, w
2= r
2, w
3= r
1r
2, w
4= r
3etc, c’est–`a–dire
(1) w
n= Y
r
jαj, α
j= 0 ou 1 et X
α
j< ∞ .
Aux entiers n on associe ainsi les suites finies (α
j) de 0 et de 1, et l’ordre croissant des n est l’ordre lexicographique inverse des mots (α
j).
Une s´erie de Walsh est une s´erie formelle de la forme P
∞0
c
nw
n, o` u les coefficients c
nsont r´eels ou complexes. Nous nous bornerons aux c
nr´eels. Les fonctions de Walsh op´erant par multiplication sur les s´eries de Walsh. Nous aurons besoin du lemme suivant.
Lemme .— Soit S une s´erie de Walsh et w
mune fonction de Walsh.
Ecrivons w
mS sous la forme
w
mS = X
∞0
d
nw
n.
Alors, pour chaque k, la somme partielle d’ordre 2
k,
2k−1
P
0
d
nw
n, est le produit par w
md’une diff´erence de sommes partielles de la s´erie S.
Preuve. La s´erie P
∞0
d
nw
nw
mn’est autre que la s´erie S dont on a modifi´e l’ordre des termes. Reste `a montrer que les w
nw
m(n = 0, 1, . . . , 2
k− 1) constituent, `a l’ordre pr`es, une suite de 2
kfonctions de Walsh cons´ecutives.
Pour cela, ´ecrivons les w
nsous la forme (1) (avec ici α
j= 0 ou 1 pour j ≤ k et α
j= 0 pour j > k) et w
m= Q
r
jβj(β
i= 0 ou 1). Les w
nw
ms’´ecrivent Q r
jγjavec γ
j= 0 ou 1 et γ
j= α
j+ β
jmodulo 1. Ainsi (γ
j)
j=1,2,...,kparcourt { 0, 1 }
kquand (α
j)
j=1,2,,...,kparcourt { 0, 1 }
k, tandis que (γ
j)
j>k= (β
j)
j>k. Donc les indices des w
nw
m, qui s’´ecrivent
P
k 1+ P
∞ k+1γ
j2
j−1, parcourent un segment des entiers de longueur 2
k, CQFD.
A toute s´erie de Walsh S est associ´ee une martingale dyadique constitu´ee par ses sommes partielles d’ordre 2
k(k = 0, 1, 2, . . .)
M
k= M
k(S) =
2
X
k−10
c
nw
n,
et on obtient ainsi toutes les martingales dyadiques d´efinies sur D . Rappelons des propri´et´es des martingales dyadiques dont nous nous servirons.
P1. S est la s´erie de Fourier–Walsh d’une mesure de Radon r´eelle sur D , c’est–`a–dire c
n= R
w
ndµ, µ ∈ M ( D ), si et seulement si les M
ksont born´es dans L
1( D ). Dans ce cas, les M
ktendent presque partout sur D vers la densit´e de la partie absolument continue de µ, et les M
ktendent vers µ dans M ( D ) au sens faible, comme formes lin´eaires sur C( D ).
P2. S est la s´erie de Fourier–Walsh d’une fonction r´eelle int´egrable sur D , soit c
n= R
f w
n, f ∈ L
1( D ), si et seulement si les M
ksont uniform´ement int´egrables. Dans ce cas, les M
ktendent vers f presque partout et dans L
1( D ).
P3. S est la s´erie de Fourier–Walsh d’une mesure positive µ ∈ M
+( D ) si et seulement si les M
ksont positives, M
k≥ 0.
Ici comme dans la suite, positif signifie ≥ 0.
Preuve du th´ eor` eme I .
Supposons les sommes partielles de la s´erie S positives, et de plus c
0= 1. Alors S est la s´erie de Fourier–Walsh d’une mesure de probabilit´e µ ∈ M
+1( D ), soit c
n= b µ(n), et
M
k= M
k(r
1, r
2, . . . , r
k) =
2
X
k−10
µ(n)w b
n.
Ecrivons
M
k+1= M
k+ r
k+1N
k, N
k= N
k(r
1, r
2, . . . r
k) N
k=
2
X
k−10
N b
k(m)w
mN
k∗= sup
0≤n<2k
X
n0
N b
k(m)w
mL’hypoth`ese que les sommes partielles de S soient positives se traduit par
(2) N
k∗≤ M
k(k = 0, 1, . . .)
Supposons que les b µ(n) ne tendent pas vers 0, c’est–`a–dire qu’il existe
un a > 0, une suite strictement croissante d’entiers k
j, et des entiers n
j∈
[2
kj, 2
kj+1[ tels que |b µ(n
j) | ≥ a, et tentons d’´etablir une contradiction.
Supposons d’abord n
j= 2
kj. Les N
kisont born´es dans L
1( D ) et | N b
kj(0) | ≥ a puisque N b
ki(0) = µ(2 b
kj). Quitte `a remplacer la suite (k
j) par une sous–
suite, nous pouvons supposer que les N
kjconvergent faiblement vers une mesure ν ∈ M ( D ). Ainsi
ν(n) = lim b
i→∞
N b
ki(n) et en particulier b ν(0) 6 = 0.
Les sommes
ν
k=
2
X
k−10
b ν(n)w
n(k = 0, 1, 2, . . .)
forment une martingale dyadique born´ee dans L
1( D ) (propri´et´e P1) et, pour chaque k,
ν
k= lim
j→∞
2
X
k−10
N b
ki(n)w
n. L’hypoth`ese de positivit´e, sous la forme (2), entraˆıne (3)
2
X
k−10
N b
ki(n)w
n≤ M
kilorsque k
j≥ k, donc | ν
k| ≤ M
ki.
Or les M
kiconvergent presque partout vers une f ∈ L
1, la densit´e de la partie absolument continue de µ (propri´et´e P1). Donc
| ν
k| ≤ f .
Cela entraˆıne que les ν
ksont uniform´ement int´egrables, donc convergent dans L
1( D ) (propri´et´e P2), donc que ν est absolument continue.
D’autre part, si l’on d´ecompose µ en sa partie absolument continue et sa partie singuli`ere, µ = µ
a+ µ
s, on peut ´ecrire ´egalement M
k= M
ka+ M
kset N
k= N
ka+ N
ks. Les M
kaconvergent vers f dans L
1( D ), donc les N
katendent vers 0 dans L
1( D ), donc ν est la limite faible des N
ksj. Or, pour tout ε > 0 et tout k,
(N
ks> ε) ⊂ M
ks> ε 2
∪ M
k+11> ε 2
et la mesure du second membre tend vers 0 quand k → ∞ . Donc ν est
singuli`ere. La contradiction est ´etablie dans le cas particulier n
j= 2
ki.
Passons au cas g´en´eral. On consid`ere maintenant les N
k′j= w
mjN
kj, m
j= n
j− 2
kj.
Ainsi N b
k′j(0) = N b
kj(m
j) = µ(n b
j). Comme ci–dessus, quitte `a restreindre la suite (n
j), les N
k′jconvergent faiblement vers une mesure ν
′singuli`ere, non nulle puisque b ν
′(0) 6 = 0. Pour montrer que ν
′est absolument continue, le point crucial est l’analogue de (3) que l’on obtient en appliquant le lemme `a N
kj(pour S) et w
mj(pour w
m). On obtient ainsi, pour k ≥ k
j,
(4)
2
X
k−10
N b
k′j(n)w
n≤ 2 M
kj,
ce qui permet d’achever la d´emonstration que ν
′est absolument continue. La contradiction est ainsi ´etablie dans le cas g´en´eral, et cela ach`eve la preuve du th´eor`eme 1.
Remarque. Cette preuve est calqu´ee sur celle de Helson. Comme ici, Helson met en ´evidence, sous l’hypoth`ese que les coefficients ne tendent pas vers z´ero, une mesure ν non nulle qui est `a la fois singuli`ere et absolument continue. Mais la d´emonstration de la continuit´e absolue est diff´erente. Helson utilise un th´eor`eme de Fr´ed´eric et Marcel Riesz qui appartient `a la th´eorie des fonctions analytiques. On utilise ici la th´eorie des martingales. L’emploi en parall`ele des martingales et des fonctions analytiques est classique en analyse harmonique depuis les th´eor`emes de Paley et de Littlewood–Paley.
Une autre diff´erence entre les preuves est l’utilisation de l’hypoth`ese.
La positivit´e des sommes partielles entraˆıne que les sommes partielles sont born´ees dans L
1, et Helson n’utilise rien d’autre. Au contraire, nous avons utilis´e de mani`ere essentielle une autre cons´equence de la positivit´e, la for- mule (2) (´equivalente `a la positivit´e des sommes partielles).
Preuve du th´ eor` eme II.
Partie a)
On construit la mesure µ comme produit infini µ = Y
(1 + X
k)
o` u les X
ksont de polynˆomes de Walsh ind´ependants `a valeurs dans l’intervalle
[ − 1, 1] et de valeur moyenne nulle : | X
k| ≤ 1 et EX
k= 0. Posons EX
k2=
σ
k2. Lorsque P
σ
2k< ∞ , le produit infini converge dans L
2( D ), donc µ est absolument continue. Lorsque P
σ
k2= ∞ , µ est une mesure de probabilit´e singuli`ere.
Voici une d´emonstration rapide de ce dernier fait, tir´ee de [3]. Supposons P σ
k2= ∞ . Les
Xσkk
forment un syst`eme orthonormal dans L
2( D , λ), o` u λ d´esigne la mesure de Haar sur D . On v´erifie que les
Xσkk
− σ
ksont de valeur moyenne nulle et deux `a deux orthogonales dans L
2( D , µ) :
E
µX
kσ
k− σ
k= E
λX
kσ
κ− σ
k(1 + X
k)
= 0 et, pour k 6 = k
′,
E
µ Xkσk
− σ
k Xk′σk′
− σ
k′=E
λ Xkσk
− σ
k Xk′σk′
− σ
k′(1 + X
k)(1 + X
k′)
=E
λ Xkσk
− σ
k(1+X
k)
E
λ Xk′σk′
− σ
k′(1+X
k′)
= 0.
De plus,
E
µ Xkσk
− σ
k 2= E
λ Xkσk
− σ
k 2(1 + X
k)
≤ 2 E
λ Xσkk
− σ
k2= 2(1 + σ
k2) ≤ 4 . Pour toute suite (b
k) ∈ ℓ
2, les s´erie P
b
kXkσk
et P b
k Xkσk
− σ
kconvergent respectivement dans L
2( D , λ) et dans L
2( D , µ). Si µ n’´etait pas orthogonale
`a λ, il existerait un point de D et une suite d’entiers n
itels que les sommes partielles d’ordre n
ides deux s´eries convergent en ce point. Par diff´erence, les sommes partielles d’ordre n
ide la s´erie P
b
kσ
kconvergeraient. Or on peut choisir les b
k> 0, (b
k) ∈ ℓ
2, de fa¸con que la s´erie P
b
kσ
kdiverge. Donc µ ⊥ λ.
Remarquons que l’hypoth`ese d’ind´ependance des X
kpeut ˆetre remplac´ee par une condition d’orthogonalit´e forte, `a savoir
Z Y X
kαk= 0
pour toutes les suites (α
k) constitu´ees de 0, 1 et 2, et finies ( P
α
k< ∞ ), contenant au moins un 1 et au plus deux 2. C’est sous cette forme que la m´ethode a ´et´e introduite et utilis´ee par Peyri`ere dans l’´etude de la singularit´e mutuelle des produits de Riesz [3].
On imposera donc la condition P
σ
k2= ∞ , et il s’agit maintenant de construire les X
kde fa¸con que les sommes partielles de la s´erie de Fourier–
Walsh de µ soient positives, et que les coefficients v´erifient la majoration
|b µ(n) | ≤ ψ(n). Pour cela, il est commode de disposer de polynˆomes de Walsh de la forme suivante :
ϕ = ϕ(r
1, r
2, . . . r
ℓ) =
2ℓ
X
1
ε
nw
n, ε
n= ± 1 pour lesquels
k ϕ k
v= sup
1≤p≤2ℓ
k X
p1
ε
nw
nk
∞< C 2
ℓ/2= C k ϕ k
2,
C ´etant une constante absolue. Voici une construction classique de tels polynˆomes : on pose P
0= Q
0= 1, P
ℓ+1= P
ℓ+ r
ℓ+1Q
ℓ, Q
ℓ+1= P
ℓ− r
ℓ+1Q
ℓ(2 = 0, 1, . . .), on v´erifie que P
ℓ2+ Q
2ℓ= 2
ℓ+1, d’o` u
k P
ℓk
v≤ 2
ℓ/2+ 2
(ℓ−1)/2+ · · · ≤ 2
ℓ/2√ 2
√ 2 − 1
et on pose ϕ(r
1, r
2, . . . , r
ℓ) = r
1P
ℓ. C’est la construction donn´ee dans le cas trigonom´etrique par Harold Shapiro puis par Walter Rudin, et la suite (ε
r) s’appelle la suite de Rudin–Shapiro.
Etant donn´e un ensemble d’entiers positifs J, de cardinal 2
ℓ, on d´esignera par ϕ((r
j), j ∈ J) le polynˆome de Walsh obtenu `a partir de ϕ(r
1, r
2, . . . r
ℓ) en substituant `a r
1, r
2, . . . r
ℓles r
j, j ∈ J, dans l’ordre croissant des j. La construction de µ va d´ependre essentiellement du choix d’une suite tr`es rapi- dement croissante d’entiers ℓ
k, que nous ferons plus tard. Pour chaque k, soit J
kun ensemble d’entiers, de cardinal 2
ℓk, situ´e `a droite de J
k−1: inf J
k>
sup J
k−1. Posons
a
k= 1
2C 2
−ℓk/2X
k= a
kϕ((r
j), j ∈ J
k) .
Explicitons les normes de X
kdans L
2, dans U (maximum des valeurs absolues
des sommes partielles), dans A (somme des valeurs absolues des coefficients)
et dans P M (sup des valeurs absolues des coefficients) : k X
kk
2= 1
2C , k X
kk
U< 1
2 , k X
kk
A= 1
2C 2
ℓk/2, k X
kk
P M= 1
2C 2
−ℓk/2.
Comme les J
ksont disjoints, les X
ksont bien ind´ependants, et on a bien EX
k= 0 et P
σ
k2= ∞ . Posons
Π
k= (1 + X
1)(1 + X
2) · · · (1 + X
k) .
Une somme partielle de la s´erie de Fourier–Walsh de µ dont l’ordre est com- pris entre sup J
jet sup J
j+1est la somme de Π
ket d’une somme partielle de Π
kX
k+1, ce que nous ´ecrivons
S
·(µ) = S
·(X
k+1) = Π
k+ S
··(Π
kX
k+1) . Cette derni`ere somme partielle se d´ecompose `a son tour en
S
··(Π
kX
k+1) = Π
kS
···(X
k+1) + S
····(Π
k) × un coefficient de X
k+1. Donc S
·(X
k+1) ≥ Π
k− Π
kk X
k+1k
U− S
····(Π
k) k X
k+1k
P M≥ 1
2 Π
k− 1
2C 2
−(ℓk+1/2)k Π
kk
A. Imposons la condition que, pour tout k,
(5) 1
2C 2
−(ℓk+1/2)k Π
kk
A≤ 1
4 inf Π
k. Il en r´esulte que S
·(X
k+1) ≥
14Π
k, donc S
·(µ) ≥ 0.
Ecrivons ψ(x) = x
2ε(x). Alors X ϕ( b µ(n)) ≤ X
k
k Π
kX
k+1k
22ε( k Π
kX
k+1k
P M) .
Or
k Π
kX
k+1k
22≤ 1
4C
2k Π
kk
2Aet
ε( k Π
kX
k+1k )
P M≤ ε( k X
k+1k
P M) = ε 1
2C 2
−(ℓk+1/2).
Si, outre (5), on impose `a la suite (ℓ
k) la condition
(6) X
k Π
kk
2Aε 1
2C 2
−(ℓk+1/2)< ∞ , ce qui est possible, la conclusion du th´eor`eme est v´erifi´ee.
La conclusion de la partie a) du th´eor`eme est v´erifi´ee.
Partie b)
On choisit ici des polynˆomes trigonom´etriques ϕ
ℓ(t) =
X
ℓa
ε
ncos nt , ε
n= ± 1 , avec la propri´et´e de
k ϕ
ℓk
v≤ C ℓ
1/2= C k ϕ
ℓk
2, et on choisit
X
k(t) = a
kϕ
ℓk(ℓ
kt) , a
k= 1
4C 2
−ℓk/2.
Les X
kne sont plus des fonctions ind´ependantes, mais, si la suite (ℓ
k) est assez rapidement croissante, elles sont orthogonales au sens fort qui a ´et´e d´ecrit ci–dessus. On d´efinit donc
µ = Y
∞1