Correction du TD6.
MNO, L3, Dauphine, 2020-2021 D. Gontier, gontier@ceremade.dauphine.fr
Échauffement
Exercice 1. (Changement de produit scalaire)
On note h·, ·i le produit scalaire usuel de R
d. Soit A ∈ S
d++de valeurs propres 0 < λ
1≤ · · · ≤ λ
d. On définit la forme bilinéaire sur R
d∀x, y ∈ R
d, hx, yi
A:= hx, Ayi = x
TAy.
a/ Montrer que h·, ·i
Aest un produit scalaire.
b/ Montrer que la norme associée k · k
Aest équivalente à la norme usuelle k · k, et plus précisément,
∀x ∈ R
d, λ
1kxk ≤ kxk
A≤ λ
dkxk.
c/ Soit B ∈ M
d( R ). Montrer que
hx, Byi
A= hA
−1B
TAx, yi
A. On dit que le dual de B est A
−1B
TA pour le produit scalaire hx, yi
A.
d/ Pour les fonctions suivantes, calculer le gradient, pour le produit scalaire h·, ·i
A: F
1(x) := kxk
2A, F
2(x) := kxk
2, F
3(x) := 1
2 x
TAx − b
Tx.
On remarquera que le gradient dépend du produit scalaire...
a/ L’application est clairement bilinéaire et symétrique (car A est symétrique). De plus, pour tout x ∈ R
d, on a
hx, xi
A= hx, Axi ≥ λ
1kxk
2,
qui est positif, et qui ne s’annule que pour x = 0. Donc h·, ·i
1est un produit scalaire.
b/ C’est la caractérisation des valeurs propres par le min-max.
c/ On rappelle que pour tout matrice C, on a hx, C yi = hC
Tx, yi (pour le produit scalaire usuel). On obtient donc, en utilisant que A est symétrique,
hx, Byi
A= hx, AByi = hB
TA
Tx, yi = hA
−1B
TAx, Ayi = hA
−1B
TAx, yi
A.
d/ On revient à la définition du gradient à partir de la différentielle. On a
F
1(x + h) = kx + hk
2A= kxk
2A+ khk
2A+ 2hx, hi
A= F
1(x) + 2hx, hi
A+ o(h).
Le terme linéaire est déjà sous la forme d’un produit scalaire, donc ∇F
1(x) = 2x.
Pour F
2, on obtient
F
2(x + h) = kx + hk
2= kxk
2+ 2hx, hi + o(h).
Pour trouver le gradient associé au nouveau produit scalaire, il faut réécrire le terme linéaire comme un produit scalaire h·, ·i
A. On trouve que h2x, hi = h2A
−1x, hi
A, donc ∇F
2(x) = 2A
−1x.
Enfin, pour F
3(x), on obtient F
2(x + h) = F
3(x) + 1
2 h
TAx + 1
2 x
TAh − b
Th + o(h) = F
3(x) + x
TAh − (A
−1b)
TAh + o(h).
Ainsi, on trouve ∇F
3(x) := x − A
−1b.
Exercice 2. (Rappels sur les espaces Euclidien)
Soit H un espace vectoriel, et soit h·, ·i un produit scalaire sur H, de norme associée k · k.
a/ (Identité du parallélogramme). Montrer que
∀x, y ∈ H, 2kxk
2+ 2kyk
2= kx + yk
2+ kx − yk
2, et que kxk
2+ kyk
2= 1
2 kx + yk
2+ 2
x − y 2
2
.
b/ Montrer que k · k
2est une fonction strictement convexe. Indice : on pourra montrer que
∀x, y ∈ H, ∀0 < t < 1, ktx + (1 − t)yk
2− tkxk
2− (1 − t)kyk
2= −t(1 − t)kx − yk
2.
c/ (Cauchy-Schwarz) Montrer que hx, yi ≤ kxk · kyk. Indice : on pourra développer
x
kxk
−
kyky2
.
d/ (Projection orthogonale) Soit E ⊂ H un sous-espace vectoriel de dimension finie, et soit x ∈ H. Montrer que la fonction N
x: E → R définie par N
x(v) := kv − xk
2est continue et coercive sur E.
e/ En déduire que N
xadmet un minimiseur sur E. Montrer que ce minimiseur est unique.
On appelle ce minimiseur la projection orthogonale de x sur E, et on la note P
E(x).
f/ Montrer que pour tout v ∈ E, on a hv, x − P
E(x)i = 0. Indice : on pourra calculer N
x(P
E(x) + tv).
a/ En développant, on trouve directement
kx + yk
2+ kx − yk
2= kxk
2+ kyk
2+ 2hx, yi + kxk
2+ kyk
2− 2hx, yi = 2kxk
2+ 2kyk
2.
La deuxième égalité est identique, en divisant par 2, et en remarquant que 2
212=
12. b/ On développe le terme de gauche, et on obtient,
ktx + (1 − t)yk
2− tkxk
2− (1 − t)kyk
2= t
2kxk
2+ (1 − t)
2kyk
2+ 2t(1 − t)hx, yi − tkxk
2− (1 − t)kyk
2= (t
2− t)kxk
2+ ((1 − t)
2− (1 − t))
| {z }
=1−2t+t2−1+t=t2−t
kyk
2+ 2t(1 − t)hx, yi
= t(t − 1)kxk
2+ t(t − 1)kyk
2− 2t(t − 1)hx, yi = t(t − 1) kxk
2+ kyk
2− 2hx, yi
= t(t − 1)kx − yk
2.
Lorsque x 6= y, et 0 < t < 1, ce terme est strictement négatif, donc k · k
2est strictement convexe.
c/ Si x = 0 ou y = 0, l’inégalité est vraie. Sinon, on a
0 ≤
x kxk − y
kyk
2
=
x kxk
2
+
y kyk
2
− 2 x
kxk , y kyk
= 2 − 2
kxk · kyk hx, yi.
C’est inégalité est équivalente à hx, yi ≤ kxk · kyk (Cauchy-Schwarz). Remarque : c’est une preuve en une ligne !.
d/ Par définition, une norme est continue, donc N
xest continue. On a N
x(v) → ∞ lorsque x → ∞, donc N
xest coercive.
e/ Cette fonction est continue et coercive sur un espace de dimension finie, donc admet un minimiseur. On rappelle que ce résultat nécessite d’être en dimension finie : la preuve nécessite en effet la compacité des boules fermées, ce qui n’est vraie qu’en dimension finie.
Par ailleurs, N
xest une fonction strictement convexe d’après la question b/, donc le minimiseur est unique.
Pour cette question, on peut aussi utiliser la deuxième forme de l’identité du parallélogramme.
f/ Soit v
∗:= P
E(x) le minimiseur de N
x. Pour tout t ∈ R et tout v ∈ E, on a v
∗+ tv ∈ E, donc
N
x(v
∗+tv) ≥ N
x(v
∗) ou encore kx−v
∗k
2+2thx−v
∗, vi+t
2kvk
2≥ kx−v
∗k
2, et enfin t 2hx − v
∗, vi + tkvk
2≥ 0.
Si t est positif, on divise par t puis on fait t → 0
+pour obtenir hx − v
∗, vi ≥ 0. Si t < 0, on divise par t en renversant l’inégalité, puis on fait t → 0
−, et on obtient hx − v
∗, vi ≤ 0. Ainsi, on a hx − v
∗, vi = 0.
Exercice 3. (Matrice de Gram)
Soit E un espace Euclidien de dimension d, avec produit scalaire h·, ·i et norme k · k. Soit x
1, · · · , x
d∈ E une famille libre. On introduit la matrice de Gram G ∈ S
d( R ) de coefficient g
ij:= hx
i, x
ji.
a/ Montrer que G = I
dssi (x
1, · · · , x
d) est orthonormale, et que G est diagonale ssi (x
1, · · · , x
d) est or- thogonale.
b/ Montrer que
∀α :=
α
1.. . α
d
∈ R
d, α
TGα = kα
1x
1+ · · · + α
dx
dk
2.
c/ En déduire que G ∈ S
d++( R ) est une matrice symétrique définie positive.
d/ On pose S := G
−1/2∈ S
d++( R ), puis, pour 1 ≤ i ≤ d, u
i:= P
dk=1
x
ks
ki. Montrer que la famille (u
1, · · · , u
d) est orthonormale.
Dans le cas où E = R
davec le produit scalaire usuel, on peut voir x
icomme des vecteurs colonnes. Dans ce cas, on a
X = x
1, · · · , x
d, G = X
TX, u
1, · · · , u
d= x
1, · · · , x
dG
−1/2.
a/ Évident.
b/ On a par définition de la multiplication matrice/matrice,
α
TGα =
d
X
i,j=1
α
ig
ijα
j=
d
X
i,j=1
α
ihx
i, x
jiα
j=
*
dX
i=1
α
ix
i,
d
X
j=1
α
jx
j+
=
d
X
i=1
α
ix
i2
.
c/ On a g
ij= hx
i, x
ji = hx
j, x
ii = g
ji, donc G est symétrique. De plus, d’après la question c/, la matrice G est positive. De plus, on a α
TGα = 0 ssi P
di=1
α
ix
i= 0. Or la famille (x
i) est libre, donc ceci n’est possible que si α = 0. Donc G est définie positive.
d/ On calcule
hu
i, u
ji =
*
dX
k=1
x
ks
ki,
d
X
l=1
x
ls
lj+
=
d
X
k=1 d
X
l=1
s
kis
ljhx
k, x
li =
d
X
k,l=1
s
kis
ljg
kl.
Comme toutes les matrices sont symétriques, c’est aussi
hu
i, u
ji =
d
X
k,l=1
s
ikg
kls
lj.
On reconnait l’élément (i, j) de la matrice SGS. Or S = G
−1/2, donc SGS = G
−1/2GG
−1/2= I
d. Ainsi, on a bien hu
i, u
ji = δ
ij, et la famille (u
i) est orthonormale.
Approximation polynômiale
Exercice 4. (Polynômes de meilleur approximation pour la norme 2)
On note H := C
0([−1, 1], R ) l’ensemble des fonctions continues de [0, 1] → R , et on considère le produit scalaire sur H
∀f, g ∈ H, hf, gi
2:=
Z
1−1
f (x)g(x)dx.
On considère la famille de polynôme P
n(X) définie par P
n(X) := d
ndx
n(x
2− 1)
n.
a/ Montrer que (x
2− 1)
nest un polynôme de degré 2n, de coefficient dominant 1. En déduire que P
n(X) est un polynôme de degré n, et que son coefficient dominant est
(2n)!n!.
b/ En déduire que E
n:= Ran {P
0, P
1, · · · , P
n} est un sous-espace de dimension n + 1, puis que E
n= R
n[X ].
c/ Soit f ∈ C
∞([−1, 1], R ). En intégrant n fois par partie, montrer que hP
n, fi
2= (−1)
nZ
1−1
(x
2− 1)
nf
(n)(x).
d/ En déduire que hP
n, P
mi
2= 0 si n 6= m, puis que P
n+1(X) est orthogonal à R
n[X].
On admettra que α
n:= kP
nk
2= 2
nn! √
√ 2
n + 1 . Pour les curieux, cela peut se faire avec le changement de variable x = sin(θ) puis en utilisant les intégrales de Wallis.
e/ Montrer que pour tout f ∈ C
0([−1, 1], R ), le problème argmin n
kf − P k
22, P ∈ R
n[X ] o
,
admet une unique solution, et que celle là est donnée par [P
En(f )] (x) := P
n k=01
α
2khf, P
ki
2P
k(x).
Les polynômes P
nsont les polynômes de Legendre (à un facteur près).
a/ En développant (x
2− 1)
n, on voit que (x
2− 1)
n= x
2n+ · + (−1)
nest un polynôme de degré 2n, et de coefficient dominant 1. En dérivant n fois ce polynôme, on obtient un polynôme de degré n, de coefficient dominant
(2n)(2n − 1) · · · (n + 1) = (2n)!
n! .
b/ Comme P
n(X) est de degré (exactement) n, la famille (P
0, · · · , P
n) est une famille libre de (n + 1) éléments dans R
n[X ], qui est de dimension n + 1. C’est donc une famille génératrice, et E
n= R
n[X ].
c/ On intègre par partie Z
1−1
d
ndx
n(x
2− 1)
f (x)dx = − Z
1−1
d
n−1dx
n−1(x
2− 1)
f
(1)(x)dx +
d
n−1dx
n−1(x
2− 1)
f (x)
1−1
. Le dernier terme entre crochet s’annule. En effet, le polynôme (x
2− 1)
n= (x − 1)
n(x + 1)
na −1 et 1 comme racine, chacune de multiplicité n. Donc en dérivant (n − 1) fois ce polynôme, −1 et 1 sont encore des racines de multiplicité 1.
En continuant d’intégrer par partie, et en remarquant que tous les termes de bords s’annulent, on obtient comme prévu
Z
1−1
d
ndx
n(x
2− 1)
f (x)dx = − Z
1−1
d
n−1dx
n−1(x
2− 1)
f
(1)(x)dx
= Z
1−1
d
n−2dx
n−2(x
2− 1)
f
(2)(x)dx
= .. .
= (−1)
nZ
1−1
(x
2− 1)f
(n)(x)dx.
d/ Si n 6= m, on peut supposer n > m. Dans ce cas, on a P
m(n)= 0 (on dérive n fois un polynôme de degré m < n). On a alors, d’après la question précédente,
hP
n, P
mi
2= (−1)
nZ
1−1
(x
2− 1)
nP
m(n)(x)dx = 0.
Ainsi, la famille (P
n) est orthogonale pour le produit scalaire h·, ·i
2. On peut calculer kP
nk
22. On a P
n(n)(X ) = (2n)!, donc
kP
nk
22= (−1)
n(2n)!
Z
1−1
(x
2− 1)
ndx = (2n)!
Z
1−1
(1 − x
2)
nPour calculer cette dernière intégrale, on peut tout développer... on peut aussi faire le changement de variable x = sin(θ). On obtient
I
n:=
Z
1−1
(1 − x
2)
ndx = Z
π−π
cos
2n+1(θ)dθ.
On reconnaît l’intégrale de Wallis. On a I
0= 2, puis, en intégrant par partie (on écrit cos
2n+1= cos
2nsin
0), on obtient
I
n= Z
π−π
2n cos
2n−1(θ) sin
2(θ)dθ +
cos
2n(θ) sin(θ)
π−π
| {z }
=0
= 2n Z
π−π
cos
2n−1(θ)(1 − cos
2(θ))dθ = 2n (I
n−1− I
n) .
Donc I
n(1 + 2n) = 2nI
n−1, et enfin I
n= 2n
2n + 1 I
n−1= 2n(2n − 2) · · · 2
(2n + 1)(2n − 1) · · · 1 I
0= 2 [2n(2n − 2) · · · 2]
2(2n + 1)! = 2 [2
nn!]
2(2n + 1)! .
Au final, on obtient
kP
nk
22= (2n!)2 [2
nn!]
2(2n + 1)! = 2
(2n + 1) [2
nn!]
2, donc α
n:= kP
nk =
√
√ 2
2n + 1 2
nn! .
e/ D’après le cours, le minimum est atteint par la projection de f sur R
n[X] (pour le produit scalaire h·, ·i
2).
La formule de projection lorsqu’on a une famille orthogonale (comme ici) est donnée dans le cours.
Exercice 5. (Polynômes de meilleur approximation pour la norme ∞)
Dans cet exercice, on cherche le polynôme unitaire P de degré n qui minimise l’erreur kP k
∞:= max
[−1,1]|P |.
On pose
∀x ∈ [−1, 1], T
n(x) := cos(n arccos(x)).
a/ Montrer que T
0(x) = 1 et T
1(x) = x, puis que pour tout n ≥ 1, on a
1T
n+1(x) = 2xT
n(x) − T
n−1(x).
b/ Soit P
n(x) := 2
−(n−1)T
n(x).
(i) Montrer que P
nest un polynôme unitaire de degré n qui vérifie kP
nk
∞=
2n−11.
(ii) Soit x
k:= cos(
knπ) pour 0 ≤ k ≤ n. Montrer que P
n(x
k) =
(−1)2n−1k(notez l’alternance de signes).
c/ On suppose qu’il existe Q ∈ R
n[X ] unitaire tel que kQk
∞= α <
2n−11, et soit E(x) := P
n(x) − Q(x).
(i) Montrer que E ∈ R
n−1[X] et que sgn E(x
k) = sgn P
n(x
k).
(ii) En déduire que E s’annule au moins n fois, puis conclure.
Les polynômes T
nsont les polynômes de Chebyshev.
a/ On a T
0(x) = cos(0) = 1 et T
1(x) = cos arccos(x) = x. De plus, en posant t = arccos(x), on a cos((n + 1)t) + cos((n − 1)t) = 2 cos(nt) cos t et donc T
n+1(x) + T
n−1(x) = 2T
nx.
b/ Le point (i) est une récurrence immédiate. On a aussi |T
n(x)| ≤ max | cos | = 1, et donc kP
nk ≤
2n−11. Pour le deuxième point, on a
T
n(x
k) = cos(n k
n π) = cos(kπ) = (−1)
k.
c/ Pour le premier point, E est la différence de deux polynômes unitaire de degré n, donc est un polynôme de degré (n − 1). De plus, comme kQk
∞<
2−(n−1)1, on a |Q(x
k)| < |P
n(x
k)|, et donc E(x
k) est du signe de P
n. Pour le deuxième point, E alterne de signes sur chaque intervalle (x
k, x
k+1), donc s’annule au moins une fois sur chacun de ces intervalles. Il y a n tels intervalles, donc E s’annule n fois. Au final, E est un polynôme unitaire de degré (n − 1) qui s’annule n fois, ce qui est impossible. On a montré que
sup
P∈Rn[X], P unitaire
max
[−1,1]
|P |
= 1
2
n−1.
1. On pourra utiliser l’identitécos(a+b) + cos(a−b) = 2 cosacosb.