• Aucun résultat trouvé

On note h·, ·i le produit scalaire usuel de R

N/A
N/A
Protected

Academic year: 2022

Partager "On note h·, ·i le produit scalaire usuel de R"

Copied!
5
0
0

Texte intégral

(1)

Correction du TD6.

MNO, L3, Dauphine, 2020-2021 D. Gontier, gontier@ceremade.dauphine.fr

Échauffement

Exercice 1. (Changement de produit scalaire)

On note h·, ·i le produit scalaire usuel de R

d

. Soit A ∈ S

d++

de valeurs propres 0 < λ

1

≤ · · · ≤ λ

d

. On définit la forme bilinéaire sur R

d

∀x, y ∈ R

d

, hx, yi

A

:= hx, Ayi = x

T

Ay.

a/ Montrer que h·, ·i

A

est un produit scalaire.

b/ Montrer que la norme associée k · k

A

est équivalente à la norme usuelle k · k, et plus précisément,

∀x ∈ R

d

, λ

1

kxk ≤ kxk

A

≤ λ

d

kxk.

c/ Soit B ∈ M

d

( R ). Montrer que

hx, Byi

A

= hA

−1

B

T

Ax, yi

A

. On dit que le dual de B est A

−1

B

T

A pour le produit scalaire hx, yi

A

.

d/ Pour les fonctions suivantes, calculer le gradient, pour le produit scalaire h·, ·i

A

: F

1

(x) := kxk

2A

, F

2

(x) := kxk

2

, F

3

(x) := 1

2 x

T

Ax − b

T

x.

On remarquera que le gradient dépend du produit scalaire...

a/ L’application est clairement bilinéaire et symétrique (car A est symétrique). De plus, pour tout x ∈ R

d

, on a

hx, xi

A

= hx, Axi ≥ λ

1

kxk

2

,

qui est positif, et qui ne s’annule que pour x = 0. Donc h·, ·i

1

est un produit scalaire.

b/ C’est la caractérisation des valeurs propres par le min-max.

c/ On rappelle que pour tout matrice C, on a hx, C yi = hC

T

x, yi (pour le produit scalaire usuel). On obtient donc, en utilisant que A est symétrique,

hx, Byi

A

= hx, AByi = hB

T

A

T

x, yi = hA

−1

B

T

Ax, Ayi = hA

−1

B

T

Ax, yi

A

.

d/ On revient à la définition du gradient à partir de la différentielle. On a

F

1

(x + h) = kx + hk

2A

= kxk

2A

+ khk

2A

+ 2hx, hi

A

= F

1

(x) + 2hx, hi

A

+ o(h).

Le terme linéaire est déjà sous la forme d’un produit scalaire, donc ∇F

1

(x) = 2x.

Pour F

2

, on obtient

F

2

(x + h) = kx + hk

2

= kxk

2

+ 2hx, hi + o(h).

Pour trouver le gradient associé au nouveau produit scalaire, il faut réécrire le terme linéaire comme un produit scalaire h·, ·i

A

. On trouve que h2x, hi = h2A

−1

x, hi

A

, donc ∇F

2

(x) = 2A

−1

x.

Enfin, pour F

3

(x), on obtient F

2

(x + h) = F

3

(x) + 1

2 h

T

Ax + 1

2 x

T

Ah − b

T

h + o(h) = F

3

(x) + x

T

Ah − (A

−1

b)

T

Ah + o(h).

Ainsi, on trouve ∇F

3

(x) := x − A

−1

b.

Exercice 2. (Rappels sur les espaces Euclidien)

Soit H un espace vectoriel, et soit h·, ·i un produit scalaire sur H, de norme associée k · k.

a/ (Identité du parallélogramme). Montrer que

∀x, y ∈ H, 2kxk

2

+ 2kyk

2

= kx + yk

2

+ kx − yk

2

, et que kxk

2

+ kyk

2

= 1

2 kx + yk

2

+ 2

x − y 2

2

.

(2)

b/ Montrer que k · k

2

est une fonction strictement convexe. Indice : on pourra montrer que

∀x, y ∈ H, ∀0 < t < 1, ktx + (1 − t)yk

2

− tkxk

2

− (1 − t)kyk

2

= −t(1 − t)kx − yk

2

.

c/ (Cauchy-Schwarz) Montrer que hx, yi ≤ kxk · kyk. Indice : on pourra développer

x

kxk

kyky

2

.

d/ (Projection orthogonale) Soit E ⊂ H un sous-espace vectoriel de dimension finie, et soit x ∈ H. Montrer que la fonction N

x

: E → R définie par N

x

(v) := kv − xk

2

est continue et coercive sur E.

e/ En déduire que N

x

admet un minimiseur sur E. Montrer que ce minimiseur est unique.

On appelle ce minimiseur la projection orthogonale de x sur E, et on la note P

E

(x).

f/ Montrer que pour tout v ∈ E, on a hv, x − P

E

(x)i = 0. Indice : on pourra calculer N

x

(P

E

(x) + tv).

a/ En développant, on trouve directement

kx + yk

2

+ kx − yk

2

= kxk

2

+ kyk

2

+ 2hx, yi + kxk

2

+ kyk

2

− 2hx, yi = 2kxk

2

+ 2kyk

2

.

La deuxième égalité est identique, en divisant par 2, et en remarquant que 2

212

=

12

. b/ On développe le terme de gauche, et on obtient,

ktx + (1 − t)yk

2

− tkxk

2

− (1 − t)kyk

2

= t

2

kxk

2

+ (1 − t)

2

kyk

2

+ 2t(1 − t)hx, yi − tkxk

2

− (1 − t)kyk

2

= (t

2

− t)kxk

2

+ ((1 − t)

2

− (1 − t))

| {z }

=1−2t+t2−1+t=t2−t

kyk

2

+ 2t(1 − t)hx, yi

= t(t − 1)kxk

2

+ t(t − 1)kyk

2

− 2t(t − 1)hx, yi = t(t − 1) kxk

2

+ kyk

2

− 2hx, yi

= t(t − 1)kx − yk

2

.

Lorsque x 6= y, et 0 < t < 1, ce terme est strictement négatif, donc k · k

2

est strictement convexe.

c/ Si x = 0 ou y = 0, l’inégalité est vraie. Sinon, on a

0 ≤

x kxk − y

kyk

2

=

x kxk

2

+

y kyk

2

− 2 x

kxk , y kyk

= 2 − 2

kxk · kyk hx, yi.

C’est inégalité est équivalente à hx, yi ≤ kxk · kyk (Cauchy-Schwarz). Remarque : c’est une preuve en une ligne !.

d/ Par définition, une norme est continue, donc N

x

est continue. On a N

x

(v) → ∞ lorsque x → ∞, donc N

x

est coercive.

e/ Cette fonction est continue et coercive sur un espace de dimension finie, donc admet un minimiseur. On rappelle que ce résultat nécessite d’être en dimension finie : la preuve nécessite en effet la compacité des boules fermées, ce qui n’est vraie qu’en dimension finie.

Par ailleurs, N

x

est une fonction strictement convexe d’après la question b/, donc le minimiseur est unique.

Pour cette question, on peut aussi utiliser la deuxième forme de l’identité du parallélogramme.

f/ Soit v

:= P

E

(x) le minimiseur de N

x

. Pour tout t ∈ R et tout v ∈ E, on a v

+ tv ∈ E, donc

N

x

(v

+tv) ≥ N

x

(v

) ou encore kx−v

k

2

+2thx−v

, vi+t

2

kvk

2

≥ kx−v

k

2

, et enfin t 2hx − v

, vi + tkvk

2

≥ 0.

Si t est positif, on divise par t puis on fait t → 0

+

pour obtenir hx − v

, vi ≥ 0. Si t < 0, on divise par t en renversant l’inégalité, puis on fait t → 0

, et on obtient hx − v

, vi ≤ 0. Ainsi, on a hx − v

, vi = 0.

Exercice 3. (Matrice de Gram)

Soit E un espace Euclidien de dimension d, avec produit scalaire h·, ·i et norme k · k. Soit x

1

, · · · , x

d

∈ E une famille libre. On introduit la matrice de Gram G ∈ S

d

( R ) de coefficient g

ij

:= hx

i

, x

j

i.

a/ Montrer que G = I

d

ssi (x

1

, · · · , x

d

) est orthonormale, et que G est diagonale ssi (x

1

, · · · , x

d

) est or- thogonale.

b/ Montrer que

∀α :=

 α

1

.. . α

d

 ∈ R

d

, α

T

Gα = kα

1

x

1

+ · · · + α

d

x

d

k

2

.

(3)

c/ En déduire que G ∈ S

d++

( R ) est une matrice symétrique définie positive.

d/ On pose S := G

−1/2

∈ S

d++

( R ), puis, pour 1 ≤ i ≤ d, u

i

:= P

d

k=1

x

k

s

ki

. Montrer que la famille (u

1

, · · · , u

d

) est orthonormale.

Dans le cas où E = R

d

avec le produit scalaire usuel, on peut voir x

i

comme des vecteurs colonnes. Dans ce cas, on a

X = x

1

, · · · , x

d

, G = X

T

X, u

1

, · · · , u

d

= x

1

, · · · , x

d

G

−1/2

.

a/ Évident.

b/ On a par définition de la multiplication matrice/matrice,

α

T

Gα =

d

X

i,j=1

α

i

g

ij

α

j

=

d

X

i,j=1

α

i

hx

i

, x

j

j

=

*

d

X

i=1

α

i

x

i

,

d

X

j=1

α

j

x

j

+

=

d

X

i=1

α

i

x

i

2

.

c/ On a g

ij

= hx

i

, x

j

i = hx

j

, x

i

i = g

ji

, donc G est symétrique. De plus, d’après la question c/, la matrice G est positive. De plus, on a α

T

Gα = 0 ssi P

d

i=1

α

i

x

i

= 0. Or la famille (x

i

) est libre, donc ceci n’est possible que si α = 0. Donc G est définie positive.

d/ On calcule

hu

i

, u

j

i =

*

d

X

k=1

x

k

s

ki

,

d

X

l=1

x

l

s

lj

+

=

d

X

k=1 d

X

l=1

s

ki

s

lj

hx

k

, x

l

i =

d

X

k,l=1

s

ki

s

lj

g

kl

.

Comme toutes les matrices sont symétriques, c’est aussi

hu

i

, u

j

i =

d

X

k,l=1

s

ik

g

kl

s

lj

.

On reconnait l’élément (i, j) de la matrice SGS. Or S = G

−1/2

, donc SGS = G

−1/2

GG

−1/2

= I

d

. Ainsi, on a bien hu

i

, u

j

i = δ

ij

, et la famille (u

i

) est orthonormale.

Approximation polynômiale

Exercice 4. (Polynômes de meilleur approximation pour la norme 2)

On note H := C

0

([−1, 1], R ) l’ensemble des fonctions continues de [0, 1] → R , et on considère le produit scalaire sur H

∀f, g ∈ H, hf, gi

2

:=

Z

1

−1

f (x)g(x)dx.

On considère la famille de polynôme P

n

(X) définie par P

n

(X) := d

n

dx

n

(x

2

− 1)

n

.

a/ Montrer que (x

2

− 1)

n

est un polynôme de degré 2n, de coefficient dominant 1. En déduire que P

n

(X) est un polynôme de degré n, et que son coefficient dominant est

(2n)!n!

.

b/ En déduire que E

n

:= Ran {P

0

, P

1

, · · · , P

n

} est un sous-espace de dimension n + 1, puis que E

n

= R

n

[X ].

c/ Soit f ∈ C

([−1, 1], R ). En intégrant n fois par partie, montrer que hP

n

, fi

2

= (−1)

n

Z

1

−1

(x

2

− 1)

n

f

(n)

(x).

d/ En déduire que hP

n

, P

m

i

2

= 0 si n 6= m, puis que P

n+1

(X) est orthogonal à R

n

[X].

On admettra que α

n

:= kP

n

k

2

= 2

n

n! √

√ 2

n + 1 . Pour les curieux, cela peut se faire avec le changement de variable x = sin(θ) puis en utilisant les intégrales de Wallis.

e/ Montrer que pour tout f ∈ C

0

([−1, 1], R ), le problème argmin n

kf − P k

22

, P ∈ R

n

[X ] o

,

(4)

admet une unique solution, et que celle là est donnée par [P

En

(f )] (x) := P

n k=0

1

α

2k

hf, P

k

i

2

P

k

(x).

Les polynômes P

n

sont les polynômes de Legendre (à un facteur près).

a/ En développant (x

2

− 1)

n

, on voit que (x

2

− 1)

n

= x

2n

+ · + (−1)

n

est un polynôme de degré 2n, et de coefficient dominant 1. En dérivant n fois ce polynôme, on obtient un polynôme de degré n, de coefficient dominant

(2n)(2n − 1) · · · (n + 1) = (2n)!

n! .

b/ Comme P

n

(X) est de degré (exactement) n, la famille (P

0

, · · · , P

n

) est une famille libre de (n + 1) éléments dans R

n

[X ], qui est de dimension n + 1. C’est donc une famille génératrice, et E

n

= R

n

[X ].

c/ On intègre par partie Z

1

−1

d

n

dx

n

(x

2

− 1)

f (x)dx = − Z

1

−1

d

n−1

dx

n−1

(x

2

− 1)

f

(1)

(x)dx +

d

n−1

dx

n−1

(x

2

− 1)

f (x)

1

−1

. Le dernier terme entre crochet s’annule. En effet, le polynôme (x

2

− 1)

n

= (x − 1)

n

(x + 1)

n

a −1 et 1 comme racine, chacune de multiplicité n. Donc en dérivant (n − 1) fois ce polynôme, −1 et 1 sont encore des racines de multiplicité 1.

En continuant d’intégrer par partie, et en remarquant que tous les termes de bords s’annulent, on obtient comme prévu

Z

1

−1

d

n

dx

n

(x

2

− 1)

f (x)dx = − Z

1

−1

d

n−1

dx

n−1

(x

2

− 1)

f

(1)

(x)dx

= Z

1

−1

d

n−2

dx

n−2

(x

2

− 1)

f

(2)

(x)dx

= .. .

= (−1)

n

Z

1

−1

(x

2

− 1)f

(n)

(x)dx.

d/ Si n 6= m, on peut supposer n > m. Dans ce cas, on a P

m(n)

= 0 (on dérive n fois un polynôme de degré m < n). On a alors, d’après la question précédente,

hP

n

, P

m

i

2

= (−1)

n

Z

1

−1

(x

2

− 1)

n

P

m(n)

(x)dx = 0.

Ainsi, la famille (P

n

) est orthogonale pour le produit scalaire h·, ·i

2

. On peut calculer kP

n

k

22

. On a P

n(n)

(X ) = (2n)!, donc

kP

n

k

22

= (−1)

n

(2n)!

Z

1

−1

(x

2

− 1)

n

dx = (2n)!

Z

1

−1

(1 − x

2

)

n

Pour calculer cette dernière intégrale, on peut tout développer... on peut aussi faire le changement de variable x = sin(θ). On obtient

I

n

:=

Z

1

−1

(1 − x

2

)

n

dx = Z

π

−π

cos

2n+1

(θ)dθ.

On reconnaît l’intégrale de Wallis. On a I

0

= 2, puis, en intégrant par partie (on écrit cos

2n+1

= cos

2n

sin

0

), on obtient

I

n

= Z

π

−π

2n cos

2n−1

(θ) sin

2

(θ)dθ +

cos

2n

(θ) sin(θ)

π

−π

| {z }

=0

= 2n Z

π

−π

cos

2n−1

(θ)(1 − cos

2

(θ))dθ = 2n (I

n−1

− I

n

) .

Donc I

n

(1 + 2n) = 2nI

n−1

, et enfin I

n

= 2n

2n + 1 I

n−1

= 2n(2n − 2) · · · 2

(2n + 1)(2n − 1) · · · 1 I

0

= 2 [2n(2n − 2) · · · 2]

2

(2n + 1)! = 2 [2

n

n!]

2

(2n + 1)! .

(5)

Au final, on obtient

kP

n

k

22

= (2n!)2 [2

n

n!]

2

(2n + 1)! = 2

(2n + 1) [2

n

n!]

2

, donc α

n

:= kP

n

k =

√ 2

2n + 1 2

n

n! .

e/ D’après le cours, le minimum est atteint par la projection de f sur R

n

[X] (pour le produit scalaire h·, ·i

2

).

La formule de projection lorsqu’on a une famille orthogonale (comme ici) est donnée dans le cours.

Exercice 5. (Polynômes de meilleur approximation pour la norme ∞)

Dans cet exercice, on cherche le polynôme unitaire P de degré n qui minimise l’erreur kP k

:= max

[−1,1]

|P |.

On pose

∀x ∈ [−1, 1], T

n

(x) := cos(n arccos(x)).

a/ Montrer que T

0

(x) = 1 et T

1

(x) = x, puis que pour tout n ≥ 1, on a

1

T

n+1

(x) = 2xT

n

(x) − T

n−1

(x).

b/ Soit P

n

(x) := 2

−(n−1)

T

n

(x).

(i) Montrer que P

n

est un polynôme unitaire de degré n qui vérifie kP

n

k

=

2n−11

.

(ii) Soit x

k

:= cos(

kn

π) pour 0 ≤ k ≤ n. Montrer que P

n

(x

k

) =

(−1)2n−1k

(notez l’alternance de signes).

c/ On suppose qu’il existe Q ∈ R

n

[X ] unitaire tel que kQk

= α <

2n−11

, et soit E(x) := P

n

(x) − Q(x).

(i) Montrer que E ∈ R

n−1

[X] et que sgn E(x

k

) = sgn P

n

(x

k

).

(ii) En déduire que E s’annule au moins n fois, puis conclure.

Les polynômes T

n

sont les polynômes de Chebyshev.

a/ On a T

0

(x) = cos(0) = 1 et T

1

(x) = cos arccos(x) = x. De plus, en posant t = arccos(x), on a cos((n + 1)t) + cos((n − 1)t) = 2 cos(nt) cos t et donc T

n+1

(x) + T

n−1

(x) = 2T

n

x.

b/ Le point (i) est une récurrence immédiate. On a aussi |T

n

(x)| ≤ max | cos | = 1, et donc kP

n

k ≤

2n−11

. Pour le deuxième point, on a

T

n

(x

k

) = cos(n k

n π) = cos(kπ) = (−1)

k

.

c/ Pour le premier point, E est la différence de deux polynômes unitaire de degré n, donc est un polynôme de degré (n − 1). De plus, comme kQk

<

2−(n−1)1

, on a |Q(x

k

)| < |P

n

(x

k

)|, et donc E(x

k

) est du signe de P

n

. Pour le deuxième point, E alterne de signes sur chaque intervalle (x

k

, x

k+1

), donc s’annule au moins une fois sur chacun de ces intervalles. Il y a n tels intervalles, donc E s’annule n fois. Au final, E est un polynôme unitaire de degré (n − 1) qui s’annule n fois, ce qui est impossible. On a montré que

sup

P∈Rn[X], P unitaire

max

[−1,1]

|P |

= 1

2

n−1

.

1. On pourra utiliser l’identitécos(a+b) + cos(a−b) = 2 cosacosb.

Références

Documents relatifs

Toute famille libre d’un espace vectoriel de dimension finie peut ˆetre compl´et´ee par des ´el´ements de n’importe quelle famille g´en´eratrice finie pour avoir une

2.2 Base d’un espace vectoriel de dimension finie Th´ eor` eme (de la base incompl` ete).. Soit E

Donner la définition d’un hyperplan dans un esapce vectoriel de dimension finie, puis donner une définition généralisant les hyperplan en dimension quelconque.... Soit E un

Pour affirmer qu’elles constituent une base de E, il suffit de vérifier qu’elles forment une famille libre... (u, v) est libre (car les deux vecteurs ne sont pas colinéaires) et (u,

D´ efinition : Un K -espace vectoriel est dit de dimension finie s’il poss` ede une famille g´ en´ eratrice finie. Th´ eor` eme.— Soit E un espace vectoriel non r´ eduit ` a { ~

Sinon on mq mu et P ont mêmes racines complexes. Sur C c’est clair que c’est les mêms facteurs irred. Sur R on prend Q irred qui divise les deux. Si le degré de Q est 1 alors

124 – Polynôme d’endomorphisme en dimension finie. Réduction d’un endomorphisme en dimension finie. Pourtant, le « seulement si », c’est la beauté qui explose sur Terre.

Soit E un espace Euclidien de dimension d, avec produit scalaire h·, ·i et norme k