© Éditions H&K Publié dans lesAnnales des Concours 1/18
X/ENS Maths PC 2020 — Corrigé
Ce corrigé est proposé par Quentin Guilmant (ENS de Lyon) ; il a été relu par Angèle Niclas (ENS de Lyon) et Benjamin Monmege (enseignant-chercheur à l’uni- versité).
Ce sujet propose l’étude d’une méthode d’interpolation, différente de celle ha- bituellement rencontrée en classe préparatoire utilisant les polynômes de Lagrange.
La construction est nettement plus technique et fait l’objet de cinq parties. L’énoncé prend (gentiment) la peine de préciser que les parties I et II sont indépendantes des parties III et IV, tandis que la partie V utilise tout ce qui précède.
• Dans la partie I, on commence par étudier l’espace Sym+(p) des matrice symé- triques réelles positives de taillep. Le but de cette partie est principalement de montrer que l’ensemble de ces matrices est stable par le produit de Hadamard qui consiste, contrairement au produit matriciel usuel, à effectuer un produit coefficient par coefficient.
• La partie II poursuit sur cette lancée en démontrant que l’exponentielle d’une matrice symétrique positive reste symétrique positive. On en déduit en toute fin de partie qu’une matrice de la forme (e−(xi−xj)2/2λ)i,j∈[[ 1 ;p]]où les (xi)i∈[[ 1 ;p]]
sont des réels quelconques etλ >0, est un élément de Sym+(p), ce qui est en fait l’objectif visé par ces deux premières parties.
• La partie III introduit l’espace vectorielE des fonctions à décroissance rapide en+−∞. On étudie notamment sa structure euclidienne et un endomorphisme C, à base de convolution, dont l’utilité est encore à ce stade un peu obscure.
• En partie IV, on s’intéresse au sous-espace vectoriel G de E engendré par les translations et les dilatations de la fonction gaussiennex7−→exp(−x2). On en profite pour définir un produit scalaire spécifique sur l’imageHdeG par l’en- domorphisme C de la partie précédente.
• C’est dans la partie V que la notion d’interpolation fait surface. Les éléments de l’ensembleHde la partie précédente prennent maintenant le nom de fonctions interpolantes. C’est parmi ces fonctions que l’on cherche, pour deux p-uplets fixés (xi)i∈[[ 1 ;p]] et (ai)i∈[[ 1 ;p]], un élémenthde norme minimale qui prend la valeurαienxi pour touti(les (xi)i∈[[ 1 ;p]]étant bien entendu supposés deux à deux distincts). On montre notamment qu’un tel élément existe et est unique.
Le sujet permettait de vérifier que les candidats maîtrisaient l’algèbre linéaire, en particulier l’inégalité de Cauchy-Schwarz afin d’établir des majorations. Les questions portant sur l’intégrabilité des fonctions surRsont également omniprésentes.
Téléchargé gratuitement surDoc-Solus.fr
© Éditions H&K Publié dans lesAnnales des Concours 2/18
Indications
Partie I
3.c On pensera à utiliser le théorème spectral sur A et sur B.
Partie II
4.b Montrer par récurrence que pour toutk∈N, on a A(k)∈Sym+(p).
6.c Trouver une matrice B et un vecteur v tels que K = exp[B] vvT pour appliquer la question 5.c.
Partie III
7 Utiliser la définition deE pour majorer|f g|par une fonction intégrable surR. 8.b Fixerδ >0 et trouver µ >0 tel que pour touty∈R r]x−δ;x+δ[ on ait la
majoration exp −(y−x)2/λ
6exp −y2/µ
. Poury∈[x−δ;x+δ], on peut se rendre compte qu’au voisinage dex, la fonctiony7→exp −y2/µ
admet un minimum strictement positif.
Partie IV
11.a Utiliser l’indication puis le changement de variablez=y−(x+x0)/2.
12.a Pour l’hérédité, penser à dériver la fonction et remarquer que l’on peut simplifier l’écriture.
12.b Ne surtout pas conclure trop vite en affirmant que C envoie une base sur une base. Les espaces sont de dimensions infinies.
13.c Remarquer que khk∞ est atteinte en un certainx. Utiliser la question 13.b sur cex, puis appliquer l’inégalité de Cauchy-Schwarz. Enfin, calculerkτx(γ2λ)kH.
Partie V
14 Pour h1 et h2 deux éléments deS∗, poser h3 = (h1+h2)/2. Majorer J(h3) à l’aide de l’inégalité de Cauchy-Schwarz.
15 Faire un raisonnement par l’absurde en supposant qu’il existe h0 ∈ H0 tel que (h0|eh)H>0. Ensuite, étudier le polynôme P(a) = J(eh−ah0).
16.a Étudier la différence entre un élément deS ∩ H0⊥ et un élément deS.
17.b Prendreu∈Ker K et étudieruTKu.
Téléchargé gratuitement surDoc-Solus.fr
© Éditions H&K Publié dans lesAnnales des Concours 3/18
Partie I
1 Prenons A,B ∈ Sym+(p). Alors pour a et b des réels positifs, et pour tout couple (i, j)∈[[ 1 ;p]]2,
(aA +bB)ij =aAij+bBij
=a AT
ij+b BT
ij (matrices symétriques)
=aAji+bBji
(aA +bB)ij = (aA +bB)ji
Autrement dit, (aA +bB)T=aA +bB
c’est-à-dire que la matrice est symétrique. De plus, pouru∈Rp, uT(aA +bB)u= a
|{z}
>0
uTAu
| {z }
>0
+ b
|{z}
>0
uTBu
| {z }
>0
>0
Finalement, ∀a, b∈R∗+ ∀A,B∈Sym+(p) aA +bB∈Sym+(p) 2 Utilisons l’identité sur la transposée d’un produit matriciel :
∀M∈ Mp,q(R) ∀N∈ Mq,r(R) (MN)T= NTMT oùp, q, r sont des entiers naturels. Pourv∈Rp et A =vvT,
AT= vvTT
= vTT
vT=vvT= A De plus, pouru∈Rp, uTAu=uTvvTu
= (vTu)T(vTu)
= (vTu)(vTu) (carvTu∈R)
= (vTu)2 uTAu>0
Puis, ∀v∈Rp vvT∈Sym+(p)
3.a Soientu, v deux vecteurs deRp et (i, j)∈[[ 1 ;p]]2. Alors uuT
vvT
ij =uiujvivj
= (uivi)(ujvj)
[1mm] = (uv)i(uv)j
uuT
vvT
ij = (uv)(uv)T
ij
d’où uuT
vvT
= (uv)(uv)T
3.b La matrice A est symétrique réelle. Le théorème spectral assure que A est diagonalisable en base orthonormée. Soit (u1, . . . , up) lep-uplet de vecteurs propres de A formant une famille orthonormale. Soit P la matrice de changement de base de la base canonique dans cette nouvelle base. On a alors
A = PDPT
où D est la matrice diagonale dont les coefficients sont les λ1, . . . , λp, les valeurs propres associées. La matrice P a pour colonnes les vecteursu1, . . . , upet PTa pour lignes leurs transposés, les vecteursu1T, . . . , upT. Par suite,
A =
p
P
i=1
λkukukT
Téléchargé gratuitement surDoc-Solus.fr
© Éditions H&K Publié dans lesAnnales des Concours 4/18 De plus, ∀k∈[[ 1 ;p]] 06ukTAuk=λkukTuk=λkkukk2
2
Puis, ∀k∈[[ 1 ;p]] λk>0
3.c Soient A,B∈Sym+(p). En appliquant le théorème spectral, A et B sont dia- gonalisables en base orthonormée. Soient donc (λ1, . . . , λp) et (µ1, . . . , µp) les va- leurs propres respectivement de A et B. D’après la question 3.b, elles sont positives (ou nulles). Soient aussi (u1, . . . , up) et (v1, . . . , vp) des bases orthonormées de vec- teurs propres associées. Alors, d’après la question 3.b,
A =
p
P
k=1
λkukukT et B =
p
P
`=1
µ`v`v`T
L’opérationétant la multiplication coefficient à coefficient, elle hérite des propriétés algébriques de la multiplication usuelle sur les réels. En particulier, elle est bilinéaire.
En utilisant cette propriété, on a AB =
p P
k=1
λkukukT
p
P
`=1
µ`v`v`T
=
p
P
k=1
λk ukukT
p P
`=1
µ`v`v`T
=
p
P
k=1 p
P
`=1
λkµ` ukukT
v`v`T AB =
p
P
k=1 p
P
`=1
λkµ`(ukv`)(ukv`)T (question 3.a) D’après la question 2, pour tout (k, `)∈[[ 1 ;p]]2, on a (ukv`)(ukv`)T∈Sym+(p).
De plus, les valeurs propres étant positives, on a aussiλkµ` >0. Or, en utilisant la question 1, on obtient par récurrence immédiate que toute combinaison linéaire, avec coefficients positifs, de matrices de Sym+(p) est encore dans Sym+(p). Formellement,
∀n∈N ∀a1, . . . , an∈R+ ∀A1, . . . ,An ∈Sym+(p)
p
P
k=1
akAk∈Sym+(p) Par suite, on en déduit que AB∈Sym+(p)
Partie II
4.a Soit (i, j)∈[[ 1 ;p]]2. Remarquons d’abord que pour tout entierk, A(0)ij = 1 A(k+1)ij = A(k)ij Aij
On identifie une suite géométrique. On connaît donc son terme général :
∀k∈N A(k)ij = (Aij)k Puis, P[A]ij= P(Aij) =
n
P
k=0
ak(Aij)k =
n
P
k=0
akA(k)ij = n
P
k=0
akA(k)
ij
Autrement dit, P[A] =
n
P
k=0
akA(k)
Téléchargé gratuitement surDoc-Solus.fr