• Aucun résultat trouvé

Optimisation sans contrainte

N/A
N/A
Protected

Academic year: 2021

Partager "Optimisation sans contrainte"

Copied!
13
0
0

Texte intégral

(1)

Optimisation sans contrainte

Chercher à minimiser (c’est à dire trouver le minimum d’)une fonction coût moyen de production 𝐶𝑀(𝑥), chercher à maximiser (c’est à dire trouver le maximum d’) une fonction bénéfice 𝐵(𝑥), sont des actions qu’on peut ranger dans le domaine des mathématiques (ou de l’économie) appelé optimisation.

Chercher à produire des voitures consommant le moins d’essence possible, ou chercher les meilleurs

placements financiers pour réduire au maximum ses impôts (on parle alors d’optimisation fiscale) sont aussi des actions qui entrent dans le domaine de l’optimisation.

L’écriture 𝐶(𝑥) d’un coût de production signifie que le coût ne dépend que d’un seul paramètre 𝑥, il peut bien sûr dépendre de plusieurs paramètres 𝑥, 𝑦, 𝑧… Par exemple, le coût de production global d’une entreprise, peut dépendre des différents coûts de production d’objets 𝑥, 𝑦, 𝑧 … Dans ce cas, on parle de fonction à plusieurs variables 𝐶(𝑥, 𝑦, 𝑧, … ). De même pour le bénéfice, il peut dépendre de la vente d’un objet 𝑥, ou de la vente de plusieurs objets 𝑥, 𝑦, 𝑧…On note alors 𝐵(𝑥, 𝑦, 𝑧, … ) la fonction bénéfice des variables 𝑥, 𝑦, 𝑧, …

Par exemple, le coût de production (exprimé en milliers d’euros) de deux objets A et B est donné par la formule 𝐶(𝑥, 𝑦) = 0,3𝑥2+ 0,7𝑦2− 0,5𝑥𝑦 + 4,5

où 𝑥 et 𝑦 représentent les quantités produites des objets A et B. Si on regarde la formule en détail, on peut comprendre que 0,3𝑥2 est le coût de production des 𝑥 objets A

0,7𝑦2 est le coût de production des y objets B

0,5𝑥𝑦 est l’économie liée au fait de produire deux objets à la fois 4,5 est la location de l’atelier de production

Si on ne produit aucun objet A et aucun objet B, le coût (en milliers d’euros) est 𝐶(0 ; 0) = 0,3 × 02+ 0,7 × 02− 0,5 × 0 × 0 + 4,5 = 4,5

C’est la location de l’atelier de production.

Si on produit 10 objets A et 5 objets B, le coût est de

𝐶(10 ; 5) = 0,3 × 102+ 0,7 × 52− 0,5 × 10 × 5 + 4,5 = 27

Si on produit 4 objets A et 15 objets B, le coût est de

𝐶(4 ; 15) = 0,3 × 42+ 0,7 × 152− 0,5 × 4 × 15 + 4,5 = 136,8

Si l’objet A est vendu à 1000 euros l’unité (c’est à dire 1 millier d’euros), et que l’objet B est vendu 700 euros l’unité (c’est à dire 0,7 millier d’euros), le bénéfice (exprimé en milliers d’euros) sera alors

𝐵(𝑥, 𝑦) = 1𝑥 + 0,7𝑦 − 𝐶(𝑥, 𝑦) = 𝑥 + 0,7𝑦 − (0,3𝑥2+ 0,7𝑦2− 0,5𝑥𝑦 + 4,5)

1) Les idées développées pour trouver les minimums et maximums des fonctions d’une variable seront (en partie) généralisées pour les fonctions de plusieurs variables. Effectuons un résumé de ce qu’on sait sur la recherche d’extrémums des fonctions d’une variable :

Soit 𝑓: ℝ → ℝ une fonction dérivable sur ℝ, et soit 𝑥0∈ ℝ tel que 𝑓(𝑥0) soit un maximum local ou un minimum local alors 𝑓′(𝑥

0) = 0.

Remarques :

Si 𝑓(𝑥0) est un maximum ou un minimum pour 𝑓, on dit que c’est un extrémum pour 𝑓.

Un maximum global est aussi un maximum local, un minimum global est aussi un minimum local. Donc, si 𝑓(𝑥0) est un extrémum global alors on a aussi 𝑓′(𝑥

0) = 0.

Définition :

Le nombre 𝑥0 tel que 𝑓′(𝑥0) = 0 s’appelle un point critique de 𝑓

En mathématique, un nombre est souvent appelé point car tout nombre réel est repéré par un point sur la droite graduée.

(2)

Conclusion :

Avant de chercher un extrémum d’une fonction dérivable 𝑓, on doit d’abord chercher ses points critiques.

Attention, si 𝑥0 vérifie 𝑓′(𝑥

0) = 0, 𝑓(𝑥0) n’est pas forcément un extrémum local pour 𝑓.

Par exemple, si 𝑓(𝑥) = 𝑥3, alors 𝑓(𝑥) = 3𝑥2.

0 est un point critique de 𝑓 car 𝑓′(0) = 3 × 02 = 0, mais 𝑓(0) = 03= 0 n’est ni un maximum local, ni

un minimum local pour 𝑓. En effet, pour tout 𝑥 < 0 < 𝑦, 𝑥3 < 0 < 𝑦3.

Propriété : Si 𝑓′(𝑥

0) = 0 et que 𝑓′(𝑥) change de signe en 𝑥0 alors 𝑓(𝑥0) sera un extrémum pour 𝑓. C’est ce qui est

utilisé dans les tableaux de variations.

2) Généralisons les idées précédentes aux fonctions de deux variables 𝑓(𝑥 ; 𝑦)

Une fonction de deux variables 𝑓(𝑥 ; 𝑦) n’est pas forcément croissante ou décroissante sur un intervalle donné, elle peut varier d’une certaine façon par rapport à 𝑥 et d’une autre par rapport à 𝑦.

Par exemple 𝑓(𝑥 ; 𝑦) = 𝑥 − 𝑦 est croissante par rapport à 𝑥 et décroissante par rapport à 𝑦. En effet,

𝑥1< 𝑥2 ⇒ 𝑥1− 𝑦 < 𝑥2− 𝑦 ⇒ 𝑓(𝑥1, 𝑦) < 𝑓(𝑥2, 𝑦) et

𝑦1< 𝑦2 ⇒ −𝑦1> −𝑦2 ⇒ 𝑥 − 𝑦1> 𝑥 − 𝑦2 ⇒ 𝑓(𝑥, 𝑦1) > 𝑓(𝑥, 𝑦2)

La dérivation permet de donner facilement les variations d’une fonction 𝑓(𝑥 ; 𝑦) par rapport à chacune des variables :

Soit une fonction 𝑓 de deux variables (𝑥, 𝑦), on pourra la définir ainsi 𝑓: ℝ2→ ℝ

(𝑥, 𝑦) ↦ 𝑓(𝑥, 𝑦) où

ℝ2= ℝ × ℝ

est l’ensemble des couples de nombre réels (𝑥 ; 𝑦). ℝ2 s’appelle aussi le plan réel, en référence à

l’ensemble des coordonnées (𝑥 ; 𝑦) du plan, c’est à dire à l’ensemble des points du plan.

Nous noterons 𝜕𝑥 𝜕𝑓(𝑥 ; 𝑦)la dérivée partielle de 𝑓 par rapport à 𝑥 obtenue en dérivant la fonction d’une variable 𝑥 ↦ 𝑓(𝑥 ; 𝑦), et donc en considérant 𝑦 comme une constante, c’est à dire comme un nombre fixé.

De même, nous noterons 𝜕𝑓

𝜕𝑦 (𝑥 ; 𝑦)la dérivée partielle de 𝑓 par rapport à 𝑦 obtenue en dérivant la fonction d’une variable 𝑦 ↦ 𝑓(𝑥 ; 𝑦), et donc en considérant 𝑥 comme une constante, c’est à dire comme un nombre fixé.

Remarque : D’autres notations peuvent être utilisées pour les dérivées partielles

𝜕𝑓 𝜕𝑥 = 𝜕𝑥𝑓 = 𝜕1𝑓 𝜕𝑓 𝜕𝑦 = 𝜕𝑦𝑓 = 𝜕2𝑓 Exemples : Si 𝑓(𝑥 ; 𝑦) = 𝑥2+ 4𝑥𝑦 − 𝑦3 alors 𝜕𝑓 𝜕𝑥 (𝑥 ; 𝑦) = 2𝑥 + 4 × 1 × 𝑦 − 0 = 2𝑥 + 4𝑦 𝜕𝑓 𝜕𝑦 (𝑥 ; 𝑦) = 0 + 4𝑥 × 1 − 3𝑦2= 4𝑥 − 3𝑦2

(3)

𝜕𝑔 𝜕𝑥 (𝑥 ; 𝑦) = 3 × 1 × 𝑒𝑦− 1 𝑥+ 0 = 3𝑒𝑦− 1 𝑥 𝜕𝑔 𝜕𝑦 (𝑥 ; 𝑦) = 3𝑥𝑒𝑦− 0 + 2 × 1 = 3𝑥𝑒𝑦+ 2 Si ℎ(𝑥 ; 𝑦) = 4𝑥𝑦2− 𝑒2𝑥−𝑦+ 1 alors 𝜕ℎ 𝜕𝑥 (𝑥 ; 𝑦) = 4 × 1 × 𝑦2− 2𝑒2𝑥−𝑦+ 0 = 4𝑦2− 2𝑒2𝑥−𝑦 𝜕ℎ 𝜕𝑦 (𝑥 ; 𝑦) = 4𝑥 × 2𝑦 − (−1𝑒2𝑥−𝑦) + 0 = 8𝑥𝑦 + 𝑒2𝑥−𝑦 Si 𝑓 est une fonction de trois variables (𝑥, 𝑦, 𝑧) ↦ 𝑓(𝑥, 𝑦, 𝑧), on notera

𝜕𝑓 𝜕𝑥 (𝑥, 𝑦, 𝑧), 𝜕𝑓 𝜕𝑦 (𝑥, 𝑦, 𝑧) 𝑒𝑡 𝜕𝑓 𝜕𝑧 (𝑥, 𝑦, 𝑧)

ses dérivées partielles par rapport aux variables 𝑥, 𝑦 et z. Exemple : Si 𝑓(𝑥 ; 𝑦 ; 𝑧) = 3𝑧𝑥 + 𝑦2 alors 𝜕𝑓 𝜕𝑥 (𝑥, 𝑦, 𝑧) = 3𝑧 × 1 + 0 = 3𝑧 𝜕𝑓 𝜕𝑦 (𝑥, 𝑦, 𝑧) = 0 + 2𝑦 = 2𝑦 𝜕𝑓 𝜕𝑧 (𝑥, 𝑦, 𝑧) = 3 × 1 × 𝑥 + 0 = 3𝑥

Remarque : On range souvent les dérivées partielles d’une fonction 𝑓 dans une matrice avec une seule colonne, appelée gradient de 𝑓. On note cette matrice

𝛻𝑓(𝑥, 𝑦) = [ 𝜕𝑓 𝜕𝑥 (𝑥, 𝑦) 𝜕𝑓 𝜕𝑦 (𝑥, 𝑦)]

On peut aussi noter 𝑔𝑟𝑎𝑑(𝑓) = 𝛻𝑓.

Dans le cas où 𝑓 est une fonction de trois variables (𝑥, 𝑦, 𝑧), on a

𝛻𝑓(𝑥, 𝑦, 𝑧) = [ 𝜕𝑓 𝜕𝑥 (𝑥, 𝑦, 𝑧) 𝜕𝑓 𝜕𝑦 (𝑥, 𝑦, 𝑧) 𝜕𝑓 𝜕𝑧 (𝑥, 𝑦, 𝑧)] Exemples : Le gradient de 𝑓(𝑥, 𝑦) = 𝑥2+ 𝑦2 est 𝛻𝑓(𝑥, 𝑦) = [2𝑥 + 00 + 2𝑦] = [2𝑥2𝑦] Le gradient de 𝑔(𝑥, 𝑦) = 𝑒𝑥𝑦+ 𝑦 est 𝛻𝑔(𝑥, 𝑦) = [ 1𝑦𝑒𝑥𝑦+ 0 𝑥 × 1𝑒𝑥𝑦+ 1] = [ 𝑦𝑒 𝑥𝑦 𝑥𝑒𝑥𝑦+ 1]

Le gradient remplace en quelque sorte la dérivée pour les fonctions d’une variable. Si on dérive à nouveau 𝜕𝑓

𝜕𝑥 (𝑥, 𝑦) et 𝜕𝑓

𝜕𝑦 (𝑥, 𝑦) par rapport à 𝑥 et par rapport à 𝑦 on obtient 4 dérivées

partielles secondes 𝜕 𝜕𝑥( 𝜕𝑓 𝜕𝑥 (𝑥, 𝑦)) = 𝜕2𝑓 (𝜕𝑥)2(𝑥, 𝑦)

(4)

𝜕 𝜕𝑦( 𝜕𝑓 𝜕𝑥 (𝑥, 𝑦)) = 𝜕2𝑓 𝜕𝑦𝜕𝑥(𝑥, 𝑦) 𝜕 𝜕𝑥( 𝜕𝑓 𝜕𝑦 (𝑥, 𝑦)) = 𝜕2𝑓 𝜕𝑥𝜕𝑦(𝑥, 𝑦) 𝜕 𝜕𝑦( 𝜕𝑓 𝜕𝑦 (𝑥, 𝑦)) = 𝜕2𝑓 (𝜕𝑦)2(𝑥, 𝑦)

On les range cette fois dans une matrice à 2 lignes et 2 colonnes appelée matrice Hessienne de 𝑓, et notée 𝐻(𝑓(𝑥, 𝑦)) = [ 𝜕2𝑓 (𝜕𝑥)2(𝑥, 𝑦) 𝜕2𝑓 𝜕𝑥𝜕𝑦(𝑥, 𝑦) 𝜕2𝑓 𝜕𝑦𝜕𝑥(𝑥, 𝑦) 𝜕2𝑓 (𝜕𝑦)2(𝑥, 𝑦)]

Elle remplace en quelque sorte la dérivée seconde des fonctions d’une variable réelle.

Attention, la notation (𝜕𝑥)𝜕2𝑓2(𝑥, 𝑦) ne signifie absolument pas qu’il y a des puissance de 2, ce n’est qu’une notation pour dire qu’on a dérivé deux fois par rapport à 𝑥.

De même pour les notations 𝜕2𝑓

𝜕𝑦𝜕𝑥(𝑥, 𝑦), 𝜕2𝑓

𝜕𝑥𝜕𝑦(𝑥, 𝑦) et 𝜕2𝑓

(𝜕𝑦)2(𝑥, 𝑦), il n’y a pas de puissance de 2. Exemples :

Pour calculer la matrice Hessienne de 𝑓(𝑥, 𝑦) = 𝑥2𝑦2− 𝑦 + 𝑒𝑦𝑥, on commence par calculer ses

dérivées partielles premières :

𝜕𝑓

𝜕𝑥 (𝑥, 𝑦) = 2𝑥𝑦2+ 𝑒𝑦 𝜕𝑓

𝜕𝑦 (𝑥, 𝑦) = 𝑥2× 2𝑦 − 1 + 𝑒𝑦𝑥 puis ses dérivées partielles secondes

𝜕2𝑓 (𝜕𝑥)2(𝑥, 𝑦) = 𝜕 𝜕𝑥(2𝑥𝑦2+ 𝑒𝑦) = 2 × 1 × 𝑦2+ 0 = 2𝑦2 𝜕2𝑓 𝜕𝑦𝜕𝑥(𝑥, 𝑦) = 𝜕 𝜕𝑦(2𝑥𝑦2+ 𝑒𝑦) = 2𝑥 × 2𝑦 + 𝑒𝑦= 4𝑥𝑦 + 𝑒𝑦 𝜕2𝑓 𝜕𝑥𝜕𝑦(𝑥, 𝑦) = 𝜕 𝜕𝑥(𝑥2× 2𝑦 − 1 + 𝑒𝑦𝑥) = 2𝑥 × 2𝑦 − 0 + 𝑒𝑦× 1 = 4𝑥𝑦 + 𝑒𝑦 𝜕2𝑓 (𝜕𝑦)2(𝑥, 𝑦) = 𝜕 𝜕𝑦(𝑥2× 2𝑦 − 1 + 𝑒𝑦𝑥) = 𝑥2× 2 × 1 − 0 + 𝑒𝑦× 𝑥 = 2𝑥2+ 𝑒𝑦𝑥 on les range ensuite dans la matrice

𝐻(𝑓(𝑥, 𝑦)) = [ 𝜕2𝑓 (𝜕𝑥)2(𝑥, 𝑦) 𝜕2𝑓 𝜕𝑥𝜕𝑦(𝑥, 𝑦) 𝜕2𝑓 𝜕𝑦𝜕𝑥(𝑥, 𝑦) 𝜕2𝑓 (𝜕𝑦)2(𝑥, 𝑦)] = [ 2𝑦2 4𝑥𝑦 + 𝑒𝑦 4𝑥𝑦 + 𝑒𝑦 2𝑥2+ 𝑒𝑦𝑥] Si 𝑔(𝑥, 𝑦) = 𝑒𝑥−𝑦+ 𝑥2𝑦 − 3𝑥3+ 𝑦3 alors 𝜕𝑔 𝜕𝑥 (𝑥, 𝑦) = 1𝑒𝑥−𝑦+ 2𝑥𝑦 − 3 × 3𝑥2 𝜕𝑔 𝜕𝑦 (𝑥, 𝑦) = −1𝑒𝑥−𝑦+ 𝑥2+ 3𝑦2 donc 𝛻𝑔(𝑥, 𝑦) = [𝑒𝑥−𝑦+ 2𝑥𝑦 − 9𝑥2 −𝑒𝑥−𝑦+ 𝑥2+ 3𝑦2] de plus

(5)

𝜕2𝑔 (𝜕𝑥)2(𝑥, 𝑦) = 𝜕 𝜕𝑥(𝑒𝑥−𝑦+ 2𝑥𝑦 − 9𝑥2) = 𝑒𝑥−𝑦+ 2𝑦 − 18𝑥 𝜕2𝑔 𝜕𝑦𝜕𝑥(𝑥, 𝑦) = 𝜕 𝜕𝑦(𝑒𝑥−𝑦+ 2𝑥𝑦 − 9𝑥2) = −𝑒𝑥−𝑦+ 2𝑥 𝜕2𝑔 𝜕𝑥𝜕𝑦(𝑥, 𝑦) = 𝜕 𝜕𝑥(−𝑒𝑥−𝑦+ 𝑥2+ 3𝑦2) = −𝑒𝑥−𝑦+ 2𝑥 𝜕2𝑔 (𝜕𝑦)2(𝑥, 𝑦) = 𝜕 𝜕𝑦(−𝑒𝑥−𝑦+ 𝑥2+ 3𝑦2) = −(−𝑒𝑥−𝑦) + 6𝑦 = 𝑒𝑥−𝑦+ 6𝑦 donc 𝐻(𝑔(𝑥, 𝑦)) = [𝑒𝑥−𝑦−𝑒+ 2𝑦 − 18𝑥 −𝑒𝑥−𝑦+ 2𝑥 𝑒𝑥−𝑦𝑥−𝑦+ 6𝑦+ 2𝑥]

On peut remarquer dans les exemples précédents que 𝜕2𝑓

𝜕𝑥𝜕𝑦(𝑥, 𝑦) = 𝜕2𝑓

𝜕𝑦𝜕𝑥(𝑥, 𝑦). En fait, on a un

théorème précis qui le justifie sous des conditions particulières qui seront toujours vérifiées dans ce cours.

Théorème de Schwarz :

Lorsque les fonctions 𝜕𝑥𝜕𝑦𝜕2𝑓 (𝑥, 𝑦) et 𝜕𝑦𝜕𝑥𝜕2𝑓 (𝑥, 𝑦) existent et sont continues alors elles sont égales.

3) Types de points critiques pour les fonctions de deux variables

Soit une fonction

𝑓: ℝ2→ ℝ

(𝑥, 𝑦) ↦ 𝑓(𝑥, 𝑦)

on dit qu’elle admet un minimum local en (𝑥0, 𝑦0) si il existe un rectangle 𝐷 = ]𝑎, 𝑏[ × ]𝑐, 𝑑[ contentant

le point (𝑥0, 𝑦0) tel que

(𝑥, 𝑦) ∈ 𝐷 ⇒ 𝑓(𝑥, 𝑦) ≥ 𝑓(𝑥0, 𝑦0)

on dit qu’elle admet un maximum local en (𝑥0, 𝑦0) si il existe un rectangle 𝐷 = ]𝑎, 𝑏[ × ]𝑐, 𝑑[ contentant le point (𝑥0, 𝑦0) tel que

(𝑥, 𝑦) ∈ 𝐷 ⇒ 𝑓(𝑥, 𝑦) ≤ 𝑓(𝑥0, 𝑦0)

on dit qu’elle admet un point col ou un point selle en (𝑥0, 𝑦0) si il existe un rectangle 𝐷 = ]𝑎, 𝑏[ × ]𝑐, 𝑑[ contentant le point (𝑥0, 𝑦0) tel que

(𝑥, 𝑦) ∈ 𝐷 ⇒ 𝑓(𝑥0, 𝑦) ≥ 𝑓(𝑥0, 𝑦0) ≥ 𝑓(𝑥, 𝑦0) ou bien tel que

(𝑥, 𝑦) ∈ 𝐷 ⇒ 𝑓(𝑥0, 𝑦) ≤ 𝑓(𝑥0, 𝑦0) ≤ 𝑓(𝑥, 𝑦0)

(après un éventuel changement de variables)

Un point col (𝑥0, 𝑦0, 𝑓(𝑥0, 𝑦0)) est donc un point où 𝑓 admet un minimum local par rapport à une variable et un maximum par rapport à l’autre

Autrement dit,

Un point col (𝑥0, 𝑦0, 𝑓(𝑥0, 𝑦0)) est donc un point où 𝑓 admet un minimum local dans une direction et un

maximum local dans la direction perpendiculaire.

Pour déterminer à quel point critique on a affaire, la technique est aisée dans les cas où la fonction 𝑓 est suffisamment régulière, c’est à dire à dire dans les cas où on peut utiliser le théorème de Schwarz : Après avoir trouvé un point critique (𝑥0, 𝑦0) pour 𝑓 c’est à dire un couple de nombres (𝑥0, 𝑦0) tels que

(6)

on calcule le déterminant de la matrice Hessienne de 𝑓 en (𝑥0, 𝑦0) : det (𝐻(𝑓(𝑥0, 𝑦0))) = || 𝜕2𝑓 (𝜕𝑥)2(𝑥0, 𝑦0) 𝜕2𝑓 𝜕𝑥𝜕𝑦(𝑥0, 𝑦0) 𝜕2𝑓 𝜕𝑦𝜕𝑥(𝑥0, 𝑦0) 𝜕2𝑓 (𝜕𝑦)2(𝑥0, 𝑦0) || = |𝑟 𝑠𝑠 𝑡| = 𝑟𝑡 − 𝑠2

Si 𝑟𝑡 − 𝑠2< 0 alors 𝑓 admet un point selle (appelé aussi point col) en (𝑥 0, 𝑦0)

Si 𝑟𝑡 − 𝑠2> 0 𝑒𝑡 𝑟 > 0 alors 𝑓 admet un minimum local en (𝑥 0, 𝑦0)

Si 𝑟𝑡 − 𝑠2> 0 𝑒𝑡 𝑟 < 0 alors 𝑓 admet un maximum local en (𝑥 0, 𝑦0)

Si 𝑟𝑡 − 𝑠2= 0 alors on ne peut pas conclure par cette méthode.

Remarque : Le choix des lettres 𝑟, 𝑠 et 𝑡 vient du mathématicien français Gaspard Monge (fin du 18e siècle)

Exercice corrigé :

a) Etudier les points critiques éventuels de la fonction 𝑓(𝑥, 𝑦) = 𝑥2+ 2𝑦2− 𝑥 + 3

b) Etudier les points critiques éventuels de la fonction 𝑔(𝑥, 𝑦) = 𝑥3+ 𝑦3− 15𝑥𝑦

c) Etudier les points critiques éventuels de la fonction ℎ(𝑥, 𝑦) = 𝑥3+ 3𝑥𝑦2− 75𝑥 − 72𝑦

Correction :

a) Le gradient de 𝑓 est égal à

𝛻𝑓(𝑥, 𝑦) = [2𝑥 − 12 × 2𝑦] = [2𝑥 − 14𝑦 ] Les points critiques éventuels de 𝑓 vérifient

𝛻𝑓(𝑥, 𝑦) = [2𝑥 − 14𝑦 ] = [00] c’est à dire {2𝑥 − 1 = 04𝑦 = 0 donc {𝑥 = 1 2= 0,5 𝑦 =0 4= 0 Le seul point critique de 𝑓 a pour coordonnées (0,5 ; 0) La matrice Hessienne de 𝑓 vaut

𝐻(𝑓(𝑥, 𝑦)) = [2 00 4] donc forcément 𝐻(𝑓(0,5 ; 0)) = [2 0 0 4] et det (𝐻(𝑓(0,5 ; 0))) = 8 comme 8 > 0 et 2 > 0 alors 𝑓 admet un minimum local en (0,5 ; 0) b) Le gradient de 𝑔(𝑥, 𝑦) = 𝑥3+ 𝑦3− 15𝑥𝑦 est égal à

𝛻𝑔(𝑥, 𝑦) = [3𝑥2+ 0 − 15 × 1 × 𝑦 0 + 3𝑦2− 15𝑥 × 1 ] = [

3𝑥2− 15𝑦

3𝑦2− 15𝑥]

Les points critiques éventuels de 𝑔 vérifient

𝛻𝑔(𝑥, 𝑦) = [3𝑥2− 15𝑦 3𝑦2− 15𝑥] = [00] c’est à dire {3𝑥2− 15𝑦 = 0 3𝑦2− 15𝑥 = 0 donc

(7)

{ 3𝑥2= 15𝑦 3𝑦2− 15𝑥 = 0 donc { 3 15𝑥2 = 𝑦 3𝑦2− 15𝑥 = 0 donc { 0,2𝑥2= 𝑦 3(0,2𝑥2)2− 15𝑥 = 0

La deuxième équation d’inconnue 𝑥 s’écrit aussi 3 × 0,04𝑥4− 15𝑥 = 0

C’est à dire 3 × 0,04𝑥4− 3 × 5𝑥 = 0 ⇔ 0,04𝑥4− 5𝑥 = 0 ⇔ 0,04𝑥3𝑥 − 5𝑥 = 0 ⇔ (0,04𝑥3− 5)𝑥 = 0 donc 0,04𝑥3− 5 = 0 𝑜𝑢 𝑥 = 0 donc 0,04𝑥3 0,04 = 5 0,04 𝑜𝑢 𝑥 = 0 c’est à dire 𝑥3 = 5 0,04 𝑜𝑢 𝑥 = 0 donc 𝑥3 = 125 𝑜𝑢 𝑥 = 0 donc (𝑥3)13= (125)13 𝑜𝑢 𝑥 = 0 finalement, 𝑥 = 12513= 5 𝑜𝑢 𝑥 = 0 Lorsque 𝑥 = 5 ; 𝑦 = 0,2 × 52 = 5 et lorsque 𝑥 = 0 ; 𝑦 = 0,2 × 02= 0

Donc les deux points critiques de 𝑔 sont (5; 5) et (0; 0)

Comme 𝛻𝑔(𝑥, 𝑦) = [3𝑥2− 15𝑦

3𝑦2− 15𝑥], la matrice Hessienne de 𝑔 est égale à

𝐻(𝑔(𝑥, 𝑦)) = [−156𝑥 −156𝑦 ] donc 𝐻(𝑔(5; 5)) = [6 × 5 −15 −15 6 × 5] = [ 30−15 −1530 ] et det (𝐻(𝑔(5; 5))) = 900 − 225 = 675 comme 675 > 0 et 30 > 0 alors 𝑔 admet un minimum local en (5 ; 5)

𝐻(𝑔(0; 0)) = [6 × 0 −15

−15 6 × 0] = [ 0−15 −150 ] et

det (𝐻(𝑔(0; 0))) = −225 comme −225 < 0 alors 𝑔 admet un point col en (0 ; 0)

c) Le gradient de ℎ(𝑥, 𝑦) = 𝑥3+ 3𝑥𝑦2− 75𝑥 − 72𝑦 est égal à

𝛻ℎ(𝑥, 𝑦) = [3𝑥26𝑥𝑦 − 72+ 3𝑦2− 75] Les points critiques éventuels de ℎ vérifient

𝛻ℎ(𝑥, 𝑦) = [3𝑥26𝑥𝑦 − 72+ 3𝑦2− 75] = [00] c’est à dire

(8)

{3𝑥26𝑥𝑦 − 72 = 0+ 3𝑦2− 75 = 0 donc { 3𝑥2+ 3𝑦2− 75 = 0 𝑦 =72 6𝑥= 12 𝑥 𝑠𝑖 𝑥 ≠ 0 donc { 3𝑥2+ 3 (12 𝑥) 2 − 75 = 0 𝑦 =12 𝑥 donc {3𝑥 2+3 × 144 𝑥2 − 3 × 25 = 0 𝑦 =12 𝑥 donc {𝑥 2+144 𝑥2 − 25 = 0 𝑦 =12 𝑥 donc { (𝑥2)2+ 144 − 25𝑥2= 0 𝑦 =12 𝑥 en posant 𝑋 = 𝑥2, la première équation s’écrit

𝑋2− 25𝑋 + 144 = 0 𝛥 = (−25)2− 4 × 1 × 144 = 49 𝑋1 =−(−25) + √49 2 × 1 = 16 𝑒𝑡 𝑋2 = −(−25) − √49 2 × 1 = 9 donc 𝑥2 = 16 𝑜𝑢 𝑥2= 9 donc 𝑥 = 4 𝑜𝑢 𝑥 = −4 𝑜𝑢 𝑥 = 3 𝑜𝑢 𝑥 = −3 les 𝑦 correspondants sont

𝑦 =12 4 = 3 𝑜𝑢 𝑦 = 12 −4= −3 𝑜𝑢 𝑦 = 12 3 = 4 𝑜𝑢 𝑦 = 12 −3= −4 Les quatre points critiques de ℎ sont (4 ; 3) ; (−4 ; −3) ; (3 ; 4) et (−3 ; −4). Comme 𝛻ℎ(𝑥, 𝑦) = [3𝑥26𝑥𝑦 − 72+ 3𝑦2− 75], la matrice Hessienne de ℎ est égale à

𝐻(ℎ(𝑥, 𝑦)) = [6𝑥 6𝑦6𝑦 6𝑥] donc 𝐻(ℎ(4 ; 3)) = [6 × 4 6 × 3 6 × 3 6 × 4] = [24 1818 24] et det (𝐻(ℎ(4 ; 3))) = 242− 182 = 252

comme 252 > 0 et 24 > 0 alors ℎ admet un minimum local en (4 ; 3)

𝐻(ℎ(−4 ; −3)) = [6 × (−4) 6 × (−3)6 × (−3) 6 × (−4)] = [−24 −18−18 −24] et

det (𝐻(ℎ(−4 ; −3))) = (−24)2− (−18)2= 252

(9)

𝐻(ℎ(3 ; 4)) = [6 × 3 6 × 46 × 4 6 × 3] = [18 2424 18] et

det (𝐻(ℎ(3 ; 4))) = 182− 242 = −252

comme −252 < 0 alors ℎ admet un point col en (3 ; 4)

𝐻(ℎ(−3 ; −4)) = [6 × (−3) 6 × (−4)6 × (−4) 6 × (−3)] = [−18 −24 −24 −18] et

det (𝐻(ℎ(−3 ; −4))) = 182− 242= −252

comme −252 < 0 alors ℎ admet un point col en (−3 ; −4)

4) Démonstration de la propriété

Si 𝑓: (𝑥, 𝑦) ∈ ℝ2↦ 𝑓(𝑥, 𝑦) ∈ ℝ admet des dérivées partielles secondes continues sur ℝ2,

et si (𝑥0, 𝑦0) est un point critique de 𝑓 alors en notant

det (𝐻(𝑓(𝑥0, 𝑦0))) = || 𝜕2𝑓 (𝜕𝑥)2(𝑥0, 𝑦0) 𝜕2𝑓 𝜕𝑥𝜕𝑦(𝑥0, 𝑦0) 𝜕2𝑓 𝜕𝑦𝜕𝑥(𝑥0, 𝑦0) 𝜕2𝑓 (𝜕𝑦)2(𝑥0, 𝑦0) || = |𝑟 𝑠𝑠 𝑡| = 𝑟𝑡 − 𝑠2 on a le résultat suivant :

Si 𝑟𝑡 − 𝑠2< 0 alors 𝑓 admet un point selle (appelé aussi point col) en (𝑥 0, 𝑦0)

Si 𝑟𝑡 − 𝑠2> 0 𝑒𝑡 𝑟 > 0 alors 𝑓 admet un minimum local en (𝑥 0, 𝑦0)

Si 𝑟𝑡 − 𝑠2> 0 𝑒𝑡 𝑟 < 0 alors 𝑓 admet un maximum local en (𝑥 0, 𝑦0)

a) Définition de la dérivée d’une fonction d’une variable réelle en un point 𝑥0 Soit 𝑓 ∶ 𝑥 ∈ ℝ ↦ 𝑓(𝑥) une fonction réelle et 𝑥0∈ ℝ un nombre fixé.

Si le taux d’accroissement 𝑓(𝑥)−𝑓(𝑥0)

𝑥−𝑥0 admet une limite finie lorsque 𝑥 tend vers 𝑥0, autrement dit si

lim

𝑥→𝑥0

𝑓(𝑥) − 𝑓(𝑥0)

𝑥 − 𝑥0 = 𝐶 ∈ ℝ

alors le nombre 𝐶 s’appelle la dérivée de 𝑓 en 𝑥0 et se note 𝑓′(𝑥 0). Exemple :

Soit la fonction 𝑓(𝑥) = 𝑥2 alors

lim 𝑥→𝑥0 𝑓(𝑥) − 𝑓(𝑥0) 𝑥 − 𝑥0 = lim𝑥→𝑥0 𝑥2− 𝑥 0 2 𝑥 − 𝑥0 = lim𝑥→𝑥0 (𝑥 + 𝑥0)(𝑥 − 𝑥0) 𝑥 − 𝑥0 = lim𝑥→𝑥0𝑥 + 𝑥0= 𝑥0+ 𝑥0 = 2𝑥0 Ainsi 𝑓′(𝑥 0) = 2𝑥0

𝑥0 étant un nombre quelconque fixé, on a la formule générale quelle que soit 𝑥 ∈ ℝ : 𝑓′(𝑥) = 2𝑥

b) Approximation d’une fonction dérivable par une fonction affine Soit 𝑓 ∶ 𝑥 ∈ ℝ ↦ 𝑓(𝑥) une fonction réelle et 𝑥0∈ ℝ un nombre fixé.

Si 𝑓′(𝑥0) existe, autrement dit si

lim

𝑥→𝑥0

𝑓(𝑥) − 𝑓(𝑥0)

𝑥 − 𝑥0 = 𝑓′(𝑥0) ∈ ℝ

alors on pourra approcher le nombre 𝑓(𝑥) par 𝑓(𝑥0) + 𝑓′(𝑥

0)(𝑥 − 𝑥0) à condition que 𝑥 soit

suffisamment proche de 𝑥0. En effet, on pourra écrire

(10)

avec lim 𝑥→𝑥0 𝜓(𝑥) 𝑥 − 𝑥0= 0 car lim 𝑥→𝑥0 𝜓(𝑥) 𝑥 − 𝑥0= lim𝑥→𝑥0 𝑓(𝑥) − (𝑓(𝑥0) − (𝑥 − 𝑥0)𝑓′(𝑥 0)) 𝑥 − 𝑥0 = lim𝑥→𝑥0 𝑓(𝑥) − 𝑓(𝑥0) 𝑥 − 𝑥0 − 𝑓′(𝑥0) = 0 On pourra aussi dire que la fonction affine 𝑥 ↦ 𝑓(𝑥0) + 𝑓′(𝑥

0)(𝑥 − 𝑥0) approche 𝑓 autour du point 𝑥0.

c) Approximation polynômiale d’une fonction d’une variable réelle Soit 𝑓 ∶ 𝑥 ∈ ℝ ↦ 𝑓(𝑥) une fonction réelle et 𝑥0∈ ℝ un nombre fixé.

S’il existe un nombre 𝜀 > 0 tel que ∀𝑥 ∈]𝑥0− 𝜀 ; 𝑥0+ 𝜀[ 𝑓′(𝑥) existe et si 𝑓′′(𝑥

0) existe, autrement dit si lim 𝑥→𝑥0 𝑓′(𝑥) − 𝑓(𝑥 0) 𝑥 − 𝑥0 = 𝑓 ′′(𝑥 0) ∈ ℝ

alors on pourra approcher le nombre 𝑓(𝑥) par 𝑓(𝑥0) + 𝑓′(𝑥

0)(𝑥 − 𝑥0) +𝑓

′′(𝑥 0)

2 (𝑥 − 𝑥0)2à condition

que 𝑥 soit suffisamment proche de 𝑥0.

En effet, on pourra écrire

𝑓(𝑥) = 𝑓(𝑥0) + 𝑓′(𝑥0)(𝑥 − 𝑥0) + 𝑓′′(𝑥 0) 2 (𝑥 − 𝑥0)2+ 𝜙(𝑥) avec lim 𝑥→𝑥0 𝜙(𝑥) (𝑥 − 𝑥0)2= 0

Car on peut appliquer le b) à la fonction 𝑓′ définie ∀𝑥 ∈]𝑥0− 𝜀 ; 𝑥0+ 𝜀[ pour obtenir 𝑓′(𝑥) = 𝑓′(𝑥0) + (𝑥 − 𝑥0)𝑓′′(𝑥 0) + 𝜓1(𝑥) avec lim 𝑥→𝑥0 𝜓1(𝑥) 𝑥 − 𝑥0= 0 La fonction 𝜙(𝑥) = 𝑓(𝑥) − 𝑓(𝑥0) − 𝑓′(𝑥 0)(𝑥 − 𝑥0) − 𝑓′′(𝑥 0) 2 (𝑥 − 𝑥0)2 étant définie et dérivable ∀𝑥 ∈]𝑥0− 𝜀 ; 𝑥0+ 𝜀[, on peut voir que

𝜙′(𝑥) = 𝑓(𝑥) − 0 − 𝑓(𝑥 0) × 1 −𝑓 ′′(𝑥 0) 2 2(𝑥 − 𝑥0) = 𝑓′(𝑥) − 𝑓′(𝑥0) − 𝑓′′(𝑥0)(𝑥 − 𝑥0) = 𝜓1(𝑥) et donc que lim 𝑥→𝑥0 𝜙(𝑥) (𝑥−𝑥0)2= lim𝑥→𝑥0 𝜙(𝑥)−𝜙(𝑥0) (𝑥−𝑥0)2 = lim𝑥→𝑥0 𝜙(𝑥)−𝜙(𝑥0) 𝑥−𝑥0 × 1 𝑥−𝑥0= lim𝑥→𝑥0𝜙 ′(𝑥) × 1 𝑥−𝑥0= lim𝑥→𝑥0𝜓1(𝑥) × 1 𝑥−𝑥0= lim𝑥→𝑥0 𝜓1(𝑥) 𝑥−𝑥0 = 0

On pourra aussi dire que le polynôme 𝑥 ↦ 𝑓(𝑥0) + 𝑓′(𝑥

0)(𝑥 − 𝑥0) −𝑓

′′(𝑥 0)

2 (𝑥 − 𝑥0)2 approche 𝑓

autour du point 𝑥0

d) Généralisation aux fonctions de deux variables Théorème 1 :

Considérons (𝑥0, 𝑦0) ∈ ℝ2 un couple de nombres fixés et soit 𝑓: (𝑥, 𝑦) ∈ ℝ2↦ 𝑓(𝑥, 𝑦) une fonction dont

les dérivées partielles premières existent et sont continues alors on aura

𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) + 𝜕𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0) + 𝜕𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0) + 𝜓(𝑥, 𝑦) avec lim (𝑥,𝑦)→(𝑥 ,𝑦 ) 𝜓(𝑥, 𝑦) |𝑥 − 𝑥 | + |𝑦 − 𝑦 |= 0

(11)

Preuve :

Fixons 𝑦 ∈ ℝ et utlisons l’approximation affine de la fonction d’une variable 𝑥 ↦ 𝑓(𝑥, 𝑦) 𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦) + 𝜕𝑥𝑓(𝑥0, 𝑦)(𝑥 − 𝑥0) + 𝜓1(𝑥, 𝑦) avec lim 𝑥→𝑥0 𝜓1(𝑥, 𝑦) 𝑥 − 𝑥0 = 0 De même pour la fonction d’une variable 𝑦 ↦ 𝑓(𝑥0, 𝑦)

𝑓(𝑥0, 𝑦) = 𝑓(𝑥0, 𝑦0) + 𝜕𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0) + 𝜓2(𝑦) avec lim 𝑦→𝑦0 𝜓2(𝑦) 𝑦 − 𝑦0= 0

En combinant les deux égalités, on obtient

(∗) 𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) + 𝜕𝑥𝑓(𝑥0, 𝑦)(𝑥 − 𝑥0) + 𝜕𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0) + 𝜓1(𝑥, 𝑦) + 𝜓2(𝑦)

Comme 𝑦 ↦ 𝜕𝑥𝑓(𝑥0, 𝑦) est continue, on peut écrire lim

𝑦→𝑦0𝜕𝑥𝑓(𝑥0, 𝑦) = 𝜕𝑥𝑓(𝑥0, 𝑦0) ce qui s’écrit aussi

lim 𝑦→𝑦0𝜕𝑥𝑓(𝑥0, 𝑦) − 𝜕𝑥𝑓(𝑥0, 𝑦0) = 0 ou bien 𝜕𝑥𝑓(𝑥0, 𝑦) = 𝜕𝑥𝑓(𝑥0, 𝑦0) + 𝜓3(𝑦) avec lim 𝑦→𝑦0 𝜓3(𝑦) = 0 l’égalité (∗) devient alors

𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) + 𝜕𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0) + 𝜕𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0) + 𝜓1(𝑥, 𝑦) + 𝜓2(𝑦) + (𝑥 − 𝑥0)𝜓3(𝑦) En posant

𝜓(𝑥, 𝑦) = 𝜓1(𝑥, 𝑦) + 𝜓2(𝑦) + (𝑥 − 𝑥0)𝜓3(𝑦) on obtient le résultat souhaité.

Théorème 2 :

Considérons (𝑥0, 𝑦0) ∈ ℝ2 un couple de nombres fixés et soit 𝑓: (𝑥, 𝑦) ∈ ℝ2↦ 𝑓(𝑥, 𝑦) une fonction dont

les dérivées partielles premières et secondes existent et sont continues alors on aura 𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) + 𝜕𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0) + 𝜕𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0) +1 2𝜕𝑥𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0)2 +1 2𝜕𝑦𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0)2+ 𝜕𝑦𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0)(𝑦 − 𝑦0) + 𝜓(𝑥, 𝑦) avec lim (𝑥,𝑦)→(𝑥0,𝑦0) 𝜓(𝑥, 𝑦) |𝑥 − 𝑥0|2+ |𝑦 − 𝑦0|2= 0 preuve : à faire en exercice

e) Extrema locaux lorsque 𝑟𝑡 − 𝑠2> 0

Supposons que (𝑥0, 𝑦0) soit un point critique de 𝑓 alors l’égalité du théorème 2 s’écrit 𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) +1

2𝜕𝑥𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0)2+ 1

2𝜕𝑦𝑦𝑓(𝑥0, 𝑦0)(𝑦 − 𝑦0)2+ 𝜕𝑦𝑥𝑓(𝑥0, 𝑦0)(𝑥 − 𝑥0)(𝑦 − 𝑦0) + 𝜓(𝑥, 𝑦)

En utilisant les notations de Monge, on obtient 𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) +12𝑟(𝑥 − 𝑥0)2+1

2𝑡(𝑦 − 𝑦0)2+ 𝑠(𝑥 − 𝑥0)(𝑦 − 𝑦0) + 𝜓(𝑥, 𝑦) En posant 𝑋 = 𝑥 − 𝑥0 et 𝑌 = 𝑦 − 𝑦0, on écrit encore

(12)

𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) + 1 2𝑟𝑋2+ 1 2𝑡𝑌2+ 𝑠𝑋𝑌 + 𝜓(𝑥, 𝑦) Intéressons-nous au signe de 1 2𝑟𝑋 2+1 2𝑡𝑌 2+ 𝑠𝑋𝑌 =1 2𝑟𝑋 2+ 𝑠𝑌𝑋 +1 2𝑡𝑌 2 polynôme de degré 2 de coefficients 1 2𝑟, 𝑠𝑌 et 1 2𝑡𝑌2. Lorsque le discriminant 𝛥 = (𝑠𝑌)2− 4 ×1 2𝑟 × 1 2𝑡𝑌 2= (𝑠2− 𝑟𝑡)𝑌2< 0,

c’est à dire lorsque 𝑠2− 𝑟𝑡 < 0, ou autrement dit, lorsque 𝑟𝑡 − 𝑠2 > 0, le polynôme 12𝑟𝑋2+1 2𝑡𝑌2+ 𝑠𝑋𝑌 = 1 2𝑟𝑋2+ 𝑠𝑌𝑋 + 1 2𝑡𝑌2 sera du signe de 1

2𝑟, c’est à dire du signe de 𝑟.

Par exemple si 𝑟 > 0 alors 1

2𝑟𝑋2+ 1

2𝑡𝑌2+ 𝑠𝑋𝑌 > 0

donc pour (𝑥, 𝑦) suffisamment proche de (𝑥0, 𝑦0), c’est à dire pour |𝑥−𝑥𝜓(𝑥,𝑦)

0|2+|𝑦−𝑦0|2 suffisamment proche de 0, on aura aussi 1 2𝑟𝑋2+ 1 2𝑡𝑌2+ 𝑠𝑋𝑌 + 𝜓(𝑥, 𝑦) > 0 donc 𝑓(𝑥, 𝑦) − 𝑓(𝑥0, 𝑦0) > 0 donc 𝑓(𝑥, 𝑦) > 𝑓(𝑥0, 𝑦0)

c’est à dire que 𝑓 admet un minimum local en (𝑥0, 𝑦0).

Si 𝑟 < 0 alors 1

2𝑟𝑋2+ 1

2𝑡𝑌2+ 𝑠𝑋𝑌 < 0

donc pour (𝑥, 𝑦) suffisamment proche de (𝑥0, 𝑦0), c’est à dire pour |𝑥−𝑥𝜓(𝑥,𝑦)

0|2+|𝑦−𝑦0|2 suffisamment proche de 0, on aura aussi 1 2𝑟𝑋2+ 1 2𝑡𝑌2+ 𝑠𝑋𝑌 + 𝜓(𝑥, 𝑦) < 0 donc 𝑓(𝑥, 𝑦) − 𝑓(𝑥0, 𝑦0) < 0 donc 𝑓(𝑥, 𝑦) < 𝑓(𝑥0, 𝑦0)

c’est à dire que 𝑓 admet un maximum local en (𝑥0, 𝑦0).

f) Point col lorsque 𝑟𝑡 − 𝑠2< 0

Il reste à étudier le cas où le discriminant 𝛥 = (𝑠𝑌)2− 4 ×1 2𝑟 ×

1 2𝑡𝑌

2= (𝑠2− 𝑟𝑡)𝑌2> 0

c’est à dire lorsque 𝑠2− 𝑟𝑡 > 0, autrement dit, lorsque 𝑟𝑡 − 𝑠2< 0. Dans le cas où 𝑟 > 0

1 2𝑟𝑋2+ 𝑠𝑌𝑋 + 1 2𝑡𝑌2= 1 2𝑟𝑋2+ 𝑠𝑌𝑋 + (𝑠𝑌)2 2𝑟 − (𝑠𝑌)2 2𝑟 + 1 2𝑡𝑌2= (√ 𝑟 2𝑋 + 𝑠𝑌 √2𝑟) 2 −𝑌2 2𝑟(𝑠2− 𝑟𝑡) = (√𝑟 2(𝑥 − 𝑥0) + 𝑠(𝑦 − 𝑦0) √2𝑟 ) 2 −(𝑦 − 𝑦0)2 2𝑟 (𝑠2− 𝑟𝑡)

Définissons la variable 𝑥̃ par : 𝑥̃ = √𝑟2(𝑥 − 𝑥0) +𝑠(𝑦−𝑦√2𝑟0) Notons que lorsque (𝑥, 𝑦) = (𝑥0, 𝑦0) alors 𝑥̃ = 0.

Ainsi, le polynôme précédent s’écrit 1 2𝑟𝑋2+ 𝑠𝑌𝑋 + 1 2𝑡𝑌2= 𝑥̃2− (𝑦 − 𝑦0)2 2𝑟 (𝑠2− 𝑟𝑡) et l’approximation polynômiale s’écrit

𝑓(𝑥, 𝑦) = 𝑓(𝑥0, 𝑦0) + 𝑥̃2−(𝑦 − 𝑦0

)2

(13)

𝑓(𝑥̃, 𝑦) = 𝑓(0, 𝑦0) + 𝑥̃2(𝑦 − 𝑦0)2

2𝑟 (𝑠2− 𝑟𝑡) + 𝜓(𝑥̃, 𝑦) (∗∗) Cela donne en particulier pour 𝑦 = 𝑦0,

𝑓(𝑥̃, 𝑦0) = 𝑓(0, 𝑦0) + 𝑥̃2+ 𝜓(𝑥̃, 𝑦0)

Donc pour (𝑥, 𝑦0) suffisamment proche de (𝑥0, 𝑦0), c’est à dire pour 𝑥̃ suffisamment proche de 0, c’est à dire pour |𝑥−𝑥𝜓(𝑥,𝑦)

0|2+|𝑦−𝑦0|2 suffisamment proche de 0, et donc pour

𝜓(𝑥̃,𝑦0) 𝑥̃2 suffisamment proche de 0, on aura 𝑓(𝑥̃, 𝑦0) − 𝑓(0, 𝑦0) = 𝑥̃2+ 𝜓(𝑥̃, 𝑦0) > 0 donc 𝑓(𝑥̃, 𝑦0) > 𝑓(0, 𝑦0)

Dans le cas particulier où 𝑥̃ = 0, (∗∗) devient

𝑓(0, 𝑦) = 𝑓(0, 𝑦0) −(𝑦 − 𝑦2𝑟0)2(𝑠2− 𝑟𝑡) + 𝜓(0, 𝑦)

Donc pour 𝑦 suffisamment proche de 𝑦0 et 𝑥̃ = 0, c’est à dire pour (𝑥, 𝑦) suffisamment proche de (𝑥0, 𝑦0), c’est à dire pour |𝑥−𝑥𝜓(𝑥,𝑦)

0|2+|𝑦−𝑦0|2 suffisamment proche de 0, et donc pour

𝜓(0,𝑦0) |𝑦−𝑦0|2 suffisamment proche de 0, on aura 𝑓(0, 𝑦) − 𝑓(0, 𝑦0) = − (𝑦 − 𝑦0)2 2𝑟 (𝑠2− 𝑟𝑡) + 𝜓(0, 𝑦) < 0 donc 𝑓(0, 𝑦) < 𝑓(0, 𝑦0) Finalement, 𝑓(𝑥̃, 𝑦0) > 𝑓(0, 𝑦0) > 𝑓(0, 𝑦)

pour tout couple (𝑥̃, 𝑦) suffisamment proche de (0, 𝑦0).

C’est à dire que 𝑓 admet un point col en (0, 𝑦0) où 𝑓 est fonction des variables (𝑥̃, 𝑦). La démonstration est similaire dans le cas où 𝑟 < 0.

Le cas où 𝑟 = 0 est laissé à titre d’exercice.

Pour aller plus loin, lire ce cours en ligne

http://wiki.epfl.ch/mathgeo2/documents/OLD/semaine-5-6-2011.pdf L’auteur m’est inconnu.

Références

Documents relatifs

« embrayage »), 2 et l‘ici et maintenant du narrateur sont occultés. Il est notable que si le « je » du narrateur est occulté sous cette forme dans les nouvelles, il

Dans ette étude, nous onsidérons les systèmes temps réel à ontraintes dures et un ordonnane-.. ment sera dit faisable si toutes les ontraintes de temps

−→ algorithme d’optimisation bas´e sur le gradient (LBFGS) point de d´epart al´eatoire pour ´eviter les minima locaux ; calcul des valeurs/fonctions propres avec MpsPack ;

λ 2 avec contrainte de p´erim`etre : Ω ∗ est un ensemble C ∞ et sa fronti`ere ne contient des segments ou des arcs des cercles (Bucur, Buttazzo, Henrot).. Donc l’enveloppe

Les différents narrateurs des nouvelles s’effacent en effet davantage que ceux des romans, comme pour mieux échapper à la censure dans des textes qui,

De même que dans le cas d’une recherche d’extrema sur un ouvert, la condition ( ∗ ) est une condition nécessaire d’extremum sous la contrainte C , mais pas suffisante.. Aussi, si

À l’aide de la formule de Taylor à l’ordre 2, déterminer la nature locale de a.. On cherche à montrer que a est en fait un

Dans ce cas, l’ensemble K est compact et, comme f est continue, f est born´ ee sur K et atteint ses bornes...