• Aucun résultat trouvé

Exercice 1. (Méthode de Newton) On se donne f : R → R . La méthode de Newton pour la résolution approchée de l’équation f(x) = 0 est la suivante : on part de x

N/A
N/A
Protected

Academic year: 2022

Partager "Exercice 1. (Méthode de Newton) On se donne f : R → R . La méthode de Newton pour la résolution approchée de l’équation f(x) = 0 est la suivante : on part de x"

Copied!
1
0
0

Texte intégral

(1)

Licence Mathématiques et Gestion Mathématiques pour l’actuaire Année 2013-2014

Feuille d’exercices no 4 Optimisation : méthodes itératives

Exercice 1. (Méthode de Newton) On se donne f : R → R . La méthode de Newton pour la résolution approchée de l’équation f(x) = 0 est la suivante : on part de x

0

∈ R. On définit par récurrence x

k+1

comme l’intersection de la tangente en x

k

au graphe de f avec l’axe Ox.

1. Ecrire explicitement l’algorithme associé à cette méthode.

2. Etudier la convergence de l’algorithme, en précisant les hypothèses sur f et x

0

. 3. Etudier la vitesse de convergence de l’algorithme.

4. Mettre en œuvre cet algorithme afin de résoudre l’équation x = √

a avec a > 0. On mettra cette équation sous la forme x

2

− a = 0 .

Application numérique : a = 5, x

0

= 5, erreur 10

−6

.

5. Donner une estimation de nombre d’itérations nécessaires pour calculer √

a avec une er- reur relative < ε.

6. Autre application : f (x) = 2x − cos x, x

0

= 4, ε = 10

−4

.

Exercice 2. (Dichotomie) On considère la résolution de l’équation f(x) = 0, avec f : R → R . 1. Rappeler la méthode de la dichotomie. Quelles est la condition nécessaire à sa mise en

œuvre ? Quelle est la condition sur f qui assure la convergence de la méthode ?

2. Rappeler la méthode de Newton. On suppose que f

0

> 0. Dans ce cas, discuter la conver- gence de la méthode.

3. On suppose toujours f

0

> 0. Proposer un algorithme convergeant combinant les deux méthodes.

4. Programmer la méthode combinée Newton+dichotomie.

Exercice 3. (Gradient à pas constant) Programmer la méthode du gradient à pas constant x

k+1

= x

k

− ρf

0

(x

k

) . Tester cette méthode sur f(x) = x

2

− sin x , avec des différents jeux de données.

Exercice 4. (Gradient à pas optimal) On cherche à trouver le minimum de f : R

n

→ R .

La méthode du gradient à pas optimal est la suivante : on calcule la suite (x

k

) par la récurrence x

k+1

= x

k

− α

k

∇f(x

k

), où α

k

est solution de

min{f(x

k

− α∇f (x

k

)) ; α ∈ R }.

1. On suppose f a – convexe, avec a > 0. Montrer la convergence de la méthode.

2. Quels sont les problèmes posés par la mise en œuvre numérique de la méthode ?

3. Proposer un algorithme basé sur la méthode du gradient à pas constant, consistant à poser x

k+1

= x

k

−α

k

∇f(x

k

) , où α

k

est choisi dans une liste donnée à l’avance : α, α

2 , α

4 , . . . , α

2

l

, . . .

Références

Documents relatifs

On étudiera en particulier le problème en 0.. Calculer l’approximation quadratique de f

• Alors la méthode de Newton converge très vite vers la solution... Solution : techniques de globalisation (seront vues dans le cadre

Antoine Chambert-Loir et Stéfane Fermigier 2011-2012. Soit ξ

Le tracé de la courbe de la fonction f à l'aide d'une calculatrice graphique donne de précieuses informations quant-à l'existence et au nombre des solutions de l'équation ainsi

En un mot, étant donnée une équation ƒ (a?) = o, pour appliquer utilement et sûrement la méthode d'ap- proximation de Newton au calcul d'une de ses racines, que Ton sait être

— Si entre a et b, qui comprennent une seule racine simple, la dérivée seconde ne change pas de signe, on peut appliquer avec certitude la correction de Newton à celle des deux

PAR M. On sait que la méthode de Newton est quelquefois en défaut, c'est-à-dire que la correction qu'elle fournit, ajoutée à la première valeur approchée de la racine,

Dans l'exercice suivant, nous montrons que les hypothèse classiques du théorème qui garantit la convergence quadratique de la méthode de Newton impliquent une convexité locale de