Chapitre VI
M´ethodes It´eratives – Equations Non Lin´eaires
En pratique, on est souvent confront´e `a la r´esolution d’un syst`eme d’´equations non lin´eaires. C’est-
`a-dire pour une fonction
donn´ee, on cherche un point
tel que
(0.1)
En g´en´eral, il n’y a pas d’algorithme fini pour trouver une solution. On est donc oblig´e d’utiliser des m´ethodes it´eratives.
Sans hypoth`eses suppl´ementaires, on ne sait rien sur l’existence d’une solution de (0.1). Par exemple, pour
il n’y a pas de solution, pour
! il y en a une infinit´e. Mais, le th´eor`eme d’inversion locale nous fournit un r´esultat sur l’unicit´e locale: si
#"
$% et si la matrice jacobienne '&()"
est inversible, il existe un voisinage * de" et un voisinage + de tels que
,
* + soit bijective. Ceci implique que
"
est la seule solution de (0.1) dans le voisinage
* de
"
.
Bibliographie sur ce chapitre
P. Deuflhard (2004): Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Ser. Comp. Math. 35, Springer, Berlin.
J.M. Ortega & W.C. Rheinboldt (1970): Iterative Solution of Nonlinear Equations in Several Vari- ables. Academic Press, New York.
A.M. Ostrowski (1966): Solution of Equations and Systems of Equations. Academic Press, New York, 2nd edition. [MA 65/27]
VI.1 M´ethode des approximations successives
On consid`ere le probl`eme du calcul d’un point fixe de l’application - ./ 0 ; c.-`a-d., on cherche
tel que
12-
3 (1.1)
Les probl`emes (0.1) et (1.1) sont ´equivalents et il y a beaucoup de possibilit´es pour ´ecrire (0.1) sous la forme (1.1). Par exemple, on peut d´efinir - comme-
4576
ou -
4896;:
(ici: est soit un nombre non-nul, soit une matrice bien choisie).
Pour r´esoudre (1.1), on se donne une approximation initiale < (arbitraire) et on consid`ere la m´ethode it´erative
>=@?BAC2-
>=D (1.2)
Si la suiteEF>=DG converge, disons vers" , et si la fonction- est continue en " , la limite"
est une solution de (1.1). Mais que peut-on dire sur l’erreur?
Th´eor`eme 1.1 Si- estH fois continˆument diff´erentiable et si" est une solution de (1.1), l’erreur=4I>=6
"
satisfait
=J?BA2-
&
#"
=KML 3N
= NPO
3 (1.3)
D´emonstration. Comme" ;- )" , on obtient
=J?BAQ>=J?BA6
"
-
>=D6M-
#"
-
&
)"
=.KIL N
= N O
On peut tirer plusieurs conclusions de la formule (1.3):
R si -
&S#"
poss`ede une valeur propre TUA satisfaisant VWTUAJVYX Z , la composante de = dans la direction du vecteur propre[\A va ˆetre agrandie – l’it´eration ne converge pas vers
"
.
R si toutes les valeurs propres de-
& )"
satisfont V]T_^3Va`bZ , on peut choisir une norme dans
telle que pour la norme matricielle correspondante N -
&
#"
N
`cZ . Ceci et (1.3) impliquent que, pour
N
=
N
suffisamment petit, on a
N
=J?BA
NedgfN
=
N
o`u
f
est un nombre entre
N - & )"
N
et Z . L’erreur= converge donc vers z´ero.
Exemple. Pour r´esoudre num´eriquementh
&
i
hU , on peut appliquer la m´ethode d’Euler im- plicite
hAQhj<KMk
hAS (1.4)
qui d´efinit implicitement l’approximationhA de la solution apr`es un pas de longueur k . L’´equation (1.4) est d´ej`a sous la forme (1.1) avec- Qhj<CKMk
. Sik est suffisamment petit, les valeurs propres de-
&(
hBAPC2k '&S
hAP sont petites et l’it´eration (1.2) converge.
Crit`ere pour arrˆeter l’it´eration. En pratique, on s’int´eresse `a une approximation>= qui satis- fasse
N
>=6
"UNld
tol. Une possibilit´e est d’accepter>= comme approximation de la solution d`es que
N
>=6m>=@nBA N.d
tol.
Le crit`ere qui va suivre est bas´e sur l’hypoth`ese que- soit une contraction et que
N
>=6m>=JnBA
Nd8fN
>=@nBA6o>=@n O N
avec f `gZF En appliquant l’in´egalit´e du triangle `a l’identit´e
>=6
"
>=.6m>=J?BApK
>=J?BAp6o>=J?
O
pKI@@
(en cas de convergence), on obtient
N
>=6
"UNd
f
Zi6 f N
>=6m>=JnBA
N (1.5)
Le facteur de contractivit´e peut ˆetre estim´e par
f
=4
N
>=6o>=JnBA NFqN
>=JnBAp6m>=@n
O
NFr sut
H
L’id´ee est d’arrˆeter l’it´eration quand
f =
Z6 f = N
>=6m>=@nBA Nvd
tol (1.6)
et d’accepter>= comme approximation de la solution.
0 10 20 10−8
10−6 10−4 10−2 100
0 10 20
10−8 10−6 10−4 10−2 100
FIG. VI.1: Convergence des it´erations (1.7) Exemples. Pour les deux it´erations
>=J?BA
hj=J?BA
ZZ
KQxw
hj=
6oPy >=
r
>=@?BA
h=J?BA
6zj{Z
H
>=
hj=
(1.7) la norme euclidienne de l’erreur de
>=
r
hj=| est dessin´ee dans la figure VI.1 (`a gauche pour la premi`ere it´eration et `a droite pour la deuxi`eme). On peut bien observer la convergence lin´eaire. Le rayon spectral de- &()"
vaut}~5)Zj et}7~8xjj respectivement. C’est la raison pour laquelle
la premi`ere it´eration converge plus rapidement que la seconde. Le dessin `a droite montre aussi que la convergence n’est pas n´ecessairement monotone (pour la norme
NUN
O ). Donc, le coefficient
f =
de (1.6) peut ˆetre plus grand que Z mˆeme si l’it´eration converge.
VI.2 M´ethodes it´eratives pour syst`emes lin´eaires
Pour la r´esolution des syst`emes lin´eaires
,2
r
(2.1) il y a des situations o`u les m´ethodes it´eratives sont tr`es utiles. Par exemple, si la matrice
poss`ede une tr`es grande dimension et si beaucoup d’´el´ements de
sont nuls (matrice creuse), ce qui est le cas pour les discr´etisations des ´equations aux d´eriv´ees partielles.
Pour se ramener `a un probl`eme de point fixe, on consid`ere une d´ecomposition
62
(“splitting”) et on d´efinit l’it´eration
Q>=J?BA8u>=KI
r
2 6 (2.2)
Le choix de la d´ecomposition
6 est important pour la performance de la m´ethode.
D’une part, doit ˆetre choisie telle que le syst`eme (2.2) soit beaucoup plus facile `a r´esoudre que le syst`eme (2.1). D’autre part, les valeurs propres de la matrice nBA doivent satisfaire VWT^V`bZ pour que l’it´eration (2.2) converge.
Il y a beaucoup de possibilit´es de d´efinir la d´ecomposition
2 6M . Si l’on d´enote
" O A . ..
... . .. . ..
" A @@
"
nBA r
*
" AO F@
" A
. .. ... ... . .. " nBA
et\y
)"
AA
r
@@
r@"
F
(afin que
KM8KM* ) les it´erations les plus connues sont:
R Jacobi : 2 , 26 6* ;
R Gauss-Seidel : 88K , 86z* .
Pour ces deux m´ethodes, la matrice est choisie de mani`ere `a ce que le syst`eme (2.2) soit tr`es facile `a r´esoudre. Un avantage de la m´ethode de Gauss-Seidel est le fait que pour le calcul de la composante =J?BA^ du vecteur>=J?BA on n’a besoin que des composantes =^?BA
r
@@
r = du vecteur
>= . Alors, on peut utiliser la mˆeme variable pour =@?BA^ que pour =^ . Une it´eration devient donc
simplement:
forZ
r
F@
r
>^
S^6
^nBA
A " ^ 6
3
^?BA
" ^ qj"
^^.
Une modification int´eressante de cet algorithme est la m´ethode SOR (“successive over-relaxation”):
>=J?BAC
Z6o.)>=YKm
1i6
>=J?BAp6*>=
(2.3) o`u est un param`etre donn´e (pourZ , SOR se r´eduit `a Gauss-Seidel). Elle est aussi simple `a programmer que la pr´ec´edente.
Les r´esultats suivants d´emontrent la convergence dans quelques situations particuli`eres.
Th´eor`eme 2.1 Si la matrice
est “diagonale dominante”, c.-`a-d.
V"
^^3VjX
^ V" ^ V pour Z
r
F@
rr
(2.4) alors l’it´eration de Jacobi converge.
D´emonstration. Pour la m´ethode de Jacobi, on a nBA 6z nBA K*¡ . La condition (2.4) implique que N nBA N@¢ `£Z (voir la formule (4.5) du chapitre IV).
Pour ´etudier la convergence de la m´ethode SOR (en particulier pour Gauss-Seidel), on l’´ecrit sous la forme ´equivalente
8K¤
#>=J?BA
Z6o.386mv*¡)>=K¤v
ou encore>=J?BA2¥
.)>=0K¤
2Ko
nBA
avec
¥
.
8Km
nBA
ZC6¤.356mv*¡3 (2.5)
Th´eor`eme 2.2 Si
est sym´etrique et d´efinie positive et siM r H , l’it´eration SOR, d´efinie par (2.3), converge.
D´emonstration. Il faut d´emontrer que toutes les valeurs propres de¥ . satisfont VWT¦V`gZ . Soient
T une valeur propre et¨§ le vecteur propre correspondant:
P
Z6m.356mv*¡#18T
2K¤
#© (2.6)
Comme
Z6o.86ov*;856m
K¤
, la formule (2.6) devient
,
Z6MT>
8Km
#© (2.7)
En multipliant (2.6) et (2.7) avecǻ , on obtient pour
f1
Iǻ
5K¤
) (observer que* ¬ )
T f K f
Hv6o.)
ª
X
r
ZC6IT>
f
I
ª
, j®
X (2.8)
On en d´eduit
`T
f K f ® T
ZC6IT
K Z
Z6 T
®,
Z6¯VWT¦V
O
VyZ6MT¦V O r
ce qui implique VWT¦V`gZ .
Pour quelques matrices, on connaˆıt la valeur de qui minimise le rayon spectral de ¥ .
et, par cons´equent, qui acc´el`ere la convergence par rapport `a l’it´eration de Gauss-Seidel. D’autres m´ethodes it´eratives pour des syst`emes lin´eaires sont SSOR (“symmetric successive over-relaxation”) et la m´ethode du gradient conjugu´e (avec pr´econditionnement). Voir le livre de Golub & Van Loan, d´ej`a mentionn´e au chapitre IV, et les livres classiques
L.A. Hageman & D.M. Young (1981): Applied Iterative Methods. Academic Press, New York.
R.S. Varga (1962): Matrix Iterative Methods. Prentice Hall, Englewood Cliffs, New Jersey.
VI.3 M´ethode de Newton
Consid´erons le probl`eme de la r´esolution d’un syst`eme d’´equations non lin´eaires
C (3.1)
o`u la fonction
¤¦
est suppos´ee ˆetre au moins une fois diff´erentiable. Si<
est une approximation de la solution cherch´ee, on lin´earise autour de<
~
<JpK
&
<J
°6o<F
et on calcule le z´ero de cette lin´earisation. Si l’on r´ep`ete cette proc´edure avec la nouvelle approxi- mation, on obtient l’algorithme suivant:
for
s
r Z r H r
F@
calculer
>=| et
'&
>=D
'&
>=DP±²>=¡86
>=D (syst`eme lin´eaire `a r´esoudre)
>=J?BAQ>=KI±¡>=
end for
Exemple 3.1 La m´ethode d’Euler implicite (voir (1.4)), appliqu´ee `a l’´equation diff´erentielle
&
h ,h
&
Z
ZY6³
O
#hu6¨ avec pour valeurs initiales´H ,µ£6zj!¶j¶ , nous conduit `a l’´equation
non lin´eaire
·´²KMk
h
h¸·µ KMk
Z
Zi6o
O
)h¹6o3
(3.2) L’it´eration (1.2) ne converge que pourk suffisamment petit. Par exemple, pourk$xw elle diverge et on est oblig´e d’utiliser un autre algorithme. La m´ethode de Newton
Z 6k
k
HjF>=h=K8Zº Z65Zk
Zi6o O=
>=J?BAp6o>=
hj=J?BAp6oh=
86
>=6¤´z6khj=
h=6¤µ»6k
Z
Zi6o
O=
#h=6o>=|
converge sans difficult´e aveck,!w si l’on commence l’it´eration avec<´ ethj<²µ (voir le tableau VI.1 pour les valeurs de>=
r
h= et les erreurs, mesur´ees dans la norme euclidienne).
TAB. VI.1: Convergence de la m´ethode de Newton
s
>= hj= erreur
Hj!jjjjjjjjjj 6zj!¶j¶jjjjjjjjjj ¼xwZ
Z
nBA
Z Z!½j¼j½j½j¾Zº¾j¼ZjZ½j 6zj{Z¶wjwjwj½jw¾jHj½jjBZj½ wxwj¾
Z
n O
H Z!½j¶j¾jjHj½jZ¼Zº¶jw 6zj{Zwj¼jHjjBZ½jj½j¼j¾jH xHj
Z
n¿
w Z!½j¶jjHjjHwjjjj½Hj¶ 6zj{Zwj½jwjHj¼jwZ¶j½BZj½ ¶x¶j¼
Z
nÀ
Z!½j¶jjHjjHBZj½j¼jwj 6zj{Zwj½jwjHj¶j¶j¾jHjwwjHj ZFxj½
Z
nBAÂÁ
Pour ´etudier la convergence de la m´ethode de Newton, consid´erons un terme de plus dans la s´erie de Taylor:
C
>=|pK
&
>=D
6o>=DpK
Z
H &&
>=D
°6m>=
r
°6m>=DpKIL N
¸6m>=
NPÃ
3 (3.3)
Si l’on pose1
"
dans cette formule (avec
"
comme solution de (3.1)) et si l’on soustrait
>=|pK
&
>=D
>=J?BA6m>=|
(d´efinition de>=J?BA ), on obtient pour l’erreur =4Q>=6 " la formule
²
&
>=|
6=J?BA©KÅÄÆ &&
>=D
=
r
=DpKML 3N
= N Ã
3
On vient de d´emontrer le r´esultat suivant:
Th´eor`eme 3.2 Supposons que
soit 3 fois continˆument diff´erentiable et que
_&
soit in- versible dans un voisinage de " (solution de (3.1)). Alors, pour >= suffisamment proche de " , l’erreur=4I>=6
"
de la m´ethode de Newton satisfait
=J?BA ÄÆ
)
&
>=|
nBA
&&
>=D
=
r
=DpKML 3N
= N Ã
3x (3.4)
Donc, la convergence de cette m´ethode est quadratique.
Ce th´eor`eme montre la convergence locale de la m´ethode de Newton, c.-`a-d., si< est proche d’une solution
"
de (3.1), la suiteEF>=G converge vers
"
. Concernant la convergence globale, on en sait tr`es peu et on ne sait analyser seulement que quelques cas de fonctions simples. L’exemple le plus connu est
)Ç
ÇFÃ
62Z ou
i
r hU
à 6MwFBh
O
68Z
wF
O
h 6mh
à (3.5)
(
Ç
QKm{h ) pour lequel l’it´eration devient
Ç
=@?BAC
Ç
=6 Ç Ã=
68Z
w Ç O
= Z
w H Ç
=K
Z
Ç O
= (3.6)
Il est int´eressant de d´eterminer les ensembles (bassins d’attraction)
#"
CE
Ç
<4%È
É
V|E
Ç
=|G converge vers " G (3.7)
pour les trois solutionsZ ,
6$ZDÊ43Ë wj q H de
#Ç
C . Un calcul par ordinateur donne la figure VI.2.
Les
Ç < du domaine blanc entraˆınent une convergence vers
" Z , ceux du domaine gris vers
"
6$ZÌ67Ë w
q H et ceux du domaine noir vers
"
6$ZÍK73Ë wj
q H . On observe que la suiteE
Ç
=G
ne converge pas n´ecessairement vers la solution la plus proche de
Ç < .
Calcul num´erique de la matrice jacobienne
En pratique, il arrive souvent que la forme analytique de la matrice
'&(
est inconnue. Dans cette situation on approche les ´el´ementsÎ ^
q
Îj
de la matrice jacobienne par
Î ^
«A
r
@F r
~
^
«A
r
@@
r
KIÏ
r
@@
r
6 ^
«A
r
@@
r (3.8)
1
−1
FIG. VI.2: Bassins d’attraction pour l’it´eration (3.6)
Mais comment doit-on choisir le Ï ? Pour simplifier la notation, consid´erons une fonction `a une variable et notons-la parÐ .
Un d´eveloppement en s´erie de Taylor montre que
Ð
$KIÏ|6oÐ
Ï
IÐ
&
©K ÏH Ð &&
KML Ï O
3 (3.9)
En cons´equence, Ï doit ˆetre petit pour que l’erreur de la discr´etisation ne soit pas trop grande.
D’autre part, la soustraction dans (3.9) est tr`es mal conditionn´ee. Une ´etude des erreurs d’arrondi montre que l’expression obtenue par un calcul en virgule flottante vaut
Ð
KMÏÑ
ZiKIÒAP
ZiKMÒ
O
6oÐ
Z¦KMÒ Ã
Ï
~ Ð
uKMÏÑ6oÐ
Ï K Z
Ï Ð &
$KMÏÑ
KIÏ|ÒApKmÐ
$KMÏÑ3Ò
O
6oÐ
Ò
Ã
o`u V]Ò(^V
d
eps (eps est la pr´ecision de l’ordinateur, voir section II.3). L’id´ee est de choisir Ï afin que les deux erreurs soient de la mˆeme grandeur :
ÏH
F@ ~ Z
Ï
@F eps (3.10)
Donc, on prend par exemple
Ïe
Ë eps ou Ï4 eps
ZiK8V0V] (3.11)
Modifications de la m´ethode de Newton
Si la dimension du probl`eme (3.1) est tr`es grande et/ou l’´evaluation de la matrice
&
est tr`es coˆuteuse, on peut remplacer la d´efinition de±¡>= par
&
<@P±¡>=²26
>=D (3.12)
Dans ce cas, il suffit de calculer une fois pour toutes la d´ecomposition LR de
_&
<J , ce qui facilite grandement la r´esolution des syst`emes lin´eaires successifs. Mais on perd la convergence quadra- tique car (3.12) n’est rien d’autre qu’une it´eration (1.2) avec- 0Q6 )'&(<@P nBA et- &S)"
est non nul en g´en´eral.
En cas de mauvaise convergence, on remplace la d´efinition de>=J?BA par
>=J?BAI>=KMT=D±¡>= (3.13)
et on d´etermineT= de fac¸on `a ce que
NF
>=0KMT±¡>=
N
soit minimale.
VI.4 M´ethode de Gauss-Newton
Dans ce paragraphe, on va s’int´eresser `a des syst`emes non lin´eaires surd´etermin´es. On consid`ere une fonction
·Ó 0Ô
o`uÕ X
et on cherche une solution de
z . Evidemment, comme on a plus de conditions que d’inconnues, ce probl`eme ne poss`ede en g´en´eral pas de solu- tion. On se contente donc de trouver un vecteur1
tel que
NF
N O Ö
! v (4.1)
Si
est diff´erentiable, la fonction ×
$ NF
N OO est aussi diff´erentiable et une condition n´ecessaire pour que soit un minimum local est d’avoir×
&
C; , c.-`a-d.
&
¬
C2 (4.2)
Une possibilit´e pour r´esoudre (4.1) est d’appliquer une m´ethode it´erative, par exemple la m´ethode de Newton, au syst`eme (4.2). Ceci n´ecessite le calcul de la deuxi`eme d´eriv´ee de
i
.
Une autre possibilit´e est de lin´eariser dans (4.1) autour d’une approximation < de la solution et de calculer«A de
NF
<@pK
&
<J
«A6o<@
N O Ö
! v (4.3)
Une r´ep´etition de cette id´ee donne l’algorithme suivant (m´ethode de Gauss-Newton) for
s
r Z r H r
F@
calculer
>=| et
'&
>=D
d´eterminer±²>= de NF>=ÑpK _&>=|±¡>=
N O Ö
! (moindres carr´es)
>=J?BAQ>=KI±¡>=
end for
Pour calculer±¡>= on peut soit r´esoudre les ´equations normales (section IV.6)
Ø
&
>=
¬ &
>=DP±¡>=²26
#
&
>=D
¬
>=| (4.4)
soit calculer la d´ecomposition QR de'&(>=D et appliquer l’algorithme de la section IV.7.
Etude de la convergence
Pour ´etudier la convergence de la m´ethode de Gauss-Newton, d´eveloppons la fonction
Ð
)
&
P
¬
r
Ð^
C
Ô
3
A Î Îj>^
(4.5)
en s´erie de Taylor. Pour ceci, calculons
ÎÐ^
Îj>Ù
Ô
3
A Î O Îj>Ù3Îj>^
pK
Ô
3
A Î Îj>^
Î
Îj>Ù
3 (4.6)
Matriciellement, la formule (4.6) s’´ecrit
Ð &
C:
)
rÓ
pK
#
&
¬ &
(4.7)
o`u:
\ÔÛÚm
est l’application bilin´eaire d´efinie par
:
ÝÜ«r
[>
^
Ù A Ô
3
A Î O Îj>Ù3Îj>^
FÜ
[jÙP
Avec cette notation, la formule de Taylor donne
Ð
#
&
>=DP
¬
>=||K )
&
>=|
¬ &
>=|
.6¹>=D|K:
>=|
)i
>=Ñ
r
.6¹>=ÑKL 3N
.6¹>=
N O
3 (4.8) Soit maintenant
"
une solution de (4.1). Elle satisfaitÐ
#"
£ . En posantm
"
dans (4.8) et en soustrayant (4.4), nous obtenons ainsi le r´esultat suivant.
Th´eor`eme 4.1 Supposons que
¸ Ô
(avecÕÞX
) soitw fois continˆument diff´erentiable, que le rang de
&
soit maximal et que
"
soit une solution de (4.1). Alors, pour>= suffisamment proche de" , l’erreur=²·>=.6 " de la m´ethode de Gauss-Newton satisfait
=J?BAi86 )
&
>=|
¬ &
>=|
nBA
:
>=D )
>=|
r
=DpKIL N
= N O
Une cons´equence de cette formule est :
R en g´en´eral, la convergence est lin´eaire;
R on a convergence quadratique si#" C; ;
R si#" est trop grand, la m´ethode diverge.
Terminons ce chapitre avec une application typique de cet algorithme.
Exemple (Identification de param`etres). La figure VI.3 montre une photographie de la Vall´ee Blanche (prise par G. Wanner). On y reconnaˆıt le Col des Grandes Jorasses, l’Aiguille du G´eant, l’Aiguille Blanche de Peterey, l’Aiguille du Tacul, le Petit Rognon et l’Aiguille du Moine. La figure VI.4 est une copie d’une carte g´eographique de cette r´egion. Le probl`eme consiste `a trouver la position de la cam´era, ses caract´eristiques (foyer) et les angles d’inclinaison.
Pour la formulation math´ematique de ce probl`eme, nous avons choisi des coordonn´ees
xܫr
[>
sur la photographie (figure VI.3, l’origine est au centre) et des coordonn´ees r h r@Ç sur la carte (
Ç
repr´esente l’altitude). Les valeurs mesur´ees pour les ¶ points reconnus sont donn´ees dans le tableau VI.2.
FIG. VI.3:Photographie de la Vall´ee Blanche TAB. VI.2: Les donn´ees pour le probl`eme “Vall´ee Blanche”
s Ü = [= >= h=
Ç =
1. Col des Grandes Jorasses 6zxjj¾ !Hj½j ½¾j¼j¼ ¼j¶j¾j wj¾jHj¼ 2. Aiguille du G´eant 6zxZ !wjj¼ ¾BZj ¼jjHj jZw 3. Aig. Blanche de Peterey xjj½ !Hj¾j¼ H¾j¾j¼ jwj Zj
4. Aiguille de Tacul 6zxZ½ !BZjZ¼ ¾½jj j¼jwj wjjj
5. Petit Rognon xj¶j 6²!jj¼ ¼jj jjHj¼ wjjj¾
6. Aiguille du Moine xZH¼ 6²!Hjj ¾½j¾j ZjZjZHj wjZH
Pour fixer les inconnues, notons par ( r h r Ç la position du foyer de la cam´era, par le vecteur
)"ar
r@ß
la direction de vue avec norme correspondant `a la distance du plan du film et parà l’angle de rotation de la cam´era autour du vecteur
#"r
rFß
. On a donc param`etres `a trouver. De plus, consid´erons la base orthogonale
"ß r
k
Z
Ë " O KI
O
6 "
r
а
Z
)"
O
KM
O
#"
O
K
O K ß O 6
"aß
6z
ß
" O
KM
O
(4.9) dont les deux vecteursk etÐ engendrent le plan du film, k ´etant horizontal etÐ vertical. Alors, le vecteur dans l’espace qui montre du centre r h r Ç de la lentille vers le point xÜ = r [j=| sur le film est donn´e par
á
A=
á O =
á Ã = "ß K f =
kzK
® = Ð o`u
f =
® = âFã
à ! à
6m! eà
âFã
>à Ü =
[=
Les conditions `a satisfaire sont que les vecteurs
á
A=
r á O = r á Ã
=D et
>=v6 r h=.6 h
rFÇ
=6
Ç soient
FIG. VI.4: La region de la Vall´ee Blanche
colin´eaires. Ceci donne deux conditions pour chaque s . Mais, par sym´etrie, il est plus naturel de consid´erer les trois conditions (pour chaque
s
)
²
á
A=
á O =
á Ã Ú
>=6
h=6 h
Ç Ç á O =
)Ç
=6
Ç
6 á Ã =
hj=6 h>
á Ã =
>=6 «6
á
A=
)Ç
=6 Ç
á á O (4.10)
En tout, ceci donne w ¶$Z¾ conditions pour inconnues. Voici le programmeFORTRANpour la fonction
¸²äC
AÂÀ .
å#æç(èéØæêë#ìíîSï(ìJðÝìJñÝòåSé)óJñôÑñÝî3õ
ëØôSöóë)ïPë#ê.èSí÷óPø{ùuðÝ÷Pú#ûÑñyéú(üPõ
ö÷(èS÷(ôSíêí(èÑðÝì(ýþSÿPõ
ý3ëØôSíìåë(é)ìòåSé)óJðÝì3õ ñÝîJðôõ
ïé#ôôé)ì)ýS÷ê{ì(ýS÷êJñÝò(ýS÷êJðÝì(ýõºñý÷êJðÝìýõ ñÂü)ýS÷êÑðÝì(ý õ ñæSý÷êJðxì(ýõ ñ(ýS÷SêJðÝì(ý õ
ïeúúúúúúìPé)ê÷êë(é)ìvóPé{ï(÷óí¡úúúúúúúú
ò(þ(òåSé)óJð (õ
(þ(òåSé)óJðPõ
ü(þ(òåSé)óJðõ
÷Sþ(òåSé)óJð3õ
çSþ(òåSé)óJð!ÿPõ
ïþ(òåSé)óJðPõ
ê(ûSíê÷Sþ(òåSé)óJðPõ
ïeúúúúúúíSï(êí{æSèvûé#è3ë{üSé)ìê÷ó²úúúúúú
èS÷SïþSå#èSêJðÝ÷Pø)÷(çPø)ç3õ
ûØþ(ç)èS÷Sï
û(þú)÷)èS÷Sï
ûþ
ïeúúúúúíSï(êí{æSèí(èSêë)ï(÷ó¡úúúúúúúúú
èS÷SïþSå#èSêJððÝ÷Pø{ïõ{øø@ðÝçPø{ïõ{øSøJðÝ÷Pøø(ç3øøPõ(øøõ
Øþú)÷Pø{ï)èS÷Sï
(þú)çPø{ï)èS÷Sï
þ@ðÝ÷Pøø(çPøøPõ)èS÷Sï
ïeúúúúúúúóíåöPéSë#ìêåeúúúúúúúú
ýévë)þñÝì(ýS÷ê
ïeúúúúúú0èé)ê÷êë(é)ì¡ë#ìë#êë#÷óí²úúúúúú
æPþ0æSýS÷êJðÂëSõ{ø{ïé(åFðÝê(ûSíê÷3õ(ýS÷êJðÂëõ{ø(åë#ìJðÝêûSíêS÷3õ
SþúØæSýS÷êJðÂëSõ{ø(åë#ìJðÝê(ûSíê÷3õ(ý÷êJðÂëõ{ø{ïé(åFðÝêûSíêS÷3õ
ïeúúúúúúóíåíSï(êí{æSèPå.÷.÷óë(ìí(è¡úúúúúúú
Øþ(÷{û)øØæ)ø
(þ(ç{ûSøØæSø
þï{ûøØæø
Øþ(ò(ýS÷êJðÂëSõ{ú)ò
(þ!ýS÷êJðÂëSõ{ú
!þSü)ýS÷êJðÂëSõ{ú(ü
ïeúúúúúúúúóíåîPé)ìSï(êë(é)ìåv÷.÷ìì{æóí(è¡úúúúúúúúúúú
îJðøðÂë(ú(õ(õ#þ )øSú Sø
îJðøðÂë(ú(õPõ#þ Sø!ú ø
îJðøðÂë(ú(õõ#þ ø)ú )ø!
íì(ý.ýé
èSíê{æSèSì
íì(ý
En appliquant la m´ethode de Gauss-Newton `a ce syst`eme avec comme valeurs initiales ;
¾jj , h³ Z¼jj ,
Ç
ÞZj ,
" , 6Z ,
ß , ภ, apr`es peu d’it´erations on obtient la solution1½¶j¶j ,h¸gZwZjZ¼ ,
Ç
BZjZ¶ avec une pr´ecision de¼ chiffres (voir le tableau VI.3). On
a donc bien trouv´e la position de la cam´era. C’est `a l’Aiguille Verte (altitude 4122) que Gerhard a pris cette photo.
TAB. VI.3:Convergence de la m´ethode de Gauss-Newton
s
>= h=
Ç = " ß à
¾jjj Z¼jj Zj !j 6$ZFxjj xjj xjj
Z ¾jjwj ½jwjw½ ZjZ¶½ 6²!jw 6²xj¾j¼ 6²xjjw xjj
H ¾j¶j¾j ZjZjZ¶w jZº 6²!BZ 6²)ZjZ 6²xjHZ xZ
w ½j¼jj Zwjjw wj½j½w 6²!j 6²)Z¶j 6²xjwjH 6²xj½j
½j¶j¶j ZwZ ZjZº¶ 6²!jw 6²)Z¶j½ 6²xjwjH 6²xjj
¼ ½j¶j¶j ZwZjZº¼ ZjZº¶ 6²!jw 6²)Z¶j½ 6²xjwjH 6²xjj
¶ ½j¶j¶j ZwZjZº¼ ZjZº¶ 6²!jw 6²)Z¶j½ 6²xjwjH 6²xjj
VI.5 Exercices
1. Pour une fonction"$#&%(')% , considrons l’itration*,+'=.-!+'=JnBA0/1'2+\=@?BA dfinie par
354
"6*,+'=./67
"6*,+\=8/:9;"6*,+\=JnBA/
+\=<9=+\=JnBA
*,+\=@?BA>9?+'=8/@ (5.1)
(a) Donner une interprtation gomtrique.
(b) Dmontrer que l’erreurA= 4CB+'=9;D B, oD est une racine simple de"6*,+>/
4E3
, satisfait
AP=J?BAGFIHJA=.A=JnBA0- avec H 4 "
&&
*DK/
L " &
*D8/
@
(c) Dduire de (b) que
A=J?BAMFENOAP
= - avec Q 4SRL * R 7UT V&/WF R @X RY @ (d) Soit "6*,+Z/ un polynme, nous avons que le travail pour valuer "6*,+>/ et "
&
*,+Z/ est approxima- tivement le mme. Supposons que le cot des oprations d’additions, de soustractions, de mul- tiplications et de divisions sont ngligeables par rapport l’valuation de "6*,+Z/. Quelle mthode choisiriez-vous entre la mthode de Newton et la mthode de la scante (5.1) pour calculer une racine de"6*,+>/ travail gal?
2. SoitN\[]% et"^#_N\'`%
continˆument diff´erentiable. Pour un+ <a N supposons que"6*,+ < /b4c3 et que"
&
*,+ < / soit inversible. Montrer que
Q < 4 9d"
&
*,+
< / nBA
"6*,+
< /
est la seule direction ayant la propi´et´e suivante:
Pour toute matrice inversiblee , il existef <dg 3 tel que pour35h f h f <
i
e"6*,+ < 7;f8Q < / i O h i
e"6*,+ < / i O @