• Aucun résultat trouvé

Chapitre VI M´ethodes It´eratives – Equations Non Lin´eaires

N/A
N/A
Protected

Academic year: 2021

Partager "Chapitre VI M´ethodes It´eratives – Equations Non Lin´eaires"

Copied!
14
0
0

Texte intégral

(1)

Chapitre VI

M´ethodes It´eratives – Equations Non Lin´eaires

En pratique, on est souvent confront´e `a la r´esolution d’un syst`eme d’´equations non lin´eaires. C’est-

`a-dire pour une fonction

donn´ee, on cherche un point

tel que

(0.1)

En g´en´eral, il n’y a pas d’algorithme fini pour trouver une solution. On est donc oblig´e d’utiliser des m´ethodes it´eratives.

Sans hypoth`eses suppl´ementaires, on ne sait rien sur l’existence d’une solution de (0.1). Par exemple, pour

il n’y a pas de solution, pour

! il y en a une infinit´e. Mais, le th´eor`eme d’inversion locale nous fournit un r´esultat sur l’unicit´e locale: si

#"

$% et si la matrice jacobienne '&()"

est inversible, il existe un voisinage * de" et un voisinage + de tels que

,

* + soit bijective. Ceci implique que

"

est la seule solution de (0.1) dans le voisinage

* de

"

.

Bibliographie sur ce chapitre

P. Deuflhard (2004): Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Ser. Comp. Math. 35, Springer, Berlin.

J.M. Ortega & W.C. Rheinboldt (1970): Iterative Solution of Nonlinear Equations in Several Vari- ables. Academic Press, New York.

A.M. Ostrowski (1966): Solution of Equations and Systems of Equations. Academic Press, New York, 2nd edition. [MA 65/27]

VI.1 M´ethode des approximations successives

On consid`ere le probl`eme du calcul d’un point fixe de l’application - ./ 0 ; c.-`a-d., on cherche

tel que

12-

3 (1.1)

Les probl`emes (0.1) et (1.1) sont ´equivalents et il y a beaucoup de possibilit´es pour ´ecrire (0.1) sous la forme (1.1). Par exemple, on peut d´efinir - comme-

4576

ou -

4896;:

(ici: est soit un nombre non-nul, soit une matrice bien choisie).

Pour r´esoudre (1.1), on se donne une approximation initiale < (arbitraire) et on consid`ere la m´ethode it´erative

>=@?BAC2-

>=D (1.2)

(2)

Si la suiteEF>=DG converge, disons vers" , et si la fonction- est continue en " , la limite"

est une solution de (1.1). Mais que peut-on dire sur l’erreur?

Th´eor`eme 1.1 Si- estH fois continˆument diff´erentiable et si" est une solution de (1.1), l’erreur=4I>=6

"

satisfait

=J?BA2-

&

#"

=KML 3N

= NPO

3 (1.3)

D´emonstration. Comme" ;- )" , on obtient

=J?BAQ>=J?BA6

"

-

>=D6M-

#"

-

&

)"

=.KIL N

= N O

On peut tirer plusieurs conclusions de la formule (1.3):

R si -

&S#"

poss`ede une valeur propre TUA satisfaisant VWTUAJVYX Z , la composante de = dans la direction du vecteur propre[\A va ˆetre agrandie – l’it´eration ne converge pas vers

"

.

R si toutes les valeurs propres de-

& )"

satisfont V]T_^3Va`bZ , on peut choisir une norme dans

telle que pour la norme matricielle correspondante N -

&

#"

N

`cZ . Ceci et (1.3) impliquent que, pour

N

=

N

suffisamment petit, on a

N

=J?BA

NedgfN

=

N

o`u

f

est un nombre entre

N - & )"

N

et Z . L’erreur= converge donc vers z´ero.

Exemple. Pour r´esoudre num´eriquementh

&

i

hU , on peut appliquer la m´ethode d’Euler im- plicite

hAQhj<KMk

hAS (1.4)

qui d´efinit implicitement l’approximationhA de la solution apr`es un pas de longueur k . L’´equation (1.4) est d´ej`a sous la forme (1.1) avec- Qhj<CKMk

. Sik est suffisamment petit, les valeurs propres de-

&(

hBAPC2k '&S

hAP sont petites et l’it´eration (1.2) converge.

Crit`ere pour arrˆeter l’it´eration. En pratique, on s’int´eresse `a une approximation>= qui satis- fasse

N

>=6

"UNld

tol. Une possibilit´e est d’accepter>= comme approximation de la solution d`es que

N

>=6m>=@nBA N.d

tol.

Le crit`ere qui va suivre est bas´e sur l’hypoth`ese que- soit une contraction et que

N

>=6m>=JnBA

Nd8fN

>=@nBA6o>=@n O N

avec f `gZF En appliquant l’in´egalit´e du triangle `a l’identit´e

>=6

"

>=.6m>=J?BApK

>=J?BAp6o>=J?

O

pKI@@

(en cas de convergence), on obtient

N

>=6

"UNd

f

Zi6 f N

>=6m>=JnBA

N (1.5)

Le facteur de contractivit´e peut ˆetre estim´e par

f

=4

N

>=6o>=JnBA NFqN

>=JnBAp6m>=@n

O

NFr sut

H

L’id´ee est d’arrˆeter l’it´eration quand

f =

Z6 f = N

>=6m>=@nBA Nvd

tol (1.6)

et d’accepter>= comme approximation de la solution.

(3)

0 10 20 10−8

10−6 10−4 10−2 100

0 10 20

10−8 10−6 10−4 10−2 100

FIG. VI.1: Convergence des it´erations (1.7) Exemples. Pour les deux it´erations

>=J?BA

hj=J?BA

ZZ

KQxw

hj=

6oPy >=

r

>=@?BA

h=J?BA

6zj{Z

H

>=

hj=

(1.7) la norme euclidienne de l’erreur de

>=

r

hj=| est dessin´ee dans la figure VI.1 (`a gauche pour la premi`ere it´eration et `a droite pour la deuxi`eme). On peut bien observer la convergence lin´eaire. Le rayon spectral de- &()"

vaut}~5)Z€j et}7~8xjj respectivement. C’est la raison pour laquelle

la premi`ere it´eration converge plus rapidement que la seconde. Le dessin `a droite montre aussi que la convergence n’est pas n´ecessairement monotone (pour la norme

N‚UN

O ). Donc, le coefficient

f =

de (1.6) peut ˆetre plus grand que Z mˆeme si l’it´eration converge.

VI.2 M´ethodes it´eratives pour syst`emes lin´eaires

Pour la r´esolution des syst`emes lin´eaires ƒ

,2„

r

(2.1) il y a des situations o`u les m´ethodes it´eratives sont tr`es utiles. Par exemple, si la matrice

ƒ

poss`ede une tr`es grande dimension et si beaucoup d’´el´ements de

ƒ

sont nuls (matrice creuse), ce qui est le cas pour les discr´etisations des ´equations aux d´eriv´ees partielles.

Pour se ramener `a un probl`eme de point fixe, on consid`ere une d´ecomposition

ƒ

†… 62‡

(“splitting”) et on d´efinit l’it´eration

…Q>=J?BA8‡u>=KI„

r ƒ

6ˆ‡‰ (2.2)

Le choix de la d´ecomposition

ƒ

Š… 6‹‡ est important pour la performance de la m´ethode.

D’une part,… doit ˆetre choisie telle que le syst`eme (2.2) soit beaucoup plus facile `a r´esoudre que le syst`eme (2.1). D’autre part, les valeurs propres de la matrice … nBA ‡ doivent satisfaire VWTŒ^VŒ`bZ pour que l’it´eration (2.2) converge.

Il y a beaucoup de possibilit´es de d´efinir la d´ecomposition

ƒ

6M‡ . Si l’on d´enote



" O A . ..

... . .. . ..

" A @@

"

Ž

nBA r

*

" AO F@

" A

. .. ... ... . .. " nBA Ž

et\y‘“’

)"

A”A

r

@@

r@"

F

(afin que

ƒ 

KM8KM* ) les it´erations les plus connues sont:

R Jacobi : … , ‡†26  6ˆ* ;

R Gauss-Seidel : … 88K  , ‡†86z* .

(4)

Pour ces deux m´ethodes, la matrice … est choisie de mani`ere `a ce que le syst`eme (2.2) soit tr`es facile `a r´esoudre. Un avantage de la m´ethode de Gauss-Seidel est le fait que pour le calcul de la composante =J?BA^ du vecteur>=J?BA on n’a besoin que des composantes =^•?BA

r

@@

r = du vecteur

>= . Alors, on peut utiliser la mˆeme variable pour =@?BA^ que pour =^ . Une it´eration devient donc

simplement:

for–Z

r

F@

r˜—

>^

„S^6

^•nBA

™š

A " ^™ ™ 6

™3š

^›?BA

" ^™ ™ qj"

^œ^.

Une modification int´eressante de cet algorithme est la m´ethode SOR (“successive over-relaxation”):

>=J?BAC

Z6o.)>=YKm

 1„i6



>=J?BAp6ˆ*>=

(2.3) o`u est un param`etre donn´e (pourž†Z , SOR se r´eduit `a Gauss-Seidel). Elle est aussi simple `a programmer que la pr´ec´edente.

Les r´esultats suivants d´emontrent la convergence dans quelques situations particuli`eres.

Th´eor`eme 2.1 Si la matrice

ƒ

est “diagonale dominante”, c.-`a-d.

V"

^œ^3VjX

™Ÿš

^ V" ^™ V pour –Z

r

F@

r˜—r

(2.4) alors l’it´eration de Jacobi converge.

D´emonstration. Pour la m´ethode de Jacobi, on a … nBA ‡  6z nBA  K*¡ . La condition (2.4) implique que N … nBA ‡ N@¢ `£Z (voir la formule (4.5) du chapitre IV).

Pour ´etudier la convergence de la m´ethode SOR (en particulier pour Gauss-Seidel), on l’´ecrit sous la forme ´equivalente

8K¤



#>=J?BA

Z6o.386mv*¡)>=K¤v„

ou encore>=J?BA2¥

.)>=0K¤

2Ko



nBA

„ avec

¥

.

8Km



nBA

ZC6¤.356mv*¡3 (2.5)

Th´eor`eme 2.2 Si

ƒ

est sym´etrique et d´efinie positive et siM r , l’it´eration SOR, d´efinie par (2.3), converge.

D´emonstration. Il faut d´emontrer que toutes les valeurs propres de¥ . satisfont VWT¦V“`gZ . Soient

T une valeur propre et¨§ le vecteur propre correspondant:

P

Z6m.356mv*¡#18T

2K¤



(2.6)

Comme

Z6o.86ov*;856m

ƒ

K¤



, la formule (2.6) devient

 ƒ ,

Z6MT>

8Km



(2.7)

En multipliant (2.6) et (2.7) avecǻ , on obtient pour

f1

Iǻ

5K¤



) (observer que* ¬ )

T f K f

Hv6o.)

ª

­Xž

r

ZC6IT>

f

ª ƒ

,

X (2.8)

On en d´eduit

­`T

f K f ® T

ZC6IT

K Z

Z6 T

®,‚

Z6¯VWT¦V

O

VyZ6MT¦V O r

ce qui implique VWT¦V“`gZ .

(5)

Pour quelques matrices, on connaˆıt la valeur de  qui minimise le rayon spectral de ¥ .

et, par cons´equent, qui acc´el`ere la convergence par rapport `a l’it´eration de Gauss-Seidel. D’autres m´ethodes it´eratives pour des syst`emes lin´eaires sont SSOR (“symmetric successive over-relaxation”) et la m´ethode du gradient conjugu´e (avec pr´econditionnement). Voir le livre de Golub & Van Loan, d´ej`a mentionn´e au chapitre IV, et les livres classiques

L.A. Hageman & D.M. Young (1981): Applied Iterative Methods. Academic Press, New York.

R.S. Varga (1962): Matrix Iterative Methods. Prentice Hall, Englewood Cliffs, New Jersey.

VI.3 M´ethode de Newton

Consid´erons le probl`eme de la r´esolution d’un syst`eme d’´equations non lin´eaires

C (3.1)

o`u la fonction

¤¦

est suppos´ee ˆetre au moins une fois diff´erentiable. Si<

est une approximation de la solution cherch´ee, on lin´earise autour de<

~

<JpK

&

<J

°6o<F

et on calcule le z´ero de cette lin´earisation. Si l’on r´ep`ete cette proc´edure avec la nouvelle approxi- mation, on obtient l’algorithme suivant:

for

s

r Z r H r

F@

calculer

>=| et

'&”

>=D

'&”

>=DP±²>=¡86

>=D (syst`eme lin´eaire `a r´esoudre)

>=J?BAQ>=KI±¡>=

end for

Exemple 3.1 La m´ethode d’Euler implicite (voir (1.4)), appliqu´ee `a l’´equation diff´erentielle

&

h ,h

&

†Z€

ZY6³

O

#hu6¨ avec pour valeurs initiales´‹H ,µ£6zj!¶j¶ , nous conduit `a l’´equation

non lin´eaire

·´²KMk

‚ h

h¸·µ KMk

‚

Zi6o

O

)h¹6o3

(3.2) L’it´eration (1.2) ne converge que pourk suffisamment petit. Par exemple, pourk$xw elle diverge et on est oblig´e d’utiliser un autre algorithme. La m´ethode de Newton

Z 6­k

k

HjF>=h=K8Zº Z65Z€k

Zi6o O=

>=J?BAp6o>=

hj=J?BAp6oh=

86

>=6¤´z6ˆkhj=

h=6¤µ»6ˆk

Zi6o

O=

#h=6o>=|

converge sans difficult´e aveck,‹!w si l’on commence l’it´eration avec<­ž´ ethj<²µ (voir le tableau VI.1 pour les valeurs de>=

r

h= et les erreurs, mesur´ees dans la norme euclidienne).

TAB. VI.1: Convergence de la m´ethode de Newton

s

>= hj= erreur

Hj!j“jjjj“jjjj“j 6zj!¶j¶“jjjj“jjjj“jj ¼xwZ

‚

nBA

Z Z€!½j¼“j½j½j¾Zº¾j¼ZjZ€“½j 6zj{Z€¶“wjwjwj½jw“¾jHj½jjBZ€j½ wxwj¾

‚

n O

H Z€!½j¶“j¾jjHj“½jZ€¼Zº¶jw 6zj{Z€w“j¼jHjjBZ€½jj½j“¼j¾jH xHj

‚

n“¿

w Z€!½j¶“jjHjjH“wjjjj½“Hj¶ 6zj{Z€w“j½jwjHj¼“jwZ€¶j½BZ€j½ ¶x¶j¼

‚

n“À

 Z€!½j¶“jjHjjHBZ€j½j¼jw“j 6zj{Z€w“j½jwjHj¶“j¶j¾jHjw“wjHj ZFxj½

‚

nBAÂÁ

(6)

Pour ´etudier la convergence de la m´ethode de Newton, consid´erons un terme de plus dans la s´erie de Taylor:

C

>=|pK

&

>=D

‰6o>=DpK

Z

H &&

>=D

°6m>=

r

°6m>=DpKIL N

¸6m>=

NPÃ

3 (3.3)

Si l’on pose1

"

dans cette formule (avec

"

comme solution de (3.1)) et si l’on soustrait

­

>=|pK

&

>=D

>=J?BA6m>=|

(d´efinition de>=J?BA ), on obtient pour l’erreur =4Q>=6 " la formule

²

&

>=|

6­=J?BA˜©KÅÄÆ &&

>=D

=

r

=DpKML 3N

= N Ã

3

On vient de d´emontrer le r´esultat suivant:

Th´eor`eme 3.2 Supposons que

soit 3 fois continˆument diff´erentiable et que

_&”

soit in- versible dans un voisinage de " (solution de (3.1)). Alors, pour >= suffisamment proche de " , l’erreur=4I>=6

"

de la m´ethode de Newton satisfait

=J?BA ÄÆ

)

&

>=|

nBA

&&

>=D

=

r

=DpKML 3N

= N Ã

3x (3.4)

Donc, la convergence de cette m´ethode est quadratique.

Ce th´eor`eme montre la convergence locale de la m´ethode de Newton, c.-`a-d., si< est proche d’une solution

"

de (3.1), la suiteEF>=“G converge vers

"

. Concernant la convergence globale, on en sait tr`es peu et on ne sait analyser seulement que quelques cas de fonctions simples. L’exemple le plus connu est

ÇFÃ

62Z ou

i

r hU

à 6MwFBh

O

68Z

wF

O

h 6mh

à (3.5)

(

Ç

Q‰Km–{h ) pour lequel l’it´eration devient

Ç

=@?BAC

Ç

=6 Ç Ã=

68Z

w Ç O

= Z

w H Ç

=K

Z

Ç O

= (3.6)

Il est int´eressant de d´eterminer les ensembles (bassins d’attraction)ƒ

#"

CE

Ç

<4%È

É

V|E

Ç

=|G converge vers " G (3.7)

pour les trois solutionsZ ,

6$ZDÊ4–3Ë wj q H de

C . Un calcul par ordinateur donne la figure VI.2.

Les

Ç < du domaine blanc entraˆınent une convergence vers

" Z , ceux du domaine gris vers

"

6$ZÌ67–Ë

q H et ceux du domaine noir vers

"

6$ZÍK7–3Ë wj

q H . On observe que la suiteE

Ç

=“G

ne converge pas n´ecessairement vers la solution la plus proche de

Ç < .

Calcul num´erique de la matrice jacobienne

En pratique, il arrive souvent que la forme analytique de la matrice

'&(

est inconnue. Dans cette situation on approche les ´el´ementsÎ ^

q

Îj

™ de la matrice jacobienne par

Î ^™

«A

r

@F r

~

^

«A

r

@@

r ™

KIÏ

r

@@

r

6 ^

«A

r

@@

r (3.8)

(7)

1

−1

FIG. VI.2: Bassins d’attraction pour l’it´eration (3.6)

Mais comment doit-on choisir le Ï ? Pour simplifier la notation, consid´erons une fonction `a une variable et notons-la parÐ .

Un d´eveloppement en s´erie de Taylor montre que

Ð

$KIÏ|6oÐ

Ï

&

©K ÏH Ð &&

KML Ï O

3 (3.9)

En cons´equence, Ï doit ˆetre petit pour que l’erreur de la discr´etisation ne soit pas trop grande.

D’autre part, la soustraction dans (3.9) est tr`es mal conditionn´ee. Une ´etude des erreurs d’arrondi montre que l’expression obtenue par un calcul en virgule flottante vaut

Ð

˜

‰KMÏÑ

ZiKIÒAP

ZiKMÒ

O

6oÐ

Z¦KMÒ Ã

Ï

~ Ð

uKMÏÑ6oÐ

Ï K Z

Ï Ð &

$KMÏÑ

‰KIÏ|ÒApKmÐ

$KMÏÑ3Ò

O

6oÐ

Ò

Ã

o`u V]Ò(^V

d

eps (eps est la pr´ecision de l’ordinateur, voir section II.3). L’id´ee est de choisir Ï afin que les deux erreurs soient de la mˆeme grandeur :

ÏH

F@ ~ Z

Ï

@F eps (3.10)

Donc, on prend par exemple

Ïe

Ë eps ou Ï4 eps

ZiK8V0V] (3.11)

(8)

Modifications de la m´ethode de Newton

Si la dimension du probl`eme (3.1) est tr`es grande et/ou l’´evaluation de la matrice

&

est tr`es coˆuteuse, on peut remplacer la d´efinition de±¡>= par

&

<@P±¡>=²26

>=D (3.12)

Dans ce cas, il suffit de calculer une fois pour toutes la d´ecomposition LR de

_&”

<J , ce qui facilite grandement la r´esolution des syst`emes lin´eaires successifs. Mais on perd la convergence quadra- tique car (3.12) n’est rien d’autre qu’une it´eration (1.2) avec- 0Q6 )'&(<@P nBA et- &S)"

est non nul en g´en´eral.

En cas de mauvaise convergence, on remplace la d´efinition de>=J?BA par

>=J?BAI>=KMTŒ=D±¡>= (3.13)

et on d´etermineTŒ= de fac¸on `a ce que

NF

>=0KMT±¡>=“

N

soit minimale.

VI.4 M´ethode de Gauss-Newton

Dans ce paragraphe, on va s’int´eresser `a des syst`emes non lin´eaires surd´etermin´es. On consid`ere une fonction

·Ó

o`uÕ X

—

et on cherche une solution de

. Evidemment, comme on a plus de conditions que d’inconnues, ce probl`eme ne poss`ede en g´en´eral pas de solu- tion. On se contente donc de trouver un vecteur1

tel que

NF

N O Ö

! v (4.1)

Si

est diff´erentiable, la fonction ×

$ NF

N OO est aussi diff´erentiable et une condition n´ecessaire pour que soit un minimum local est d’avoir×

&

C; , c.-`a-d.

&

¬

C2 (4.2)

Une possibilit´e pour r´esoudre (4.1) est d’appliquer une m´ethode it´erative, par exemple la m´ethode de Newton, au syst`eme (4.2). Ceci n´ecessite le calcul de la deuxi`eme d´eriv´ee de

i

.

Une autre possibilit´e est de lin´eariser dans (4.1) autour d’une approximation < de la solution et de calculer«A de

NF

<@pK

&

<J

«A6o<@

N O Ö

! v (4.3)

Une r´ep´etition de cette id´ee donne l’algorithme suivant (m´ethode de Gauss-Newton) for

s

r Z r H r

F@

calculer

>=| et

'&”

>=D

d´eterminer±²>= de NF>=ÑpK _&”>=|±¡>=

N O Ö

! (moindres carr´es)

>=J?BAQ>=KI±¡>=

end for

Pour calculer±¡>= on peut soit r´esoudre les ´equations normales (section IV.6)

Ø

&

>=“

¬ &

>=DP±¡>=²26

#

&

>=D

¬

>=| (4.4)

soit calculer la d´ecomposition QR de'&(>=D et appliquer l’algorithme de la section IV.7.

(9)

Etude de la convergence

Pour ´etudier la convergence de la m´ethode de Gauss-Newton, d´eveloppons la fonction

Ð

)

&

P

¬

r

Г^

C

Ô

™3š

A Î ™ Îj>^

™

(4.5)

en s´erie de Taylor. Pour ceci, calculons

ÎГ^

Îj>Ù

Ô

™3š

A Î O ™ Îj>Ù3Îj>^

™

pK

Ô

™3š

A Î ™ Îj>^

Î ™

Îj>Ù

3 (4.6)

Matriciellement, la formule (4.6) s’´ecrit

Ð &

C:

)

rӂ

pK

#

&

¬ &

(4.7)

o`u:

\ÔÛÚm

est l’application bilin´eaire d´efinie par

:

ÝÜ«r

[>

^

Ù š A Ô

™3š

A Î O ™ Îj>Ù3Îj>^

‚FÜ

™ ‚

[jÙP

Avec cette notation, la formule de Taylor donne

Ð

#

&

>=DP

¬

>=||K )

&

>=|

¬ &

>=|

.6¹>=D|K:

>=|

)i

>=Ñ

r

.6¹>=“ÑKL 3N

.6¹>=

N O

3 (4.8) Soit maintenant

"

une solution de (4.1). Elle satisfaitÐ

#"

£ . En posantm

"

dans (4.8) et en soustrayant (4.4), nous obtenons ainsi le r´esultat suivant.

Th´eor`eme 4.1 Supposons que

¸ Ô

(avecÕÞX

—

) soitw fois continˆument diff´erentiable, que le rang de

&

soit maximal et que

"

soit une solution de (4.1). Alors, pour>= suffisamment proche de" , l’erreur=²·>=.6 " de la m´ethode de Gauss-Newton satisfait

=J?BAi86 )

&

>=|

¬ &

>=|

nBA

:

>=D )

>=|

r

=DpKIL N

= N O

Une cons´equence de cette formule est :

R en g´en´eral, la convergence est lin´eaire;

R on a convergence quadratique si#" C; ;

R si#" est trop grand, la m´ethode diverge.

Terminons ce chapitre avec une application typique de cet algorithme.

Exemple (Identification de param`etres). La figure VI.3 montre une photographie de la Vall´ee Blanche (prise par G. Wanner). On y reconnaˆıt le Col des Grandes Jorasses, l’Aiguille du G´eant, l’Aiguille Blanche de Peterey, l’Aiguille du Tacul, le Petit Rognon et l’Aiguille du Moine. La figure VI.4 est une copie d’une carte g´eographique de cette r´egion. Le probl`eme consiste `a trouver la position de la cam´era, ses caract´eristiques (foyer) et les angles d’inclinaison.

Pour la formulation math´ematique de ce probl`eme, nous avons choisi des coordonn´ees

xܫr

[>

sur la photographie (figure VI.3, l’origine est au centre) et des coordonn´ees r h r@Ç sur la carte (

Ç

repr´esente l’altitude). Les valeurs mesur´ees pour les points reconnus sont donn´ees dans le tableau VI.2.

(10)

FIG. VI.3:Photographie de la Vall´ee Blanche TAB. VI.2: Les donn´ees pour le probl`eme “Vall´ee Blanche”

s Ü = [“= >= h=

Ç =

1. Col des Grandes Jorasses 6zxjj¾“ !“Hj½j ½“¾j¼j¼ ¼j¶j¾j wj¾jHj¼ 2. Aiguille du G´eant 6zxZ€“ !“wjj¼ ¾BZ€j ¼jjHj jZ€w 3. Aig. Blanche de Peterey xjj½“ !“Hj¾j¼ H“¾j¾j¼ jwj Z€j

4. Aiguille de Tacul 6zxZ€½“ !BZjZ€¼ ¾“½jj j¼jwj wjjj

5. Petit Rognon xj¶j“ 6²!“jj¼ ¼“jj jjHj¼ wjjj¾

6. Aiguille du Moine xZ€H“¼ 6²!“Hjj ¾“½j¾j ZjZjZ€Hj wjZ€H

Pour fixer les inconnues, notons par ( r h r Ç la position du foyer de la cam´era, par le vecteur

)"ar

„

r@ß

la direction de vue avec norme correspondant `a la distance du plan du film et parà l’angle de rotation de la cam´era autour du vecteur

#"Œr

„

rFß

. On a donc  param`etres `a trouver. De plus, consid´erons la base orthogonale

"„ß r

Z

Ë " O KI„

O „

6 "

r

а

Z

)"

O

KM„

O

#"

O

Kˆ„

O K ß O 6

"aß

6z„

ß

" O

KM„

O

(4.9) dont les deux vecteursk etÐ engendrent le plan du film, k ´etant horizontal etÐ vertical. Alors, le vecteur dans l’espace qui montre du centre r h r Ç de la lentille vers le point = r [j=| sur le film est donn´e par

á

A›=

á O =

á à = "„ß K f = ‚

kzK

® = ‚ Ð o`u

f =

® = âFã

à ! à

6m! eà

âFã

Ü =

[“=

Les conditions `a satisfaire sont que les vecteurs

á

A›=

r á O = r á Ã

=D et

>=v6 r h=.6 h

rFÇ

=6

Ç soient

(11)

FIG. VI.4: La region de la Vall´ee Blanche

colin´eaires. Ceci donne deux conditions pour chaque s . Mais, par sym´etrie, il est plus naturel de consid´erer les trois conditions (pour chaque

s

)

²

á

A›=

á O =

á Ã Ú

>=6

h=6 h

Ç Ç á O =

=6

Ç

6 á Ã =

hj=6 h>

á Ã =

>=6 «6

á

A›=

=6 Ç

á á O (4.10)

(12)

En tout, ceci donne w ‚ ¶$†Z€¾ conditions pour inconnues. Voici le programmeFORTRANpour la fonction

¸²äC

AÂÀ .

å#æ˜ç(èéØæ˜êë#ì”íîSï(ìJðÝìJñÝò˜åSé)óJñœôÑñÝî3õ

ëØôSö”óë)ïPë#ê.èSí”÷”óPø{ùuðÝ÷Pú#ûÑñyé”ú(üPõ

ö”÷(èS÷(ôSí”ê”í(èÑðÝì(ý˜þSÿPõ

ý3ëØôSí”ì˜å˜ë(é)ìò˜åSé)óJðÝì3õ ñÝîJðœôõ

ï˜é#ô”ôé)ì)ýS÷”ê{ì(ýS÷”êJñÝò(ýS÷”êJðÝì(ýõºñ”ý˜÷”êJðÝì”ýõ ñÂü)ýS÷”êÑðÝì(ý õ ñæSý˜÷”êJðxì(ýõ ñ(ýS÷SêJðÝì(ý õ

ïeú”ú”ú”ú”ú”úìPé)ê”÷”êë(é)ìvóPé{ï(÷”ó”í¡ú”ú”ú”ú”ú”ú”ú”ú

ò(þ(ò˜åSé)óJð (õ

(þ(ò˜åSé)óJðPõ

ü(þ(ò˜åSé)óJðõ

÷Sþ(ò˜åSé)óJð3õ

çSþ(ò˜åSé)óJð!ÿPõ

ï”þ(ò˜åSé)óJðPõ

ê(ûSí”ê”÷Sþ(ò˜åSé)óJðPõ

ïeú”ú”ú”ú”ú”ú”íSï(ê”í{æSèvûé#è3ë{üSé)ì”ê”÷”ó²ú”ú”ú”ú”ú”ú

èS÷Sï”þSå#èSêJðÝ÷Pø)÷(çPø)ç3õ

ûØþ(ç)èS÷Sï

û(þ˜ú)÷)èS÷Sï

û”þ

ïeú”ú”ú”ú”ú”íSï(ê”í{æSè”í(èSêë)ï(÷”ó¡ú”ú”ú”ú”ú”ú”ú”ú”ú

èS÷Sï”þSå#èSêJð”ðÝ÷Pø{ïõ{ø”ø@ðÝçPø{ïõ{øSøJðÝ÷Pø”ø(ç3ø”øPõ(ø”øõ

Øþ˜ú)÷Pø{ï)èS÷Sï

(þ˜ú)çPø{ï)èS÷Sï

”þ@ðÝ÷Pø”ø(çPø”øPõ)èS÷Sï

ïeú”ú”ú”ú”ú”ú”úó”í˜åöPéSë#ì”ê˜åeú”ú”ú”ú”ú”ú”ú”ú

ýévë)þñÝì(ýS÷”ê

ïeú”ú”ú”ú”ú”ú0èé)ê”÷”êë(é)ì¡ë#ìë#êë#÷”ó”í²ú”ú”ú”ú”ú”ú

æPþ0æSýS÷”êJðÂëSõ{ø{ï˜é(åFðÝê(ûSí”ê”÷3õ(ýS÷”êJðÂë˜õ{ø(åë#ìJðÝê”ûSí”êS÷3õ

Sþ˜úØæSýS÷”êJðÂëSõ{ø(å˜ë#ìJðÝê(ûSí”ê”÷3õ(ý˜÷”êJðÂë˜õ{ø{ïé(åFðÝê”ûSí”êS÷3õ

ïeú”ú”ú”ú”ú”úó”í˜å”íSï(ê”í{æSèPå.÷.÷”óë(ì”í(è¡ú”ú”ú”ú”ú”ú”ú

Øþ(÷{û)øØæ)ø

(þ(ç{ûSøØæSø

”þ”ï{û˜øØæ˜ø

Øþ(ò(ýS÷”êJðÂëSõ{ú)ò

(þ!”ýS÷”êJðÂëSõ{ú

!”þSü)ýS÷”êJðÂëSõ{ú(ü

ïeú”ú”ú”ú”ú”ú”ú”úó”í˜åîPé)ìSï(êë(é)ì˜åv÷.÷”ì”ì{æ˜ó”í(è¡ú”ú”ú”ú”ú”ú”ú”ú”ú”ú”ú

îJð˜ø€ðÂë(ú(õ(õ#þ )øSú

îJð˜ø€ðÂë(ú(õPõ#þ Sø!˜ú ˜ø

îJð˜ø€ðÂë(ú(õõ#þ ˜ø)ú )ø!

í”ì(ý.ýé

èSí”ê{æSèSì

í”ì(ý

En appliquant la m´ethode de Gauss-Newton `a ce syst`eme avec comme valeurs initiales ;

¾jj“ , Z€¼“jj ,

Ç

ÞZ€“j ,

" , „­†6‰Z ,

ß , ภ, apr`es peu d’it´erations on obtient la solution1½“¶j¶j ,h¸gZ€wZjZ€¼ ,

Ç

BZjZ€¶ avec une pr´ecision de¼ chiffres (voir le tableau VI.3). On

a donc bien trouv´e la position de la cam´era. C’est `a l’Aiguille Verte (altitude 4122) que Gerhard a pris cette photo.

TAB. VI.3:Convergence de la m´ethode de Gauss-Newton

s

>= h=

Ç = " „ ß à

¾jjj Z€¼jj“ Z€j“ !“j 6$ZFxjj xjj xjj

Z ¾jjwj ½jwjw“½ ZjZ€¶“½ 6²!“jw 6²xj¾j¼ 6²xjjw xjj

H ¾j¶j¾j ZjZjZ€¶“w jZº 6²!BZ€ 6²)ZjZ€ 6²xjHZ xZ€

w ½j¼jj Z€wjjw“ wj½j½“w 6²!“j 6²)Z€¶j 6²xjwjH 6²xj½j

 ½j¶j¶j Z€wZ€“ ZjZº¶ 6²!“jw 6²)Z€¶j½ 6²xjwjH 6²xjj

¼ ½j¶j¶j Z€wZjZº¼ ZjZº¶ 6²!“jw 6²)Z€¶j½ 6²xjwjH 6²xjj

½j¶j¶j Z€wZjZº¼ ZjZº¶ 6²!“jw 6²)Z€¶j½ 6²xjwjH 6²xjj

(13)

VI.5 Exercices

1. Pour une fonction"$#&%(')% , considrons l’itration*,+'=.-!+'=JnBA0/1'2+\=@?BA dfinie par

354

"6*,+'=./67

"6*,+\=8/:9;"6*,+\=JnBA/

+\=<9=+\=JnBA

*,+\=@?BA>9?+'=8/@ (5.1)

(a) Donner une interprtation gomtrique.

(b) Dmontrer que l’erreurA˜= 4CB+'=9;D B, oD est une racine simple de"6*,+>/

4E3

, satisfait

AP=J?BAGFIHJA˜=.A˜=JnBA0- avec H 4 "

&&

*DK/

L " &

*D8/

@

(c) Dduire de (b) que

A˜=J?BAMFENOAP

= - avec Q 4SRL * R 7UT V&/WF R @X RY @ (d) Soit "6*,+Z/ un polynme, nous avons que le travail pour valuer "6*,+>/ et "

&

*,+Z/ est approxima- tivement le mme. Supposons que le cot des oprations d’additions, de soustractions, de mul- tiplications et de divisions sont ngligeables par rapport l’valuation de "6*,+Z/. Quelle mthode choisiriez-vous entre la mthode de Newton et la mthode de la scante (5.1) pour calculer une racine de"6*,+>/ travail gal?

2. SoitN\[]% et"^#_N\'`%

continˆument diff´erentiable. Pour un+ <a N supposons que"6*,+ < /b4c3 et que"

&

*,+ < / soit inversible. Montrer que

Q < 4 9d"

&

*,+

< / nBA

"6*,+

< /

est la seule direction ayant la propi´et´e suivante:

Pour toute matrice inversiblee , il existef <dg 3 tel que pour35h f h f <

i

e"6*,+ < 7;f8Q < / i O h i

e"6*,+ < / i O @

(14)

Références

Documents relatifs

[r]

[r]

M´ ethodes it´

A doit être à « dominante diagonale » i.e ABS( diagonale )soit être &gt; somme des v.abs des élements sur la ligne pour être sûr de la convergence…... Nous avons vu 2 familles

Un peu plus subtile, ne modifie pas b, donc on peut utiliser la même décomposition pour tout vecteur b, donne A-1 et les vecteurs propres.. Gauss Jordan (pivot

La loi hydraulique permettant de calculer le d´ ebit s’´ enonce Q = α∆P , o` u Q est le d´ ebit du tuyau, ∆P la diff´ erence des pressions en entr´ ee et sortie et α est

On appelle rang d’un syst` eme lin´ eaire le nombre de pivots de la matrice ´echelonn´ee r´eduite ´equivalente en lignes ` a la matrice associ´ee au syst`eme..

Mass transportation methods] [Cordero-Erausquin, Gangbo, Houdr´ e], [Cordero-Erausquin, Nazaret, Villani], [Agueh, Ghoussoub, Kang].. Existence and