Chapitre 6 : Curve fitting
Maarten Jansen
Table de mati `eres
• Introduction au calcul num ´erique.
• Analyse des erreurs.
• R ´esolution des syst `emes lin ´eaires.
• R ´esolution num ´erique des ´equations diff ´erentielles ordinaires.
• Interpolation.
• Curve fitting.
• R ´esolution des ´equations non lin ´eaires.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.1
La loi du mouvement plan ´etaire
• En 1601, l’astronome allemand Johannes Kepler formula la troisi `eme loi du mouvement plan ´etaire T =Cx3/2 qui lie la distancexde la plan `ete au soleil (en million de kilom `etres) et la p ´eriode orbitaleT (en jours).
• La valeur du coefficientC= 0.199769fut trouv ´ee gr ˆace `ala m ´ethode de moindres carr ´espropos ´ee par K. F. Gauss (Theoria Motus Corporum Caelestium, 1809).
• Cette m ´ethode permit la pr ´ediction de l’orbite de l’ast ´erode C ´er `es d ´ecouvert le jour du Nouvel An de 1801 par l’astronome italien
Giuseppe Piazzi. Piazzi avait pu suivre sa trajectoire durant seulement 40 jours avant que il ne disparaisse derri `ere le soleil.
• Durant cette ann ´ee, plusieurs scientifiques ont tent ´e de pr ´edire sa trajectoire sur la base des observations de Piazzi. La plupart des pr ´edictions furent erron ´ees ; et le seul calcul suffisamment pr ´ecis pour permettre de localiser `a nouveau C ´er `es `a la fin de l’ann ´ee, fut celui de Gauss, alors ˆag ´e de 24 ans.
Les valeurs num ´eriques pour la loi du mouvement plan ´etaire Les couples de valeurs(xi, Ti)observ ´es pour les plan `etes Mercure, V ´enus, Terre et Mars sont(58,88),(108,225),(150,365)et(228,687).
x: Distance to sun
T: Orbital period
Mercury Venus
Earth
Mars T=Cx3/2
Curve fitting
• Au lieu de l’interpolation une approximation des donn ´ees, appel ´ee lissageoufittingdes donn ´ees, peut ˆetre effectu ´ee en utilisant la m ´ethode discr `ete desmoindres carr ´es.
• Lelissageest pr ´ef ´erable `a l’interpolation si...
1. lenombre de donn ´ees est grand: alors, le polyn ˆome interpolant peut pr ´esenter des oscillations importantes.
2. les donn ´ees sontentach ´ees de bruit. L’ ´evaluation d’un polyn ˆome interpolant a peu de signification
3. unmod `ele des observationsest disponible (voir exemple p.2) Alors, l’objectif, en premi `ere instance, est de trouver les valeurs desparam `etres d’un mod `eleet ( ´eventuellement) apr `es les valeurs pour des points interm ´ediaires
Le lissage consiste de trouver une fonction (un membre d’un mod `ele ou famille de fonction) passantau plus prochedes observations.
Par cons ´equent, le lissage comprend uneoptimisationalors que l’interpolation ne repr ´esente qu’un syst `eme lin ´eaire.
L’optimisation est dite la m ´ethode auxmoindres carr ´es
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.4
Donn ´ees et approximation
Supposons de mesurer2variables corr ´el ´eesQetI, o `uQest lachaleur dissip ´ee par une r ´esistanceR= 2ΩetIest lecourantpassant `a traversR.
I: current
Q: Heat
L’approximation par polyn ˆome interpolant ne r ´ev `ele pas la relation quadratique existante entreIetQ.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.5
Pr ´ecision d’une approximation On se donne
1. n+ 1couples de valeurs(xi, yi),i= 0, . . . , no `uyi repr ´esente, par exemple, une quantit ´e physique mesur ´ee `a la positionxi.
2. une fonction d’approximationh(x)
La fonction d’approximation est prise d’une famille de fonctions. Par exemple, h(x) =c0+c1x+c2x2est une fonction quadratique. L’ ´enonc ´e est alors de trouver lesvaleurs optimalesdes param `etresc0,c1,c2
Nous d ´efinissons l’erreur d’approximationenxi, par lesr ´esidus ei =h(xi)−yi i= 0, . . . , n
Pr ´ecision d’une approximation
Plusieurs normes peuvent ˆetre consid ´er ´ees afin de mesurer l’ ´eloignement de la fonctionh(·)des donn ´ees.
Erreur absolue maximale: E∞(h) = max
0≤i≤n{|h(xi)−yi|}
Erreur absolue moyenne: E1(h) = 1 n+ 1
Xn
i=0
|h(xi)−yi|
Root-mean-square error (RMSE): E2(h) = 1
n+ 1 Xn
i=0
|h(xi)−yi|2
!1/2
=k~h−~yk2
n+ 1
La minimisation d’une de ces normes d ´efinit alors l’objectif du lissage.
Avantages d’une norme euclidienne
Ensuite nous utiliserons la normeE2(RMSE) afin de mesurer la pr ´ecision d’une approximation pour les raisons suivantes :
• (1) les ´ecarts n ´egatifsei<0n’effacent pas les ´ecarts positifsej>0,
• (2) l’optimisation bas ´ee sur la diff ´erentiation deE2est plus facile,
• (3) les petits ´ecarts sont r ´eduits et les grands ´ecarts sont amplifi ´es.
• (4) La norme euclidienne est fortement li ´ee `a la loi gaussienne (normale)
f(u) = 1
√2πσe−(u−µ)2/2σ2,
dont la formule comprend le carr ´e d’une d ´eviation(u−µ)2
La norme euclidienne des r ´esidus dans un mod `ele gaussien est ditela vraisemblancedu mod `ele (notion de la statistique)
Le point (3) peut repr ´esenter un avantage mais aussi un d ´esavantage : puisque la pond ´eration quadratique renforce l’importance des grands ´ecarts, la solution aura la tendance de suivre les observations aberrantes au co ˆut des observations “normales”.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.8
Les moindres carr ´es : minimisation de la norme euclidienne ExempleSoit donn ´ee la famille de polyn ˆomes
h(x) =c0+c1x+c2x2+...+cmxm,
Trouver le vecteur de coefficients tel que E2(h) =
Xn
i=0
c0+c1xi+c2x2i +...+cmxmi
−yi2
soit minimis ´ee
Sim=n, on peut prendre pourh(x)le polyn ˆome interpolant, etE2(h) s’annule.
Pourn > m, consid ´erer lesyst `eme lin ´eaire surd ´etermin ´e: c0+c1xi+c2x2i +...+cmxmi =yipouri= 0, ..., n Ce syst `eme an+ 1´equations pourm+ 1inconnus (c)
En g ´en ´eral, il n’existe pas de vecteur~csatisfaisant `a toutes les conditions. On se contente d’une solution approch ´ee.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.9
Syst `emes surd ´etermin ´es
• Soit donn ´e le syst `eme lin ´eaireA(n×m)~z=b(n×1)
• Sin=met siAest inversible alors la solution du syst `eme lin ´eaire existe et est unique.
• Sin > mle syst `eme est ditsurd ´etermin ´e.
• Un syst `eme surd ´etermin ´e n’admet pas une solution au sens classique mais il admet une solution au sens desmoindres carr ´es.
Rang d’une matrice rectangulaire SoitAune matrice rectangulairen×m.
D ´efinition
Led ´eterminant extrait (appel ´e aussi mineur) d’ordreq est le d ´eterminant de n’importe quelle matrice d’ordreqobtenue `a partir deAen eliminantn−q lignes etm−qcolonnes.
D ´efinition
Lerangrg(A)ourang(A)deAest la taille du plus grand mineur non nul de A. Une matrice est de rang maximum sirg(A) = min(m, n).
Les matrices
5 2 1 5 3 7
,
1 0 2 0 0 2
,
1 2 2 4 3 6
ont respectivement rang2,2et1.
Solution au sens des moindres carr ´es
• Etant donn ´eA∈Rn×mavecn > met~b∈Rnon dit que~z∗∈Rmest une solution du syst `eme lin ´eaireA~z=~bau sens des moindres carr ´essi Φ(~z∗) = min~z∈R
mΦ(~z), o `u Φ(~z) =kA~z−~bk22=Pn
i=1|bi−Pm
j=1aijzj|2
• Donc ~z∗= arg minz1,z2,...,zmPn i=1
bi−Pm
j=1aijzj2
• Le probl `eme aux moindres carr ´es est un probl `eme d’optimalisation convexeet consiste `a minimiser la norme euclidienne du r ´esidu.
• Puisque dans un probl `eme d’optimalisation convexe un minimum local est aussi un minimum global, la solution peut ˆetre d ´etermin ´ee en imposant au gradient de la fonctionΦde s’annuler en~z∗.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.12
Exemple
Consid ´erons le syst `eme surd ´etermin ´e o `un= 3etm= 2et la matriceAa rang maximal
5 2 1 5 3 7
z1 z2
=
1 3 2
La surface est les courbes de niveau deΦ(~z):
-1 -0.5
0 0.5
1
-1 -0.5 0 0.5 1 0 50 100 150 200 250 300
z2 z1 Φ(z1,z2)
z1
z2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.13
´equations normales
• PuisqueΦ(~z) = (A~z−~b)T(A~z−~b) =~zTATA~z−2~zTAT~b+~bT~b on a ∂Φ(~z)
∂zi = ∂~zT
∂ziATA~z+~zTATA∂~z
∂zi −2∂~zT
∂zi AT~b d’o `u :∇Φ(~z∗) = 2ATA~z∗−2AT~b= 0
• Il en d ´ecoule que~z∗doit ˆetre solution du syst `eme carr ´e(m×m) ATA~z∗=AT~b
appel ´e syst `eme des´equations normales.
• SiAest de rang maximal, le syst `eme des ´equations normales est non singulier et la solution~z∗existe et est unique.
• Soit ~r=~b−A~z∗ ler ´esiduassoci ´e `a la solution~z∗. Il s’ensuit que AT~r=AT~b−ATA~z∗= 0
c.- `a-d. le vecteurrestorthogonale aux colonnesdeA.
Exemple Le syst `eme surd ´etermin ´eA~z=~b
5 2 1 5 3 7
z1 z2
=
1 3 2
conduit au syst `eme des ´equations normales
35 36 36 78
z1 z2
=
14 31
qui a comme solution et residu
~ z∗=
−0.0167 0.4052
, ~r=~b−A~z∗=
0.2734 0.9909
−0.7859
Notons queAT~r= [0,0]
R ´esolution des ´equations normales SiAest de rang maximum :
• Dans le syst `emeATA~z∗=AT~b, la matrice des coefficients est sym ´etrique et d ´efinie positive.
• On pourrait imaginer une r ´esolution par factorisation de Cholesky.
Cependant cette m ´ethode a deux inconv ´enients majeurs 1. le syst `eme est mal conditionn ´e
2. les erreurs d’arrondi dans le calculATApeuvent entraˆıner une perte du nombre de chiffres significatifs
En effet, dans l’exemple `a la page 15, on constate que les valeurs deATAsont d’ordre plus grand que les ´e ´ements deA.
• Il est en g ´en ´eral plus efficace d’utiliser la factorisation QR pour matrices rectangulaires. (pas discut ´e dans ce cours)
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.16
Factorisations matricielles (un petit aperc¸u)
1. La factorisation LU A=LU
— Amatrice carr ´ee g ´en ´erique ;Ltriangulaire inf ´erieure,U triangulaire sup ´erieure
— Elaboration de l’ ´elimination selon Gauss
— Cas sp ´ecial : Cholesky (pourAsym ´etrique)
— Utils ´ee pour
1. La r ´esolution (num ´erique) d’un syst `eme d’ ´equations 2. L’inversion d’une matrice
3. Le calcul d’un d ´eterminant 2. La factorisation QR A=QR
— Amatrice carr ´ee ou rectangulaire g ´en ´erique ;Qmatrice orthogonale ;Rmatrice triangulaire
— Elaboration de l’orthogonalisation de Gram-Schmidt
— Algorithmes alternatifs : Givens/Householder
— Utils ´ee pour
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.17
1. La r ´esolution d’un syst `eme au sens des moindres carr ´es kA~z−bk=kQR~z−bk=kR~z−QTbk
2. La solution des syst `emes r ´eguliers
3. D ´ecomposition en ´el ´ements propres ; d ´ecomposition spectrale A=EΛE−1
— Amatrice carr ´ee g ´en ´erique ;
Ematrice inversible contenant en colonnes les vecteurs propres deA
Λmatrice diagonale contenant les valeurs propres deA
— Utilise pour
1. L’ ´evaluation d’une fonction matricielle ; p.ex. :Ak =EΛkE−1, eA=
X∞
k=0
1
k!EΛkE−1
2. L’analyse de stabilit ´e physique d’un syst `eme
— PourAsym ´etrique,Eest orthogonale :E−1=ET
— Quand le nombre de vecteurs propres est inf ´erieur `a la taille,Λ sera quasi-diagonale
4. D ´ecomposition en valeurs singuli `eres A=UΣVT
— Amatrice carr ´ee ou rectangulaire g ´en ´erique ; U etV : matrices orthogonales
Σmatrice diagonale avec les valeurs singuli `eres
— Les valeurs singuli `eres sont les racines carr ´ees des valeurs propres deATA:
ATA= UΣVTT
UΣVT
=VΣ2VT
— La matriceV consiste des vecteurs propres deATA
— La matriceU consiste des vecteurs propres deAAT
— La pseudo-inverse (voir p.21) s’exprime ainsiA†=VΣ†UT,o `u la pseudo-inverseΣ†est facile `a trouver (voir p. 27)
Moindres carr ´es et pseudo-inverse SiAn’est pas de rang maximal :
• le syst `eme des ´equations normales est singulier
• on a un nombre infini de solutions.
• on doit imposer une contrainte suppl ´ementaire pour forcer l’unicit ´e de la solution. Par exemple chercher `a minimiser la norme euclidienne de
~z∗.
Le probl `emepeut alors ˆetre formul ´e ainsi :
trouver~z∗∈Rmde norme euclidienne minimaletel que kA~z∗−~bk22= min~z∈RmkA~z−~bk22
Double minimisation 1. A~z∗−~b
A~z∗−~b
=kA~z∗−~bk22= min~z∈R
mkA~z−~bk22⇔ATA~z∗=AT~b (Equations normales)
2. ~z∗T~z∗=k~z∗k22= min
~
z|ATA~z=AT~bk~zk22
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.20
Moindres carr ´es et pseudo-inverse (2) L’ unique solutionde ce probl `eme est ~z∗=A†~b
o `uA†(m×n)est lapseudo-inversedeA.
La notion de matrice pseudo-inverse g ´en ´eralise la notion d’inverse aux matrices rectangulaires.
La matrice pseudo-inverse satisfait les propri ´et ´es suivantes : AA†A=A A†AA†=A† (AA†)T =AA† (A†A)T =A†A
Les propri ´et ´es d ´efinissent la matriceA†, c.- `a-d., elle est l’unique ma- trice de taille(m×n)qui satisfait les 4 prop.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.21
Les propri ´et ´es d ´efinissantes
AA†A=A
Supposons queA~z=~bo `ubest laii `eme colonne deA. Alors, le r ´esidu~r=A~z∗−~b=~0, car, au moins~z=~ei(leii `eme colonne de la matrice identit ´e) est une solution exacte. Par cons ´equent, A†bdoit ˆetre une solution exacte :AA†~b=~b.
Ceci se r ´ep `ete pour toutes les colonnes deA, ce qui nous conduit `a la propri ´et ´e.
A†AA†=A†
Quand~z=A†~b, le vecteur~zn’est pas n ´ecessairement une solution du syst `eme surd ´etermin ´e A~z=~b, mais bien du syst `eme des ´equations normales associ ´e.
DoncATA~z=AT~b.
Etant donn ´e un vecteur~barbitraire, on constate que
1. (a) ~z1∗= A†AA†~best la solution pseudo-inverse pour le probl `emeA~z=AA†~b, dont les ´equations normales associ ´ees sont
ATA~z∗1=AT AA†~b
=ATA~z∗
(b) ~z∗=A†~best la solution pseudo-inverse pour le syst `eme original, dont les
´equations normales associ ´ees sontATA~z∗=AT~b (c) En combinant les r ´esultats pr ´ec ´edants, on arrive `a
ATA A†AA†~b=AT~b
Donc, A†AA†~best une solution du syst `eme des ´equations normales associ ´e au probl `eme original
2. On trouve facilement que~z∗est une solution du syst `eme des ´equations normales ATA~z=AT AA†~b
,dont~z∗1est la solution pseudo-inverse.
Donc,k~z∗1k22≤ k~z∗k22.
Puisque~z∗est la solution pseudo-inverse du probl `eme original et~z∗1est une solution pour ses ´equations normales avec une norme euclidienne inf ´erieure,~z1∗=~z∗. 3. On a, pour tout vecteur~barbitraire, que~z∗1= A†AA†~b=A†~b=~z∗,d’o `u r ´esulte
l’expressionA†AA†=A†
Propri ´et ´es de la matrice pseudo-inverse
• Propri ´et ´es d ´efinissantes
Elle est la seule matrice de taille(m×n)qui satisfait les quatre propri ´et ´es suivantes
AA†A=A A†AA†=A† (AA†)T =AA† (A†A)T =A†A
• Autres propri ´et ´essont
(A†)†=A (pour raison de l’unicit ´e de la pseudo-inverse) (aA)†=a−1A† sia∈R
• Sir=m < n(rang maximal) alors A†= (ATA)−1AT
• Sir=m=nalorsA†=A−1.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.24
Exemple
Consid ´erons le syst `eme surd ´etermin ´e o `un= 3etm= 2et la matriceAa rang ´egal `a1
1 2 2 4 3 6
z1 z2
=
1 3 2
-1 -0.5
0 0.5
1
-1 -0.5 0 0.5 1 0 50 100 150 200 250
z1 z2
Φ(z1,z2)
z1
z2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.25
Pseudo-inverse et d ´ecomposition
Si il est possible de d ´ecomposer la matriceAdans le produitA=BCde deux matrices orthogonalesBetC, la matrice suivante satisfait les propri ´et ´es de la pseudo-inverse A†=CTBT
Par exemple (CTBT
| {z }
A†
)†=BC
|{z}
A
|{z}BC
A
CTBT
| {z }
A†
|{z}BC
A
= BC
|{z}A
CTBT
| {z }
A†
|{z}BC
A
CTBT
| {z }
A†
=CTBT
| {z }
A†
Trouver la pseudo-inverse : d ´ecomposition SVD Supposons queAn×msoit une matrice r ´eelle de rangr < m. Pour toute matriceA, il existe une d ´ecomposition A=Un×nΣ(n×m)Vm×mT envaleurs singuli `eres(en anglais Singular Value Decomposition) o `u
Σ(n×m)=
σ1 0 . . . 0 . . . 0
0 σ2 . . . 0 . . . 0
.. .
...
0 0 . . . σr 0 0
0 0 . . . 0 . . . 0
.. .
.. .
0 0 . . . 0 . . . 0
o `uσ1≥ · · · ≥σr> σr+1=· · ·=σm= 0sont les valeurs singuli `eresdeA,
etUn×netVm×msont matrices orthogonales.
D ´ecomposition SVD Notons aussi que
• Le nombre de valeurs singuli `eres non nulles indique le rang de la matrice.
• Si la matrice est singuli `ere, au moins une des valeurs singuli `eres est nulle
• il existe le lien σi=p
λi(ATA), i= 1, . . . , m o `uλi(ATA)sont les valeurs propres de la matrice carr ´ee et sym ´etriqueATA.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.28
Pseudo-inverse
D ´efinition[Pseudo-inverse]La matricem×n A†=VΣ†UT est appel ´ee matricepseudo-inverse de Moore-Penroseouinverse g ´en ´eralis ´ee, o `u
Σ†m×n=diag
1 σ1, . . . ,σ1
r,0, . . . ,0
=
1 σ1
0 . . . 0 0 0 . . . 0
0
... . . . 0 0 0 . . . 0
0 0 1
σr 0 0 0 . . . 0
.. .
.. .
.. .
... ..
. 0 . . . 0
0 0 . . . 0 0 0 . . . 0
o `u
σ1, . . . , σrsont les valeurs singuli `eres non nulles deA.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.29
Exemple pseudoinverse : rang maximal
A=
1 0 2 0 0 2
=UΣVT =
−0.4472 0 0.8944
−0.8944 0 −0.4472
0 −1 0
2.2361 0
0 2
0 0
−1 0 0 −1
A†=VΣ†UT=
−1 0 0 −1
0.4472 0 0
0 0.5 0
−0.4472 −0.8944 0
0 0 −1
0.8944 −0.4472 0
=
0.2 0.4 0
0 0 0.5
= (ATA)−1AT
Exemple pseudoinverse : rang 1
A=
1 2 2 4 3 6
=UΣVT
=
−0.2673 0.9562 0.1195
−0.5345 −0.0439 −0.8440
−0.8018 −0.2895 0.5228
8.366 0
0 0
0 0
−0.4472 −0.8944
−0.8944 0.4472
A†=VΣ†UT
=
−0.4472 −0.8944
−0.8944 0.4472
0.1195 0 0
0 0 0
−0.2673 −0.5345 −0.8018 0.9562 −0.0439 −0.2895 0.1195 −0.8440 0.5228
=
0.0143 0.0286 0.0429 0.0286 0.0571 0.0857
Approximation aux moindres carr ´es (I)
• Voyons comment utiliser la m ´ethode de r ´esolution d’un syst `eme surd ´etermin ´e dans le probl `eme du curve-fitting.
• On se donnen+ 1couples de valeurs(xi, yi),i= 0, . . . , no `uyi repr ´esente, par exemple, une quantit ´e physique mesur ´ee `a la position xi.
• D ´efinition
On appellepolyn ˆome aux moindres carr ´es Π∗m(x) =c∗mxm+· · ·+c∗1x+c∗0 le polyn ˆome de degr ´em≤ntel que
Xn
i=0
h
yi−Π∗m(xi)i2
≤ Xn
i=0
h
yi−πm(xi)i2
∀πm(x)∈Pm
o `uPmest l’ensemble des polyn ˆomes de degr ´em.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.32
Le p ˆolynome aux moindres carr ´es dans la formulation g ´en ´erale
• En notantπm(x) =cmxm+· · ·+c1x+c0= Xm
j=0
xjcj le probl `eme peut ˆetre formul ´e en termes du vecteur~cdes coefficientscjinconnus :
• ~c∗= arg min
c∈Rm
Xn
i=0
yi− Xm
j=0
xjicj
2
Ce qui est de la forme g ´en’erale d’une solutionz∗au sens des moindres carr ´es d’un syst `eme surd ´etermin ´eAz=b:
z∗= arg min
z∈RmkAz−bk22= arg min
z1,z2,...,zm
Xn
i=1
bi− Xm
j=1
aijzj
2
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.33
La formulation matricielle du p ˆolynome aux moindres carr ´es
• Donc, trouver les coefficients{c∗j ∈R, j= 0, . . . , m}du polyn ˆome aux moindres carr ´esΠ∗m(x)revient `a r ´esoudre le syst `eme surdetermin ´e de taille(n+ 1)×(m+ 1):
Xm
j=0
xjicj =yi i= 0, . . . , n
• Sim < nceci ´equivaut `a r ´esoudre le syst `eme surd ´et ´ermin ´e X~c=~y o `uX((n+1)×(m+1))est une matrice rectangulaire telle que ses
´el ´ements prennent la formeXi+1,j+1=xji, i= 0, . . . , n, j = 0, . . . , met
~yest un vecteur de taille(n+ 1)×1.
• X=
1 x0 . . . xm0
· · · · 1 xn . . . xmn
, ~y=
y0
· · · yn
, ~c=
c0
· · · cm
Formulation avec des fonctions g ´en ´erales
On peut consid ´erer le m ˆeme probl `eme quand on utilise des fonctions de base ϕj(x)plus g ´en ´erales.
Jusqu’ici, nous avions :πm(x) = Xm
j=0
xjcj
En faisant l’associationϕj(x) =xj on arrive `a la g ´en ´eralisationπm(x) =Pm
j=0ϕj(x)cj
ce qui correspond avec la matriceX =
ϕ0(x0) ϕ1(x0) . . . ϕm(x0)
· · · · ϕ0(xn) ϕ1(xn) . . . ϕm(xn)
.
Approximation aux moindres carr ´es
• SiX a rang maximal, le vecteur colonne~c∗(m+1)×1= [c∗0,· · ·, c∗m]T est la solution du syst `eme aux ´equations normales
XTX~c=XT~y
• et le polyn ˆome
Π∗m(x) = Xm
j=0
c∗jϕj(x)
estl’approximation au sens des moindres carr ´esdes donn ´ees (xi, yi),i= 0, . . . , n.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.36
Exemple
Consid ´erons lesn+ 1donn ´ees (n= 3) x x0 x1 x2 x3 y y0 y1 y2 y3 et le polyn ˆome aux moindres carr ´es d’ordrem= 2< n
Π∗m(x) =c∗0ϕ0(x) +c∗1ϕ1(x) +c∗2ϕ2(x) =c∗0+c∗1x+c∗2x2
Le vecteur des coefficients~c∗i est la solution du syst `eme correspondante X~c=~yo `u
1 x0 x20 1 x1 x21 1 x2 x22 1 x3 x23
c0 c1 c2
=
y0 y1 y2 y3
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.37
Exemple Matlab pourn= 3etm= 2
x 0 0.5 1 1.5
y 0 0.4794 0.8415 0.9975
Fonction Matlabpinv.mcalcule la pseudo-inverse.
Scripts least.m
R ´egression lin ´eaire
• Sim= 1, la solution
Π∗1(x) =c∗0ϕ0(x) +c∗1ϕ1(x) =c∗0+c∗1x
est une fonction lin ´eaire, appel ´eer ´egression lin ´eaireassoci ´ee aux donn ´ees.
• Puisque,
XT =
ϕ0(x0) . . . ϕ0(xn) ϕ1(x0) . . . ϕ1(xn)
, X=
ϕ0(x0) ϕ1(x0)
· · · · ϕ0(xn) ϕ1(xn)
• le syst `eme d’ ´equations normales correspondantes `aXTXc=XTy est
Pn
i=0ϕ0(xi)ϕ0(xi)c0+Pn
i=0ϕ0(xi)ϕ1(xi)c1 = Pn
i=0ϕ0(xi)yi Pn
i=0ϕ1(xi)ϕ0(xi)c0+Pn
i=0ϕ1(xi)ϕ1(xi)c1 = Pn
i=0ϕ1(xi)yi
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.40
Droite de r ´egression lin ´eaire
• Etantϕ0(x) = 1etϕ1(x) =x, la solution est unedroitede coefficients c0etc1qui satisfont le syst `eme `a2´equations et2inconnues
(n+ 1)c0+c1Pn
i=0xi = Pn i=0yi c0Pn
i=0xi+c1Pn
i=0x2i = Pn i=0xiyi Dont la solution s’ ´ecrit comme
c1 = Xn
i=1
(xi−x)yi Xn
i=1
(xi−x)2
= Xn
i=1
(xi−x)(yi−y) Xn
i=1
(xi−x)2 c2 = n1
Xn
i=1
yi−c1 Xn
i=1
xi
!
=y−c1x
avec x = n1Pn i=1xi y = n1Pn
i=1yi
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.41
Exemple de r ´egression lin ´eaire (I)
Soitn= 4,m= 1,ϕ0(x) = 1etϕ1(x) =x. ´etant donn ´e
xi 1 3 4 6 7
yi -2.1 -0.9 -0.6 0.6 0.9
le syst `eme aux ´equations normales est
5c0+ 21c1 =−2.1 21c0+ 111c1 = 2.7
et la solution est
c∗0=−2.542 c∗1= 0.505
Exemple de r ´egression lin ´eaire (II)
Scripts least2.m
Trade-off overfitting/underfitting
Un probl `eme typique de l’analyse des donn ´ees est la recherche de la complexit ´e optimale de la fonction qui approche les donn ´ees.
Exemple : ordre du polyn ˆome interpolant.
-3 -2 -1 0 1 2 3
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Voir le script Matlabs unstable2.m.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.44
Radial Basis Functions (RBF)
LesRadial Basis Functions (RBF)sont un exemple connu der ´eseau des neurones. L’id ´ee est de poserϕ0(x) = 1et
ϕj(x;µj, σj) = exp
"
−(x−µj)2 σ2j
#
j≥1
dans l’expression h(x) = Xm
j=0
cjϕj(x;µj, σj)
Lafonction noyau(kernel function)ϕj(x)est une fonction de base radiale sym ´etrique autour d’un centreµjet caract ´eris ´ee par une largeurσj.
Si les termesµj∈Retσj ∈Rj= 1, . . . , msont connus, alors le fitting de la fonctionhaux donn ´ees est fait par la m ´ethodes des moindres carr ´es.
Autrement, techniques non lin ´eaires sont n ´ecessaires pour estimer les termesµjetσj,j= 1, . . . , m.
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.45
Fitting par moindres carr ´es de RBF
Si les termesµj ∈Retσj ∈Rj= 1, . . . , msont connus, le fitting du RBF revient `a ´ecrire le syst `eme surdetermin ´e
y0=c1ϕ1(x0) +c2ϕ2(x0) +· · ·+cmϕm(x0) y1=c1ϕ1(x1) +c2ϕ2(x1) +· · ·+cmϕm(x1) ...
yn =c1ϕ1(xn) +c2ϕ2(xn) +· · ·+cmϕm(xn) qui peut ˆetre ´ecrit
Y =Xc o `u
Y =
y0
... yn
, X =
ϕ1(x0) . . . ϕm(x0) ... ... ... ϕ1(xn) . . . ϕm(xn)
, c= [c1, . . . , cm]T
Exemple RBF en MATLAB
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
y
Number of basis functions m=7
Points RBF
Voir le script Matlabs rbf.m.
Probl `emes multivari ´es
L’utilisation de polyn ˆomes pour probl `emes de fitting avecd >1dimensions {x(1), . . . , x(d)}est probl ´ematique `a cause du grand nombre des param `etres.
Par exemple, l’expression d’un polyn ˆome de degr ´em= 3pourd= 2 dimensions est
Π3(x, z) =a0+a1x+a2z+a3x2+a4z2+a5xz+a6x3+a7x2z+a8xz2+a9z3
et pourddimensions est Πm(x(1), . . . , x(d)) =c0+
Xd
h=1
c1hx(h)+ Xd
h1=1
Xd
h2=1
c2h1h2x(h1)x(h2)+
+ Xd
h1=1
Xd
h2=1
Xd
h3=1
c3h1h2h3x(h1)x(h2)x(h3)
Pourd >1le nombre des param `etres est de l’ordreO(dm).
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.48
RBF et fitting multivari ´e
L’extension de RBF au cas multidimensional est facile h(x) =c0+
Xm
j=1
cjϕj(x(1), . . . , x(d))
o `u
ϕj(x) = expkx−µjk2 σ2j
etσj ∈R,x∈Rd,µj ∈Rd.
Siµjetσj sont connus, les parametrescj peuvent ˆetre calcul ´es par la m ´ethode des moindres carr ´es.
Le nombre des param `etres est de l’ordreO(dm).
M. Jansen, G. Bontempi INFO-F-205 Calcul Num ´erique — Chap. 6: Curve Fitting p.49
RBF pour la cas bidimensional Fonctionz= 0.1 +(1+sin(2x+3y))
(3.5+sin(x−y)) et400donn ´ees d’apprentissage.
-2 -1
0 1
2
-2 -1 0 1 2 0 0.2 0.4 0.6 0.8 1
-2 -1
0 1
2
-2 -1 0 1 2 0 0.2 0.4 0.6 0.8 1
Nombre de fonctions radiales=64
Voir le script Matlabs rbf2.m.