l’Analyse de Données Fonctionnelles en Océanographie
Quand les données sont des courbes
David NERINI
Mediterranean Institute of Oceanography UMR 7294 CNRS, Aix-Marseille University
david.nerini@univ-amu.fr
MQEM, Marseille, 2017
D. NERINI (MIO) FDA MQEM, 2017 1 / 70
Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples
Courbes échantillonnées
En oceanographie, les données sont souvent des courbes échantillonnées
Distribution de taille de zooplancton
D. NERINI (MIO) FDA MQEM, 2017 2 / 70
Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples
Courbes échantillonnées Spectre d’électrophorèse
control sediment
contaminated sediment
single sample
continuous distribution
approximated distribution
Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples
Courbes multiples échantillonnées
Profils physicochimiques
5 10 15 20 25 30 35
-10-8-6-4-20
temperature (°C)
(m)
5 10 15 20 25 30 35 40
-10-8-6-4-20
salinity (SI)
prof.(m)
0 50 100 150
-10-8-6-4-20
dissolved oxygens (%)
prof.(m)
depth
D. NERINI (MIO) FDA MQEM, 2017 4 / 70
Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples
Courbes multiples échantillonnées
Emprunte optique d’un dinoflagellé Ceratium
Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples
Courbes appariés échantillonnées Contour d’otolithe
D. NERINI (MIO) FDA MQEM, 2017 6 / 70
Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples
Images satellites
(SST) Brute, lissée & dérivée spatiale
84 86 88 90 92 94 96
−54
−52
−50
−48
−46
−44
−42
long
lat
84 86 88 90 92 94 96
−54
−52
−50
−48
−46
−44
−42
xgrid
ygrid
84 86 88 90 92 94 96
−54
−52
−50
−48
−46
−44
−42
longx
laty
Qu’est ce qu’une donnée fonctionnelle ? Définition
Definition
Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument
Nombreuses observations bruitées
Beaucoup de points échantillonnés
La grille d’échantillonnage peut changer d’une courbe à l’autre
ATTENTION
Impossibilité de créer un tableau de données ! Hypothèse clef : régularité
Y
it
j= ˆ Y
it
j+ ε
it
joù Y
it
jest la donnée brute, Y ˆ
i(t) une courbe régulière et ε
it
jun résidu.
D. NERINI (MIO) FDA MQEM, 2017 8 / 70
Qu’est ce qu’une donnée fonctionnelle ? Définition
Definition
Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument
Nombreuses observations bruitées Beaucoup de points échantillonnés
La grille d’échantillonnage peut changer d’une courbe à l’autre ATTENTION
Impossibilité de créer un tableau de données ! Hypothèse clef : régularité
Y
it
j= ˆ Y
it
j+ ε
it
joù Y
it
jest la donnée brute, Y ˆ
i(t) une courbe régulière et ε
it
jun résidu.
Qu’est ce qu’une donnée fonctionnelle ? Définition
Definition
Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument
Nombreuses observations bruitées Beaucoup de points échantillonnés
La grille d’échantillonnage peut changer d’une courbe à l’autre ATTENTION
Impossibilité de créer un tableau de données !
Hypothèse clef : régularité Y
it
j= ˆ Y
it
j+ ε
it
joù Y
it
jest la donnée brute, Y ˆ
i(t) une courbe régulière et ε
it
jun résidu.
D. NERINI (MIO) FDA MQEM, 2017 8 / 70
Qu’est ce qu’une donnée fonctionnelle ? Définition
Definition
Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument
Nombreuses observations bruitées Beaucoup de points échantillonnés
La grille d’échantillonnage peut changer d’une courbe à l’autre ATTENTION
Impossibilité de créer un tableau de données ! Hypothèse clef : régularité
Y
it
j= ˆ Y
it
j+ ε
it
joù Y
it
jest la donnée brute, Y ˆ
i(t) une courbe régulière et ε
it
jun résidu.
De la données brute à une fonction Régression linéaire
A partir de l’échantillon Y = (Y (t
1) , · · · , Y (t
p))
0, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ
1, · · · , φ
K} tel que
Y (t ) =
K
X
k=1
c
kφ
k(t) + ε (t) .
L’estimation des paramètres c = (c
1, · · · , c
K)
0est réalisée par régression des moindres carrés en minimisant :
SSE (c) = (Y − Φc)
0(Y − Φc) Solution similaire à celle d’une régression classique :
ˆ c = Φ
0Φ
−1ΦY Finalement la courbe est reconstituée avec :
Y ˆ (t) =
K
X
k=1
c ˆ
kφ
k(t) Dimension réduite quand K < p
D. NERINI (MIO) FDA MQEM, 2017 9 / 70
De la données brute à une fonction Régression linéaire
A partir de l’échantillon Y = (Y (t
1) , · · · , Y (t
p))
0, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ
1, · · · , φ
K} tel que
Y (t ) =
K
X
k=1
c
kφ
k(t) + ε (t) .
L’estimation des paramètres c = (c
1, · · · , c
K)
0est réalisée par régression des moindres carrés en minimisant :
SSE (c) = (Y − Φc)
0(Y − Φc) Solution similaire à celle d’une régression classique :
c ˆ = Φ
0Φ
−1ΦY
Finalement la courbe est reconstituée avec : Y ˆ (t) =
K
X
k=1
c ˆ
kφ
k(t)
Dimension réduite quand K < p
De la données brute à une fonction Régression linéaire
A partir de l’échantillon Y = (Y (t
1) , · · · , Y (t
p))
0, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ
1, · · · , φ
K} tel que
Y (t ) =
K
X
k=1
c
kφ
k(t) + ε (t) .
L’estimation des paramètres c = (c
1, · · · , c
K)
0est réalisée par régression des moindres carrés en minimisant :
SSE (c) = (Y − Φc)
0(Y − Φc) Solution similaire à celle d’une régression classique :
c ˆ = Φ
0Φ
−1ΦY Finalement la courbe est reconstituée avec :
Y ˆ (t) =
K
X
k=1
c ˆ
kφ
k(t)
Dimension réduite quand K < p
D. NERINI (MIO) FDA MQEM, 2017 9 / 70
De la données brute à une fonction Régression linéaire
A partir de l’échantillon Y = (Y (t
1) , · · · , Y (t
p))
0, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ
1, · · · , φ
K} tel que
Y (t ) =
K
X
k=1
c
kφ
k(t) + ε (t) .
L’estimation des paramètres c = (c
1, · · · , c
K)
0est réalisée par régression des moindres carrés en minimisant :
SSE (c) = (Y − Φc)
0(Y − Φc) Solution similaire à celle d’une régression classique :
c ˆ = Φ
0Φ
−1ΦY Finalement la courbe est reconstituée avec :
Y ˆ (t) =
K
X
k=1
c ˆ
kφ
k(t)
Dimension réduite quand K < p
De la données brute à une fonction Régression linéaire
On peut rajouter des contraintes (régularité, positivité, convexité, monotonie, . . .)
SSE (f ) = 1 n
n
X
i=1
(y
i− f (t
i))
2+ λ × kLf k
2Gorgones soumises à un stress thermique
● ● ●
●
●
● ●
●
●
●
● ●
●
●
●
● ●
● ● ● ● ● ● ● ●
● ● ● ●
● ● ●
● ● ● ●
0 5 10 15 20 25 30 35
0.0 0.2 0.4 0.6 0.8 1.0
Time (d)
death prob.
0 5 10 15 20 25 30 35
−0.02 0.00 0.02 0.04 0.06 0.08
Time (d)
Velocity
0 5 10 15 20 25 30 35
−0.2
−0.1 0.0 0.1
Time (d)
Acceleration
D. NERINI (MIO) FDA MQEM, 2017 10 / 70
Traitement des courbes Notions de base
Statistiques de base
Temp. / Prec. en France (moyenne 1960-2000)
−5 0 5 10
4244464850
FRANCE
long.
lat.
ABBV
AGEN
AJAC ALNC
ANGS
ANGM
BAST BSCO
BIAZ BORD
BGES BRST
CAEN
CHRX CHBG
CLFD DIJO DUNK
GOUR EMBR LPUY GREN LILL
LIMG LYON
MRS METZ
MLAU MTDM
MONT
MTPL MULH NACY
NTES
NIMS NICE ORLS
PARI
PERP PLUM
PTRS REIM
RNES RUEN
STDZ
STGI SETE
STAB STBG
TRBS TLN
TLSE TOUR
TROY
VCHY
●●
●●
●
JANFEBMAR APRMAYJUNJULAUGSEPOCTNOV DEC
0510152025
Temperature (°C)
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
JANFEBMAR APRMAYJUNJULAUGSEPOCTNOV DEC
050100150
Precipitation (mm)
Traitement des courbes Notions de base
Fonction moyenne et fonction variance Température en France
Y ¯ (t) = 1 n
n
X
i=1
Y
i(t) , σ
Y(t) = 1 n
n
X
i=1
Y
i(t) − Y ¯ (t)
2D. NERINI (MIO) FDA MQEM, 2017 12 / 70
Traitement des courbes Notions de base
Opérateur de corrélation & de Variance Fonction bivariée de corrélation
ρ (s, t) = 1 n
n
X
i=1
Y
i(t) − Y ¯ (t) σ (t)
Y
i(s) − Y ¯ (s) σ (s)
Traitement des courbes Choix de la base
Ajustement des données
L’augmentation du nombre K de fonctions de base conduit à un meilleur ajustement
Le choix de la base dépend des données (base de Fourier, B-splines, polynômes, ...)
Température ajustée à Marseille \ Base de Fourier
D. NERINI (MIO) FDA MQEM, 2017 14 / 70
Analyse de la variabilité Courbes uniques
ACP fonctionnelles
Objectifs : En utilisant les données n
Y ˆ
1, · · · , Y ˆ
no
trouver la meilleure projection 2D des observations qui sont des courbes La position des individus dans l’espace factoriel est interprétée comme un changement dans la forme des courbes
Le problème de projection se résume à la décomposition spectrale de l’opérateur de variance-covariance V
Y(décomposition aux valeurs propres)
V
Yξ
k= λ
kξ
kce qui est équivalent à
Z
D
v
Y(s, t) ξ
k(s) ds = λ
kξ
k(t) , t ∈ D
Fonctions ξ
k(t) associées aux valeurs propres λ
k.
Décomposition aux v. p. des courbes équivalente à celle réalisée
sur les coefs de la décomposition à une métrique Φ prêt.
Analyse de la variabilité Courbes uniques
ACP fonctionnelles
Objectifs : En utilisant les données n
Y ˆ
1, · · · , Y ˆ
no
trouver la meilleure projection 2D des observations qui sont des courbes La position des individus dans l’espace factoriel est interprétée comme un changement dans la forme des courbes
Le problème de projection se résume à la décomposition spectrale de l’opérateur de variance-covariance V
Y(décomposition aux valeurs propres)
V
Yξ
k= λ
kξ
kce qui est équivalent à
Z
D
v
Y(s, t) ξ
k(s) ds = λ
kξ
k(t) , t ∈ D
Fonctions ξ
k(t) associées aux valeurs propres λ
k.
Décomposition aux v. p. des courbes équivalente à celle réalisée sur les coefs de la décomposition à une métrique Φ prêt.
D. NERINI (MIO) FDA MQEM, 2017 15 / 70
Analyse de la variabilité Courbes uniques
ACP fonctionnelles
Objectifs : En utilisant les données n
Y ˆ
1, · · · , Y ˆ
no
trouver la meilleure projection 2D des observations qui sont des courbes La position des individus dans l’espace factoriel est interprétée comme un changement dans la forme des courbes
Le problème de projection se résume à la décomposition spectrale de l’opérateur de variance-covariance V
Y(décomposition aux valeurs propres)
V
Yξ
k= λ
kξ
kce qui est équivalent à
Z
D
v
Y(s, t) ξ
k(s) ds = λ
kξ
k(t) , t ∈ D
Fonctions ξ
k(t) associées aux valeurs propres λ
k.
Décomposition aux v. p. des courbes équivalente à celle réalisée
sur les coefs de la décomposition à une métrique Φ prêt.
Analyse de la variabilité Courbes uniques
Représentations de l’ACPF
La représentation 2D des individus est classique Représentation factorielle 2D
D. NERINI (MIO) FDA MQEM, 2017 16 / 70
Analyse de la variabilité Courbes uniques
Représentation de l’ACPF
Représentation 2D des variables comme une perturbation de la courbe moyenne Y ¯ (t) ± √
λ
kξ
k(t) lors d’un déplacement le long
d’un axe factoriel
Analyse de la variabilité Fonction bivariée
Autre representation
Analyse procustéenne + SPM entre espace géographique et espace projectif
De la position GPS à l’espace factoriel
D. NERINI (MIO) FDA MQEM, 2017 18 / 70
Analyse de la variabilité Fonction bivariée
Extension : splines vectorielles
Comparaison sorties de modèles / images MODIS
Permet d’évaluer spatialement l’efficacité d’un modèle
Trouver une mesure de distance entre deux surfaces
Nécessité de régulariser les deux objets
Analyse de la variabilité smoothing with TPS
Modèle OPA, champ observé & approximé
min (
nX
i=1
kf(x
i) − f
ik
2+ λ × Z
αk∇divfk
2+ βk∇rotfk
2)
α >> β pour un système hautement turbulent (variabilité forte du rotationnel)
α << β pour une activité verticale intense (flot localement
divergent).
D. NERINI (MIO) FDA MQEM, 2017 20 / 70Functional linear prediction introduction
Prec. profile / Temp. profile
Starting from a sample (P
i, T
i)
i=1,···,n, we want to explain variations of profile P using functional variable T as predictor.
2 4 6 8 10 12
0510152025
temperature curves
time
T (°C)
2 4 6 8 10 12
050100150
Precipitation curves
time
P (mm)
Functional linear prediction introduction
The simplest form of the model is
P
i(t) = α + βT
i(t) + ε
i(t)
Example : P(t) = 3 × T (t) + 4
D. NERINI (MIO) FDA MQEM, 2017 22 / 70
Functional linear prediction introduction
OK but . . . limited flexibility
and curve shape cannot be modified. Try a more complex version :
Example : P(t) = β(t) × T (t) + α(t)
Functional linear prediction introduction
OK but . . . limited flexibility
and curve shape cannot be modified. Try a more complex version : Example : P(t) = β(t) × T (t) + α(t)
D. NERINI (MIO) FDA MQEM, 2017 23 / 70
Functional linear prediction Basics
In both cases, solutions are those of standard linear regression Interactions at same time t
Full Functional Linear Model :
P
i(t) = α (t) + B (T
i) (t) + ε
i(t) where
B (T
i) (t) = Z
β(s, t)T
i(s)ds
is a linear operator of finite trace (HS) with kernel function β. Functional coefficients α and β are solution of the normal equations :
( B ˆ V ˆ
T= V ˆ
TPˆ
α = µ ˆ
P− B ˆ (ˆ µ
T)
Functional linear prediction Basics
In both cases, solutions are those of standard linear regression Interactions at same time t
Full Functional Linear Model :
P
i(t) = α (t) + B (T
i) (t) + ε
i(t) where
B (T
i) (t) = Z
β(s, t)T
i(s)ds
is a linear operator of finite trace (HS) with kernel function β.
Functional coefficients α and β are solution of the normal equations :
( B ˆ V ˆ
T= V ˆ
TPˆ
α = µ ˆ
P− B ˆ (ˆ µ
T)
D. NERINI (MIO) FDA MQEM, 2017 24 / 70
Functional linear prediction Basics
PROBLEM : In infinite dimension, no solution can be found when computing :
B ˆ = ˆ V
TPV ˆ
T−1SOLUTION : the use of regularization method
1
Tikhonov
B ˆ = ˆ V
TPκI + ˆ V
T −12
Spectral cut regularized inverse B ˆ = ˆ V
TPV ˆ
T†with
V ˆ
T†=
k
X
j=1
λ
−1j(ξ
j⊗ ξ
j)
Precipitation curve in new town n + 1 is predicted with
P ˆ
n+1= ˆ α(t) + ˆ B(T
n+1)
Functional linear prediction Basics
PROBLEM : In infinite dimension, no solution can be found when computing :
B ˆ = ˆ V
TPV ˆ
T−1SOLUTION : the use of regularization method
1
Tikhonov
B ˆ = ˆ V
TPκI + ˆ V
T −12
Spectral cut regularized inverse B ˆ = ˆ V
TPV ˆ
T†with
V ˆ
T†=
k
X
j=1
λ
−1j(ξ
j⊗ ξ
j)
Precipitation curve in new town n + 1 is predicted with P ˆ
n+1= ˆ α(t) + ˆ B(T
n+1)
D. NERINI (MIO) FDA MQEM, 2017 25 / 70
Functional linear prediction Basics
Example : Regularized V
TVx with 3 eigenfunctions
Month
Month
2.2 2.2
2.2 2.2
2.2
2.4 2.4
2.4
2.4 2.6
2.6 2.6
2.6 2.8
2.8 2.8
2.8 3
3
3
3 3.2
3.2
3.2
3.2 3.4
3.4
3.4
3.4 3.6
3.6
3.6 3.6
3.6 3.8
3.8
3.8
3.8 3.8
4 4
4
4 4
4.2 4.2
4.2
4.2
4.2 4.4
4.4 4.4
4.4
Jan Feb Mar Avr May Jun Jul Aug Sep Oct Nov Dec
JanFebMarAvrMayJunJulAugSepOctNovDec
2.2
2.2 2.2
2.2
2.4 2.4
2.4
2.4 2.6
2.6 2.6
2.6 2.8
2.8 2.8
2.8 3
3
3
3 3.2
3.2
3.2
3.2 3.4
3.4
3.4
3.4 3.6
3.6
3.6 3.6
3.6 3.8
3.8
3.8
3.8
3.8 4
4
4
4
4 4.2
4.2
4.2
4.2
4.2 4.4
4.4 4.4
4.4
Month
Month Co
var iance
Functional linear prediction Predictions
2 4 6 8 10 12
050100150200
TOUR
time
value
●
●
●
●
●
●
●
●
●
● ●●
2 4 6 8 10 12
050100150200
EMBR
time
value
●
●●
●
●
●
● ●
●
●
● ●
2 4 6 8 10 12
050100150200
NTES
time
value
●
●
● ●●
● ● ●
●
● ●
●
2 4 6 8 10 12
050100150200
LYON
time
value
● ● ●
●
●
●
●●
●
●
●
●
2 4 6 8 10 12
050100150200
CHRX
time
value
●
● ●
●
●
● ●●
●
●
●●
2 4 6 8 10 12
050100150200
RUEN
time
value
●
●
●
●
●
●
●
● ●
●
●
●
2 4 6 8 10 12
050100150200
MULH
time
value
●●
●
●
●
● ● ●● ●
●
●
2 4 6 8 10 12
050100150200
CLFD
time
value
●
● ●
●
●
●
●
● ●
●
●
●
D. NERINI (MIO) FDA MQEM, 2017 27 / 70
Functional linear prediction Predictions
−5 0 5 10
4244464850
RMSE
long.
lat.
ABBV
AGEN
AJAC ALNC
ANGS
ANGM
BAST BSCO
BIAZ BORD
BGES BRST
CAEN
CHRX CHBG
CLFD DIJO DUNK
GOUR EMBR LPUY GREN LILL
LIMG LYON
MRS METZ
MTDM MLAU
MONT
MTPL
MULH NACY
NTES
NIMS NICE ORLS
PARI
PERP PLUM
PTRS
REIM
RNES RUEN
STDZ
STGI SETE
STAB STBG
TRBS TLN
TLSE TOUR
TROY
VCHY
Elephant seals dataset introduction
Since a decade, marine mammals constitute valuable auxiliaries for operational oceanography
D. NERINI (MIO) FDA MQEM, 2017 29 / 70
Elephant seals dataset introduction
Since a decade, marine mammals constitute valuable auxiliaries
for operational oceanography
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 30 / 70
Elephant seals dataset introduction
Elephant seals dataset
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 32 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 34 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 36 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 38 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 40 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 42 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 44 / 70
Elephant seals dataset introduction
Elephant seals dataset introduction
D. NERINI (MIO) FDA MQEM, 2017 46 / 70
Elephant seals dataset Light & ChlA data
Sampled data
C(p) = Z
Pmax0
β(s, t)L
0(s)ds + ε(t)
Elephant seals dataset Variance Operators
ChlA Variance function
Variance function Chl−A (µg/l)
Depth (m)
Depth (m)
0.05
0.1
0.15 0.2 0.25
0.3 0.35 0.4
0.45 0.5
0.55
−175 −141 −107 −90 −73 −56 −39 −22 −5
−175
−158
−141
−124
−107
−90
−73
−56
−39
−22
−5
Depth (m) Depth (m)
Co var iance
D. NERINI (MIO) FDA MQEM, 2017 48 / 70
Elephant seals dataset Variance Operators
Cross-covariance function
Elephant seals dataset Fitted data
Using the model Prediction
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
1
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
2
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
3
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
4
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
5
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
6
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
7
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
8
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
9
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
10
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
11
0.0 1.0 2.0 3.0
−150−100−500
Chl a (µg/l)
Depth (m)
12
D. NERINI (MIO) FDA MQEM, 2017 50 / 70
Spatial functional linear model Position of the problem
Consider a collection of curves E = {Y
i, i = 1, . . . , n} sampled at n random spatial position inside a domain D
Each observation is a realization of a functional random variable Y
iat position x
i∈ D, where H is an Hilbert space equipped with standard inner product h·, ·i
Hand the associated norm k·k
H.
?
Spatial functional linear model Position of the problem
If we admit second order stationarity assumptions, the mean function µ (t) is the same at any point of the domain
E (Y
i) = µ, ∀x
i∈ D
The covariance operator C
ijsuch that C
ij= E
(Y
i− µ) ⊗ Y
j− µ
only depends on the vector h between a function Y
iat position x
iand Y
jat position x
j= x
i− h
C
ij(f ) = E
(Y
i− µ) ⊗ Y
j− µ (f)
= E
hf, Y
i− µi
HY
j− µ
, f ∈ H
D. NERINI (MIO) FDA MQEM, 2017 52 / 70
Spatial functional linear model Position of the problem
If we admit second order stationarity assumptions, the mean function µ (t) is the same at any point of the domain
E (Y
i) = µ, ∀x
i∈ D
The covariance operator C
ijsuch that C
ij= E
(Y
i− µ) ⊗ Y
j− µ
only depends on the vector h between a function Y
iat position x
iand Y
jat position x
j= x
i− h
C
ij(f ) = E
(Y
i− µ) ⊗ Y
j− µ (f)
= E
hf, Y
i− µi
HY
j− µ
, f ∈ H
Spatial functional linear model Position of the problem
If we admit second order stationarity assumptions, the mean function µ (t) is the same at any point of the domain
E (Y
i) = µ, ∀x
i∈ D
The covariance operator C
ijsuch that C
ij= E
(Y
i− µ) ⊗ Y
j− µ
only depends on the vector h between a function Y
iat position x
iand Y
jat position x
j= x
i− h
C
ij(f ) = E
(Y
i− µ) ⊗ Y
j− µ (f )
= E
hf, Y
i− µi
HY
j− µ
, f ∈ H
D. NERINI (MIO) FDA MQEM, 2017 52 / 70
Spatial functional linear model Position of the problem
We seek to estimate Y
0, the curve at unknown location x
0, with the linear model
Y b
0=
n
X
i=1
B
i(Y
i)
with B
i:H → H being linear operators such that B
i(f ) (t) =
Z
τ
β
i(s, t) f (s) ds, ∀f ∈ H, ∀t ∈ τ.
The B
i0s ∈ B (H) the space of HS operators equipped with the inner product
∀ (A, B) ∈ B
2(H) , hA, Bi
B= X
k,l
hA (u
k) , u
li
HhB (u
k) , u
li
Hwhere the functions u
kform an orthonormal basis of H.
Spatial functional linear model Position of the problem
We seek to estimate Y
0, the curve at unknown location x
0, with the linear model
Y b
0=
n
X
i=1
B
i(Y
i)
with B
i:H → H being linear operators such that B
i(f ) (t) =
Z
τ
β
i(s, t) f (s) ds, ∀f ∈ H, ∀t ∈ τ.
The B
0is ∈ B (H) the space of HS operators equipped with the inner product
∀ (A, B) ∈ B
2(H) , hA, Bi
B= X
k,l
hA (u
k) , u
li
HhB (u
k) , u
li
Hwhere the functions u
kform an orthonormal basis of H.
D. NERINI (MIO) FDA MQEM, 2017 53 / 70
Spatial functional linear model Conditions of unbiasedness
Looking for an unbiased estimator leads to develop the following equation
E
Y b
0− Y
0= 0,
which, under second order stationarity assumptions, gives the unbiasedness condition
"
nX
i=1
B
i#
(µ) = µ.
Interesting, but the mean function µ is unknown !
Spatial functional linear model Conditions of unbiasedness
Looking for an unbiased estimator leads to develop the following equation
E
Y b
0− Y
0= 0,
which, under second order stationarity assumptions, gives the unbiasedness condition
"
nX
i=1
B
i#
(µ) = µ.
Interesting, but the mean function µ is unknown !
D. NERINI (MIO) FDA MQEM, 2017 54 / 70
Spatial functional linear model Conditions of unbiasedness
Trying to extend the previous condition to the more general constraint
"
nX
i=1
B
i#
(f) = f, ∀f ∈ H
leads to find operators B
ichecking
n
X
i=1
B
i= I.
Damn it ! The Identity operator is NOT an integral operator over H
Spatial functional linear model Conditions of unbiasedness
Trying to extend the previous condition to the more general constraint
"
nX
i=1
B
i#
(f) = f, ∀f ∈ H
leads to find operators B
ichecking
n
X
i=1
B
i= I.
Damn it ! The Identity operator is NOT an integral operator over H
D. NERINI (MIO) FDA MQEM, 2017 55 / 70
Spatial functional linear model Conditions of unbiasedness
Trying to extend the previous condition to the more general constraint
"
nX
i=1
B
i#
(f) = f, ∀f ∈ H
leads to find operators B
ichecking
n
X
i=1
B
i= I.
Damn it ! The Identity operator is NOT an integral operator over H
Spatial functional linear model A smoother Hilbert space
Reconsider the last condition with
n
X
i=1
B
i= K
where K would be a linear operator which should verify
K (f) = f , ∀f ∈ H K ∈ B (H) ⇔ kK k
2B< ∞
Can we found a Hilbert space where such an operator exists ? The answer is YES.
D. NERINI (MIO) FDA MQEM, 2017 56 / 70
Spatial functional linear model A smoother Hilbert space
Reconsider the last condition with
n
X
i=1
B
i= K
where K would be a linear operator which should verify
K (f) = f , ∀f ∈ H K ∈ B (H) ⇔ kK k
2B< ∞
Can we found a Hilbert space where such an operator exists ?
The answer is YES.
Spatial functional linear model Reproducing Kernel Hilbert space
Let now H be a RKHS. This space owns a reproducing kernel function κ defined as
κ : τ × τ → R
(s, t) 7−→ κ (s, t)
which checks the following conditions
∀t ∈ τ, κ (·, t) ∈ H
∀t ∈ τ, ∀f ∈ H, hκ (., t) , f i
H= f (t) .
The operator K attached to the kernel function κ verifies K (f ) = f It is a HS operator ⇔ kK k
2B< ∞
The form of K is entirely attached to the choice of h·, ·i
H.
D. NERINI (MIO) FDA MQEM, 2017 57 / 70
Spatial functional linear model Reproducing Kernel Hilbert space
Let now H be a RKHS. This space owns a reproducing kernel function κ defined as
κ : τ × τ → R
(s, t) 7−→ κ (s, t)
which checks the following conditions
∀t ∈ τ, κ (·, t) ∈ H
∀t ∈ τ, ∀f ∈ H, hκ (., t) , f i
H= f (t) .
The operator K attached to the kernel function κ verifies K (f ) = f It is a HS operator ⇔ kK k
2B< ∞
The form of K is entirely attached to the choice of h·, ·i
H.
Spatial functional linear model A broader form for the functional linear model
We now consider the problem of finding an estimator
Y b
0=
n
X
i=1
B
i(Y
i)
for which B
i(Y
i) (t) = hβ
i(., t) , Y
ii
HThe constraint for unbiasedness can be extended to
n
X
i=1
B
i= K
for suitable choice of a RKHS H possessing a kernel operator K which plays the role of an identity operator
The objective is now to find estimates of B
i, i = 1, ..., n by constrained minimization of
E
Y b
0− Y
02 H
D. NERINI (MIO) FDA MQEM, 2017 58 / 70
Spatial functional linear model A broader form for the functional linear model
We now consider the problem of finding an estimator
Y b
0=
n
X
i=1
B
i(Y
i)
for which B
i(Y
i) (t) = hβ
i(., t) , Y
ii
HThe constraint for unbiasedness can be extended to
n
X
i=1
B
i= K
for suitable choice of a RKHS H possessing a kernel operator K which plays the role of an identity operator
The objective is now to find estimates of B
i, i = 1, ..., n by constrained minimization of
E
Y b
0− Y
02 H
Spatial functional linear model A broader form for the functional linear model
We now consider the problem of finding an estimator
Y b
0=
n
X
i=1
B
i(Y
i)
for which B
i(Y
i) (t) = hβ
i(., t) , Y
ii
HThe constraint for unbiasedness can be extended to
n
X
i=1
B
i= K
for suitable choice of a RKHS H possessing a kernel operator K which plays the role of an identity operator
The objective is now to find estimates of B
i, i = 1, ..., n by constrained minimization of
E
Y b
0− Y
02 H
D. NERINI (MIO) FDA MQEM, 2017 58 / 70
Spatial functional linear model Constrained optimization
Seeking the minimizer of E
Y b
0− Y
02
H
under the constraint P
ni=1
B
i= K leads to solve the constrained problem min
(B1,...,Bn)0∈Bn(H)
X
i
X
j
B
j, C
ijB
iB
+ hK , C
00i
B− 2 X
i
hC
i0, B
ii
BThe constraint can be included into the minimization problem by constructing the functional F such that
F (B
1, ..., B
n, Λ) = X
i
X
j
B
j, C
ijB
iB
+ hK , C
00i
B− 2 X
i
hC
i0, B
ii
B+2 ×
* Λ, X
i
B
i− K +
B
where Λ ∈ B (H) acts as a Lagrange multiplier
Spatial functional linear model Constrained optimization
Seeking the minimizer of E
Y b
0− Y
02
H
under the constraint P
ni=1
B
i= K leads to solve the constrained problem min
(B1,...,Bn)0∈Bn(H)
X
i
X
j
B
j, C
ijB
iB
+ hK , C
00i
B− 2 X
i
hC
i0, B
ii
BThe constraint can be included into the minimization problem by constructing the functional F such that
F (B
1, ..., B
n, Λ) = X
i
X
j
B
j, C
ijB
iB
+ hK , C
00i
B− 2 X
i
hC
i0, B
ii
B+2 ×
* Λ, X
i
B
i− K +
B
where Λ ∈ B (H) acts as a Lagrange multiplier
D. NERINI (MIO) FDA MQEM, 2017 59 / 70
Spatial functional linear model Constrained optimization
Let δ
∆Bi
F be the Gateaux differential of F at B
iin direction ∆ such that
δ
B∆i
F (B
1, ..., B
i, ..., B
n, Λ) =
lim
ε→01ε[F (B
1, ..., B
i+ ε∆, ..., B
n, Λ) − F (B
1, ..., B
i, ..., B
n, Λ)]
This limit exists for all ∆ and, thanks to the self-adjoint property of C
ij, can easily be computed for all i = 1, ..., n as
δ
∆Bi
F (B
1, ..., B
i, ..., B
n, Λ) = 2
* X
j
C
ijB
j− C
i0+ Λ, ∆ +
B
δ
Λ∆F (B
1, ..., B
i, ..., B
n, Λ) =
* X
i
B
i− K , ∆ +
B