• Aucun résultat trouvé

Quand les données sont des courbes

N/A
N/A
Protected

Academic year: 2022

Partager "Quand les données sont des courbes"

Copied!
109
0
0

Texte intégral

(1)

l’Analyse de Données Fonctionnelles en Océanographie

Quand les données sont des courbes

David NERINI

Mediterranean Institute of Oceanography UMR 7294 CNRS, Aix-Marseille University

david.nerini@univ-amu.fr

MQEM, Marseille, 2017

D. NERINI (MIO) FDA MQEM, 2017 1 / 70

(2)

Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples

Courbes échantillonnées

En oceanographie, les données sont souvent des courbes échantillonnées

Distribution de taille de zooplancton

D. NERINI (MIO) FDA MQEM, 2017 2 / 70

(3)

Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples

Courbes échantillonnées Spectre d’électrophorèse

control sediment

contaminated sediment

single sample

continuous distribution

approximated distribution

(4)

Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples

Courbes multiples échantillonnées

Profils physicochimiques

5 10 15 20 25 30 35

-10-8-6-4-20

temperature (°C)

(m)

5 10 15 20 25 30 35 40

-10-8-6-4-20

salinity (SI)

prof.(m)

0 50 100 150

-10-8-6-4-20

dissolved oxygens (%)

prof.(m)

depth

D. NERINI (MIO) FDA MQEM, 2017 4 / 70

(5)

Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples

Courbes multiples échantillonnées

Emprunte optique d’un dinoflagellé Ceratium

(6)

Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples

Courbes appariés échantillonnées Contour d’otolithe

D. NERINI (MIO) FDA MQEM, 2017 6 / 70

(7)

Qu’est ce qu’une donnée fonctionnelle ? Quelques exemples

Images satellites

(SST) Brute, lissée & dérivée spatiale

84 86 88 90 92 94 96

−54

−52

−50

−48

−46

−44

−42

long

lat

84 86 88 90 92 94 96

−54

−52

−50

−48

−46

−44

−42

xgrid

ygrid

84 86 88 90 92 94 96

−54

−52

−50

−48

−46

−44

−42

longx

laty

(8)

Qu’est ce qu’une donnée fonctionnelle ? Définition

Definition

Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument

Nombreuses observations bruitées

Beaucoup de points échantillonnés

La grille d’échantillonnage peut changer d’une courbe à l’autre

ATTENTION

Impossibilité de créer un tableau de données ! Hypothèse clef : régularité

Y

i

t

j

= ˆ Y

i

t

j

+ ε

i

t

j

où Y

i

t

j

est la donnée brute, Y ˆ

i

(t) une courbe régulière et ε

i

t

j

un résidu.

D. NERINI (MIO) FDA MQEM, 2017 8 / 70

(9)

Qu’est ce qu’une donnée fonctionnelle ? Définition

Definition

Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument

Nombreuses observations bruitées Beaucoup de points échantillonnés

La grille d’échantillonnage peut changer d’une courbe à l’autre ATTENTION

Impossibilité de créer un tableau de données ! Hypothèse clef : régularité

Y

i

t

j

= ˆ Y

i

t

j

+ ε

i

t

j

où Y

i

t

j

est la donnée brute, Y ˆ

i

(t) une courbe régulière et ε

i

t

j

un résidu.

(10)

Qu’est ce qu’une donnée fonctionnelle ? Définition

Definition

Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument

Nombreuses observations bruitées Beaucoup de points échantillonnés

La grille d’échantillonnage peut changer d’une courbe à l’autre ATTENTION

Impossibilité de créer un tableau de données !

Hypothèse clef : régularité Y

i

t

j

= ˆ Y

i

t

j

+ ε

i

t

j

où Y

i

t

j

est la donnée brute, Y ˆ

i

(t) une courbe régulière et ε

i

t

j

un résidu.

D. NERINI (MIO) FDA MQEM, 2017 8 / 70

(11)

Qu’est ce qu’une donnée fonctionnelle ? Définition

Definition

Une données fonctionnelles est l’échantillon d’une variable aléatoire indicée par un argument

Nombreuses observations bruitées Beaucoup de points échantillonnés

La grille d’échantillonnage peut changer d’une courbe à l’autre ATTENTION

Impossibilité de créer un tableau de données ! Hypothèse clef : régularité

Y

i

t

j

= ˆ Y

i

t

j

+ ε

i

t

j

où Y

i

t

j

est la donnée brute, Y ˆ

i

(t) une courbe régulière et ε

i

t

j

un résidu.

(12)

De la données brute à une fonction Régression linéaire

A partir de l’échantillon Y = (Y (t

1

) , · · · , Y (t

p

))

0

, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ

1

, · · · , φ

K

} tel que

Y (t ) =

K

X

k=1

c

k

φ

k

(t) + ε (t) .

L’estimation des paramètres c = (c

1

, · · · , c

K

)

0

est réalisée par régression des moindres carrés en minimisant :

SSE (c) = (Y − Φc)

0

(Y − Φc) Solution similaire à celle d’une régression classique :

ˆ c = Φ

0

Φ

−1

ΦY Finalement la courbe est reconstituée avec :

Y ˆ (t) =

K

X

k=1

c ˆ

k

φ

k

(t) Dimension réduite quand K < p

D. NERINI (MIO) FDA MQEM, 2017 9 / 70

(13)

De la données brute à une fonction Régression linéaire

A partir de l’échantillon Y = (Y (t

1

) , · · · , Y (t

p

))

0

, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ

1

, · · · , φ

K

} tel que

Y (t ) =

K

X

k=1

c

k

φ

k

(t) + ε (t) .

L’estimation des paramètres c = (c

1

, · · · , c

K

)

0

est réalisée par régression des moindres carrés en minimisant :

SSE (c) = (Y − Φc)

0

(Y − Φc) Solution similaire à celle d’une régression classique :

c ˆ = Φ

0

Φ

−1

ΦY

Finalement la courbe est reconstituée avec : Y ˆ (t) =

K

X

k=1

c ˆ

k

φ

k

(t)

Dimension réduite quand K < p

(14)

De la données brute à une fonction Régression linéaire

A partir de l’échantillon Y = (Y (t

1

) , · · · , Y (t

p

))

0

, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ

1

, · · · , φ

K

} tel que

Y (t ) =

K

X

k=1

c

k

φ

k

(t) + ε (t) .

L’estimation des paramètres c = (c

1

, · · · , c

K

)

0

est réalisée par régression des moindres carrés en minimisant :

SSE (c) = (Y − Φc)

0

(Y − Φc) Solution similaire à celle d’une régression classique :

c ˆ = Φ

0

Φ

−1

ΦY Finalement la courbe est reconstituée avec :

Y ˆ (t) =

K

X

k=1

c ˆ

k

φ

k

(t)

Dimension réduite quand K < p

D. NERINI (MIO) FDA MQEM, 2017 9 / 70

(15)

De la données brute à une fonction Régression linéaire

A partir de l’échantillon Y = (Y (t

1

) , · · · , Y (t

p

))

0

, on crée une combinaison linéaire de K fonctions de base fixées d’avance {φ

1

, · · · , φ

K

} tel que

Y (t ) =

K

X

k=1

c

k

φ

k

(t) + ε (t) .

L’estimation des paramètres c = (c

1

, · · · , c

K

)

0

est réalisée par régression des moindres carrés en minimisant :

SSE (c) = (Y − Φc)

0

(Y − Φc) Solution similaire à celle d’une régression classique :

c ˆ = Φ

0

Φ

−1

ΦY Finalement la courbe est reconstituée avec :

Y ˆ (t) =

K

X

k=1

c ˆ

k

φ

k

(t)

Dimension réduite quand K < p

(16)

De la données brute à une fonction Régression linéaire

On peut rajouter des contraintes (régularité, positivité, convexité, monotonie, . . .)

SSE (f ) = 1 n

n

X

i=1

(y

i

− f (t

i

))

2

+ λ × kLf k

2

Gorgones soumises à un stress thermique

● ● ●

● ●

● ●

● ●

● ● ● ● ● ● ● ●

● ● ● ●

● ● ●

● ● ● ●

0 5 10 15 20 25 30 35

0.0 0.2 0.4 0.6 0.8 1.0

Time (d)

death prob.

0 5 10 15 20 25 30 35

−0.02 0.00 0.02 0.04 0.06 0.08

Time (d)

Velocity

0 5 10 15 20 25 30 35

−0.2

−0.1 0.0 0.1

Time (d)

Acceleration

D. NERINI (MIO) FDA MQEM, 2017 10 / 70

(17)

Traitement des courbes Notions de base

Statistiques de base

Temp. / Prec. en France (moyenne 1960-2000)

−5 0 5 10

4244464850

FRANCE

long.

lat.

ABBV

AGEN

AJAC ALNC

ANGS

ANGM

BAST BSCO

BIAZ BORD

BGES BRST

CAEN

CHRX CHBG

CLFD DIJO DUNK

GOUR EMBR LPUY GREN LILL

LIMG LYON

MRS METZ

MLAU MTDM

MONT

MTPL MULH NACY

NTES

NIMS NICE ORLS

PARI

PERP PLUM

PTRS REIM

RNES RUEN

STDZ

STGI SETE

STAB STBG

TRBS TLN

TLSE TOUR

TROY

VCHY

●●

●●

JANFEBMAR APRMAYJUNJULAUGSEPOCTNOV DEC

0510152025

Temperature (°C)

●●

●●

●●

JANFEBMAR APRMAYJUNJULAUGSEPOCTNOV DEC

050100150

Precipitation (mm)

(18)

Traitement des courbes Notions de base

Fonction moyenne et fonction variance Température en France

Y ¯ (t) = 1 n

n

X

i=1

Y

i

(t) , σ

Y

(t) = 1 n

n

X

i=1

Y

i

(t) − Y ¯ (t)

2

D. NERINI (MIO) FDA MQEM, 2017 12 / 70

(19)

Traitement des courbes Notions de base

Opérateur de corrélation & de Variance Fonction bivariée de corrélation

ρ (s, t) = 1 n

n

X

i=1

Y

i

(t) − Y ¯ (t) σ (t)

Y

i

(s) − Y ¯ (s) σ (s)

(20)

Traitement des courbes Choix de la base

Ajustement des données

L’augmentation du nombre K de fonctions de base conduit à un meilleur ajustement

Le choix de la base dépend des données (base de Fourier, B-splines, polynômes, ...)

Température ajustée à Marseille \ Base de Fourier

D. NERINI (MIO) FDA MQEM, 2017 14 / 70

(21)

Analyse de la variabilité Courbes uniques

ACP fonctionnelles

Objectifs : En utilisant les données n

Y ˆ

1

, · · · , Y ˆ

n

o

trouver la meilleure projection 2D des observations qui sont des courbes La position des individus dans l’espace factoriel est interprétée comme un changement dans la forme des courbes

Le problème de projection se résume à la décomposition spectrale de l’opérateur de variance-covariance V

Y

(décomposition aux valeurs propres)

V

Y

ξ

k

= λ

k

ξ

k

ce qui est équivalent à

Z

D

v

Y

(s, t) ξ

k

(s) ds = λ

k

ξ

k

(t) , t ∈ D

Fonctions ξ

k

(t) associées aux valeurs propres λ

k

.

Décomposition aux v. p. des courbes équivalente à celle réalisée

sur les coefs de la décomposition à une métrique Φ prêt.

(22)

Analyse de la variabilité Courbes uniques

ACP fonctionnelles

Objectifs : En utilisant les données n

Y ˆ

1

, · · · , Y ˆ

n

o

trouver la meilleure projection 2D des observations qui sont des courbes La position des individus dans l’espace factoriel est interprétée comme un changement dans la forme des courbes

Le problème de projection se résume à la décomposition spectrale de l’opérateur de variance-covariance V

Y

(décomposition aux valeurs propres)

V

Y

ξ

k

= λ

k

ξ

k

ce qui est équivalent à

Z

D

v

Y

(s, t) ξ

k

(s) ds = λ

k

ξ

k

(t) , t ∈ D

Fonctions ξ

k

(t) associées aux valeurs propres λ

k

.

Décomposition aux v. p. des courbes équivalente à celle réalisée sur les coefs de la décomposition à une métrique Φ prêt.

D. NERINI (MIO) FDA MQEM, 2017 15 / 70

(23)

Analyse de la variabilité Courbes uniques

ACP fonctionnelles

Objectifs : En utilisant les données n

Y ˆ

1

, · · · , Y ˆ

n

o

trouver la meilleure projection 2D des observations qui sont des courbes La position des individus dans l’espace factoriel est interprétée comme un changement dans la forme des courbes

Le problème de projection se résume à la décomposition spectrale de l’opérateur de variance-covariance V

Y

(décomposition aux valeurs propres)

V

Y

ξ

k

= λ

k

ξ

k

ce qui est équivalent à

Z

D

v

Y

(s, t) ξ

k

(s) ds = λ

k

ξ

k

(t) , t ∈ D

Fonctions ξ

k

(t) associées aux valeurs propres λ

k

.

Décomposition aux v. p. des courbes équivalente à celle réalisée

sur les coefs de la décomposition à une métrique Φ prêt.

(24)

Analyse de la variabilité Courbes uniques

Représentations de l’ACPF

La représentation 2D des individus est classique Représentation factorielle 2D

D. NERINI (MIO) FDA MQEM, 2017 16 / 70

(25)

Analyse de la variabilité Courbes uniques

Représentation de l’ACPF

Représentation 2D des variables comme une perturbation de la courbe moyenne Y ¯ (t) ± √

λ

k

ξ

k

(t) lors d’un déplacement le long

d’un axe factoriel

(26)

Analyse de la variabilité Fonction bivariée

Autre representation

Analyse procustéenne + SPM entre espace géographique et espace projectif

De la position GPS à l’espace factoriel

D. NERINI (MIO) FDA MQEM, 2017 18 / 70

(27)

Analyse de la variabilité Fonction bivariée

Extension : splines vectorielles

Comparaison sorties de modèles / images MODIS

Permet d’évaluer spatialement l’efficacité d’un modèle

Trouver une mesure de distance entre deux surfaces

Nécessité de régulariser les deux objets

(28)

Analyse de la variabilité smoothing with TPS

Modèle OPA, champ observé & approximé

min (

n

X

i=1

kf(x

i

) − f

i

k

2

+ λ × Z

αk∇divfk

2

+ βk∇rotfk

2

)

α >> β pour un système hautement turbulent (variabilité forte du rotationnel)

α << β pour une activité verticale intense (flot localement

divergent).

D. NERINI (MIO) FDA MQEM, 2017 20 / 70

(29)

Functional linear prediction introduction

Prec. profile / Temp. profile

Starting from a sample (P

i

, T

i

)

i=1,···,n

, we want to explain variations of profile P using functional variable T as predictor.

2 4 6 8 10 12

0510152025

temperature curves

time

T (°C)

2 4 6 8 10 12

050100150

Precipitation curves

time

P (mm)

(30)

Functional linear prediction introduction

The simplest form of the model is

P

i

(t) = α + βT

i

(t) + ε

i

(t)

Example : P(t) = 3 × T (t) + 4

D. NERINI (MIO) FDA MQEM, 2017 22 / 70

(31)

Functional linear prediction introduction

OK but . . . limited flexibility

and curve shape cannot be modified. Try a more complex version :

Example : P(t) = β(t) × T (t) + α(t)

(32)

Functional linear prediction introduction

OK but . . . limited flexibility

and curve shape cannot be modified. Try a more complex version : Example : P(t) = β(t) × T (t) + α(t)

D. NERINI (MIO) FDA MQEM, 2017 23 / 70

(33)

Functional linear prediction Basics

In both cases, solutions are those of standard linear regression Interactions at same time t

Full Functional Linear Model :

P

i

(t) = α (t) + B (T

i

) (t) + ε

i

(t) where

B (T

i

) (t) = Z

β(s, t)T

i

(s)ds

is a linear operator of finite trace (HS) with kernel function β. Functional coefficients α and β are solution of the normal equations :

( B ˆ V ˆ

T

= V ˆ

TP

ˆ

α = µ ˆ

P

− B ˆ (ˆ µ

T

)

(34)

Functional linear prediction Basics

In both cases, solutions are those of standard linear regression Interactions at same time t

Full Functional Linear Model :

P

i

(t) = α (t) + B (T

i

) (t) + ε

i

(t) where

B (T

i

) (t) = Z

β(s, t)T

i

(s)ds

is a linear operator of finite trace (HS) with kernel function β.

Functional coefficients α and β are solution of the normal equations :

( B ˆ V ˆ

T

= V ˆ

TP

ˆ

α = µ ˆ

P

− B ˆ (ˆ µ

T

)

D. NERINI (MIO) FDA MQEM, 2017 24 / 70

(35)

Functional linear prediction Basics

PROBLEM : In infinite dimension, no solution can be found when computing :

B ˆ = ˆ V

TP

V ˆ

T−1

SOLUTION : the use of regularization method

1

Tikhonov

B ˆ = ˆ V

TP

κI + ˆ V

T

−1

2

Spectral cut regularized inverse B ˆ = ˆ V

TP

V ˆ

T

with

V ˆ

T

=

k

X

j=1

λ

−1j

j

⊗ ξ

j

)

Precipitation curve in new town n + 1 is predicted with

P ˆ

n+1

= ˆ α(t) + ˆ B(T

n+1

)

(36)

Functional linear prediction Basics

PROBLEM : In infinite dimension, no solution can be found when computing :

B ˆ = ˆ V

TP

V ˆ

T−1

SOLUTION : the use of regularization method

1

Tikhonov

B ˆ = ˆ V

TP

κI + ˆ V

T

−1

2

Spectral cut regularized inverse B ˆ = ˆ V

TP

V ˆ

T

with

V ˆ

T

=

k

X

j=1

λ

−1j

j

⊗ ξ

j

)

Precipitation curve in new town n + 1 is predicted with P ˆ

n+1

= ˆ α(t) + ˆ B(T

n+1

)

D. NERINI (MIO) FDA MQEM, 2017 25 / 70

(37)

Functional linear prediction Basics

Example : Regularized V

T

Vx with 3 eigenfunctions

Month

Month

2.2 2.2

2.2 2.2

2.2

2.4 2.4

2.4

2.4 2.6

2.6 2.6

2.6 2.8

2.8 2.8

2.8 3

3

3

3 3.2

3.2

3.2

3.2 3.4

3.4

3.4

3.4 3.6

3.6

3.6 3.6

3.6 3.8

3.8

3.8

3.8 3.8

4 4

4

4 4

4.2 4.2

4.2

4.2

4.2 4.4

4.4 4.4

4.4

Jan Feb Mar Avr May Jun Jul Aug Sep Oct Nov Dec

JanFebMarAvrMayJunJulAugSepOctNovDec

2.2

2.2 2.2

2.2

2.4 2.4

2.4

2.4 2.6

2.6 2.6

2.6 2.8

2.8 2.8

2.8 3

3

3

3 3.2

3.2

3.2

3.2 3.4

3.4

3.4

3.4 3.6

3.6

3.6 3.6

3.6 3.8

3.8

3.8

3.8

3.8 4

4

4

4

4 4.2

4.2

4.2

4.2

4.2 4.4

4.4 4.4

4.4

Month

Month Co

var iance

(38)

Functional linear prediction Predictions

2 4 6 8 10 12

050100150200

TOUR

time

value

2 4 6 8 10 12

050100150200

EMBR

time

value

2 4 6 8 10 12

050100150200

NTES

time

value

2 4 6 8 10 12

050100150200

LYON

time

value

2 4 6 8 10 12

050100150200

CHRX

time

value

2 4 6 8 10 12

050100150200

RUEN

time

value

2 4 6 8 10 12

050100150200

MULH

time

value

2 4 6 8 10 12

050100150200

CLFD

time

value

D. NERINI (MIO) FDA MQEM, 2017 27 / 70

(39)

Functional linear prediction Predictions

−5 0 5 10

4244464850

RMSE

long.

lat.

ABBV

AGEN

AJAC ALNC

ANGS

ANGM

BAST BSCO

BIAZ BORD

BGES BRST

CAEN

CHRX CHBG

CLFD DIJO DUNK

GOUR EMBR LPUY GREN LILL

LIMG LYON

MRS METZ

MTDM MLAU

MONT

MTPL

MULH NACY

NTES

NIMS NICE ORLS

PARI

PERP PLUM

PTRS

REIM

RNES RUEN

STDZ

STGI SETE

STAB STBG

TRBS TLN

TLSE TOUR

TROY

VCHY

(40)

Elephant seals dataset introduction

Since a decade, marine mammals constitute valuable auxiliaries for operational oceanography

D. NERINI (MIO) FDA MQEM, 2017 29 / 70

(41)

Elephant seals dataset introduction

Since a decade, marine mammals constitute valuable auxiliaries

for operational oceanography

(42)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 30 / 70

(43)

Elephant seals dataset introduction

Elephant seals dataset

(44)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 32 / 70

(45)

Elephant seals dataset introduction

(46)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 34 / 70

(47)

Elephant seals dataset introduction

(48)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 36 / 70

(49)

Elephant seals dataset introduction

(50)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 38 / 70

(51)

Elephant seals dataset introduction

(52)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 40 / 70

(53)

Elephant seals dataset introduction

(54)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 42 / 70

(55)

Elephant seals dataset introduction

(56)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 44 / 70

(57)

Elephant seals dataset introduction

(58)

Elephant seals dataset introduction

D. NERINI (MIO) FDA MQEM, 2017 46 / 70

(59)

Elephant seals dataset Light & ChlA data

Sampled data

C(p) = Z

Pmax

0

β(s, t)L

0

(s)ds + ε(t)

(60)

Elephant seals dataset Variance Operators

ChlA Variance function

Variance function Chl−A (µg/l)

Depth (m)

Depth (m)

0.05

0.1

0.15 0.2 0.25

0.3 0.35 0.4

0.45 0.5

0.55

−175 −141 −107 −90 −73 −56 −39 −22 −5

−175

−158

−141

−124

−107

−90

−73

−56

−39

−22

−5

Depth (m) Depth (m)

Co var iance

D. NERINI (MIO) FDA MQEM, 2017 48 / 70

(61)

Elephant seals dataset Variance Operators

Cross-covariance function

(62)

Elephant seals dataset Fitted data

Using the model Prediction

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

1

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

2

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

3

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

4

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

5

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

6

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

7

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

8

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

9

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

10

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

11

0.0 1.0 2.0 3.0

−150−100−500

Chl a (µg/l)

Depth (m)

12

D. NERINI (MIO) FDA MQEM, 2017 50 / 70

(63)

Spatial functional linear model Position of the problem

Consider a collection of curves E = {Y

i

, i = 1, . . . , n} sampled at n random spatial position inside a domain D

Each observation is a realization of a functional random variable Y

i

at position x

i

∈ D, where H is an Hilbert space equipped with standard inner product h·, ·i

H

and the associated norm k·k

H

.

?

(64)

Spatial functional linear model Position of the problem

If we admit second order stationarity assumptions, the mean function µ (t) is the same at any point of the domain

E (Y

i

) = µ, ∀x

i

∈ D

The covariance operator C

ij

such that C

ij

= E

(Y

i

− µ) ⊗ Y

j

− µ

only depends on the vector h between a function Y

i

at position x

i

and Y

j

at position x

j

= x

i

h

C

ij

(f ) = E

(Y

i

− µ) ⊗ Y

j

− µ (f)

= E

hf, Y

i

− µi

H

Y

j

− µ

, f ∈ H

D. NERINI (MIO) FDA MQEM, 2017 52 / 70

(65)

Spatial functional linear model Position of the problem

If we admit second order stationarity assumptions, the mean function µ (t) is the same at any point of the domain

E (Y

i

) = µ, ∀x

i

∈ D

The covariance operator C

ij

such that C

ij

= E

(Y

i

− µ) ⊗ Y

j

− µ

only depends on the vector h between a function Y

i

at position x

i

and Y

j

at position x

j

= x

i

h

C

ij

(f ) = E

(Y

i

− µ) ⊗ Y

j

− µ (f)

= E

hf, Y

i

− µi

H

Y

j

− µ

, f ∈ H

(66)

Spatial functional linear model Position of the problem

If we admit second order stationarity assumptions, the mean function µ (t) is the same at any point of the domain

E (Y

i

) = µ, ∀x

i

∈ D

The covariance operator C

ij

such that C

ij

= E

(Y

i

− µ) ⊗ Y

j

− µ

only depends on the vector h between a function Y

i

at position x

i

and Y

j

at position x

j

= x

i

h

C

ij

(f ) = E

(Y

i

− µ) ⊗ Y

j

− µ (f )

= E

hf, Y

i

− µi

H

Y

j

− µ

, f ∈ H

D. NERINI (MIO) FDA MQEM, 2017 52 / 70

(67)

Spatial functional linear model Position of the problem

We seek to estimate Y

0

, the curve at unknown location x

0

, with the linear model

Y b

0

=

n

X

i=1

B

i

(Y

i

)

with B

i

:H → H being linear operators such that B

i

(f ) (t) =

Z

τ

β

i

(s, t) f (s) ds, ∀f ∈ H, ∀t ∈ τ.

The B

i0

s ∈ B (H) the space of HS operators equipped with the inner product

∀ (A, B) ∈ B

2

(H) , hA, Bi

B

= X

k,l

hA (u

k

) , u

l

i

H

hB (u

k

) , u

l

i

H

where the functions u

k

form an orthonormal basis of H.

(68)

Spatial functional linear model Position of the problem

We seek to estimate Y

0

, the curve at unknown location x

0

, with the linear model

Y b

0

=

n

X

i=1

B

i

(Y

i

)

with B

i

:H → H being linear operators such that B

i

(f ) (t) =

Z

τ

β

i

(s, t) f (s) ds, ∀f ∈ H, ∀t ∈ τ.

The B

0i

s ∈ B (H) the space of HS operators equipped with the inner product

∀ (A, B) ∈ B

2

(H) , hA, Bi

B

= X

k,l

hA (u

k

) , u

l

i

H

hB (u

k

) , u

l

i

H

where the functions u

k

form an orthonormal basis of H.

D. NERINI (MIO) FDA MQEM, 2017 53 / 70

(69)

Spatial functional linear model Conditions of unbiasedness

Looking for an unbiased estimator leads to develop the following equation

E

Y b

0

− Y

0

= 0,

which, under second order stationarity assumptions, gives the unbiasedness condition

"

n

X

i=1

B

i

#

(µ) = µ.

Interesting, but the mean function µ is unknown !

(70)

Spatial functional linear model Conditions of unbiasedness

Looking for an unbiased estimator leads to develop the following equation

E

Y b

0

− Y

0

= 0,

which, under second order stationarity assumptions, gives the unbiasedness condition

"

n

X

i=1

B

i

#

(µ) = µ.

Interesting, but the mean function µ is unknown !

D. NERINI (MIO) FDA MQEM, 2017 54 / 70

(71)

Spatial functional linear model Conditions of unbiasedness

Trying to extend the previous condition to the more general constraint

"

n

X

i=1

B

i

#

(f) = f, ∀f ∈ H

leads to find operators B

i

checking

n

X

i=1

B

i

= I.

Damn it ! The Identity operator is NOT an integral operator over H

(72)

Spatial functional linear model Conditions of unbiasedness

Trying to extend the previous condition to the more general constraint

"

n

X

i=1

B

i

#

(f) = f, ∀f ∈ H

leads to find operators B

i

checking

n

X

i=1

B

i

= I.

Damn it ! The Identity operator is NOT an integral operator over H

D. NERINI (MIO) FDA MQEM, 2017 55 / 70

(73)

Spatial functional linear model Conditions of unbiasedness

Trying to extend the previous condition to the more general constraint

"

n

X

i=1

B

i

#

(f) = f, ∀f ∈ H

leads to find operators B

i

checking

n

X

i=1

B

i

= I.

Damn it ! The Identity operator is NOT an integral operator over H

(74)

Spatial functional linear model A smoother Hilbert space

Reconsider the last condition with

n

X

i=1

B

i

= K

where K would be a linear operator which should verify

K (f) = f , ∀f ∈ H K ∈ B (H) ⇔ kK k

2B

< ∞

Can we found a Hilbert space where such an operator exists ? The answer is YES.

D. NERINI (MIO) FDA MQEM, 2017 56 / 70

(75)

Spatial functional linear model A smoother Hilbert space

Reconsider the last condition with

n

X

i=1

B

i

= K

where K would be a linear operator which should verify

K (f) = f , ∀f ∈ H K ∈ B (H) ⇔ kK k

2B

< ∞

Can we found a Hilbert space where such an operator exists ?

The answer is YES.

(76)

Spatial functional linear model Reproducing Kernel Hilbert space

Let now H be a RKHS. This space owns a reproducing kernel function κ defined as

κ : τ × τ → R

(s, t) 7−→ κ (s, t)

which checks the following conditions

∀t ∈ τ, κ (·, t) ∈ H

∀t ∈ τ, ∀f ∈ H, hκ (., t) , f i

H

= f (t) .

The operator K attached to the kernel function κ verifies K (f ) = f It is a HS operator ⇔ kK k

2B

< ∞

The form of K is entirely attached to the choice of h·, ·i

H

.

D. NERINI (MIO) FDA MQEM, 2017 57 / 70

(77)

Spatial functional linear model Reproducing Kernel Hilbert space

Let now H be a RKHS. This space owns a reproducing kernel function κ defined as

κ : τ × τ → R

(s, t) 7−→ κ (s, t)

which checks the following conditions

∀t ∈ τ, κ (·, t) ∈ H

∀t ∈ τ, ∀f ∈ H, hκ (., t) , f i

H

= f (t) .

The operator K attached to the kernel function κ verifies K (f ) = f It is a HS operator ⇔ kK k

2B

< ∞

The form of K is entirely attached to the choice of h·, ·i

H

.

(78)

Spatial functional linear model A broader form for the functional linear model

We now consider the problem of finding an estimator

Y b

0

=

n

X

i=1

B

i

(Y

i

)

for which B

i

(Y

i

) (t) = hβ

i

(., t) , Y

i

i

H

The constraint for unbiasedness can be extended to

n

X

i=1

B

i

= K

for suitable choice of a RKHS H possessing a kernel operator K which plays the role of an identity operator

The objective is now to find estimates of B

i

, i = 1, ..., n by constrained minimization of

E

Y b

0

− Y

0

2 H

D. NERINI (MIO) FDA MQEM, 2017 58 / 70

(79)

Spatial functional linear model A broader form for the functional linear model

We now consider the problem of finding an estimator

Y b

0

=

n

X

i=1

B

i

(Y

i

)

for which B

i

(Y

i

) (t) = hβ

i

(., t) , Y

i

i

H

The constraint for unbiasedness can be extended to

n

X

i=1

B

i

= K

for suitable choice of a RKHS H possessing a kernel operator K which plays the role of an identity operator

The objective is now to find estimates of B

i

, i = 1, ..., n by constrained minimization of

E

Y b

0

− Y

0

2 H

(80)

Spatial functional linear model A broader form for the functional linear model

We now consider the problem of finding an estimator

Y b

0

=

n

X

i=1

B

i

(Y

i

)

for which B

i

(Y

i

) (t) = hβ

i

(., t) , Y

i

i

H

The constraint for unbiasedness can be extended to

n

X

i=1

B

i

= K

for suitable choice of a RKHS H possessing a kernel operator K which plays the role of an identity operator

The objective is now to find estimates of B

i

, i = 1, ..., n by constrained minimization of

E

Y b

0

− Y

0

2 H

D. NERINI (MIO) FDA MQEM, 2017 58 / 70

(81)

Spatial functional linear model Constrained optimization

Seeking the minimizer of E

Y b

0

− Y

0

2

H

under the constraint P

n

i=1

B

i

= K leads to solve the constrained problem min

(B1,...,Bn)0∈Bn(H)

X

i

X

j

B

j

, C

ij

B

i

B

+ hK , C

00

i

B

− 2 X

i

hC

i0

, B

i

i

B

The constraint can be included into the minimization problem by constructing the functional F such that

F (B

1

, ..., B

n

, Λ) = X

i

X

j

B

j

, C

ij

B

i

B

+ hK , C

00

i

B

− 2 X

i

hC

i0

, B

i

i

B

+2 ×

* Λ, X

i

B

i

− K +

B

where Λ ∈ B (H) acts as a Lagrange multiplier

(82)

Spatial functional linear model Constrained optimization

Seeking the minimizer of E

Y b

0

− Y

0

2

H

under the constraint P

n

i=1

B

i

= K leads to solve the constrained problem min

(B1,...,Bn)0∈Bn(H)

X

i

X

j

B

j

, C

ij

B

i

B

+ hK , C

00

i

B

− 2 X

i

hC

i0

, B

i

i

B

The constraint can be included into the minimization problem by constructing the functional F such that

F (B

1

, ..., B

n

, Λ) = X

i

X

j

B

j

, C

ij

B

i

B

+ hK , C

00

i

B

− 2 X

i

hC

i0

, B

i

i

B

+2 ×

* Λ, X

i

B

i

− K +

B

where Λ ∈ B (H) acts as a Lagrange multiplier

D. NERINI (MIO) FDA MQEM, 2017 59 / 70

(83)

Spatial functional linear model Constrained optimization

Let δ

B

i

F be the Gateaux differential of F at B

i

in direction ∆ such that

δ

B

i

F (B

1

, ..., B

i

, ..., B

n

, Λ) =

lim

ε→01ε

[F (B

1

, ..., B

i

+ ε∆, ..., B

n

, Λ) − F (B

1

, ..., B

i

, ..., B

n

, Λ)]

This limit exists for all ∆ and, thanks to the self-adjoint property of C

ij

, can easily be computed for all i = 1, ..., n as

δ

B

i

F (B

1

, ..., B

i

, ..., B

n

, Λ) = 2

* X

j

C

ij

B

j

− C

i0

+ Λ, ∆ +

B

δ

Λ

F (B

1

, ..., B

i

, ..., B

n

, Λ) =

* X

i

B

i

− K , ∆ +

B

A sufficient condition required to find the mimimum of F is to make

all its (n + 1) Gateaux directional derivatives equal to 0

Références

Documents relatifs

In the second section, we prove asymptotic normality and efficiency when we consider a simple functional linear regression model.. These two properties are generalized in the

The assimilation of satellite altimetry data (T/P+ERS) has been performed, using the SEEK filter in a primitive equation model (OPA) of the whole Tropical Pacific ocean between 30°S

Three major types of water masses with different characteristics enter the Hudson Bay System: river runoff, Arctic Ocean waters which enter Foxe Basin through the Fury and

So, by using the bound on a standard reduction step and by the fact that the number of standard reduction steps depends on the shape of the program, we adapt fact 2 above by

Suivant la mˆ eme strat´ egie utilis´ ee pour les ondes de surface dans [34] et pour les ondes internes (fond plat) dans [47], nous nous int´ eresserons d` es lors ` a la d´

Belgian North Sea Research Programme, Projet Mer/Projekt Zee (PMPZ), Data resuscitation, Data archival, Long-term historical datasets, Integrated and Dynamical

The observations are then used in data assimilation, for verification of the numerical assessment and forecast output as well as part of the prediction and observational output

biomass estimates (zooplankton net and TAPS) points were independent (no spatial auto- 469.. correlation) on the basis that the minimum distance between two sampling stations (67 km)