• Aucun résultat trouvé

Poids λ 2

N/A
N/A
Protected

Academic year: 2022

Partager "Poids λ 2"

Copied!
46
0
0

Texte intégral

(1)

Krigeage

Automne 2003

(2)

Plan

Définition

Krigeage simple et krigeage ordinaire

Interprétation

Exemple numérique

Propriétés du krigeage

Aspects pratiques

Validation croisée

Lien entre KS et KO

(3)

Définition

Méthode d’estimation linéaire, sans biais, minimisant la variance d’estimation telle que calculée à l’aide du variogramme

Dans le cadre stationnaire, il y a 2 formes particulières de krigeage :

)

( Z m

m

Z = i i

n

1

= i

* v +λ

- Le krigeage simple :

= Z

Z i i

n 1

= i

* v ∑ λ

- Le krigeage ordinaire :

Le krigeage simple suppose la moyenne du processus (m) connue.

(4)

Krigeage simple

Z ] Z ,

Cov[

2 - Z ] Z , Cov[

+ Z ]

Var[

= i v i

n 1

= i j

i j

i n

1

= j n

1

= i 2 v

e λ λ λ

σ ∑ ∑ ∑

La variance d’estimation est:

L’idée est de choisir les λ i de façon à minimiser la variance d’estimation.

Pour trouver le minimum, on dérive par rapport à chacun des λ i et l’on pose ces dérivées partielles égales à zéro (condition d’un extrémum; cet extrémum est un minimum)

2 e

σ

(5)

1...n

= i Z ]

Z , Cov[

= Z ] Z ,

Cov[ i j v i

j n

1

= j

λ ∀

On obtient alors le système linéaire suivant comportant « n » équations à « n » inconnues (les « n » λ i )

À l’optimum, la variance d’estimation s’écrit, tenant compte des équations précédentes:

Z ] Z ,

Cov[

- Z ]

Var[

= i v i

n 1

= i 2 v

ks λ

σ ∑

)

n (

* ∑ −

L’estimé est obtenu par :

(6)

Ces équations s’écrivent sous forme matricielle :

s 2 s

2 v

ks = σ − λ ' k σ

 

 

 

 

 

 

σ

• σ

• σ

2 2 n 1

n

n 2 2

1 2

n 1 2

1 2

) Z , Z ( Cov )

Z , Z ( Cov

) Z , Z ( Cov )

Z , Z ( Cov

) Z , Z ( Cov )

Z , Z ( Cov

 

 

 

 

 

 

λ

• λ

λ

n 2 1

 

 

 

 

 

 

) Z , Z ( Cov

) Z , Z ( Cov

) Z , Z ( Cov

v n

v 2

v 1

k

=

s s

s k

K λ = λ s = K s 1 k s

(7)

Krigeage ordinaire

Dans le krigeage ordinaire, « m » n’est pas connue. L’estimateur prend alors la forme :

Pour que l’estimateur soit sans biais, il faut imposer la contrainte habituelle :

= Z

Z i i

n 1

= i

* v ∑ λ

i 1

n 1

= i

λ =

(8)

On a un problème de minimisation sous contrainte => méthode de Lagrange, i.e. on forme le lagrangien.

 

 

 µ λ λ +

λ λ

 

 

 µ λ σ +

µ λ

1 2

Z ] Z , Cov[

2 - Z ] Z , Cov[

Zv ] Var[

=

1 2

= ) , L(

- +

-

i n

1

= i i

v i

n 1

= i j

i j

i n

1

= j n

1

= i

i n

1

= i 2 e

Poser les dérivées partielles par rapport à λ et µ égales à zéro =>

système linéaire de n+1 équations à n+1 inconnues

(9)

1...n

= i Z ]

Z , Cov[

= +

Z ] Z ,

Cov[ i j v i

j n

1

= j

∀ λ µ

1

j =

n 1

= j

∑ λ

Sous forme matricielle :

o o

o k

K λ =

2

2 ' k

À l’optimum, la variance d’estimation est :

λ µ

σ = Var[ Z ] - ∑ i Cov[ Z v , Z i ] -

n 1

= i 2 v

ko

(10)

 

 

 

 

 

 

σ

• σ

• σ

0 1

1 1

1 )

Z , Z ( Cov )

Z , Z ( Cov

1 ) Z , Z ( Cov )

Z , Z ( Cov

1 ) Z , Z ( Cov )

Z , Z ( Cov

2 2 n 1

n

n 2 2

1 2

n 1 2

2 1

K o

 

 

 

 

 

 

µ λ

• λ

λ

n 2 1

λ o

=

 

 

 

 

 

 

• 1

) Z , Z ( Cov

) Z , Z ( Cov

) Z , Z ( Cov

v n

v 2

v 1

k o

Le krigeage permet d’estimer directement un bloc (Z

v

) ou un point (Z

0

) Tout ce qui change c’est le membre de droite k

0.

Le krigeage d’un bloc est égal à la moyenne des krigeages ponctuels dans

le bloc.

(11)

Exemple

0 0.2 0.4 0.6 0.8 1

0 0.2 0.4 0.6 0.8 1

k0

ks

Poids λ

1

P o id s λ

2

Variance d'estimation Sph(C0=0.5,C=0.5,a=5)

+

x1

+

x0 x2

h=1 h=2

On a toujours :

2 ks

2 ko ≥ σ

σ

(12)

Interprétation du krigeage

Le krigeage minimise la variance d’estimation théorique calculée à partir du variogramme.

Le krigeage est-il plus juste que tout autre estimateur linéaire ? Oui, en moyenne (i.e. sur un grand nombre de valeurs estimées), lorsque:

- hypothèse de stationnarité est valide - on a le bon modèle de variogramme

Pour un bloc particulier ou un point, on ne peut rien affirmer.

En pratique, dans la plupart des cas, le krigeage est en moyenne au moins

aussi juste que les autres estimateurs.

(13)

Exemple numérique détaillé

h=1

h=1 h=2

1

2 3

0

Variogramme sphérique, C

0

=1, C=10, a=3 Z

1

=9, Z

2

=3, Z

3

=4

0 3

3.2 2

x3

3 0

1 1

X2

3.2 1

0 1.4

X1

2 1

1.4 0

X0

X3 X2

X1 X0

0 11

11 9.52

x3

11 0

5.81 5.81

X2

11 5.81

0 7.55

X1

9.52 5.81

7.55 0

X0

X3 X2

X1 X0

h γ(h)

(14)

11 0

0 1.48

x3

0 11

5.19 5.19

X2

0 5.19

11 3.45

X1

1.48 5.19

3.45 11

X0

X3 X2

X1 X0

C(h)

 

 

 

 

 

 

 

 

 

 

 

 

µ λ λ λ

 

 

 

 

 

 

1 1.48 5.19 45 . 3

0 1 1

1

1 11 0

0

1 0

11 5.19

1 0

5.19 11

3 2 1

=

(15)

 

 

 

 

 

 

 

 

 

 

 

 

µ λ λ λ

5 1.5 -

8 .2

.51 1 .2

3 2 1

=

Z 0 * = Σ λ i Z i = (.21)*9 + (.51)*3 + (.28)*4 = 4.54 6

8.7 k =

- 11

= 0

2 ko λ′

σ

(16)

Propriétés du krigeage

i. Linéaire, sans biais, à variance minimale, par construction.

ii. Interpolateur exact iii. Effet d'écran

iv. Tient compte de la taille du champ a estimer et de la position des points entre eux.

v. Tient compte de la continuité spatiale du phénomène étudié vi. Effet de lissage

vii. Presque sans biais conditionnel.

viii. Transitif (cohérence des estimés)

(17)

Interpolateur exact

0 5 10

0 5 10

0 5 10

0 5 10

0 5 10

0 5 10

0 5 10

0 5 10

Gaussien Linéaire

En présence d’effet de

pépite, les valeurs interpolées

sont discontinues => éviter

d’estimer un point observé

(18)

Exemple

5 10 15 20 25 30

5 10 15 20 25 30

Points coincidant

5 10 15 20 25 30

5 10 15 20 25 30

Points non-coincidant

En décalant d’un epsilon la grille d’interpolation, on évite les

discontinuités sur la carte interpolée

(19)

-50 0 50

l=0.25 l=0.25 l=0.25 l=0.25

Variogramme sphérique; C=100, a=100, C0=0

Var.k.= 29.0

-50 0 50

l= -0.02 l= -0.01 l= -0.01 l= -0.02 l= -0.01 l= 0.29 l= 0.29 l= -0.01 l= -0.01 l= 0.29 l= 0.29 l= -0.01 l= -0.02 l= -0.01 l= -0.01 l= -0.02

Var.k.= 28.0

Effet d’écran

(20)

Nb. de points dans le voisinage

(21)

-50 0 50 -60

-40 -20 0 20 40 60

-0.02 0 0 -0.02

0 0.27 0.27 0

0 0.27 0.27 0

-0.02 0 0 -0.02

Var. k. = 8.24

-50 0 50

-60 -40 -20 0 20 40 60

02 05 05 02

05 12 12 05

05 12 12 05

02 05 05 02

Var. k. = 1.56

-20 0 20 40 60

06 06 06 06

06 06 06 06

06 06 06 06

Var. k. = 1.06

0 50 100

06 01 01 06

06 01 01 06

12 06 06 12

Var. k. = 5.03

Tient compte de la taille du champ à estimer

(22)

Tient compte de la redondance des données

-60 -40 -20 0 20 40

-50 0 50

42 16 42

Var. k. = 76.54

-50 0 50

-50 0 50

27

46 27

Var. k. = 25.6

(23)

0 10 20 30 40 50 60 70 80 90 100 1

2 3 4 5 6

7 Variance de krigeage vs proportion relative de pépite

Proportion relative de pépite

Var. k.

Modèle sphérique, a=100, C0+C=100; bloc de 133 x 133; grille centrée de 4x4

2 3 4

5 Variance de krigeage vs portée

Var. k. Modèle sphérique, C0=0; C=100; bloc de 133 x 133; grille centrée de 4x4

Tient compte de la continuité spatiale

Effet de pépite

Portée

(24)

-50 0 50 -50

0 50

-0.01 -0.02 -0.02 -0.01 0.1 0.19 0.19 0.1 0.1 0.19 0.19 0.1 -0.01 -0.02 -0.02 -0.01

var. k. = 26.5

-50 0 50

-50 0 50

0.17 0.17

0.04 0.04

0.04 0.04

0.04 0.04

0.04 0.04

0.17 0.17

var. k. = 87.1

-50 0 50

-50 0 50

-0.02 -0.02

0.01 0.01

0.26 0.26

0.26 0.26

0.01 0.01

-0.02 -0.02

var. k. = 12.1

Influence d’anisotropies

Var. anisotrope

(25)

Influence du modèle

λ

1

λ

2

+ + + +

λ

3

+ + + +

+ + + +

+ + + +

0 20 40 60 80 100 120

0 20 40 60 80 100 120 140 160 180 200

Quatre modèles de variogrammes

distance

variogramme

Sph(100,100) Sph(150,150) Exp(150,290) Lin(1.5)

28.0 .29

-.01 -.02

Sphérique, C=100, a=100

λ 3 λ 2

λ 1 σ 2 k

100

100

4 ajustements équivalents

h<30

(26)

Effet de lissage

2 ks

* v v ) Var ( Z ) Z

(

Var = + σ

µ +

σ +

= Var ( Z ) 2 )

Z (

Var v * v 2 ko

K. Simple

K. Ordinaire

L’estimateur KS est toujours moins variable que la réalité qu’il cherche à estimer

) Z ( Var )

Z (

Var * vv

Habituellement µ < 0 et |2µ| <

) Z ( Var )

Z (

Var * vv

2 ko

σ

L’estimateur KO est habituellement moins variable que la réalité qu’il

(27)

Exemple

Réalité isotrope

10 20 30

5 10 15 20 25 30

réalité anisotrope

5 10 15 20

réalité iso- vario iso

10 20 30

5 10 15 20 25 30

réalité iso- vario aniso

10 20 30

5 10 15 20 25 30

réalité aniso- vario iso

5 10 15 20

réalité aniso- vario aniso

5 10 15 20

(28)

Biais conditionnel

[ * ] * v

v

v | Z a bZ

Z

E = +

) Z ( Var

) Z , Z (

b Cov *

v

* v

= v

0 a

1, b

)

Z , Z ( Cov )

Z (

Var * v = v * v ⇒ = =

[ ] * * v

* v v

v | Z 0 1 * Z Z Z

E = + =

L’estimateur KS est sans biais conditionnel dans le cas normal

Si Z

v

et Z

v*

suivent une loi binormale de moyenne « m » :

et a=(1-b)m Krigeage simple, par construction :

Équations de la régression

(29)

Krigeage ordinaire Par construction :

Dans le cas normal, l’estimateur KO présente un biais conditionnel proportionnel à µ. Habituellement,

) Var(Z a

) , Var(Z 1

b )

Z , Z ( Cov )

Z (

Var *

* v v

* v

* v v

µ

= − + µ

⇒ =

= µ +

Équations du KO

[ ] ( Z m )

) Z ( Z Var

Z

| Z

E * * v

v

* v

* v

v µ −

+

=

(30)

Lien entre lissage et biais conditionnel

) Var(Z

) Z , Cov(Z

b *

v

* v

= v

* v v

* v

* v v

σ ρσ )

Var(Z σ

b = ρσ =

Absence de biais conditionnel => b=1 => σ * v ≤ σ v

Un estimateur sans lissage est nécessairement avec biais conditionnel.

Les valeurs estimées doivent montrer une variance inférieure aux

vraies valeurs.

(31)

Le krigeage est transitif

0 5 10

0 2 4 6 8 10

x

Z(x)

Modèle gaussien (a=10) Z(x)*

Donnée 1000*σk

0 5 10

0 2 4 6 8 10

x

Z(x)

Modèle gaussien (a=10) Z(x)*

Donnée 1000*σk

À droite, à x=10, on observe une donnée égale à la valeur krigée à gauche.

Toutes les valeurs krigées demeurent inchangées. Seules les variances de

krigeage sont réduites.

(32)

Aspects pratiques du krigeage

Krigeage ordinaire => syst. d’éq. linéaire (n+1) équations et (n+1) inconnues

=> limite pratique sur « n »

« m » est estimée implicitement => voisinage glissant (ou local) permet de relaxer l’hypothèse de stationnarité (« m » peut fluctuer d’un voisinage à l’autre)

Grille de krigeage: régulière ou non, points ou blocs.

Voisinage utilisé pour le krigeage:

- Habituellement en voisinages glissants.

- Nombre de points suffisant ( >10; peut atteindre jusqu'à 50-100).

- Zone de recherche assez grande pour assurer un minimum de points.

- Recherche par quadrants (2D) ou octants (3D) (min 2 ou 3 points

par quadrant/octant)

(33)

1

3 2

4

5 7 6

8

9 10

11

Exemple: Recherche circulaire, maximum de 2 points par quadrant.

3 et 11 sont rejetés car en dehors du cercle de recherche.

(34)

Dans certains cas, le choix d’un voisinage approprié est crucial !

+ +

Tous les points proviennent d’un même forage =>

- discontinuité prononcée sur la carte - estimation peu précise

+

Les points proviennent des 2 forages =>

à gauche : qq points dans la zone riche À droite : aucun point dans la zone riche

=>

- discontinuité prononcée sur la carte - estimation peu précise

+

Zone riche

(35)

+ +

Les points proviennent des 2 forages =>

- pas de discontinuité - estimation précise

+ Les points proviennent des 2 forages =>

- pas de discontinuité - estimation précise +

Zone riche

(36)

Exemple

Réalité

5 10 15 20 25 30

5 10 15 20 25 30

Circulaire, n=10

5 10 15 20 25 30

5 10 15 20 25 30

Circulaire, quadrant n=3

5 10 15 20 25 30

5 10 15 20 25 30

Globale

5 10 15 20 25 30

5 10 15 20 25

30 Elliptique, quadrant n=3

5 10 15 20 25 30

5 10 15 20 25 30

(37)

Validation croisée

Valider le modèle de variogramme

Valider le voisinage utilisé pour le krigeage résidu : e

i

=Z

i

-Z

i*

résidu normalisé

ki i i

n e

= σ

0 n

et 0 e

i i

i

i ≈ ≈

∑ ∑

∑ ∑

i i

i 2

i | min ou e min e

|

1 N n

1

0.5 2

i   ≈

 

(38)

Aussi :

- histogramme des résidus et résidus normalisés - carte des résidus et résidus normalisés

0 20 40 60 80 100 120 140 160 180 200

0 20 40 60 80 100

Résidus normalisés

positif négatif

Résidus normalisés +

grands à droite qu’à

gauche => considérer

scinder le domaine en 2

(39)

0 20 40 60 80 100 120 140 160 180 200 0

20 40 60 80 100

Points d'interpolation Données completes Données décimées

- important de reproduire dans la validation des situations réalistes d’estimation (semblables à celles du krigeage final)

Avec grille complète des données => valider le variogramme à petite échelle seulement

(40)

Exemple de validation croisée

1600 points (40 x 40) Pas de la grille variable 50 voisins

Sphérique a=10, C=1 C0=0

(bon modèle)

02 3 4 5 6 7 8

0.5 1 1.5 2

Validation croisée, bon modele: e2

Moy e2 Moy σ2

2 3 4 5 6 7 8

0 0.5 1 1.5 2

n2 (erreurs normalisées)

Pas de la grille

(41)

2 3 4 5 6 7 8 0

0.5 1 1.5 2

Effet pépite pur au lieu de sphérique a=10: e2

Moy e2 Moy σ2

2 3 4 5 6 7 8

0 0.5 1 1.5 2

n2 (erreurs normalisées)

Pas de la grille

Idem

Vrai modèle : Sphérique a=10, C=1 Modèle validé: effet de pépite pur C0=1

Le modèle validé

est pessimiste par

rapport au vrai

modèle

(42)

2 3 4 5 6 7 8 0

0.5 1 1.5 2

Sphérique a=20 au lieu de a=10: e2

Moy e2 Moy σ2

2 3 4 5 6 7 8

0 2 4 6 8

n2 (erreurs normalisées)

Pas de la grille

Idem

Vrai modèle : Sphérique a=10, C=1 Modèle validé: Sphérique a=20, C=1

Le modèle validé

est optimiste par

rapport au vrai

modèle

(43)

2 3 4 5 6 7 8 0

0.5 1 1.5 2

Sphérique a=10 au lieu de pépite pur: e2

Moy e2 Moy σ2

2 3 4 5 6 7 8

0 2 4 6 8

n2 (erreurs normalisées)

Pas de la grille

Idem

Vrai modèle : Effet de pépite pur, C0=1 Modèle validé: Sphérique a=10, C=1

Le modèle validé

est optimiste par

rapport au vrai

modèle

(44)

Exemple simulé

Var(e)

Minimum en a=15, C0/C=0.3; près des

Nb. données =30 Va lid ati on

(45)

Autres mesures de validation

-Variance expérimentale des observations vs valeur théorique D

2

(•|G) -Variance expérimentale des valeurs krigées vs valeurs théoriques (pour différentes tailles de blocs « v »)

µ

− σ

σ ˆ 2 * D 2 ( Z v | G ) ko 2 2

Z v

Valeur moyenne des variances de krigeage

Valeur moyenne des multiplicateurs de Lagrange Variance

expérimentale des

valeurs krigées

(46)

Lien entre KS et KO

KO => estimer « m » par KO suivi de KS avec cette moyenne estimée

Estimation de « m » par KO => λ m i, µ m σ ko 2 , m = − µ m

Estimation de Zv(x) par KO => λ o , i µ σ 2 ko

Estimation de Zv(x) par KS avec

m estimé par KO => λ s , i σ 2 ks = λ

i

i, s

s

( 1 )

S

i m s i

s i

o , λ , S λ ,

λ = +

m

S s µ

= µ

2 2 2

2

m , ko s

ks

ko = σ + S σ

σ

Références

Documents relatifs

De plus, nous avons trouvé que certains estimateurs de la classe des W- estimateurs sont en pratique plus stables que l’estimateur de Huber; nous avons alors proposé une

Dans le cadre ` a design fixe, comme on ne cherche pas ` a g´ en´ eraliser ` a de nouvelles valeurs en entr´ ee (mais seulement ` a bien g´ en´ eraliser sur de nouvelles valeurs

Dans cet exercice on consid` ere la r´ egression lin´ eaire des moindres carr´ es p´ enalis´ ee (r´ egression ridge) de R p dans R , connue aussi sous le nom de r´ egression ridge.

Dans ce cas, les 3 variantes ont le même comportement : l’émetteur doit attendre le RTO et retransmettre le segment (et repartir en slow start). MA retransmet donc le

Comme les estimateurs sont des estimateurs linéaires des Y t [les Y t dépendent des ε t qui sont aléatoires et obéissent à des lois normales], alors les

Au moyen d’une large expérimentation Monte Carlo, nous étudions le biais, la précision et l’efficacité de capture de quatre estimateurs de capacité : MV, BME, EAP,

On suppose que la probabilité qu’un champignon cueilli soit comestible est p, que le fait qu’un champignon cueilli soit comestible est indépendant du fait que les autres le

Donner un estimateur uniform´ ement de variance minimale parmi les estimateurs sans biais