• Aucun résultat trouvé

3.3 Classes de covariance non-stationnaire

3.4.2 Estimation des paramètres

.

Ainsi, la fonction aléatoireZporte la structure de second ordre de la fonction aléatoire Y. La formulation du modèle défini en (3.11) conduit aux moments d’ordre 1 et 2 suivants :

E(Y(x)) = m(x), (3.12)

Cov(Y(x),Y(y)) = σ(x)σ(y)RNS(x,y)≡CNS(x,y). (3.13) Des expressions (3.12) et (3.13), il apparaît que la non-stationnarité de la fonction aléatoireYest entièrement caractérisée par les paramètresσ(.),Σ(.)etm(.), définis en tout emplacement du domaine d’intérêt.

Soit Y = (Y(s1), . . . ,Y(sn))T le (n×1) vecteur d’observations issu de la fonction aléatoire Y aux emplacements {s1, . . . ,sn} ⊂ G ⊆ Rp. Étant donnée Y, l’objectif est d’inférer les fonctions d’écart-typeσ(.), de corrélation non-stationnaire déterminée par Σ(.)et de moyennem(.). Ensuite, ces dernières sont utilisées pour prédire la valeur de la fonction aléatoireYaux emplacements non-observés. Dans la suite de l’exposé et sans perte de généralité, nous considérons l’espace de dimension 2 (p=2).

3.4.2 Estimation des paramètres

L’inférence statistique des paramètres σ(.), Σ(.) et m(.)repose sur l’hypothèse de quasi-stationnarité ou stationnarité locale telle qu’introduite par Matheron [1971].

Quasi-stationnarité

Une fonction aléatoireY= {Y(x): x∈ G⊆ Rp,p ≥1}sera dite localement station-naire si elle possède une espérancem(x)et une covarianceCNS(x,y)telles que :

1. m(x)est une fonction très régulière et variant lentement dans l’espace à l’échelle de l’information disponible ; plus précisément,m(x)peut être considérée comme constante sur un voisinage dex;

2. il existe une fonction de trois argumentsCS(h;x,y)telle que l’on aitCNS(x,y) = CS(xy;x,y)et que àhfixé,CS(h;x,y)soit une fonction régulière et variant len-tement (dans le même sens que 1.) des argumentsxety. Autrement dit, pour des points d’implantationxetypas trop éloignés l’un de l’autre,CS(h;x,y)ne dépend que deh, et tout se passe comme si la covarianceCNS(., .)était stationnaire.

L’idée intuitive sous-jacente à cette définition est que si une fonction aléatoire est locale-ment stationnaire, alors en tout emplacelocale-mentx0∈ G, il existe un voisinageVx0 où la fonc-tion aléatoire peut être approximée par une foncfonc-tion aléatoire stafonc-tionnaire. Ainsi,∀(x,y)∈ Vx0×Vx0, m(x)≈ m(y)≈ m(x0)etCNS(x,y)≈ CS(xy;x0) =CS(h;x0), khk ≤b; où CS(.)est une covariance stationnaire et la limitebreprésente le rayon du voisinage de quasi-stationnaritéVx0. De cette manière, les paramètres sont supposés être des fonctions très régulières, variant lentement d’une extrémité du domaine à une autre ; l’espérance de la fonction aléatoire étant approximativement constante à l’intérieur du voisinage de quasi-stationnarité ; la covariance locale résultante en tout emplacementx0 ∈Gs’écrivant comme suit : x0k ≤ b}à l’intérieur desquels l’espérance et la covariance peuvent être considérées comme stationnaires, et où l’information disponible est suffisante pour en faire l’inférence.

Remarque 3.12. L’hypothèse de quasi-stationnarité correspond à un compromis entre les distances d’homogénéité du phénomène étudié et la densité d’information disponible. En effet, il est toujours possible pour atteindre la stationnarité de réduire considérablement la taillebdes voisinages de quasi-stationnarité. Mais alors la plupart de ces voisinages ne contiendront presque pas de données ; il ne sera plus possible de faire l’inférence des moments quasi-stationnaires dans ces voisinages.

Paramétrisation de l’anisotropie

Localement la structure de dépendance spatiale non-stationnaire définie en (3.13) est réduite à une structure stationnaire anisotrope (3.14). La fonctionΣ(.)est paramétrée de telle façon qu’elle soit toujours définie positive et capture l’anisotropie géométrique locale variable. Ceci est obtenu en utilisant une décomposition spectrale. En tout emplacement x0∈ G, on a :Σx0 =Ψx0Λx0ΨTx0, oùΛx0 est la matrice diagonale des valeurs propres etΨx0

la matrice des vecteurs propres. Plus précisément : Λx0 = λ

Le paramètre d’échelle de la fonction de corrélationRS(.)est fixé à l’unité pour éviter tout problème de sur-paramétrisation. La fonction d’anisotropie Σ(.) est caractérisée par les fonctions λ1(.), λ2(.) et ψ(.). En chaque emplacement, les racines carrées des valeurs propres contrôlent les portées locales et la matrice de vecteurs propres spécifie les orientations d’anisotropie géométrique locale. Ainsi, le vecteur de paramètres structuraux

3.4. INFÉRENCE STATISTIQUE 101 est donné parθ(.) = (σ(.),λ1(.),λ2(.),ψ(.)).

Estimateur à noyau du variogramme local

Il est parfois plus commode de décrire la structure spatiale de second ordre via le variogramme. Sous l’hypothèse de stationnarité locale, nous définissons un estima-teur non-paramétrique à noyau du variogramme local stationnaireγ(h;x0) =σ2(x0)− largeur de fenêtree>0. Pour les données irrégulièrement espacées, il n’y a généralement pas assez de paires d’observations séparées exactement deh. AlorsV(h)est habituelle-ment modifié par{(si,sj) : sisj ∈ T(h)}, oùT(h)est une région de tolérance deRp autour deh.

L’estimateur du variogramme local en tout emplacementx0 ∈Gest défini comme une moyenne locale pondérée des accroissements au carré de la variable régionalisée. Le noyau est utilisé pour atténuer en douceur les accroissements au carré (pour chaque vecteur d’inter-distance) en fonction de la distance des paires d’observations correspondantes à l’emplacement cible. On attribue à chaque paire de données un poids proportionnel au produit des poids individuels. Les paires d’observations proches du point ciblex0ont plus d’influence sur l’estimateur du variogamme local γbe(h;x0)que celles qui en sont éloignées.

Remarque 3.13. Lorsque Ke(x,y) 1, ∀(x,y) ∈ G×G et b = D/2 ; où Dest le dia-mètre du domaine d’intérêt G, on retrouve l’estimateur classique de Matheron pour une structure stationnaire globale [Matheron, 1971]. Pour le noyau uniformeKe(x,y) 1kxyk<e,∀(x,y)∈G×Getb=e, on a l’estimateur par fenêtre glissante [Haas, 1990b].

Les exemples classiques de noyaux ont été présentés à la section 2.3.1 du chapitre 2. Pour le calcul de l’estimateur non-paramétrique (3.15), nous optons pour un noyau gaussien stationnaire isotrope :Ke(x,y)exp(− 1

2e2kxyk2), ∀(x,y)∈ G×G. Ce dernier est à support non-compact et considère donc toutes les observations. Ainsi, l’estimateur du variogramme local ne se limite pas seulement à l’information locale, les points éloignés sont aussi considérés. Ceci permet d’éviter des artefacts dans l’estimation des paramètres causés par la seule utilisation d’observations proches de l’emplacement cible. Il permet également de réduire l’instabilité du variogramme local calculé dans les régions à faible

densité d’échantillonnage. De plus, il fournit des estimations lisses et est ainsi compatible avec l’hypothèse de stationnarité. S’agissant de la taille du voisinage de quasi-stationnaritéb, elle est paramétrée en fonction de la largeur de fenêtree. Nous prenons b= √

3ede telle sorte que l’écart-type du noyau gaussien stationnaire isotrope correspond à celui du noyau stationnaire isotrope uniforme (à support compact). Un autre choix possible pourbest de prendre un quantile du noyau stationnaire isotrope gaussien (par exempleb≈2e) ou encore la moitié de sa largeur à mi-hauteur (b=p2 log(2)e).

Estimation brute des paramètres

On souhaite estimer le vecteur de paramètres structurauxθ(.) = (σ(.),λ1(.),λ2(.),ψ(.)) et le paramètre de moyennem(.)en tout emplacement du domaine d’intérêt.

L’estimation du vecteur de paramètres θ(x0) qui caractérise le variogramme local stationnaire γ(.;x0) ≡ γ(.;θ(x0)) à un emplacement cible x0 ∈ G est donnée via le problème de minimisation suivant :

bθ(x0) =arg min

θ(x0)∈Θ

kwe(x0)(γ(θ(x0))−γbe(x0))k, (3.16)

où désigne le produit terme à terme ; γ(θ(x0)) = [γ(h1;θ(x0)), . . . ,γ(hJ;θ(x0))]T; bγe(x0) = [γbe(h1;x0), . . . ,γbe(hJ;x0)]T;we(x0) = [we(h1;x0), . . . ,we(hJ;x0)]T,we(h;x0) = h

(V(h)K?e(x0,si)K?e(x0,sj))/khki1/2;{hjRp,j = 1, . . . ,J}sont des vecteurs d’inter-distances donnés ;θ(x0)∈Θest le vecteur de paramètres inconnus etΘl’espace ouvert des paramètres.

Remarque 3.14. L’estimation des paramètres structurauxσ(.),λ1(.),λ2(.),ψ(.)dépend du paramètre de largeur de la fenêtreevia le noyauKe(.). La largeur de la fenêtre contrôle la taille de validité d’une approximation stationnaire. Sa sélection est traitée à la section 3.4.3.

Remarque 3.15. L’estimation des paramètres structurauxσ(.),λ1(.),λ2(.)et ψ(.)ne né-cessite pas au préalable l’estimation de la fonction de moyennem(.). Par ailleurs, aucun modèle n’est spécifié pour cette dernière.

Concernant l’estimation du paramètre de moyenne,m(x0)en un emplacement fixé x0∈ Gest approximativement constant à l’intérieur du voisinage de stationnarité locale Vx0 = {x∈ G, kxx0k ≤ b}. Ainsi, en utilisant l’estimation du vecteur de paramètres structurauxbθ(x0)obtenu en (3.16), la moyennem(x0)peut être estimée explicitement par le krigeage local stationnaire de la moyenne [Chilès and Delfiner, 2012]. Plus précisément nous avons :

3.4. INFÉRENCE STATISTIQUE 103 etm(.)aux sites d’observation et de prédiction. Dans la pratique, il n’est pas nécessaire de résoudre le problème de minimisation (3.16) en chaque emplacement cible. En effet, le faire ainsi est intensif en calcul et redondant pour les emplacements très proches, puisque les estimations en ces derniers sont fortement corrélées. Afin de réduire la charge de calcul, l’idée proposée consiste à obtenir les estimations de paramètres uniquement pour un ensemble réduit demnpoints représentatifs (points supports) définis sur le domaine.

Puis, en utilisant les estimations obtenues aux points supports, un lisseur à noyau est utilisé pour rendre disponible les estimations en n’importe quel emplacement d’intérêt.

Les paramètresσ(.),λ1(.),λ2(.),ψ(.)etm(.)étant considérés comme lentement variable dans l’espace (quasi-stationnarité), l’estimateur à noyau de type Nadaraya-Watson paraît approprié, en plus d’être relativement simple. Cependant d’autres lisseurs peuvent aussi bien être utilisés (polynômes locaux, splines,. . . ).

L’estimateur à noyau de Nadaraya-Watson deσ(.)en tout emplacementx0 ∈ Gest donné par [Wand and Jones, 1995] :

eσ(x0) = emplacementx0 ∈G. Pour le cas spécifique du paramètre d’orientationψ(.)appartenant à Sp et non à Rp , l’estimateur à noyau en tout emplacement x0 ∈ G est défini via la

où{ψb(xk),k =1, . . . ,m}sont les estimations brutes du paramètreψ(.)aux points supports {xk,k=1, . . . ,m};Spest l’hyper-sphère en dimension p, de centre l’origine et de rayon unité ;d(ψ(x0),ψb(xk))est une mesure de distance entre deux orientations. Pour p = 2, on peut prendre :d(ψ(x0),ψb(xk)) = min(|ψ(x0)−ψb(xk)|,|ψ(x0)−ψb(xk)−π|,|ψ(x0)− ψb(xk) +π|).

Comme nous l’avons déjà souligné en section 2.3.1 du précédent chapitre, le choix du noyau est relativement peu important par rapport au choix de la valeur du paramètre de lissage. Nos paramètres étant supposés varier régulièrement et lentement à travers le domaine d’intérêt (stationnarité locale), nous choisissonsK(.)comme étant un noyau gaussien stationnaire isotrope. La sélection du paramètre de lissageδ est abordée à la section 3.4.3.