• Aucun résultat trouvé

2.3 Inférence statistique

2.3.2 Construction de l’espace déformé

La construction de l’espace déformé peut être vue comme un problème de réallocation d’une configuration de points dans un nouvel espace euclidien de dimension donnée. L’approche de positionnement multidimensionnel non-métrique (en anglais NMDS, pour Non-metric MultiDimensional Scaling) [Kruskal, 1964a] fournit une solution à ce problème. Le but étant de trouver une représentation de points dans un espace de dimension fixée telle que l’ordre des distances euclidiennes entre les points correspond autant que possible à l’ordre des dissimilarités observées entre points.

Points supports

Jusqu’à présent, l’ajustement du modèle de déformation d’espace basé sur la procédure NMDS telle que présentée par Sampson and Guttorp [1992] est un problème numérique difficile dont la dimension est proportionnelle au nombre d’observations. Un échantillon de taille n requiert une matrice de dissimilarité (n×n) à stocker et une matrice de coordonnées(n×q)à estimer. La recherche de l’espace déformé sur la base de cette matrice de dissimilarité nécessite un temps de calcul considérable même lorsque n est relativement modeste. Pour réduire la charge de calcul, nous pouvons éviter de transformer directement tous les points de données. En effet, les dissimilarités spatiales calculées pour des paires de points très proches peuvent être redondantes, car fortement corrélées. L’idée consiste alors à obtenir l’espace déformé en utilisant seulement un ensemble réduit de mn points

représentatifs dénommés points supports de l’espace géographique G. Ce sont ces derniers qui seront transformés par la procédure NMDS. L’interpolation des points supports de l’espace G et les estimations de leur déformation dans l’espace D produit une estimation

b

f(.)de la fonction de déformation. Ensuite, l’emplacement de tous les points de données dans l’espace déformé est obtenu via bf(.). Les points supports peuvent être choisis comme les nœuds d’une grille couvrant le domaine d’intérêt G ou comme un sous-ensemble des points de données. Ils permettent ainsi de réduire le temps de calcul et de robustifier les résultats de la procédure NMDS. En effet, la densité d’échantillonnage qui peut varier à travers le domaine, peut être représentée par une distribution non-uniforme des points supports.

Matrice de dissimilarité

Considérons un ensemble de m points supports (en dimension p) X= [x1, . . . , xm]T de

l’espace géographique G. L’estimateurγb(., .; λ)défini en 2.4 et calculé en chaque paire de points supports permet de construire une matrice de dissimilarité symétrique(m×m)

b

Γλ = [γbij(λ)], avecγbij(λ) = γb(xi, xj; λ). La spécification d’une matrice de dissimilarité est requise pour la procédure NMDS. Cette dernière est généralement appliquée en l’absence de coordonnées euclidiennes des points ayant produits les dissimilarités. Dans notre contexte, les points de l’espace d’origine G sont déjà repérés par leurs coordonnées euclidiennes. D’où la nécessité de prendre en compte ce contexte spatial pour assurer la cohérence dans le déplacement des points à transformer.

De plus, l’estimateurγb(., .; λ)reflète la dissimilarité spatiale localement, c’est-à-dire pour les paires proches. En effet, cet estimateur peut être fiable pour les courtes et moyennes distances, comme dans le contexte stationnaire, mais très imprécis quoique bien défini pour les grandes distances. Il est alors souhaitable de pénaliser l’importance accordée aux grandes distances par rapport aux courtes distances dans la recherche de la déformation. De ce fait, étant donnée la matrice de distance associée aux points supports X, nous construisons une matrice de dissimilarité composite(m×m)(λ)= [δij(λ, ω)]

définie comme suit :

(λ,ω)=ω ˜Γλ+ (1−ω), (2.5) où ˜Γλ = h b γij(λ)−min(γbij(λ)) max(γbij(λ))−min(γbij(λ)) i , ˜D= hmaxdij(d−min(dij) ij)−min(dij) i , ω∈ [0, 1].

La matrice de dissimilarité composite(λ,ω)est une combinaison linéaire d’une matrice de dissimilarité et d’une matrice de distance normalisées par l’étendue de leurs valeurs. L’idée de construire une mesure de dissimilarité spatiale hybride qui tient compte à la fois des dissimilarités observées dans la variable régionalisée et des proximités spatiales permet de réduire le risque que la fonction de déformation se replie, c’est-à-dire qu’elle

2.3. INFÉRENCE STATISTIQUE 69

soit non bijective. Ainsi, le paramètre de mélange ω contrôle le non-repliement ; sa valeur

ω=0, conduisant au cadre stationnaire. Le réglage du paramètre ω est abordé à la section

2.3.4.

Modèle NMDS

Étant donnée la matrice symétrique(m×m) (λ) = [δij(λ, ω)]des dissimilarités

entre l’ensemble des m points supports (en dimension p) X = [x1, . . . , xm]T, l’objectif

est de représenter X comme une configuration de m points (en dimension q = p) U = [u1, . . . , um]T telle que les relations suivantes soient satisfaites autant que possible :

φ(δij(λ, ω)) ≈hij(U), (2.6)

où hij(U) = kui−ujk; φ(.)est une fonction monotone qui conserve l’ordre des dissimila-

rités : δij(λ, ω) ≤δkl(λ, ω) =⇒φ(δij(λ, ω)) ≤φ(δkl(λ, ω)).

Autrement dit, étant données les 12m(m−1)dissimilarités (ignorant la diagonale de (λ,ω)ne contenant que des zéros), on recherche une configuration de points supports U dans un espace de dimension fixée telle que l’ordre des distances de la configuration soit en accord avec l’ordre des dissimilarités. La configuration des points supports U dans l’espace déformé D est déterminée de telle manière que les distances entre points dans l’espace D minimisent la fonction de perte (stress) suivante :

S(λ,ω)(U) =min φ "

i<j pij(λ)[hij(U) −φ(δij(λ, ω))]2 ∑i<jpij(λ)h2ij(U) #12 , (2.7)

où la minimisation est faite sur l’ensemble des fonctions monotones croissantes φ(.); pij(λ) = ∑nk,l=1Kλ (xi, xj),(sk, sl)/kxi−xjk; Kλ(., .)est le noyau utilisé dans le calcul de l’estimateur à noyau du variogramme non-stationnaire en (2.4).

S(λ,ω)(U)dénote le stress de la configuration fixée U. L’estimateur{φ(δij(λ, ω))}re- présente la régression isotonique par moindres carrés pondérés des {hij(U)} sur les

{δij(λ, ω)}. Les{pij(λ)}sont des poids positifs utilisés pour pondérer la contribution

des éléments de la matrice de dissimilarité(λ,ω)dans le calcul et la minimisation du stress. Nous introduisons un tel système de poids pour prendre en compte le fait que l’information locale disponible dans le voisinage de points supports peut fluctuer d’une paire de points supports à l’autre. Ainsi, les dissimilarités les plus fiables ont plus d’impact dans la fonction de perte que les moins fiables. Ces poids permettent également de mettre l’accent sur les dissimilarités aux courtes distances. Ces dernières ayant ainsi plus de poids dans la fonction de perte que celles aux grandes distances.

Le stress défini en (2.7) fournit une mesure du degré d’adéquation entre l’ordre des distances et celui des dissimilarités à transformer. Il est invariant par translation, rotation ou mise à l’échelle (dilatation ou contraction uniforme) de la configuration. Ainsi, la solution NMDS n’est connue qu’à une de ces transformations près.

Le problème défini en (2.7) peut être résolu par l’algorithme itératif de Shepard- Kruskal [Kruskal, 1964a]. Globalement, la méthode est la suivante : on part d’une confi- guration initiale U(0), celle des points supports X. On cherche alors les φ(δij(λ, ω))telle

que∑i<jpij(λ)[hij(U(0)) −φ(δij(λ, ω))]2soit minimum. Ce problème admet une solution

unique : la régression isotonique [Kruskal, 1964b]. La valeur du stress est ainsi déduite. On modifie ensuite la configuration au moyen de petits déplacements des points selon une méthode de gradient pour diminuer le stress. On repasse ensuite à la phase de régression isotonique, ainsi de suite jusqu’à la convergence. Ces deux étapes sont décrites ci-dessous :

Régression isotonique

La régression isotonique est la première étape dans l’ajustement du modèle NMDS. Elle désigne un ensemble de méthodes non-paramétriques répondant spécifiquement au problème de l’ajustement d’une fonction monotone aux données. Elle ne s’appuie pas sur des estimateurs conçus pour un contexte habituel de régression. Étant donnée une configuration U(r), on souhaite résoudre le problème de minimisation suivant :

arg min φ

i<j

pij(λ)[hij(U(r)) −φ(δij(λ, ω))]2, (2.8)

sous la contrainte de monotonie : δij(λ, ω) ≤δkl(λ, ω) =⇒φ(δij(λ, ω)) ≤φ(δkl(λ, ω)).

Pour plus de commodité, renommons les dissimilarités{δij(λ, ω)}par{δt(λ, ω), t=

1, . . . , T}avec T= 12m(m−1)et supposons qu’elles soient ordonnées dans l’ordre stric- tement croissant (no ties) δ1(λ, ω) < δ2(λ, ω) <, . . . , δT(λ, ω). Renommons aussi les dis-

tances{hij(U(r))}comme{ht(U(r)), t= 1, . . . , T}où ht(U(r))correspond à la dissimilarité

δt(λ, ω). De même pour les poids{pij(λ)}qui deviennent{pt(λ)}.

La détermination des{φ(δt(λ, ω))}est habituellement obtenue par l’algorithme PAV(Pool

Adjacent Violators)[Kruskal, 1964b]. Cet algorithme décrit en 2.3.1 repose sur le principe consistant à "amalgamer" les blocs violant la monotonie. L’algorithme divise les dissimila- rités en blocs, et à chaque étape de l’algorithme un de ces blocs devient actif. Ici, un bloc est considéré comme un ensemble de dissimilarités consécutives qui doivent toutes être égales pour assurer la monotonie. Une solution consiste alors à moyenner les valeurs à l’intérieur du bloc actif.

2.3. INFÉRENCE STATISTIQUE 71

Algorithme 2.3.1 Pool Adjacent Violators

1. si la séquence initiale vérifie h1(U(r)) ≤ . . . ≤ hT(U(r)), alors elle est aussi la sé-

quence finale et pour t=1, . . . , T, prendre ˆφ(δt(λ, ω)) =ht(U(r));

2. sinon,

— considérer n’importe quelle paire de valeurs successives violant la contrainte de monotonie (adjacent violators), c’est-à-dire sélectionner un indice t tel que : ht(U(r)) >ht+1(U(r));

— regrouper (to pool) dans la séquence précédente, ces deux valeurs en un seul bloc. Autrement dit, substituer les couples(ht(U(r)), pt(λ))et(ht+1(U(r)), pt+1(λ))

par le couple moyen :

pt(λ)ht(U(r)) +pt+1(λ)ht+1(U(r))

pt(λ) +pt+1(λ) , pt(λ) +pt+1(λ)

! ;

3. itérer les deux sous-étapes précédentes en considérant la séquence actualisée jusqu’à obtenir une séquence isotonique.

4. estimer ˆφ(δt(λ, ω))pour t=1, . . . , T par la valeur finale associée au bloc dont elle

fait partie.

Il est important de noter que dans cet algorithme, les dissimilarités n’interviennent que par leur rang. Ainsi, la mise en œuvre de l’algorithme suppose de les ordonner au préalable. Lorsque δij(λ, ω) =δkl(λ, ω), l’approche d’usage (treatment of ties) consiste à

relâcher la contrainte de monotonie, ceci en n’imposant aucune contrainte d’ordre entre

φ(δij(λ, ω))et φ(δkl(λ, ω)).

Méthode du gradient

Connaissant les ˆφ(δij(λ, ω)), la seconde étape de la procédure NMDS est la recherche

d’une configuration de points minimisant le stress. Kruskal [1964a] propose d’en rechercher par une application de la méthode du gradient. D’autres méthodes peuvent être retenues. La méthode du gradient déplace la configuration dans une direction déterminée par les dérivées partielles de S(λ,ω)par rapport à U. Ainsi, étant donnée la configuration U

(β)à la β-ième itération de la méthode, une configuration mise à jour à l’itération suivante est donnée par :

U(β+1)= U(β)

ηβ+1G

(β), (2.9)

où ηβ+1est la taille du pas à la(β+1)-ième itération et

G(β)= ∂S(λ,ω)

∂U (U

(β))/|∂S(λ,ω)

∂U (U

est le gradient normalisé calculé en U(β). La formule explicite de G(β) est obtenue en utilisant l’expression des dérivées partielles s’écrivant comme suit [Kruskal, 1964b] :

∂S(λ,ω) ∂ukl =S(λ,ω)

i<j (1{i=k}−1{j=k})pij(λ) " hij− ˆhij S? (λ,ω) − hij T? λ # |uil−ujl|p−1 hijp−1 signe(uil−ujl), (2.11) où S?(λ) =∑i<jpij(λ)[φ(δij(λ, ω)) −hij(U)]2; Tλ? =∑i<jpij(λ)h 2 ij(U); ˆhij = φˆ(δij(λ, ω)).

Dans cette procédure basée sur le gradient, il n’existe aucune garantie que l’algorithme converge vers un minimum global. En effet, il peut arriver que l’algorithme converge vers un minimum local. Ainsi, il est d’usage d’essayer différentes configurations initiales pour vérifier la convergence de l’algorithme. Si la même solution est obtenue à partir de l’application répétée de l’algorithme, alors la solution commune est probablement un minimum global ; sinon on peut prendre comme solution celle donnant le plus petit stress. La taille du pas peut être changée à chaque itération afin d’accélérer l’algorithme.

La procédure NMDS est un double processus d’optimisation. D’abord, la transfor- mation monotone optimale des dissimilarités doit être trouvée (régression isotonique). Ensuite, les points doivent être disposés de façon optimale, de sorte que le rang des dis- tances inter-points corresponde autant que possible à celui des dissimilarités (méthode de gradient). La solution finale sera obtenue en utilisant en alternance les deux algorithmes précédents (régression isotonique, méthode du gradient). On s’arrêtera soit lorsqu’il n’est plus possible d’améliorer la solution, soit lorsque le stress sera suffisamment petit.

L’expérience de Kruskal avec différents types de données réelles et simulées l’a conduit à évaluer l’ajustement global de toute solution NMDS par différents niveaux de valeurs du stress tels que présentés dans le tableau 2.1 [Kruskal, 1964a]. L’évaluation donnée par le tableau 2.1 doit être considérée comme une indication de la qualité d’ajustement d’une solution NMDS. Pour plus de détails sur l’approche NMDS, voir par exemple : Borg et al. [2012], Borg and Groenen [2005] et Cox and Cox [2000].

Stress Qualité d’ajustement

0,20 Faible

0,10 Passable

0,05 Bien

0,025 Excellent

0,00 Parfait

2.3. INFÉRENCE STATISTIQUE 73

En somme, la construction de l’espace déformé se résume en l’algorithme itératif 2.3.2 suivant :

Algorithme 2.3.2Construction de l’espace déformé 1. définir une configuration de points supports X ;

2. calculer les dissimilarités{δij(λ, ω)}entre toutes les paires de points de X ;

3. classer les 12m(m−1)dissimilarités{δij(λ, ω)}par ordre croissant ;

4. choisir comme configuration initiale U(0)celle définie par les coordonnées des points supports X ;

5. calculer l’ensemble des distances{hij(U(0))}entre toutes les paires de points dans

la configuration initiale ;

6. effectuer une régression isotonique par moindres carrés pondérés des{hij(U(0))}

sur{δij(λ, ω)}et prendre les valeurs ajustées{ˆhij(U(0))}. Calculer la valeur initiale

du stress ;

7. réviser la configuration de façon à produire une configuration U(1)qui fournit un nouvel ensemble de distances {hij(U(1))}qui soit le plus étroitement lié aux

disparités {ˆhij(U(0))} générées à l’étape 6 ; ceci peut se faire via un algorithme itératif de descente de gradient qui va minimiser le stress ;

8. répéter les étapes 6 et 7 jusqu’à ce que la configuration courante produise une valeur minimale du stress, de sorte que d’autres améliorations dans le stress ne peuvent avoir lieu en reconfigurant encore les points.