• Aucun résultat trouvé

2.3 Inférence statistique

2.3.2 Construction de l’espace déformé

La construction de l’espace déformé peut être vue comme un problème de réallocation d’une configuration de points dans un nouvel espace euclidien de dimension donnée.

L’approche de positionnement multidimensionnel non-métrique (en anglais NMDS, pour Non-metric MultiDimensional Scaling) [Kruskal, 1964a] fournit une solution à ce problème.

Le but étant de trouver une représentation de points dans un espace de dimension fixée telle que l’ordre des distances euclidiennes entre les points correspond autant que possible à l’ordre des dissimilarités observées entre points.

Points supports

Jusqu’à présent, l’ajustement du modèle de déformation d’espace basé sur la procédure NMDS telle que présentée par Sampson and Guttorp [1992] est un problème numérique difficile dont la dimension est proportionnelle au nombre d’observations. Un échantillon de taille n requiert une matrice de dissimilarité (n×n) à stocker et une matrice de coordonnées(n×q)à estimer. La recherche de l’espace déformé sur la base de cette matrice de dissimilarité nécessite un temps de calcul considérable même lorsquenest relativement modeste. Pour réduire la charge de calcul, nous pouvons éviter de transformer directement tous les points de données. En effet, les dissimilarités spatiales calculées pour des paires de points très proches peuvent être redondantes, car fortement corrélées. L’idée consiste alors à obtenir l’espace déformé en utilisant seulement un ensemble réduit demnpoints

représentatifs dénommés points supports de l’espace géographiqueG. Ce sont ces derniers qui seront transformés par la procédure NMDS. L’interpolation des points supports de l’espaceGet les estimations de leur déformation dans l’espaceDproduit une estimation bf(.)de la fonction de déformation. Ensuite, l’emplacement de tous les points de données dans l’espace déformé est obtenu viafb(.). Les points supports peuvent être choisis comme les nœuds d’une grille couvrant le domaine d’intérêtGou comme un sous-ensemble des points de données. Ils permettent ainsi de réduire le temps de calcul et de robustifier les résultats de la procédure NMDS. En effet, la densité d’échantillonnage qui peut varier à travers le domaine, peut être représentée par une distribution non-uniforme des points supports.

Matrice de dissimilarité

Considérons un ensemble dempoints supports (en dimensionp)X= [x1, . . . ,xm]T de l’espace géographiqueG. L’estimateurγb(., .;λ)défini en 2.4 et calculé en chaque paire de points supports permet de construire une matrice de dissimilarité symétrique(m×m) bΓλ = [γbij(λ)], avecγbij(λ) = γb(xi,xj;λ). La spécification d’une matrice de dissimilarité est requise pour la procédure NMDS. Cette dernière est généralement appliquée en l’absence de coordonnées euclidiennes des points ayant produits les dissimilarités. Dans notre contexte, les points de l’espace d’origineGsont déjà repérés par leurs coordonnées euclidiennes. D’où la nécessité de prendre en compte ce contexte spatial pour assurer la cohérence dans le déplacement des points à transformer.

De plus, l’estimateurγb(., .;λ)reflète la dissimilarité spatiale localement, c’est-à-dire pour les paires proches. En effet, cet estimateur peut être fiable pour les courtes et moyennes distances, comme dans le contexte stationnaire, mais très imprécis quoique bien défini pour les grandes distances. Il est alors souhaitable de pénaliser l’importance accordée aux grandes distances par rapport aux courtes distances dans la recherche de la déformation. De ce fait, étant donnée la matrice de distance associée aux points supports X, nous construisons une matrice de dissimilarité composite(m×m)(λ,ω)= [δij(λ,ω)]

La matrice de dissimilarité composite(λ,ω)est une combinaison linéaire d’une matrice de dissimilarité et d’une matrice de distance normalisées par l’étendue de leurs valeurs.

L’idée de construire une mesure de dissimilarité spatiale hybride qui tient compte à la fois des dissimilarités observées dans la variable régionalisée et des proximités spatiales permet de réduire le risque que la fonction de déformation se replie, c’est-à-dire qu’elle

2.3. INFÉRENCE STATISTIQUE 69 soit non bijective. Ainsi, le paramètre de mélangeωcontrôle le non-repliement ; sa valeur ω=0, conduisant au cadre stationnaire. Le réglage du paramètreωest abordé à la section 2.3.4.

Modèle NMDS

Étant donnée la matrice symétrique(m×m) (λ,ω) = [δij(λ,ω)]des dissimilarités entre l’ensemble des m points supports (en dimension p)X = [x1, . . . ,xm]T, l’objectif est de représenterXcomme une configuration dempoints (en dimension q = p)U = [u1, . . . ,um]T telle que les relations suivantes soient satisfaites autant que possible :

φ(δij(λ,ω))≈hij(U), (2.6) oùhij(U) =kuiujk;φ(.)est une fonction monotone qui conserve l’ordre des dissimila-rités :δij(λ,ω)≤δkl(λ,ω) =⇒φ(δij(λ,ω))≤φ(δkl(λ,ω)).

Autrement dit, étant données les 12m(m−1)dissimilarités (ignorant la diagonale de

(λ,ω)ne contenant que des zéros), on recherche une configuration de points supportsU dans un espace de dimension fixée telle que l’ordre des distances de la configuration soit en accord avec l’ordre des dissimilarités. La configuration des points supportsUdans l’espace déforméDest déterminée de telle manière que les distances entre points dans l’espaceDminimisent la fonction de perte (stress) suivante :

S(λ,ω)(U) =min

où la minimisation est faite sur l’ensemble des fonctions monotones croissantesφ(.); pij(λ) = nk,l=1Kλ (xi,xj),(sk,sl)/kxixjk;Kλ(., .)est le noyau utilisé dans le calcul de l’estimateur à noyau du variogramme non-stationnaire en (2.4).

S(λ,ω)(U)dénote lestressde la configuration fixée U. L’estimateur{φ(δij(λ,ω))} re-présente la régression isotonique par moindres carrés pondérés des {hij(U)} sur les {δij(λ,ω)}. Les{pij(λ)}sont des poids positifs utilisés pour pondérer la contribution des éléments de la matrice de dissimilarité(λ,ω)dans le calcul et la minimisation du stress. Nous introduisons un tel système de poids pour prendre en compte le fait que l’information locale disponible dans le voisinage de points supports peut fluctuer d’une paire de points supports à l’autre. Ainsi, les dissimilarités les plus fiables ont plus d’impact dans la fonction de perte que les moins fiables. Ces poids permettent également de mettre l’accent sur les dissimilarités aux courtes distances. Ces dernières ayant ainsi plus de poids dans la fonction de perte que celles aux grandes distances.

Lestressdéfini en (2.7) fournit une mesure du degré d’adéquation entre l’ordre des distances et celui des dissimilarités à transformer. Il est invariant par translation, rotation ou mise à l’échelle (dilatation ou contraction uniforme) de la configuration. Ainsi, la solution NMDS n’est connue qu’à une de ces transformations près.

Le problème défini en (2.7) peut être résolu par l’algorithme itératif de Shepard-Kruskal [Shepard-Kruskal, 1964a]. Globalement, la méthode est la suivante : on part d’une confi-guration initialeU(0), celle des points supportsX. On cherche alors lesφ(δij(λ,ω))telle que∑i<jpij(λ)[hij(U(0))−φ(δij(λ,ω))]2soit minimum. Ce problème admet une solution unique : la régression isotonique [Kruskal, 1964b]. La valeur dustressest ainsi déduite. On modifie ensuite la configuration au moyen de petits déplacements des points selon une méthode de gradient pour diminuer lestress. On repasse ensuite à la phase de régression isotonique, ainsi de suite jusqu’à la convergence. Ces deux étapes sont décrites ci-dessous : Régression isotonique

La régression isotonique est la première étape dans l’ajustement du modèle NMDS.

Elle désigne un ensemble de méthodes non-paramétriques répondant spécifiquement au problème de l’ajustement d’une fonction monotone aux données. Elle ne s’appuie pas sur des estimateurs conçus pour un contexte habituel de régression. Étant donnée une configurationU(r), on souhaite résoudre le problème de minimisation suivant :

arg min

φ

i<j

pij(λ)[hij(U(r))−φ(δij(λ,ω))]2, (2.8) sous la contrainte de monotonie :δij(λ,ω)≤δkl(λ,ω) =⇒φ(δij(λ,ω))≤φ(δkl(λ,ω)).

Pour plus de commodité, renommons les dissimilarités{δij(λ,ω)}par{δt(λ,ω),t = 1, . . . ,T}avecT = 12m(m−1)et supposons qu’elles soient ordonnées dans l’ordre stric-tement croissant (no ties)δ1(λ,ω)< δ2(λ,ω) <, . . . ,δT(λ,ω). Renommons aussi les dis-tances{hij(U(r))}comme{ht(U(r)),t= 1, . . . ,T}oùht(U(r))correspond à la dissimilarité δt(λ,ω). De même pour les poids{pij(λ)}qui deviennent{pt(λ)}.

La détermination des{φ(δt(λ,ω))}est habituellement obtenue par l’algorithme PAV(Pool Adjacent Violators)[Kruskal, 1964b]. Cet algorithme décrit en 2.3.1 repose sur le principe consistant à "amalgamer" les blocs violant la monotonie. L’algorithme divise les dissimila-rités en blocs, et à chaque étape de l’algorithme un de ces blocs devient actif. Ici, un bloc est considéré comme un ensemble de dissimilarités consécutives qui doivent toutes être égales pour assurer la monotonie. Une solution consiste alors à moyenner les valeurs à l’intérieur du bloc actif.

2.3. INFÉRENCE STATISTIQUE 71 Algorithme 2.3.1Pool Adjacent Violators

1. si la séquence initiale vérifie h1(U(r)) ≤ . . . ≤ hT(U(r)), alors elle est aussi la sé-quence finale et pourt=1, . . . ,T, prendre ˆφ(δt(λ,ω)) =ht(U(r));

2. sinon,

— considérer n’importe quelle paire de valeurs successives violant la contrainte de monotonie (adjacent violators), c’est-à-dire sélectionner un indicettel que : ht(U(r))>ht+1(U(r));

— regrouper (to pool) dans la séquence précédente, ces deux valeurs en un seul bloc.

Autrement dit, substituer les couples(ht(U(r)),pt(λ))et(ht+1(U(r)),pt+1(λ)) par le couple moyen :

pt(λ)ht(U(r)) +pt+1(λ)ht+1(U(r))

pt(λ) +pt+1(λ) ,pt(λ) +pt+1(λ)

!

;

3. itérer les deux sous-étapes précédentes en considérant la séquence actualisée jusqu’à obtenir une séquence isotonique.

4. estimer ˆφ(δt(λ,ω))pourt=1, . . . ,Tpar la valeur finale associée au bloc dont elle fait partie.

Il est important de noter que dans cet algorithme, les dissimilarités n’interviennent que par leur rang. Ainsi, la mise en œuvre de l’algorithme suppose de les ordonner au préalable. Lorsqueδij(λ,ω) =δkl(λ,ω), l’approche d’usage (treatment of ties) consiste à relâcher la contrainte de monotonie, ceci en n’imposant aucune contrainte d’ordre entre φ(δij(λ,ω))etφ(δkl(λ,ω)).

Méthode du gradient

Connaissant les ˆφ(δij(λ,ω)), la seconde étape de la procédure NMDS est la recherche d’une configuration de points minimisant lestress. Kruskal [1964a] propose d’en rechercher par une application de la méthode du gradient. D’autres méthodes peuvent être retenues.

La méthode du gradient déplace la configuration dans une direction déterminée par les dérivées partielles deS(λ,ω)par rapport àU. Ainsi, étant donnée la configurationU(β)à laβ-ième itération de la méthode, une configuration mise à jour à l’itération suivante est donnée par :

U(β+1)= U(β)ηβ+1G(β), (2.9) oùηβ+1est la taille du pas à la(β+1)-ième itération et

G(β)= ∂S(λ,ω)

∂U (U(β))/|∂S(λ,ω)

∂U (U(β))| (2.10)

est le gradient normalisé calculé en U(β). La formule explicite deG(β) est obtenue en utilisant l’expression des dérivées partielles s’écrivant comme suit [Kruskal, 1964b] :

∂S(λ,ω) Dans cette procédure basée sur le gradient, il n’existe aucune garantie que l’algorithme converge vers un minimum global. En effet, il peut arriver que l’algorithme converge vers un minimum local. Ainsi, il est d’usage d’essayer différentes configurations initiales pour vérifier la convergence de l’algorithme. Si la même solution est obtenue à partir de l’application répétée de l’algorithme, alors la solution commune est probablement un minimum global ; sinon on peut prendre comme solution celle donnant le plus petitstress.

La taille du pas peut être changée à chaque itération afin d’accélérer l’algorithme.

La procédure NMDS est un double processus d’optimisation. D’abord, la transfor-mation monotone optimale des dissimilarités doit être trouvée (régression isotonique).

Ensuite, les points doivent être disposés de façon optimale, de sorte que le rang des dis-tances inter-points corresponde autant que possible à celui des dissimilarités (méthode de gradient). La solution finale sera obtenue en utilisant en alternance les deux algorithmes précédents (régression isotonique, méthode du gradient). On s’arrêtera soit lorsqu’il n’est plus possible d’améliorer la solution, soit lorsque lestresssera suffisamment petit.

L’expérience de Kruskal avec différents types de données réelles et simulées l’a conduit à évaluer l’ajustement global de toute solution NMDS par différents niveaux de valeurs dustresstels que présentés dans le tableau 2.1 [Kruskal, 1964a]. L’évaluation donnée par le tableau 2.1 doit être considérée comme une indication de la qualité d’ajustement d’une solution NMDS. Pour plus de détails sur l’approche NMDS, voir par exemple : Borg et al.

[2012], Borg and Groenen [2005] et Cox and Cox [2000].

Stress Qualité d’ajustement

TABLEAU2.1 – Modèle de déformation d’espace : évaluation dustress.

2.3. INFÉRENCE STATISTIQUE 73 En somme, la construction de l’espace déformé se résume en l’algorithme itératif 2.3.2 suivant :

Algorithme 2.3.2Construction de l’espace déformé 1. définir une configuration de points supportsX;

2. calculer les dissimilarités{δij(λ,ω)}entre toutes les paires de points deX; 3. classer les 12m(m−1)dissimilarités{δij(λ,ω)}par ordre croissant ;

4. choisir comme configuration initialeU(0)celle définie par les coordonnées des points supportsX;

5. calculer l’ensemble des distances{hij(U(0))}entre toutes les paires de points dans la configuration initiale ;

6. effectuer une régression isotonique par moindres carrés pondérés des{hij(U(0))}

sur{δij(λ,ω)}et prendre les valeurs ajustées{hˆij(U(0))}. Calculer la valeur initiale dustress;

7. réviser la configuration de façon à produire une configurationU(1)qui fournit un nouvel ensemble de distances {hij(U(1))}qui soit le plus étroitement lié aux disparités {hˆij(U(0))} générées à l’étape 6 ; ceci peut se faire via un algorithme itératif de descente de gradient qui va minimiser lestress;

8. répéter les étapes 6 et 7 jusqu’à ce que la configuration courante produise une valeur minimale dustress, de sorte que d’autres améliorations dans lestressne peuvent avoir lieu en reconfigurant encore les points.