• Aucun résultat trouvé

SGM I l − F LCH X X Évaluer l’effet des

5.3 Comparaison des performances (QR3)

Le troisième objectif de cette évaluation expérimentale est de mesurer l’efficacité du modèle SGM par rapport aux modèles d’appariement de référence détaillés dans la Section 4.3. Le Tableau 5.6 résume les résultats empiriques obtenus en termes de MRR et d’Acc@k (k= 1, 5, 10)pour les collections de NY (Tableau 5.6a) et de SG (Tableau 5.6b). L’organisation de la section est la suivante. Nous com- mençons par étudier les performances globales du modèle SGM à travers une analyse quantitative (Section 5.3.1), puis nous menons une analyse qualitative sur un échantillon de tweets.

MRR Acc@1 Acc@5 Acc@10

Modèle Valeur %Chg Valeur %Chg Valeur %Chg Valeur %Chg

Notre contribution SGM 0,701 - 0,597 - 0,827 - 0,891 - Appariement spatial DIST 0,501 +39,92% * 0,410 +45,61% * 0,603 +37,15% * 0,691 +28,94% * Appariement textuel BM25 0,452 +55,09% * 0,326 +83,13% * 0,706 + 17,14% * 0,872 +2,18% * TFIDF+-D 0,416 +68,51% * 0,311 +91,96% * 0,548 +50,91% * 0,633 +40,76% * Appariement spatial et textuel

CLASS 0,584 +20,03% * 0,498 +19,88% * 0,684 +20,91% * 0,724 +23,07% * SBM 0,390 +79,74% * 0,343 +74,05% * 0,451 +83,37% * 0,473 +88,37% * Appariement neuronal ARC-I 0,546 +28,39% * 0,380 +57,11% * 0,772 7,12% * 0,881 +1,14% * ARC-II 0,515 +36,12% * 0,341 +75,07% * 0,755 +9,54% * 0,870 +2,41% * ANMM 0,596 +17,62% * 0,461 +29,50% * 0,771 +7,26% * 0,871 +2,30% * ANMM+F(d∗) 0,599 +17,03% * 0,466 +28,11% * 0,765 8,10% * 0,868 +2,65% * DRMM 0,644 +8,85% * 0,514 +16,15% * 0,810 +2,10% * 0,894 +0,34% DRMM+F(d∗) 0,622 +12,70% * 0,492 +21,34% * 0,786 +5,22% * 0,873 +2,06% * Appariement de représentations distribuées de géotextes

WORD2VEC 0,356 +96,91% * 0,218 +173,85% * 0,499 +65,73% * 0,650 +37,08% *

DISTILBERT 0,187 +274,48% * 0,095 +528,42% * 0,258 +220,54% * 0,374 +138,23% *

SBERTSTS 0,300 +133,67% * 0,177 +237,29% * 0,418 +97,84% * 0,565 +57,70% *

SBERTNY 0,712 -1,54% * 0,612 -2,45% * 0,821 +0,73% 0,900 -1,00%

5 r é s u ltat s d e l’évaluation 177

MRR Acc@1 Acc@5 Acc@10

Modèle Valeur %Chg Valeur %Chg Valeur %Chg Valeur %Chg

Notre contribution SGM 0,757 - 0,676 - 0,854 - 0,903 - Appariement spatial DIST 0,534 +41,76% * 0,459 +47,28% * 0,607 +40,69% * 0,678 +33,19% * Appariement textuel BM25 0,381 +98,69% * 0,278 +143,17% * 0,613 +39,31% * 0,770 +17,27% * TFIDF+-D 0,411 +84,18% * 0,314 +115,29% * 0,545 +56,70% * 0,622 +45,18% * Appariement spatial et textuel

CLASS 0,586 +29,18% * 0,505 +33,86% * 0,677 +26,14% * 0,717 +25,94% * SBM 0,200 +278,50% * 0,170 +297,65% * 0,241 +254,36% * 0,256 +252,73% * Appariement neuronal ARC-I 0,511 +48,14% * 0,367 +84,20% * 0,694 +23,05% * 0,809 +11,62% * ARC-II 0,500 +51,40% * 0,355 +90,42% * 0,680 +25,59% * 0,808 +11,76% * ANMM 0,623 +21,51% * 0,502 +34,66% * 0,776 +10,05% * 0,858 +5,24% * ANMM+F(d∗) 0,620 +22,10% * 0,501 +34,93% * 0,766 +11,49% * 0,854 +5,74% * DRMM 0,661 +14,52% * 0,546 +23,81% * 0,801 +6,62% * 0,879 +2,73% * DRMM+F(d∗) 0,653 +15,93% * 0,538 +25,65% * 0,795 +7,42% * 0,870 +3,79% * Appariement de représentations distribuées de géotextes

WORD2VEC 0,320 +136,56% * 0,187 +261,50% * 0,449 +90,20% * 0,608 +48,52% *

DISTILBERT 0,171 +342,69% * 0,085 +695,30% 0,239 +257,32% 0,344 +162,50% *

SBERTSTS 0,282 +168,44% * 0,165 +309,70% * 0,391 +118,41% * 0,527 +71,35% *

SBERTSG 0,721 +5,00% * 0,623 +8,51% * 0,844 +1,18% * 0,906 -0,33%

(b) Jeu de données de SG

Tableau 5.6 – Comparaison des performances du modèle SGM par rapport aux modèles de référence, La différence significative par rapport à SGM est déterminée par le test t de Welch (∗: p<0, 01)

5.3.1 Analyse des performances globales

Dans l’ensemble, nous remarquons à partir duTableau 5.6, que le modèle SGM surpasse largement les performances de presque tous les modèles de l’état-de-l’art (15/16), quels que soient les mesures et les jeux de données considérés. La seule exception est la variante SBERTX qui a été spécialement entraînée sur la tâche

d’appariement sémantique. Les résultats indiquent donc que le modèle SGM per- met un appariement tweet-POI plus efficace. Plus précisément, près de 6 tweets sur 10 sont correctement associés à leur POI pour les deux collections, selon les résultats du top-1 (c.-à-d. Acc@1). Cela correspond à un taux d’amélioration signi-

5 10 15 20 25 30 k 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 Précision SGM Dist BM25 Class DRMM SBERTNY

(a) Jeu de données de NY

5 10 15 20 25 30 k 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 Précision SGM Dist BM25 Class DRMM SBERTSG (b) Jeu de données de SG

Figure 5.9 – Évolution de l’Acc@k pour le modèle SGM et une sélection de modèles de référence.

ficatif compris entre 16, 15% et 91, 96% (resp. 23, 81% et 297, 65%) par rapport aux performances des modèles de référence pour la collection de NY (resp. SG). En regardant l’Acc@10 du modèle SGM, près de 90% des tweets sont correctement associés à leurs POIs pour les deux jeux de données. Sa MRR atteint des valeurs de 0, 701 et 0, 757 pour les collections de NY et de SG, augmentant respectivement les performances de l’appariement de 34, 91% et 64, 17% en moyenne.

Pour approfondir l’analyse des résultats, nous traçons, dans laFigure 5.9, l’évo- lution de l’Acc@k, pour k∈ [[1, 30]], du modèle SGM et des modèles de référence, pour les jeux de données de NY (Figure 5.9a) et de SG (Figure 5.9b). Pour une meilleure lisibilité, nous n’affichons que les modèles représentatifs : Dist, BM25, Class, Arc-I et SBERTX. En recoupant les résultats mis en évidence dans le Ta-

bleau 5.6et laFigure 5.9, nous faisons les observations suivantes.

Appariement spatial. Utiliser les caractéristiques spatiales pour l’appariement

d’objets géotextuels est incontestablement bénéfique. En effet, le modèle Dist (ligne tiretée-pointillée verte) est l’un des modèles de référence les plus perfor- mants pour de faibles valeurs de k. Nous pouvons voir dans leTableau 5.6que plus de 40% des tweets sont correctement associés à leur POI lorsque nous considérons le résultat du top-1 (c.-à-d. Acc@1). Toutefois, les résultats restent inférieurs à ceux obtenus par le modèle SGM, indiquant donc l’intérêt de l’utilisation conjointe des caractéristiques textuelles et spatiales.

Par ailleurs, en examinant les performances des modèles sBM et Class (ligne poin- tillée violette), et en comparant leurs performances avec les modèles Dist et SGM, nous pouvons conclure que la méthode utilisée pour combiner les caractéristiques spatiales et textuelles est cruciale. La combinaison de la distance avec un modèle bayésien (sBM) dégrade les performances. L’Acc@1 diminue de 0, 410 à 0, 343 (resp. de 0, 459 à 0, 170) pour la collection de NY (resp. SG). En revanche, l’utilisation

5 r é s u ltat s d e l’évaluation 179

conjointe des caractéristiques spatiales et d’un modèle de langue (Class) améliore l’efficacité de l’appariement de 21% (resp. 10%) pour la collection de NY (resp. SG).

Appariement textuel. L’appariement textuel exact est certes utile, mais insuf-

fisant pour capturer efficacement les relations sémantiques entre les textes. Ces relations ne peuvent être déduites qu’à un niveau spatial ou à un niveau pro- fond de représentations des sens des mots (p. ex. via des plongements lexicaux). En effet, parmi les modèles de référence qui reposent sur l’appariement textuel (c.-à-d. BM25, TfIdf+-D), le modèle BM25 obtient une Acc@1 très faible, de seule- ment 0, 326 et 0, 278 pour les collections de NY et de SG, mais atteint rapidement de bonnes valeurs de précision, et dépasse tous les autres modèles lorsque nous considérons des valeurs de k plus élevées, comme nous pouvons le voir dans la

Figure 5.9(ligne tiretée-pointillée rouge).

Appariement sémantique. Utiliser seulement l’appariement sémantique,

comme c’est le cas pour les modèles neuronaux d’appariement (Arc-I, Arc-II, aNMM, DRMM), ne suffit pas pour pallier l’inadéquation du vocabulaire. En re- vanche, combiner les approches d’appariement exact et sémantique, comme nous l’avons proposé avec le modèle SGM, est bénéfique pour l’appariement tweet-POI. En effet, en regardant les résultats des modèles Arc-I et Arc-II qui n’utilisent que l’appariement sémantique, nous pouvons remarquer qu’ils se classent parmi les pires modèles pour la collection de NY, avec une Acc@1 qui ne dépasse pas 38%. Il en est de même pour le jeu de données de SG, qui présente une Acc@1 de seule- ment 36, 7%.

En ce qui concerne les modèles aNMM et DRMM (ligne tiretée violette), nous remarquons qu’ils surpassent tous les autres modèles de référence lorsque k = 1 pour la collection de SG, et k =2 pour la collection de NY, mais n’atteignent pas les performances du modèle SGM. En considérant des valeurs plus élevées de k (k > 8 pour la collection de NY et k > 22 pour la collection de SG), nous voyons sur la Figure 5.9 que les modèles neuronaux parviennent à atteindre les perfor- mances du modèle SGM.

Enfin, en examinant les variantes DRMM+F(d∗)et aNMM+F(d∗), augmentées par le facteur d’amortissement F(d∗), nous pouvons conclure que celui-ci ne permet pas d’obtenir un gain de performance significatif. Au contraire, combiner le facteur d’amortissement avec le réseau de pondération des mots (term gating network) dé- grade les performances de l’appariement. La MRR du modèle DRMM diminue de 0, 644 à 0, 622 (resp. de 0, 661 à 0, 653) pour la collection de NY (resp. SG) lorsque nous ajoutons le facteur d’amortissement F(d∗).

Appariement de représentations distribuées de géotextes.L’analyse des résul-

tats des modèles d’appariement s’appuyant sur les représentations distribuées des géotextes nous permet de constater que le simple appariement de représentations

de tweets et de POIs est généralement beaucoup moins efficace que l’apprentis- sage d’une fonction d’appariement sémantique spatial comme le fait le modèle

SGM. Plus spécifiquement, nous pouvons remarquer, les modèles SBERT mis à part, que l’amélioration de la MRR varie entre 96, 91% et 274, 87% (resp. entre 136, 56% et 342, 69%) pour la collection de NY (resp. SG) pour le modèle SGM. En ce qui concerne les modèles s’appuyant sur l’architecture de BERT, nous consta- tons ce qui suit : (1) l’utilisation des plongements lexicaux DistillBert sans ajus- tements réalise de moins bonnes performances que les plongements lexicaux tradi- tionnels Word2Vec. Plus précisément, pour le jeu de données de NY (resp. SG), en- viron 22% (resp. 19%) des tweets sont correctement associés à leur POI correspon- dant avec le modèle Word2Vec, contre environ 10% (resp. 9%) avec le modèle Dis- tillBert. Nos résultats corroborent donc les conclusions deReimers et Gurevych (2019) ; (2) : l’ajustement des représentations distribuées du modèle BERT à l’aide

d’une tâche de similarité sémantique (c.-à-d. les modèles SBERTSTS, SBERTNY et

SBERTSG) permet d’améliorer les performances de prédiction. Cette augmentation

est faible lorsque la collection utilisée pour l’étape d’ajustement est différente de la collection de test (c.-à-d. SBERTSTS), mais elle est significative et permet d’obte-

nir des résultats comparables au modèle SGM lorsque la collection utilisée pour l’étape d’ajustement est identique à la collection de test (c.-à-d. SBERTX). En effet,

la MRR augmente de 0, 300 à 0, 712 (resp. de 0, 282 à 0, 721) pour le jeu de données de NY (resp. SG). Par ailleurs, nous notons que le modèle SBERTNY réalise une

performance légèrement plus élevée que le modèle SGM sur le jeu de données NY, avec une Acc@1 de 0, 612 mais que l’Acc@1 du modèle SBERTSG est légère-

ment plus faible (0, 623) que le modèle SGM sur la collection de SG. Ainsi, ces représentations peuvent être utilisées pour un appariement sémantique efficace au prix d’un ajustement très spécifique et coûteux en temps et en ressources.

5.3.2 Analyse qualitative d’un échantillon de tweets

Nous effectuons maintenant une analyse qualitative au niveau des tweets, pour déterminer les raisons du succès ou de l’échec du modèle SGM par rapport aux modèles de référence. Nous choisissons, dans chaque catégorie définie dans la

Section 4.3, les modèles qui ont donné les meilleurs résultats en terme d’Acc@1, à savoir Dist, BM25 et SBERTX. Nous commençons par identifier les ensembles de

tweets pour lesquels notre modèle SGM a fait moins bien (T−), à obtenu le même résultat (T=), ou a fait mieux (T+) que les modèles sélectionnés. Les résultats sont présentés dans leTableau 5.7.

D’après le Tableau 5.7, nous pouvons remarquer que, par rapport au modèle Dist, le modèle SGM améliore la qualité d’appariement de près de la moitié des tweets pour les deux jeux de données. Plus précisément, 49, 60% (resp. 44, 40%) des tweets sont mieux associés à leur POI avec le modèle SGM qu’avec le modèle