• Aucun résultat trouvé

Traitement spatial, création du Système d’Information Géographique (SIG) et rendu cartographique

CHAPITRE 1. CONTEXTE HISTORIQUE ET

3.1 Méthode de fouille, enregistrement et exploitation des données

3.1.4 Traitement spatial, création du Système d’Information Géographique (SIG) et rendu cartographique

L’utilisation d’un Système d’Information Géographique (SIG) s’est imposée dès l’origine pour traiter de façon efficace et performante nos données attributaires associées aux informations spatialisées. L’apport d’une analyse spatiale en 3D étant limitée et les plans étant lisibles en 2D, nous n’avons pas réalisé de Modèle Numérique de Terrain (MNT). Les requêtes spatiales sont effectuées au sein d'une fonction

~ 61 ~

Javascript© de filtre de données Geographic JSON (GeoJSON©), dont le résultat est affiché grâce au plugin leaflet.heatmap12, sous la forme d'une carte choroplèthe.

À chacune des phases identifiées est associé un plan de localisation vectoriel différent. Le premier reprend les éléments mis au jour lors de la fouille archéologique pour le XIIIe siècle. Le second, correspondant à la

phase 2, est celui du couvent médiéval avant les grandes transformations et agrandissements effectués au XVIIe siècle. Le dernier plan enfin est celui du couvent après la construction de l’aile nord (postérieure à

1665) mais avec une salle capitulaire représentée dans ses dimensions maximales. Les chapelles Notre- Dame et Saint-Joseph sont bien achevées et le nouveau carré claustral est agrandi vers le nord.

Les sépultures sont traitées sous forme de couches avec des données attributaires différentes selon les requêtes envisagées. Si les sujets ont tous été géoréférencés sur le terrain à partir d’au maximum 3 points topographiques (tête, bassin, pied), leur représentation graphique par une ligne, un point pour le crâne et une barre transversale pour les pieds, permettant de visualiser leur orientation, n’a pas été retenue. Deux types de représentation sont choisis : un centroïde par ligne, pour simplifier au maximum l’information, garder une localisation précise et un dénombrement quantitatif exact (fig. 28/A) et des analyses par densité relative pour éviter les bruits de fond et avoir une vision rapide des résultats au travers d’un découpage aléatoire arbitraire (fig. 28/B). Ces dernières renseignent la somme (présence/absence) des caractères questionnés, soit à partir de leur moyenne s’il s’agit de variables continues

Figure 28 : Visualisation différente de données identiques : répartition des 605 sujets inhumés sur le fond de plan du couvent

du XVIIe siècle. A : représentation quantitative et situation exacte de chaque squelette ; B : carte de densité heatmap relative.

~ 62 ~

3.1.5 Les analyses statistiques

Quel que soit le type de variables testé, le nom du test statistique est noté systématiquement en note de bas de page ainsi que la probabilité réelle. L'utilisation du mot « significatif » est donc toujours justifiée par la probabilité afférente et les résultats sont systématiquement présentés en gras en note de bas de page. Les analyses statistiques ont été effectuées à l’aide du logiciel R.

3.1.5.1 Traitement des variables booléennes, discontinues

Selon la taille des échantillons, des tests de Khi² d’indépendance (grands échantillons) ou des tests exacts de Ficher (échantillon de petite taille) ont été réalisés. Les résultats permettent de comparer plusieurs distributions observées contenant des suites d’effectifs. Des khi² de conformité ont été réalisés pour tester des comparaisons entre des échantillons observés et théoriques comme les paramètres démographiques. Des analyses des correspondances multiples (ACM) ont été réalisées pour obtenir une image graphique de variables qualitatives (comme les caractères discrets).

3.1.5.2 Traitement des variables continues

L’ensemble des données est résumé par des statistiques descriptives, incluant le dénominateur commun (valeur n pour chaque ensemble de données), une mesure du centre (comme la moyenne ou la médiane) et une mesure de la variabilité (écart-type). L’ensemble de ces informations est représenté dans les boites de dispersion. La distribution des valeurs est ensuite testée pour vérifier la normalité de leur répartition. L’hypothèse 0 (H0) étant que la distribution observée suit une loi de Gauss ou non (H1). Ces tests ont été effectués par phases chronologiques et/ou des groupes socio-économiques et/ou localisation des tombes.

Des tests de Shapiro-Wilk ont été effectués pour l’analyse statistique des données continues (valeurs métriques et isotopiques notamment). L’objectif recherché est de savoir si les variables remplissent les paramètres d’une distribution normale ou pas. Ensuite, les variables ont été testées une à une par phase et par groupe pour connaitre les données dépendantes et indépendantes. Des tests ANOVA puis de Tukey ont été utilisés pour les données paramétriques (remplissant les conditions d’une Loi normale) et Kruskal- Wallis avec des tests de Dunn pour les autres (données non-paramétriques).

~ 63 ~

Lorsque cela a été nécessaire, les données manquantes ont été implémentées avec la méthode des plus proches voisins (kNN = k nearest neighbors) qui détermine à partir du coefficient de Gowers les variables numériques les plus semblables. L’objectif de la méthode est de minimiser les bruits de fond en ne remplaçant pas systématiquement les manques par de simples valeurs moyenne ou médiane. Les calculs ont été réalisés avec le package VIM de R (Kowarik, Templ 2016).

3.1.5.3 Traitement géostatistique

Pour évaluer le degré de hasard dans la répartition spatiale des tombes et mettre en évidence une relation entre voisins plus marquée que la relation avec le reste du groupe, des analyses cartographiques exploratoires systématiques ont été menées. D’un point de vue statistique, le processus repose sur l’hypothèse d’indépendance entre les variables. Ainsi, si une variable est spatialement auto-corrélée, l’hypothèse d’indépendance (H0) n’est pas respectée (dispersion aléatoire). Le traitement géostatistique permet alors de quantifier spatialement les données pour appuyer les interprétations et complète utilement les simples représentations graphiques.

L’indice de Moran (I de Moran) a été choisi pour sa robustesse et se définit comme le rapport de la covariance sur la variance (Oliveau 2010). Par défaut, l’indice détermine que plus le nombre de voisin est élevé, plus l’individu a de poids dans la matrice de pondération. Une distance entre ces voisins peut être définie pour influer sur la covariance de ce point et de ses voisins par rapport à la variance de l’ensemble des points. Le résultat du calcul de l’I de Moran s’interprète comme un coefficient de corrélation, variant de -1 (auto-corrélation spatiale négative : association négative, évitement, répulsion) à +1 (auto- corrélation spatiale positive impliquant des notions d’agrégation, d’attraction), la valeur zéro marquant l’absence d’auto-corrélation spatiale (répartition aléatoire). La valeur de l’indice de Moran peut alors être interprétée comme la part de variance explicable par le voisinage, ainsi un I de Moran avec p = 0,25 attribuerait 25 % de la variance aux valeurs dans le voisinage. Associé à cet indice, la p-value indique la significativité de l’auto-corrélation.

~ 64 ~

3.1.5.4 Les résumés

Des résumés et synthèses des résultats obtenus sont rappelés en fin de chaque partie dans le chapitre des résultats. Les graphes y sont exprimés en pourcentage pour faciliter les comparaisons entre groupes et phases, les liens statistiques notés restent par contre ceux exprimés à partir des distributions réelles. L’objectif de ces représentations est alors de synthétiser rapidement les observations pour une lecture abrégée des données et ne retenir que les plus percutantes. En ramenant les échantillons à des effectifs théoriques de 100, on uniformise et pondère ainsi les groupes et fait disparaître la relativité des effectifs de petites tailles et échantillons de grandeur inégale.

~ 65 ~

3.2 Méthodes anthropologiques sur os sec