• Aucun résultat trouvé

Cadre des analyses statistiques

A. Cadre de l’étude géostatistique des gravures

1. Cadre des analyses statistiques

Dans les analyses, les individus statistiques pourront être les variables descriptives des gravures (par exemple la typologie des appendices des Figures à franges), les attributs des gravures (par exemple les hallebardes tenues par des Personnages), les gravures, ou encore leur différent niveau de regroupement sur les faces ou les roches gravées194.

Distributions

Pour distinguer différents sous-ensembles dans une population, on étudie la distribution des valeurs des variables décrivant les individus. Les indicateurs de la tendance centrale, moyenne, médiane, écart-type, coefficient de variation195, etc. permettent de caractériser la

série composée par les individus et de les situer les uns par rapport aux autres196.

Théoriquement, on attend que les individus d’une même population se distribuent selon une loi générale. Parler d’ajustement d’une distribution observée à cette loi théorique revient à

194 Au-delà de la roche gravée, on pourra agréger les différents individus en groupes, zones ou secteurs afin d’obtenir des tableaux d’effectifs minimisant les lignes sans enregistrements. Plus les individus seront regroupés, moins ils seront nombreux et plus la part de variance non exprimée par la mesure statistique pourra baisser. Toutefois, cette baisse de la variance tendra à homogénéiser les résultats.

195 Le coefficient de variation (CV) est un nombre sans dimension (centré-réduit) qui permet de comparer la dispersion de séries statistiques dont les moyennes sont très différentes (i.e. différents ordres de grandeur). Il peut par exemple être utile pour comparer la dispersion des tailles des Poignards des Merveilles (grandes tailles) à la dispersion des tailles des Personnages de Fontanalba (petites tailles).

196 Pour M. Béguin et D. Pumain, trois informations essentielles qualifient une série statistique : son ordre de grandeur (moyenne, mode, médiane), sa dispersion (écart-type, variance), et, corollaire des deux premières, sa forme (normale, logarithmique, en courbe de Poisson....).

mesurer les écarts entre les individus de la population observée et la distribution des individus du modèle théorique. Deux modèles de distribution ont été proposés pour interpréter les distributions des roches gravées et des gravures : la loi normale et la loi de Poisson.

Loi normale

La plupart des méthodes statistiques ont été définies pour les distributions normales, ou gaussiennes, que l’on rencontre fréquemment dans des phénomènes naturels. Les tests statistiques employés pour ces populations sont appelés tests paramétriques197. La loi normale

est la loi de distribution qui s’applique à une variable statistique qui est la résultante d’un grand nombre de causes indépendantes dont les effets s’additionnent et dont aucune n’est prépondérante198. Rapportée à notre étude, elle se traduirait par : le fait que la majorité des

roches gravées recevrait n gravures (n correspondant à la moyenne) et le fait qu’il y aurait environ le même nombre de roches peu gravées que de roches très gravées (symétrie des queues de la courbe).

La loi normale est généralement sous-entendue dans les analyses (Bégin 1990, Romain 1991, Lumley et al. 1995, Serres 2001, Saulieu 2001, Lumley et al. 2003a, 2003b entre autres)199.

En pratique, la normalité s’applique mal aux réalités géographiques et archéologiques200. De

plus, des « effets de taille » peuvent fréquemment apparaître. Aussi la seule mesure de la moyenne, pour caractériser un individu ou un ensemble d’individus, peut être mal adaptée dans le cas des distributions que nous allons rencontrer. D’autres indicateurs de la tendance centrale doivent être pris en compte : écart-types, médiane, coefficient de variation, etc.

197 Les tests paramétriques requièrent un modèle à fortes contraintes (normalité des distributions, égalité des variances, taille de l’échantillon). Ces hypothèses (de même variance, etc.) sont d’autant plus difficiles à vérifier que les effectifs sont faibles. Les mesures non-paramétriques permettent de travailler avec les rangs, les écarts et les effectifs des différentes valeurs plutôt qu’avec leur variance ou leur écart-type dérivés de la moyenne (i.e., paramètres de la tendance centrale). Les tests non-paramétriques peuvent être appliqués à des échantillons de faibles effectifs (n ≤ 30).

198 La normalité d’une distribution se définie par le fait que la médiane, le mode et la moyenne se confondent et que 95% des valeurs est compris entre la moyenne ± 2 écart-types. Les différents tests statistiques permettant de savoir si une distribution est normale sont : le test de Shapiro-Wilk, le test de Student, le test du Khi-deux, le test de Kolmogorov-Smirnov et le test de Lilliefors.

199 Pour ces auteurs, l’analyse statistique des gravures et des roches est passée par des mesures et des comparaisons de moyennes, d’effectifs et de pourcentages.

200 « Sur un plan purement technique il est également nécessaire de souligner la réticence des distributions de données archéologiques à rentrer dans le moule contraignant de la loi normale » (Djindjian 1991 p. 17). Pareillement : « dans la pratique, la plupart des séries statistiques rencontrées en géographie sont de type dissymétrique » (Béguin, Pumain 2003).

Loi de Poisson

La loi de Poisson est une loi de probabilité discrète importante pour l’analyse des structures spatiales de points (Burt, Barber 1996 p. 185). Elle correspond temporellement à l’apparition d’un événement rare et spatialement à l’implantation d’un point indépendamment de la position de ses voisins. Rapportée à notre étude, elle se traduirait par une distribution aléatoire des roches gravées, la distribution aléatoire des gravures sur la roche gravée (i.e. la réalisation d’une gravure indépendamment de la présence d’autres gravures. Autrement dit, les gravures ne seraient pas associées) et des gravures d’autant plus nombreuses et plus grandes que la surface qui peut être gravée est large.

La seule mention de cette loi de distribution a été faite par L. Barral et S. Simone (1990, 1991) dans le cadre d’un ajustement avec la distribution des gravures et des thèmes sur les dalles (Barral, Simone 1991 p. 137).

Tests

Les tests statistiques permettent de comparer les distributions de plusieurs échantillons201 et de

confirmer qu’un ensemble est « significativement » différent d’un autre ensemble. Cette « significativité » est donnée avec un seuil de confiance (généralement de 5 %) et est généralement accompagnée d’un test de puissance202.

Test du Khi-deux

Le test du Khi-deux de Pearson (ou 2) permet d’évaluer si le lien existant entre deux variables discontinues est significatif203. Il se décline en un test d’adéquation (à une loi de

201 Un échantillon se définit comme un ensemble d’individus extraits aléatoirement d’une population pour obtenir une évaluation représentative de celle-ci.

202 La puissance (ou performance) d’un test permet d’estimer le degré de pertinence d’un résultat statistique. Par exemple, un résultat de puissance de 20% indique que si H0 est fausse, c'est-à-dire qu’il y a effectivement une différence, on ne la détectera que dans 20% des cas. C’est-à-dire aussi que l’on risque de commettre une erreur de deuxième espèce en déclarant à tort que la différence observée est due au hasard. L’utilisation des tests non- paramétriques augmente le risque d’accepter l’hypothèse nulle H0 (« populations non différentes ») pour des échantillons qui sont en fait différents. Ce risque est appelé erreur de la deuxième espèce (ou de type II). Réciproquement, leur emploi diminue le risque de déclarer différents 2 échantillons qui ne le sont pas. Ce risque est appelé erreur de la première espèce (ou de type I). Un test statistique est généralement jugé convenable lorsque le seuil pour un risque de 1e espèce atteint les 80% et pour un risque de la 2e espèce les 95%.

203 La statistique de ce test repose sur la comparaison entre les effectifs observés (ou réels) et les effectifs théoriques (ou attendus) de la loi de distribution choisie. La différence (ou distance) entre les effectifs observés et les effectifs théorique est dite distance du khi-deux. Pour un ensemble d’individus (en ligne) décrits par des variables (en colonne), regroupés dans un tableau de contingence, les distances du khi-deux sont calculées pour l’ensemble des cases du tableau et sont additionnées. Cette valeur est ensuite comparée à une valeur seuil, généralement conservée dans une table, qui indique à n % de chances de se tromper si les effectifs observés dépassent significativement la loi d’ajustement (khi-deux supérieur au seuil fixé, acceptation de Ha) ou bien si les deux distributions ne diffèrent pas significativement (acceptation de H0).

distribution statistique) et en un test d’homogénéité des variances (entre k échantillons indépendants). Les tests d’homogénéité des variances vont permettre de distinguer au sein d’un même ensemble, ou en comparant plusieurs groupes d’individus, si ces derniers ont les mêmes distributions.

Test de Dunn

Le test (ou procédure) de Dunn est un test non-paramétrique de comparaison multiple204. Ce

test compare la différence de la somme des rangs entre les deux colonnes à la différence moyenne prévue (en fonction du nombre de groupes et de leur effectif). Le résultat de ce test est une classification des populations en différents groupes.

Test de Mann et Whitney

Test non-paramétrique servant à comparer deux échantillons indépendants205. Il est

conventionnellement utilisé pour de petits échantillons (de n < 30 jusqu’à n ≥ 4) et pour des distributions non normales.

Test de Kruskal et Wallis

Le test de Kruskal et Wallis est une généralisation du test de Mann et Whitney pour k échantillons indépendants206. C’est un test homologue à l’ANOVA (ANalyse Of VAriance)

utilisé dans le cas où les contraintes liées à celle-ci ne peuvent pas être remplies. C’est donc un test non-paramétrique.

Analyses multifactorielles

Les analyses multifactorielles, ou Analyse des Correspondances (AC), permettent d’obtenir des représentations synthétiques des tableaux de données207.

Elles permettent une classification non supervisée des individus et des variables. Les principaux résultats d’une analyse multifactorielle sont formés par les plans factoriels qui

204 C'est-à-dire que les n individus étudiés seront comparés deux à deux. Il existe donc (n*(n-1))/2 comparaisons. 205 Cette statistique mesure le recouvrement d’une série par l’autre en comptant, pour chaque valeur, le nombre de fois ou une valeur de la première série précède une valeur de la seconde série. Le calcul du U de Mann et Whitney est la somme de ces valeurs. Une table donne le seuil p au-delà duquel le U est jugé significatif.

206 La statistique de ce test repose sur les distributions autour des moyennes des rangs des observations pour chacun des différents échantillons.

207La « fouille de données » ou data mining est une méthode exploratoire non-supervisée pour reconnaître les relations entre individus caractérisés par un ensemble de variables. Pour J.-P. Benzécri, « l’analyse des données est un outil pour dégager de la gangue des données le pur diamant de la véridique nature » (Benzécri 1973).

résument l’état des liaisons entre variables et les individus sous la forme d’un semis de points208.

Ces plans factoriels sont constitués par deux axes orthogonaux se coupant au niveau du centre de gravité du plan209. L’axe F1 est l’axe qui représente le mieux possible la dispersion : c’est

la droite des moindres carrés. Le pourcentage d’inertie exprimé par ce premier axe renseigne sur l’allure générale du nuage de points (cf. infra). Le deuxième axe, F2, passe par le centre de gravité. Il y a ensuite autant d’axes qu’il y a de variables (ou facteurs) mais on n’étudie généralement que les axes exprimant au moins 20 % de l’inertie210.

La représentation sur un même plan d’une information comprenant n>2 dimensions, induit généralement que toute la variabilité ne peut être représentée sur ce seul plan à deux dimensions. L’AC génère, en plus des différents plans factoriels, des données qui doivent être prises en compte au moment de l’interprétation des relations entre individus/variables. Les principales données à étudier sont :

- le tableau des contributions relatives d’un individu/variable, dit également tableau des cosinus carrés. Celui-ci permet de juger de la qualité de représentation d’un point. Cette qualité de représentation s’exprime en pourcentage de la variance total de l’individu/variable pour chacun des axes factoriels. Un individu est conventionnellement « bien représenté » quand 80 % de sa variance totale peut être étudiée.

- le tableau des contributions absolues montre la part que prend un individu/variable dans la construction d’un axe.

L’étude des relations entre les individus et les variables commence par la forme générale du nuage de points :

- quand il y a sphéricité du nuage de point (aucune direction privilégiée et distribution concentrée autour du centre de gravité du plan factoriel), il y a une indépendance entre les points.

208 Les individus et les variables sont représentés par des points et peuvent être étudiés conjointement sur un même plan factoriel. En fonction de la normalité ou non des distributions (cf. supra), les analyses multifactorielles pourront s’appuyer sur le coefficient de corrélation de Bravais-Pearson (normalité respectée) ou de Spearman (non-normalité). En pratique, tous les logiciels de statistiques ne permettent pas de choisir le type du coefficient de corrélation employé dans la détermination des distances entre les individus et les variables. C’est généralement celui de Bravais-Pearson qui est employé. Toutefois la matrice des corrélations de Spearman peut être effectuée indépendamment d’une AC.

209 Les valeurs exprimées sur un plan factoriel sont préalablement centrées (valeur – moyenne) et réduites (valeur – 1 écart-type) ce qui permet de confronter des données qui ne sont pas toutes exprimées dans la même unité de mesure ni selon les mêmes ordres de grandeur. Dans un plan factoriel l’origine se confond avec le centre de gravité du nuage de point.

- quand il y a un axe privilégié (non sphéricité), il y a une situation de dépendance entre certains individus et certaines variables.

- quand il y a regroupement des points en deux à plusieurs sous-nuages, plusieurs sous- ensembles peuvent être dégagés211.

-quand l’ensemble des points forment un arc de cercle, dit effet de Guttman, sur le premier plan factoriel, il y a une sériation des données.

Etudiés deux à deux les individus/variables peuvent être :

-proches les uns des autres, les points sont positivement corrélés. -orthogonaux les uns aux autres, ils sont décorrélés.

-symétriquement opposés l’un à l’autre par rapport au centre du plan, ou à un axe, ils sont négativement corrélés ou anticorrélés.

La matrice des corrélations reprend l’ensemble des liaisons entre les variables/individus attribuant à chaque couple de points un coefficient compris dans l’intervalle [-1 ; +1] (Tableau 69).

En fonction de la nature des variables étudiées (quantitatives ou qualitatives), les analyses multifactorielles se déclinent en différentes variantes : ACP (Analyse en Composantes Principales)212, AFC (Analyse Factorielle des Correspondances) pour ne pas minimiser les

individus et/ou variables qui sont mal représentées en termes d’effectifs, etc. Généralement, une analyse multifactorielle est complétée par une CAH (Classification Ascendante Hiérarchique) mettant en évidence segmentation des groupes d’individus ou de variables213.

Comme notre propos concerne les tendances générales des gravures, nous nous attacherons fréquemment à la seule description du premier plan factoriel.

211 Les centres de chacun de ces sous-nuages peuvent être interprétés comme de nouveaux points.

212 Le premier facteur d’une ACP retranscrit toujours un effet de taille ce qui peut poser un problème compte- tenu des différences entre les effectifs des différentes familles.

213 Dans le dendrogramme, la méthode d’agrégation des individus en classes est généralement celle de Ward. L’algorithme agrège les deux individus les plus proches entre eux, calcule leur barycentre, et affecte un troisième individu à ce barycentre ou à un autre barycentre de façon à ce que l'inertie intra-classe soit minimisée. La coupure de l’arbre doit être réalisée au niveau d’un saut d’inertie important de manière à ce que la partition en sous-arbres ne soit pas trop modifiée si la valeur d’une variable devait changer un peu (robustesse du modèle).

Signification de l’effet de Guttman dans l’étude des gravures

L’effet de Guttman est un phénomène qui se produit en AFC quand il existe une structure d’ordre pour l’ensemble des individus et des variables, ces structures étant associées214.

Même quand il est parfaitement réalisé, les pourcentages d’inertie exprimés par les deux premiers axes factoriels F1/F2 sont faibles alors que l’information sur la structure de données est complète (Escoffier, Pagès 2008 p. 231, 232). Il découle que seule l’étude du premier plan factoriel est nécessaire, le plan F1/F3 et les suivants montrant également des formes caractéristiques d’une sériation des données (Djindjian 1991).

Sur le premier plan factoriel, l’effet de Guttman est figuré par un nuage de points formant une parabole inversée215. Le fait qu’il y ait une sériation entre les variables et les individus plutôt

qu’un partitionnement explique qu’une partie du premier plan reste vide de tout point. Le tableau de données peut être réorganisé (ou diagonalisé)216 ; les valeurs fortes sont alors toutes

concentrées dans la diagonale et décroissent graduellement vers les bords du tableau (Figure 215). Les coefficients de corrélations ( de Pearson ou de Spearman) entre les variables sont tous positifs.

La signification chronologique de la sériation repose sur le postulat qu’au cours du temps des modalités décrivant un objet vont évoluer graduellement, certaines apparaissant quand d’autres vont disparaître. Dans le cadre de notre étude, pour un thème donné217, dès lors que

l’effet de Guttman traduit une sériation iconographique des gravures et que l’étude géographique indique un déplacement de leur centre de gravité218, une évolution

chronologique devient vraissemblable. Régressions

Les régressions vont permettre de déterminer quelle part de la variabilité d’un individu statistique peut être expliquée par une ou plusieurs variables quantitatives (régression simple ou multiple) ou qualitatives (régression logistique). Le modèle de régression permet de

214 En archéologie, l’exemple de la nécropole wisigothique de Duratón (Ségovie, Espagne) a montré qu’il était possible d’ordonner chronologiquement les objets retrouvés dans des ensembles clos, en l’occurrence des sépultures, en suivant l’ordre révélé par le premier plan factoriel de l’AFC (Ciezar 1990).

215 L’effet de Guttman est aussi appelé arch effect. La courbe dessinée sur le premier plan factoriel est la trace d’une relation linéaire entre individus et variables dans l’hypersphère (espace multidimensionnel).

216La réorganisation du tableau peut être faite avec le logiciel Past.

217 Un ensemble clos, au sens archéologique, est un regroupement d’objets contemporains associés dans une même structure, généralement une sépulture, une fosse, etc. Pour nous, chaque composante descriptive de la gravure peut jouer le rôle d’un objet composant la structure. Cette dernière est ici la gravure et non pas la roche. 218 Le centre de gravité (ou barycentre, ou centroïde) d’un ensemble de roches gravées ou de gravures peut fournir une référence utile dans la comparaison de plusieurs familles de gravures dans une même zone géographique. En géographie, son déplacement synthétise l’évolution d’un même ensemble de points au cours du temps (Pumain et Saint-Julien 1997 p. 54).

calculer un coefficient de détermination (R2) pour l’ensemble des individus et une déviation standard pour chacun d’entre eux (Fig. 214). Par exemple, la Roche de l’Autel comporte de nombreux Poignards (thème) et parmi eux certains ont un pommeau (type) ; les Poignards avec un pommeau forment un sous-ensemble de la famille des Poignards. On cherche à savoir si la présence d’un pommeau est une modalité uniformément répartie sur les roches gravées ayant des Poignards219, auquel cas le coefficient de détermination sera élevé (proche

de 1). Si la présence des pommeaux n’est pas liée au nombre total de gravures de Poignards alors le coefficient de détermination R2 sera faible (proche de 0) (Tableau 70). On veut également savoir si pour la Roche de l’Autel en particulier, il y a une sous-représentation, une représentation attendue, ou une surreprésentation de Poignards avec un pommeau compte- tenu du nombre total de Poignards. Cette différence entre le nombre réel de Poignards à pommeau et la valeur prédite par le modèle peut être différemment mesurée. La déviation standard est l’une de ces mesures220

Le Tableau 71 résume les différentes méthodes statistiques qui seront employées par la suite.

219 Le nombre de gravure du thème n joue ici le rôle de variable explicative (VE) et le nombre de gravure du type

p celui de variable dépendante (VD).

220 La déviation standard (ou résidus standardisés) permet d’éviter l’effet de taille. Ce dernier ne permettrait pas de travailler avec des individus ayant des effectifs extrêmement différents comme c’est le cas différentes familles de gravures que l’on trouve sur les roches gravées. La déviation standard correspond aux écarts-types normés, c'est-à-dire centrés-réduits entre la valeur que prend la variable caractérisant un individu (nombre de Poignard à pommeau sur la Roche de l’Autel par exemple) et sa valeur attendue. Dans une distribution normale, 95% des valeurs des résidus standardisés se situe dans l’intervalle [-2 ; +2], les valeurs extrêmes des déviations standards étant généralement situées au-delà de cet intervalle. Dans la mesure où les contraintes de normalités ne peuvent