• Aucun résultat trouvé

La méthode de reconnaissance des agrégats de Coomes et al (1999)

Présentation

La méthode permet seulement de traiter des semis de points agrégés.

L’idée est de regrouper successivement les paires de points les plus proches jusqu’à ce que le semis de points obtenu ne soit plus distinguable d’un processus

de Poisson homogène. Alors, le nombre de points restant est le nombre d’agrégats, dont on connaît le nombre d’individus. Formellement, le procédé est le suivant :

• Vérification de l’existence d’agrégats : la probabilité qu’un point ait au moins un voisin à une distance r donnée, c’est-à-dire la fonction G de Diggle (1983) est calculée pour le semis de points et pour le processus de Poisson de référence (𝐺0(𝑤) = 1 − 𝑒−𝜋𝜆𝑤2pour le processus de Poisson de

densité 𝜆,aux corrections des effets de bord près). On calcule la fonction G pour le semis de points réel, et on définit 𝑑𝑤 comme la plus grande diffé- rence entre les deux fonctions. Le test de Kolmogorov-Smirnov (Diggle, 1979) est ensuite appliqué : on calcule 𝑑𝑤 entre un grand nombre de simu- lations du processus de Poisson de référence et la fonction 𝐺0(𝑤), on en tire

une valeur limite de 𝑑𝑤 pour l’hypothèse nulle (méthode de Monte-Carlo), et on compare finalement la valeur de 𝑑𝑤 du semis de point réel au seuil. Si 𝑑𝑤 est inférieur à la valeur de référence au seuil de confiance choisi, on accepte l’hypothèse qu’il n’y a pas d’agrégats.

• Si la distribution est agrégée d’après le test précédent, on multiplie la dis- tance entre chaque paire de points par le poids cumulé des deux points (au départ : 1), et on fusionne la paire de points ayant la plus petite distance pondérée. Le centre de gravité est affecté du poids total de la paire de points supprimée.

• On teste à nouveau l’agrégation et on continue les regroupements jusqu’à l’acceptation de l’hypothèse d’absence d’agrégats. On connaît alors le nombre d’agrégats et leur rayon moyen.

Cette méthode peut également servir à définir l’hypothèse nulle de l’indépendance des populations dans le cadre d’une analyse intertype (par exemple 𝐾12). On a vu, page 71, que l’hypothèse nulle de l’indépendance de deux

populations est difficile à tester parce qu’elle doit intégrer la structure propre de chacune des populations. La solution proposée ici consiste à distribuer aléatoire- ment les centres des agrégats, qui suivent par construction un processus de Pois- son homogène, puis à régénérer autour de chacun de ces centres des agrégats cor- respondant aux caractéristiques du semis de points observé. Les auteurs ne pré- cisent pas le processus de reconstruction, mais on peut supposer qu’il s’agit d’un processus de Neyman-Scott (on connaît le nombre d’agrégats, leur nombre de points et leur rayon moyens).

Discussion

• Dans certains cas, le regroupement des agrégats est plus puissant que la fonction de Ripley : il détecte l’agrégation alors que K ne rejette pas l’hypothèse nulle. Cette affirmation, étayée par un exemple (p. 563) dont le détail des calculs n’est pas donné pour la fonction K, est surprenante car le test de l’agrégation est ici fondé sur le seul plus proche voisin de chaque point, alors que la fonction de Ripley prend en compte tous les voisins. Le reste du test est similaire : on compare le semis de points réel à une distri- bution théorique par la méthode de Monte-Carlo.

• La méthode fonctionne parfaitement bien pour des distributions dont les agrégats sont distincts (Figure 2, page 32). Quand les agrégats s’interpénètrent (Figure 14, page 58), le nombre détecté dépend fortement du seuil de probabilité choisi pour l’acceptation de l’hypothèse nulle. Au seuil classique de 5%, on considère que l’hypothèse nulle n’est rejetée que si la probabilité que la distribution observée en soit une réalisation est in- férieure à 5%, elle est donc assez facilement acceptée. Les auteurs utilisent des seuils bien moins restrictifs (par exemple 50%), qui conduisent à accep- ter l’hypothèse nulle beaucoup plus tard, donc à continuer le regroupement plus longtemps. En d’autres termes, augmenter le seuil conduit à définir moins d’agrégats, de plus grande taille. Les auteurs conseillent de tester diverses valeurs de seuil.

• Enfin, le processus ponctuel sous-jacent ne peut évidemment pas être ca- ractérisé par une seule de ses réalisations. Les agrégats détectés sont les plus vraisemblables, ou du moins les plus apparents. Dans le cas d’un pro- cessus créant peu d’agrégats de grande taille, qui s’interpénètrent forte- ment, le nombre d’agrégats détecté est très supérieur au nombre réel. On peut donc se poser la question de la validité de l’utilisation de la méthode pour générer des semis de points pour tester l’hypothèse nulle d’indépendance de deux populations puisque le processus utilisé n’est pas forcément proche de celui qui a généré la population observée.

• Une dernière limite dans l’application de la méthode est due à la difficulté de sa mise en œuvre : la courbe de la fonction 𝐺0(𝑤) pour le processus de

Poisson de référence nécessite le calcul de la correction des effets de bord. La valeur seuil de la différence de probabilité entre la distribution obser- vée et la courbe de référence nécessite ensuite la simulation de jeux de points pour l’application de la méthode de Monte-Carlo. L’utilisation de l’outil n’est donc pas envisageable sans une phase de développement in- formatique lourde.