• Aucun résultat trouvé

met de ne pas déclencher de fausses alarmes en cas de tendances locales, il sera d’autant moins possible de détecter un évènement sanitaire s’il s’étend lentement. Ce qui nous conduit à renforcer la remarque que nous avons faite dans le para- graphe 5.5.

Dans notre travail nous nous sommes cantonnés à surveiller l’évolution des sé- ries temporelles. Mais il est possible d’aller plus loin, et de rendre ce travail encore plus intéressant. L’article écrit par A.Earnest [3] montre comment il a été rendu possible, grâce à un modèle Arima, de prédire rétrospectivement le nombre de lit occupés pendant une épidémie de Sras à Singapour. Malgré les différences de contexte, il semble tout à fait envisageable de chercher à prédire - en particulier pendant des périodes épidémiques - le nombre d’admission aux urgences. Ce qui pourrait permettre aux hôpitaux une meilleure prise en charge des patients et une meilleure adaptation. Cela nous conduit aux perspectives sur lesquelles nous au- rions pu nous pencher.

5.3

Limites de notre étude de simulation et des

méthodes statistiques utilisées

Dans la phase de simulation, nous avons défini a priori les signaux en fonc- tion de ce que nous voulions détecter. Mais il est peut-être regrettable de n’avoir pas choisi des signaux de même amplitude temporelle, ce qui nous aurait permis, comme dans [4] par exemple, d’établir une courbe relatant l’évolution de la sen- sibilité en fonction de la puissance de signal. Néanmoins il nous semble légitime d’avoir considéré qu’un signal de faible puissance pouvait être détecté avec un délai plus long. Et puis, notre but étant la comparaison de plusieurs méthodes et non pas l’étude précise d’une d’entre elle, ce choix n’avait pas une importance quand au résultat final ; des signaux de même amplitude auraient simplement permis de compléter nos résultats en fournissant une étude de chacune des méthodes séparé- ment, ce qui n’était pas notre objectif.

Le choix des signaux a été réalisé a priori en fonction des objectifs du système de surveillance. Les 4 premiers correspondaient à une augmentation brutale et constante tandis que les quatre autres correspondaient à une augmentation pro- gressive plus ou moins importante. Bien entendu, ces signaux ne recouvrent qu’une faible partie des signaux que l’on aurait voulu pouvoir détecter. Par ailleurs, il au- rait été intéressant d’étudier le comportement de nos méthodes face à deux signaux très rapprochés dans le temps, et ainsi évaluer l’influence du premier signal sur les performances des méthodes à détecter le second signal.

dans le tableau final 3.1 nous aurions aimé mettre tous les «premiers ex-æquo» au sens statistique, c’est-à-dire donner tous ceux qui ne sont pas significativement différents du premier. Pour le premier, une comparaison multiple de Tuckey don- nait le résultat donné dans le tableau, mais dans les autres cas, nous ne sommes pas parvenus à trouver de test statistique, du fait de problèmes d’indépendance.

Nous avons aussi pu constater quelques limites à nos méthodes. L’historique très court des cartes Cusum est à la fois un avantage lorsque nous disposons d’un historique très restreint (nous savons que l’historique nécessaire pour Farrington est de trois ans et que le fait de prendre un historique plus court pour la méthode Arima a diminué sa performance dans notre test) mais un inconvénient dans le cas où nous disposons d’un historique plus important parce que l’information non- utilisée empêche de prendre en compte les tendances et les saisonnalités.

Une des principales limites de la méthode de Farrington est que la période de référence considérée ne prend aucune observation de l’année courante en compte. Ainsi, si un changement brutale ou une cassure intervient dans les données, cette méthode prédira inlassablement des valeurs erronées. D’un autre côté, cette parti- cularité nous a permis, grâce à l’observation des résidus, de déceler des anomalies dans les données.

La limite de la méthode Arima est également son intérêt. En effet, comme nous l’avons souligné dans le paragraphe précédent, cette méthode parvient à prendre en compte très rapidement les tendances des données. Néanmoins, le risque est de considérer un signal dont la puissance augmente lentement comme une tendance, et qui ne sera pas, de ce fait, signalé par la méthode.

L’ouvrage [10] donne une ébauche intéressante du panorama des méthodes sta- tistiques pour la surveillance syndromique. Une des idées maîtresses de ce livre est par ailleurs d’associer à la surveillance temporelle une surveillance spatiale. Ceci est particulièrement intéressant dans la mesure où il est entièrement naturel de penser que plus deux centres de soins sont géographiquement proches, plus leurs comportements seront similaires.

Ceci nous amène également à aborder le sujet d’une surveillance multivariée. Dans le paragraphe 5.5, nous projetions de créer une alarme statistique à partir de plusieurs systèmes de surveillance univariés. Mais on se rend compte immédia- tement du problème : chaque alarme est défini à un risque α fixé à l’avance, mais nous ne connaissons pas le risque α global que nous prenons. Dans le livre que nous citions plus haut, deux pistes majeures sont explorées : la réduction de données multivariées à des données univariées et une surveillance rigoureuse et parallèle de plusieurs systèmes de surveillance univarés. Un outil qui apparait être relative- ment simple d’utilisation et qui a été testé dans un cadre pratique par Griffin [5]

Documents relatifs