• Aucun résultat trouvé

L’erreur aléatoire et le rôle des statistiques 82!

1. Introduction 1!

1.6. Les sources d’erreur en épidémiologie 81!

1.6.1. L’erreur aléatoire et le rôle des statistiques 82!

Les statistiques jouent deux rôles principaux dans l’analyse des données épidémiologiques : le premier est d’estimer la variabilité dans les données, ceci permettant de différencier les trouvailles fortuites de trouvailles qui ont le plus de chance de se répliquer advenant la répétition d’un même travail; l’autre rôle de mieux estimer l’effet de la mesure d’intérêt en corrigeant des biais comme la confusion. L’objectif du présent chapitre n’est clairement pas de réviser tous les fondements et principes mathématiques qui sous-tendent la biostatistique. Toutefois, inspirés de Rothman397 puisque c’est celui qui nous semble avoir le plus insisté sur les concepts définissant le niveau de certitudes des mesures épidémiologiques, nous allons approfondir certains concepts cruciaux épidémiologiques qui sont directement dérivés de la statistique.

1.6.1.1. La folie de la ‘signification statistique’

Si une étude épidémiologique est perçue comme un exercice de mesure, alors les résultats devraient être un estimé d’une quantité épidémiologique. L’épidémiologiste devrait donc quantifier à la fois l’ampleur de la quantité épidémiologique et exprimer le degré de précision avec lequel elle est mesurée. L’estimation donne justement ces deux quantités. Par exemple, la résultante d’une étude cas-témoins est de présenter une estimation claire du ratio de taux d’incidence pour une exposition. Lorsque l’estimation est présentée comme une valeur unique, on considère cette valeur comme un estimateur (point

estimate). Ce ratio de taux d’incidence exprime la force ou la magnitude de la relation entre

intervalle de confiance (confidence interval), qui est un éventail de valeurs autour de l’estimateur. Un intervalle de confiance large indique une faible précision, tandis qu’un intervalle de confiance étroit indique une haute précision.

La raison d’être des intervalles de confiance est d’exprimer la variation statistique ou l’erreur aléatoire qui sous-tend l’estimateur. Évidemment, l’estimateur étant une valeur unique ne peut pas exprimer cette variation statistique. L’intervalle de confiance est exprimé en fonction d’un seuil de confiance choisi arbitrairement. Les niveaux communément choisis varient de 80 à 95%, quoique tout niveau variant de 0% à 100% soit possible. On interprète l’intervalle de confiance de la manière suivante : si le niveau de confiance est fixé à 95%, cela veut dire que si la collecte de données et l’analyse étaient reproduites de nombreuses fois, l’estimateur de l’étude répliquée serait inclus dans les limites de l’intervalle de confiance dans 95% du temps.

Cette définition implique que seulement le hasard ou la chance, serait l’élément qui changerait d’une étude répliquée à l’autre. Une autre prémisse est que la variabilité des données peut être décrite adéquatement par un modèle statistique et surtout, que les biais et confusions sont non existants. Ces conditions irréalistes ne sont typiquement même pas rencontrées dans des essais randomisés contrôlés. Dans les études épidémiologiques non expérimentales, une définition stricte et formelle telle que mentionnée plus haut de l’intervalle de confiance relève presque de la fiction et, selon Rothman, (Rothman Oxford University Press 2002) ne donne qu’une estimation grossière de la variabilité statistique d’un ensemble de données. Il serait préférable de ne pas considérer l’intervalle de confiance comme une mesure absolue de la variabilité statistique mais plutôt comme un guide général de la quantité d’erreur (toutes sources, variabilité statistique incluse) contenue dans les données. Eu égard à ces aspects, l’intervalle de confiance peut tout de même être considéré comme un bon descripteur de la précision de la mesure d’association, et certainement plus complet que l’autre paramètre, la valeur p décrit ci-après.

Les mêmes équations mathématiques génèrent aussi une autre mesure statistique communément rapportée soit la valeur p. Celle-ci est calculée en relation d’une hypothèse

spécifique, le plus fréquemment l’hypothèse nulle, qui établit qu’il n’y a pas de relation entre l’exposition et la maladie. La valeur p est conceptuellement basée sur la prémisse que l’hypothèse nulle est vraie. Cette mesure représente la probabilité que les données d’une autre étude répliquée démontrerait une association égale ou plus divergente de l’hypothèse nulle que celle observée dans la présente étude.

De manière similaire à l’intervalle de confiance, cette interprétation doit être prise avec un grain de sel pour de nombreuses raisons. La variabilité des données collectées a peu de chance de se conformer précisément à quelques modèles statistiques qu’ils soient. Par exemple, la plupart des modèles statistiques assument que les observations sont indépendantes les unes des autres, ce qui n’est fréquemment pas le cas dans nombre d’études épidémiologiques. Qui plus est, les données peuvent être influencées par des erreurs systématiques (biais) qui peuvent augmenter la variation au-delà de ce qu’un simple modèle statistique peut le quantifier. Ainsi, parce que les prémisses théoriques ne sont que rarement rencontrées, une valeur p ne peut généralement pas être prise pour une probabilité pleine de sens. A contrario, elle peut être perçue comme quelque chose de moins technique : une mesure de ressemblance relative entre l’hypothèse nulle et l’ensemble de données de l’étude. Aucune valeur p ne nous dicte si l’hypothèse nulle est correcte ou non. Le fameux seuil, arbitrairement défini, du p<0.05 comme critère de rejet de l’hypothèse nulle ne devrait surtout pas être considéré comme un absolu, alors que c’est souvent le cas (voir section suivante 1.6.1.2). Ultimement, le jugement à-propos de l’exactitude de l’hypothèse nulle dépend de l’existence d’autres données et de la plausibilité de l’hypothèse nulle et de ses alternatives.

1.6.1.2. L’estimation épidémiologique

Le processus du test de l’hypothèse statistique décrit le processus décisionnel menant au rejet ou non d’une hypothèse particulière, fréquemment l’hypothèse nulle. Ce processus est basé sur la signification statistique déterminée par la valeur p. Lorsque celle- ci est plus petite que le seuil de signification prédéterminée, on rejette alors l’hypothèse nulle comme fausse. Si un résultat n’est pas jugé statistiquement significatif, alors

l’hypothèse nulle est acceptée. Ce mode de pensée grossier simplifie à outrance le processus de raisonnement. Il n’y a aucune analyse statistique qui puisse déterminer définitivement si une hypothèse nulle ou toute autre hypothèse est vraie ou fausse. Toutefois, la signification statistique est malheureusement trop souvent interprétée dans le sens que l’hypothèse nulle est soit vraie ou fausse. En pratique on retrouve trop souvent un test statistique accompagné par une déclaration de significatif ou non significatif ce qui renforce le message décisionnel que l’hypothèse nulle est soit vraie soit fausse. Cette déclaration de signification statistique dichotomique évacue déjà une partie importante de l’information contenue dans la valeur p. Il n’y a aucune raison que la valeur p numérique soit dégradée dans cette dichotomie encore moins informative. Qui plus est, même la valeur p quantitative a un problème : elle confond deux aspects importants de la donnée. Ces aspects sont la force ou l’ampleur de la relation entre l’exposition et la maladie, et la précision avec laquelle cette relation est mesurée.

Rothman donne un autre bel exemple pour illustrer comment le processus de chance contient de multiples aspects. On considère souvent que le tir à pile ou face d’une pièce de monnaie est un événement complètement imprédictible. Toutefois, ce tir à pile ou face peut être prédit avec suffisamment d’information à propos des conditions initiales du lancer de la pièce. D’ailleurs, certains individus ont tellement pratiqué ce geste qu’ils peuvent en prédire le résultat avec grande précision. Donc pour la majorité, le tir à pile ou face nous apparaît aléatoire alors que ce processus ne l’est pas nécessairement et peut dépendre de la pratique. D’une manière parallèle, plus notre connaissance des sources d’erreurs dans un ensemble de données particulier augmente, plus il est possible de réduire ce qui apparaissait initialement comme étant l’erreur aléatoire. Les physiciens expriment que nous ne serons jamais capables d’expliquer toutes les composantes de l’erreur, compte tenu que les sources d’erreur qui les intéressent sont quasi infinies. Toutefois, quant aux problèmes qui intéressent les épidémiologistes, il est raisonnable de penser qu’une bonne partie de l’erreur aléatoire observée dans les données peut, en réalité, être améliorée par une meilleure information.

En conclusion, pour avoir une interprétation claire des données, il est important d’être en mesure de séparer l’information sur la force ou la magnitude de la relation et sa précision. Ceci est exactement ce que le processus d’estimation fait.