• Aucun résultat trouvé

Biais du volontaire sain dans les études exposés/non-exposés. La variable

E C Y

U

FIGURE2.4 –Biais du volontaire sain dans les études exposés/non-exposés. La variableCreprésente le consentement de participation,E représente l’exposition,Y l’évènement,U les antécédents etL

les médiateurs connus pour l’exposition àE.

Les critères de Bradfod-Hill ont été proposés pour établir la causalité :

• Force de l’association: Elle est exprimée par l’odds ratio ou le risque relatif. Plus cet indicateur est élevé, plus la liaison a des chances d’avoir une valeur causale.

• Stabilité de l’association : Plus il existe d’études qui montrent des résultats simi-laires plus la probabilité d’une liaison réelle avec le facteur étudiée est élevée.

• Spécificité de l’association: Si un seul facteur parmi de nombreux testés est relié à la survenue de l’évènement, cela renforce le lien de causalité.

• La relation temporelle: L’action du facteur doit précéder l’évènement d’intérêt.

• L’effet dose-réponse: Plus la dose est forte, plus l’effet est important.

• La plausibilité biologique: La relation causale est d’autant plus probable qu’il existe des arguments biologiques qui expliquent cette relation.

• Cohérence: Les résultats sont cohérents avec des études de la littérature.

• Expérimentation : La relation causale est d’autant plus probable qu’il existe des preuves expérimentales.

Cependant, le respect de ces critères, peut ne pas palier les biais inhérents à la recherche observationnelle. Seules les études expérimentales permettent d’établir la relation causale.

Études expérimentales

Comme établi par la HAS, les études avec le plus haut niveau de preuve sont les ERCs. Ils consistent en des essais comparatifs pour lesquels le tirage au sort introduit par Fisher (Hall, 2007; Fisher, 1934, 1935) va permettre la comparabilité des groupes sans biais. Le tirage au sort consiste à attribuer au hasard une exposition à un patient (i.e. traitement ex-périmental versus traitement de référence). Allouer aussi un traitement permet d’éviter la majeure partie des biais de sélection et confusion3 car les caractéristiques des patients re-présentées par la variable C n’influent pas sur le choix du traitement (ce qui est le cas des

études observationnelles) et alors la mesure d’association calculée correspond uniquement à l’effet du traitement. Cela se reflète sur le DAG avec lad-séparationoùC⊥⊥t.

Exemple. On teste l’effet d’un nouveau traitement A (A = 1) contre le placebo (A = 0). Avec une pièce équilibrée, on va attribuer le traitement A au patient si la pièce tombe sur pile et le traitement B si elle tombe sur face. A la fin de l’étude, en l’absence de perdus de vue, on calcule leRRavecRR = P(Y = 1|A = 1)/P(Y = 1|A = 0) = 0.6. Maintenant imaginons un mauvais étiquetage des allocations : le traitement A a été donné quand la pièce tombait sur face et pile pour le placebo. La mesure du RR ne va pas changer et on obtiendrait quand mêmeRR=P(Y = 1|A= 1)/P(Y = 1|A= 0) = 0.6car les groupes sont devenus interchangeables grâce au tirage au sort.

La causalité peut être formalisée grâce à la théorie des évènements contrefactuels (Ney-man, 1923; Lewis, 1973; Rubin, 1974) où l’on va essayer de comparer des évènements ob-servés dans une réalité à des évènements non obob-servés et, issus d’une autre réalité. Dans la vie courante, cette théorie est intuitivement utilisée pour se poser des questions causales. En effet, que se serait-il passé si Kawhi Leonard (KL) n’avait pas été blessé en finale de de NBA en 2017, est-ce que les Spurs auraient gagné ? La réponse n’est pas triviale. La ques-tion causale posée est « Est-ce que la blessure de KL est la cause de la défaite des Spurs ». L’évènement qui serait survenu en l’absence de blessure est une réalité non observable. On dira alors que c’est un évènement contrefactuel. En considérant la variable être blesséB(oui

B = 1, nonB = 0) On peut noter ces évènements comme :

YKLb=1 la variable réponse obtenue si KL avait été blessé(b = 1), YKLb=0 la variable réponse obtenue si KL n’avait pas été blessé(b= 0).

On peut adopter ce même raisonnement à la recherche clinique où l’on donne à un patient

iun traitement A et où l’on observe la guérison de sa maladie. Si ce traitement a vraiment un effet causal alors on peut imaginer que si l’on ne lui avait pas donné ce traitement (dans un monde où tout est équivalent à la réalité dans laquelle il a reçu), il n’aurait pas guéri. A partir des notations ci-dessus, on peut alors définir l’effet causal individuel du traitement par la différence ou le ratio des réponses obtenues aux deux évènements : Effet causal du traitement A sur le patienti:Ya=1

i −Ya=0 i et Y a=1 i Ya=0 i .

2.2. La causalité : entre philosophie et sciences 49 Remarque. Si on observe l’évènement Yi = 1 pour le patient i avec comme modalité de traitementA = 1, alors l’évènement contrefactuelYA=1

i = 1dans lequel on lui attribuerait la valeurA= 1correspond à l’évènement observéYi|A= 1. C’est l’hypothèse de cohérence qui énonce que l’évènement observé dans le monde réel pour un quelconque individu ayant comme modalitéa, correspond à l’évènement qui aurait été observé dans le monde contre-factuel pour le même individu si une intervention avait fixé le niveau la modalité à a. On notera l’évènementYa l’évènement contrefactuel mesuré à la modalité apour les patients qui ont vraiment reçuA.

Comme décrit précédemment, il n’est pas possible d’identifier pour un patient les deux réponses alors on se concentrera sur la mesure de l’effet causal moyen en population. On considérera qu’il y a un effet causal moyen ou ACE (Average Causal Effect) siP(Ya=1 = 1)6=P(Ya=0 = 1). De même que pour les études observationelles, on peut mesurer l’ACE par la différence de risque causal (DRc), du RRc (RR causal) ou de l’OR (ORc) comme :

DRc=P(Ya=1 = 1)−P(Ya=0 = 1), RRc=P(Ya=1 = 1)/P(Ya=0 = 1), ORc= P(Y

a=1= 1)/P(Ya=1 = 0)

P(Ya=0= 1)/P(Ya=0 = 0). Remarque. Pour des évènements continus, on définira l’ACE comme :

ACE =E(Ya=1)−E(Ya=0).

Le tirage au sort nous permet donc de créer ces deux réalités où toutes les caractéristiques sont homogènes et c’est pour cela que dans le cas d’ERC, les mesures d’associations comme la DR, le RR ou l’OR peuvent être apparentées aux mesures causales (DRc, RRc et ORc) tel que :

DRc=P(Ya=1 = 1)−P(Ya=0 = 1) =

RRc=P(Ya=1 = 1)/P(Ya=0= 1) = RR=P(Y = 1|A= 1)/P(Y = 1|A= 0), ORc= P(Y a=1 = 1)/P(Ya=1 = 0) P(Ya=0 = 1)/P(Ya=0 = 0) = OR= P(Y = 1|A= 1)/P(Y = 0|A= 1) P(Y = 1|A= 0)/P(Y = 0|A= 0).

L’interchangeabilité des populations signifie une répartition équivalente de tous les fac-teurs de confusion ayant un effet sur la probabilité d’être exposé ou sur l’évènement lui même entre les groupes (risque de base identique dans les deux groupes). Cette condition d’interchangeabilité est notéeYa⊥⊥X. Autrement dit, l’évènement dans le monde où on au-rait fixéX =xest indépendant de la valeur dex. L’approche par l’inférence causale montre que si tous les facteurs de confusion sont pris en compte, il est possible d’être en condition d’interchangeabilité et ainsi d’estimer des ACE à partir de données observationnelles.

2.3 Graphes et effets causaux

L’inférence causale et les différentes théories associées ont été très largement abordées et résumées dans de nombreux ouvrages (Pearl, 2000, 2003, 2009; Spirtes et al., 2000; Mor-gan and Winship, 2014; Imbens and Rubin, 2015; Vanderweele, 2015; Peters and Janzing, 2017; Hernán and Robins, 2018). Pearl a très largement contribué à la théorie des modèles structuraux avec laquelle il permet l’identification et l’estimation des effets causaux à par-tir de données observationnelles. La théorie des modèles structuraux combine les propriétés des équations structurelles (SEM) (Duncan, 1975), les évènements contrefactuels (Neyman, 1923; Rubin, 1974) et les modèles graphiques (Lauritzen, 1996; Spirtes et al., 2000).

Dans le chapitre 1, j’ai introduit les réseaux Bayésiens comme une représentation des relations d’indépendances (conditionnelles) entre les variables. Dans la théorie de l’inférence causale, les réseaux Bayésiens sont utilisés pour illustrer les relations causales qui existent entre les variables (Pearl, 1995) et sont définis comme des structures causales (cf définition 2.3.1).

Définition 2.3.1. Structure causale

Une structure causale d’un ensemble de variables X = {X1, ..., Xp} est un DAG dans le-quel chaque noeud de l’ensembleV ={X1, ..., Xp}correspond à un élément distinct deX

2.3. Graphes et effets causaux 51 et chaque lien représente une relation fonctionnelle directe au sein des variables correspon-dantes.

Ces structures causales ont les mêmes propriétés que les réseaux Bayésiens telles que dé-crites dans le chapitre 1. De ce fait le critère ded-séparation(cf définition 1.2.2), la condition de Markov (cf définition 1.2.7) sont applicables à ces structures causales.

2.3.1 Équations structurelles et interventions

L’utilisation des graphes comme structures causales a été introduit en génétique par Wright (Wright, 1921). Ils sont également utilisés de façon régulière en physique ou ingé-nierie. Dans l’inférence causale, les relations causales peuvent être exprimées sous la forme d’équations fonctionnelles déterministes avec une erreur aléatoire non mesurée. La structure causale et les équations structurelles définissent un modèle causal (cf définition 2.3.2) Définition 2.3.2. Modèle causal

Un modèle causal est une paireM= (G,ΘG)constituée d’une structure causaleGet d’un ensemble de paramètresΘG compatible avecG. Les paramètresΘG attribuent une fonction

xi =fi(pa(xi,G), i)à chaqueVi ∈V et une probabilitéP(i)à chaquei, oùpa(xi,G)est l’ensemble des parents deVidansGetiest l’erreur aléatoirement distribuée selonP(i)et indépendante des autres . Le modèle sera dit Markovien si les erreurs sont indépendantes et semi Markovien sinon.

X1 X2 X3 X4 Y X1 =fX1(X1) X2 =fX2(X1, X2) X3 =fX3(X1, X2, X3) X4 =fX4(X1, X4) Y =fY(X4, X3, Y).