• Aucun résultat trouvé

L’approche gène candidat vs l’approche sans à prior

II. Les facteurs de susceptibilité à la sclérose en plaques

II.1. Les facteurs génétiques

II.1.5. Les moyens mis en œuvre dans l’identification des gènes de susceptibilité à la sclérose en plaques

1.5.1. L’approche gène candidat vs l’approche sans à prior

A l’heure actuelle, deux types d’approches existent dans la découverte de gènes impliqués dans le développement d’une maladie complexe : (1) l’approche gène candidat et (2) l’approche sans à priori reposant sur l’utilisation de puces détectant une haute densité de polymorphismes. Cette méthode est aussi appelée GWAS. Bien que différentes dans leur façon d’appréhender la découverte de nouveaux gènes de susceptibilité, ces deux types d’approches sont complémentaires.

a. Approche gène candidat

L’approche gène candidat repose sur la sélection d’un gène ou d’un polymorphisme choisi par rapport à des à priori sur la maladie étudiée. En effet, de nombreuses pathologies humaines partagent des gènes de susceptibilité (Figure 15). Goh et al. inventèrent le terme de « diseasome » pour parler du réseau de relations génétiques qu’il peut exister entre les maladies [Goh et al., 2007]. Ce concept est particulièrement vrai pour les maladies auto- immunes dont l’étiologie repose en grande partie sur une dérégulation de la composante immunitaire. Un exemple majeur de l’application de ce concept est la région du CMH qui est retrouvée comme associée à de très nombreuses maladies auto-immunes [Hewagama et al., 2009]. Une fois le gène sélectionné, les polymorphismes à étudier ne doivent pas être choisis au hasard. Ils doivent être localisés en priorité dans les régions du gène où ils ont le plus de chance de modifier l’expression ou la fonction de la protéine (régions codantes ; régions régulatrices : promoteur, 5’UTR, 3’UTR, domaine d’épissage).

Le principal avantage de cette approche est qu’elle nécessite une puissance statistique relativement faible et donc une cohorte d’individus peu importante par rapport aux GWAS. En effet, comme le génotypage est réalisé sur peu de polymorphismes, les corrections statistiques ne sont que peu stringentes. L’autre avantage de cette technique est que les polymorphismes choisis sont généralement des polymorphismes fonctionnels qui modifient l’expression ou l’activité de la protéine codée.

Cependant, son principal inconvénient réside dans le concept d’à priori de l’approche. Les polymorphismes sont choisis dans des voies connues pour être impliquées dans la maladie. Cela suppose que nos connaissances actuelles sur la maladie sont suffisantes pour prédire les voies impliquées. Ainsi, de nouvelles voies intervenant dans l’étiologie de la maladie ont peu de chance d’être mises en évidence par cette approche [Tabor et al., 2002]. Un autre inconvénient lié à ce type d’approche est qu’il est difficile pour l’expérimentateur de distinguer les véritables associations des faux positifs.

Ce type d’approche est généralement utilisé pour confirmer de nouveaux gènes trouvés comme associés à une maladie dans des cohortes indépendantes.

Figure 15 : Recouvrement des loci contenant les facteurs de risque génétique aux maladies communes

humaines. D’après Frazer et al., Nat. Rev. Gen., 2009.

b. Approche sans à priori par GWAS

L’approche par GWAS n’est possible que depuis quelques années. Les études par GWAS permettent de génotyper 500 000 à 1 million de polymorphismes en même temps chez un même individu. Cependant, avant qu’une telle approche ne devienne possible, plusieurs conditions devaient être remplies:

(1) Il devait être créé une base de données accessible à l’ensemble de la communauté scientifique et regroupant de très nombreux polymorphismes. En effet, pour pouvoir génotyper 1 million de polymorphismes par GWAS, il est nécessaire de disposer d’une base de données comprenant beaucoup plus que 1 million de polymorphismes qui sont, si possible, répartis sur l’ensemble du génome. Ce travail de création d’une base de données fut entrepris par le consortium international HapMap. L’objectif de ce projet de grande ampleur était de répertorier la variabilité du génome humain. Le premier rapport de ce projet contenait un peu plus de 1 million de SNPs dont la MAF des allèles répertoriés était au moins égale à 5% [HapMap, 2005]. L’étude fut réalisée sur l’ADN de 269 individus de différentes origines : Européenne, Africaine et Asiatique. Ce premier rapport permit de dresser une carte des LD entre les différents polymorphismes présents dans le génome. Plus récemment, la seconde phase du projet référença plus de 3 millions de SNPs, ce qui correspond à environ 25-35% des SNPs communs [HapMap, 2009]. Cette base de données est régulièrement étoffée par de nombreuses études indépendantes. Si l’on considère les LD existant entre les SNPs, le

génotypage de seulement 500 000 SNPs permettrait de connaître, en théorie, celui de la majorité des SNPs ayant une MAF supérieure à 5% [Kruglyak et al., 2008].

(2) Les études d’association devaient disposer de cohortes de tailles très importantes à cause de la correction des tests multiples. En effet, il est important d’obtenir des valeurs statistiques très faibles afin d’éliminer au maximum les faux positifs. On peut s’en rendre compte dans cet exemple : si on fixe le seuil de significativité à p = 0,05 (5 faux positifs tous les 100 tests), une puce génotypant 500 000 SNPs donnerait environ 25 000 faux positifs. Ainsi, une valeur statistique inférieure à 5x10-7, avant la correction des tests multiples, semble indispensable pour assurer que les résultats obtenus ont plus de chance d’être vrais que faux [Oksenberg et al., 2008]. Des études proposèrent de déterminer la taille nécessaire à une cohorte pour identifier, par une approche GWAS de 500 000 SNPs, l’association d’un allèle de MAF égale à 10% et conférant un risque relatif de 1,5 à une maladie. Suivant un tel modèle, il faudrait une cohorte cas-témoins composée de 2 000 - 3 000 individus dans chaque groupe afin d’obtenir une puissance statistique de 80% conférant une détection d’association de significativité p = 5x10-7. Si on voulait conserver une puissance statistique équivalente mais identifier un risque relatif de 1,25 alors il faudrait agrandir la cohorte à 8 000 cas et 8 000 témoins [Todd et al., 2006]. Ces résultats sont à rapprocher du fait que la majorité des gènes de susceptibilité à la SEP confère un risque relatif de 1,15 - 1,5.

Cependant, le grand nombre de SNPs à génotyper ainsi que la nécessité d’une cohorte de taille suffisante pour éliminer la majorité des faux positifs posent un problème de coût. En effet, le prix des études par GWAS reste relativement élevé bien qu’il ait relativement baissé ces derniers temps. Son coût en 2005 était de 0,5 US$ par génotype, à concilier avec les 500 000 polymorphismes et la taille de la cohorte [Hirschhorn et al., 2005]. Pour concilier ces deux impératifs tout en gardant à l’esprit ce problème de financement, une stratégie fut proposée (Figure 16). Cette approche est composée d’une succession de 2 ou 3 étapes de génotypage qui permettent de réduire la taille de la cohorte tout en éliminant au mieux les faux positifs [Lowe et al., 2004]. Tout d’abord, l’ensemble des polymorphismes sont génotypés

sur une première cohorte en fixant un seuil de significativité autorisant la détection de loci conférant un risque relatif faible pour la maladie. Par cette approche, un nombre important mais contrôlé de faux positifs passeront le seuil de significativité. Puis, l’ensemble des marqueurs qui ont passé cette première étape de sélection sont alors re-testés sur une cohorte

indépendante de taille similaire voire plus importante. Le seuil de significativité des deux étapes de sélection doit être choisi de telle sorte que moins de 5% des marqueurs qui franchissent ces deux étapes soient des faux positifs. Pour augmenter l’intransigeance du test, une troisième étape avec une nouvelle cohorte peut être ajoutée.

Figure 16 : Approche GWAS en plusieurs étapes afin de réduire la taille des échantillons. D’après Hirschhorn et

al., Nat. Rev. Genet., 2005.