• Aucun résultat trouvé

L’analyse statistique des images fonctionnelles du cerveau

Une fois que les images fonctionnelles (TEP ou en IRM-ASL) sont acquises, elles passent par un processus de traitement et d’analyse qui permet de répondre aux questions posées. Au cours des années, différentes méthodes d’analyse ont été développées afin de pouvoir cartographier correctement le fonctionnement du cerveau. Dans cette section, l’évolution des principales méthodes utilisées aujourd’hui dans l’imagerie cérébrale est présentée.

Les premières analyses d’images TEP ont été réalisées par l’approche de Région d’intérêt (RoI). La méthode d’analyse par région d’intérêt est fondée sur une hypothèse a priori concernant les régions cérébrales dans lesquelles des résultats sont attendus. Ainsi, des RoI sont générés sur ces zones spécifiques et les analyses sont effectuées uniquement au sein de ces zones. Au départ, cette procédure nécessitait de dessiner les RoIs manuellement sur chaque coupe d’image. Ainsi cette méthode était à la fois opérateur dépendant et fastidieuse à réaliser sur un grand nombre de sujets. Par la suite elle a été supplantée par des logiciels permettant la génération automatisée des RoIs (Raichle, 2009).

Cette approche nécessite une hypothèse a priori (« hypothesis-based »), ce qui peut considérablement limiter les découvertes fortuites. Le développement d’une approche d’analyse sans hypothèse a priori, plutôt « data-drived » s'avère donc nécessaire pour la suite du développement des études en imagerie cérébrale (Raichle, 2000). De ce fait, des méthodes

87 semi ou complètement automatisées, permettant l’exploration du cerveau entier sans hypothèse a priori ont été développées, appelées « analyses voxel-à-voxel ».

L’approche voxel-à-voxel sur le cerveau entier consiste à effectuer une analyse statistique des valeurs de chaque voxel. Ainsi, cette analyse nécessite l’alignement des images (« registration ») dans le même cadre spatial (par exemple le référentiel de Talairach (Talairach 1988)), de sorte que sur l’image d'un sujet, chaque voxel corresponde à la même région que sur l’image d'un autre sujet. Ce processus est connu sous le nom de « normalisation spatiale » ou de « recalage ». Étant donné que l'anatomie varie beaucoup d'un individu à l'autre et que les têtes peuvent être différemment positionnées dans la machine, cette étape peut constituer un défi méthodologique important. Elle est généralement réalisée en normalisant toutes les images sur une image modèle, c’est-à-dire un « template » moyen de plusieurs images, afin qu'elles soient toutes dans le même espace. Différents algorithmes existent pour effectuer cette normalisation mais l'algorithme le plus couramment utilisé, implémenté dans le logiciel Statistical Parametric Mapping (SPM), se compose d’une transformation affine (translation, rotation, facteur de zoom) suivie d'une normalisation spatiale non linéaire (Ashburner and Friston, 2000).

Ensuite, les images sont lissées avec un filtre (Ashburner and Friston, 2000; Good et al., 2001) de telle façon que l'intensité de chaque voxel soit modifiée par la moyenne pondérée des voxels environnants. En effet,

même si les réponses qui apparaissent au même endroit à

travers les sujets s’additionnent et Figure 21. Processus de prétraitement d’image IRM, comprenant la normalisation spatiale et le lissage.

88 que le bruit s’annule (Fox et al., 1988), ce lissage permet de réduire la variabilité interindividuelle après la normalisation spatiale et d'augmenter la sensibilité pour détecter les changements. Le lissage rend également les données plus « conformes » au modèle gaussien, une hypothèse importante des tests paramétriques utilisés (Figure 21). (Ashburner and Friston, 2000; Salmond et al., 2002).

Une fois que ces étapes de prétraitement sont effectuées, les analyses statistiques voxel-à- voxel sur le cerveau entier peuvent être réalisées (Astrakas and Argyropoulou, 2010). Tous les tests statistiques classiques peuvent être utilisés à cet effet (corrélation, t-tests, tests F, analyse de variance (ANOVA), analyse de la covariance (ANCOVA), régression linéaire et régression multiple), un modèle statistique correspondant à chacun d'entre eux. Des covariants comme l'âge, le sexe, la durée de la maladie, etc. peuvent être inclus dans les modèles pour prendre en compte la variabilité confondante des données (Figure 22).

Pour évaluer les résultats statistiques, le choix d’un seuil est nécessaire. Or, le seuil conventionnel de P = 0,05 (5%) n'est significatif que dans le cas d'un seul test statistique. Les images modernes contiennent des milliers de voxels et les cartes paramétriques statistiques

Figure 22. Analyses statistiques voxel-à-voxel classiques sur le cerveau entier. Des covariants comme l'âge, le sexe, la durée de la maladie, etc. peuvent être inclus dans les modèles pour prendre en compte la variabilité confondante des données

89 sont obtenues après un test uni-varié dans chacun d'eux. Ainsi, un seuil de 5% peut conduire à des centaines de faux positifs en raison des comparaisons multiples. La première solution à avoir été proposée est la correction Bonferroni qui divise simplement le seuil P désiré par le nombre de tests (Perneger, 1998). Cette approche a été critiquée parce qu'elle est fondée sur l'hypothèse que tous les tests statistiques sont indépendants les uns des autres. Or, dans le cas des données de neuro-imagerie, les données sont spatialement et temporellement corrélées (Astrakas and Argyropoulou, 2010). Des solutions plus adaptées à la neuro-imagerie ont été développées pour résoudre le problème des comparaisons multiples (Worsley et al., 1996; Genovese et al., 2002). Ces solutions sont fondées sur la quantification de la probabilité d'obtenir des faux positifs. Les deux principales méthodes sont la family-wise error rate (FWER), définie comme la probabilité d'obtenir au moins un faux positif dans une famille de tests, et le false discovery rate (FDR), défini comme la proportion de faux positifs dans tous les tests rejetés (Lindquist and Mejia, 2015).

Ainsi, les analyses voxel-à-voxel sur le cerveau entier permettent d’étudier des différences anatomiques ou fonctionnelles entre deux groupes de sujets, ou des corrélations entre des paramètres cérébraux et des données cliniques. Elle est automatique et propose une alternative à l'analyse ROI, permettant des études en imagerie cérébrale sur l’ensemble du cerveau et sans hypothèse a priori.

90

IV La recherche en imagerie cérébrale dans les TSA

Les avancées des méthodes d’imagerie cérébrale décrites dans le chapitre précédent ont permis d’ouvrir un champ de recherche nouveau et devenu majeur dans les TSA. La recherche dans ce domaine a connu un essor considérable, ce que reflètent les plus de 10 000 publications répertoriées dans Pubmed sur ce sujet, dont plus de la moitié (5936) ont été publiées au cours des cinq dernières années (Figure 23). Comprendre les mécanismes cérébraux caractéristiques des TSA et identifier des anomalies anatomiques et fonctionnelles sous-jacentes à la manifestation des troubles autistiques demeure un réel défi. Malgré le grand nombre de publications sur ce sujet, les mécanismes sous-jacents au tableau clinique des TSA restent débattus. De nombreuses hypothèses existent. Néanmoins, à ce jour l’hypothèse la plus défendue est que des anomalies dans certaines zones cérébrales surgissent très tôt dans le développement, notamment dans les régions liées aux processus de cognition sociale. Ces anomalies auraient une forte composante génétique.

Figure 23. Nombre de publication par année répertoriées sur PubMed avec mots-clés « Autism + Brain »

91