• Aucun résultat trouvé

Cadre et positionnement scientifique de la thèse

1.1 Besoins actuels en neuroimagerie

1.1.2 Réutilisation des données en neuroimagerie

Des cohortes de sujets de grande dimension sont requises pour aborder des problématiques pluridisciplinaires telle que l’influence que les gènes exercent sur la structure et la fonction du cerveau – à la fois chez les sujets sains et malades, durant le vieillissement ou la croissance.

1. Traduction littérale depuisVan Horn et al.(2001) : "by its very nature, neuroimagery is a multidisciplinary endeavor".

De façon plus générale, de grandes cohortes sont nécessaires pour valider les résultats d’une recherche de façon statistique et dessiner ainsi des inférences fiables.

Les coûts financiers et humains, ainsi que les difficultés engendrées par des études de re-cherche en neuroimagerie sont élevés : les scanners d’acquisition IRM restent chers, et assurer le financement, la validation des protocoles expérimentaux et l’acquisition de données sur un grand nombre de sujets demandent du temps et des efforts. Par conséquent, seules les grandes structures de recherche et les projets collaboratifs au niveau national ou international peuvent accéder aux ressources et équipements nécessaires. Les analyses, à cheval sur plusieurs disci-plines, deviennent de plus en plus diversifiées et complexes, et les groupes de recherche isolés ne détiennent pas toujours toutes les compétences nécessaires, ce qui les incite à collaborer. Les quinze dernières années ont vu l’émergence de ces projets à grande échelle qui impliquent plusieurs groupes de recherche sur différents sites géographiques et qui combinent plusieurs do-maines comme l’imagerie, la psychologie et la génétique. Pour (Buckow et al.,2014), les études de neuroimagerie à grande échelle posent non seulement des problèmes techniques, mais aussi sociaux, à cause du renouvellement des personnels et des problématiques de partage.

De nouvelles données sont collectées et publiées en permanence, sans être exploitées à leur potentiel maximal, et restent souvent inexploitées dans les systèmes de gestion des données des laboratoires. Pour Yarkoni et al. (2010), les chercheurs en neuroscience devraient orienter leur stratégie de recherche vers des études de synthèse à partir de données existantes, plutôt que de chercher à produire de nouvelles données. Ce type d’études est appelé méta-analyses et permet, toujours selonYarkoni et al.(2010) de tester et de développer de nouvelles hypothèses, de vérifier la reproductibilité des résultats sur plusieurs laboratoires et de trouver des consensus par recoupement sur l’ensemble de la communauté, comme par exemple sur la segmentation du cerveau en régions d’intérêt (ROI pour Regions Of Interest en anglais) en neuroimagerie fonctionnelle par IRM.

Les technologies d’imagerie évoluent à un rythme qui garantit désormais que les jeux de données nouvellement acquis ne seront pas obsolètes avant plusieurs années. Cela permet la réutilisation de données pour des études longitudinales ou d’autres types d’analyses. Dans une étude longitudinale, une cohorte de sujets passe les examens deux fois - ou plus - à intervalles de plusieurs années, et le même protocole d’acquisition des données doit être utilisé. Les objectifs de ces études sont par exemple d’analyser l’évolution de fonctions cérébrales spécifiques ou de biomarqueurs structurels lorsque les sujets prennent de l’âge. De nombreuses études dans les pays occidentaux portent sur le vieillissement du cerveau et les dysfonctionnements associés, tels que la maladie d’Alzheimer (Weiner et al.,2013).

Les chercheurs en neuroimagerie ont donc un intérêt à réutiliser les données et à faire en sorte que cette réutilisation soit facilitée. Savoir ce qui a été fait à chaque étape de traitement d’une donnée est la clé de sa compréhension par quiconque souhaiterait la réutiliser pour faire d’autres analyses. Cette information est appelée provenance et représente l’origine et l’historique d’une donnée (Simmhan et al.,2005). PourMacKenzie-Graham et al.(2008), la provenance des données est cruciale pour assurer la qualité, la précision, la reproductibilité et la réutilisation

de résultats d’études en neuroimagerie.

Par conséquent, les chercheurs doivent s’intéresser aux moyens de rendre leurs données accessibles et réutilisables par la communauté scientifique, permettant par exemple la méta-analyse précise de résultats antérieurs. Pour (Walter et al.,2010) les chercheurs en neuroimagerie pourraient tirer un grand bénéfice d’outils innovants et de méthodes permettant la requête, l’analyse et le croisement de sources de données complexes, hétérogènes et à grande échelle. En d’autres termes, le domaine gagnerait à se doter d’un système intégré de gestion et de partage des données et de leur provenance pour réduire les coûts, gagner du temps et produire des analyses plus complexes.

Les traitements des données en neuroimagerie sont complexes et nécessitent de nombreuses étapes auxquelles sont associées autant de paramètres et de logiciels. La figure 1.3 présente un workflow Nipype2 de traitement de données en neuroimagerie, qui permet de réaliser les premiers traitements sur des images nouvellement acquises, afin de les rendre exploitables. La représentation graphique dans le logiciel Tulip3 facilite la compréhension des relations com-plexes entre les étapes du calcul.

Figure 1.3 – Workflow Nipype d’un traitement d’images visualisé dans le logiciel Tulip. Les briques de calcul sont reliées entre elles par les flux entrants de données. Les couleurs des nœuds représentent les logiciels d’exécution de chaque brique : FSL=rouge, SPM=bleu, AFNI=vert, ANTS=rose, code isolé=orange, Freesurfer=bleu foncé, l’entrée Nipype=jaune. (réalisé par Pierre-Yves Hervé, 2015)

2. Framework extensible pour le traitement des données en neuroimagerie (Gorgolewski et al.,2011). 3. Logiciel de visualisation de graphes développé par le Labri (Bordeaux, France) (Auber,2004).

La quantité de données à gérer par les chercheurs pour mener à bien une étude a considérablement augmenté durant les vingt dernières années.

Pour réduire les coûts financiers et humains des études portant sur de larges cohortes de sujets, il apparait indispensable de réutiliser au maximum les données

d’études antérieures.

Pour qu’une donnée soit réutilisable, il faut que l’utilisateur puisse connaître sa provenance complète.

Pour favoriser les nouvelles découvertes scientifiques, la neuroimagerie doit idéalement se doter d’un système de gestion et de partage des données et de

leur provenance adapté.