• Aucun résultat trouvé

Repenser le consentement des patients et des participants à la recherche

Chapitre 2 – Les promesses de l’utilisation des systèmes d’intelligence artificielle en santé

2. Les principaux enjeux éthiques de l’utilisation des systèmes d’intelligence artificielle en

2.2. Repenser le consentement des patients et des participants à la recherche

L’avènement de l’utilisation de systèmes d’IA et de l’analyse de données massives en santé pose également des problèmes relatifs au respect du consentement des patients et des participants à la recherche. Le consentement en santé est un des modèles de transparence formelle qui permet d’autoriser l’utilisation des données pour la recherche de manière appropriée, permettant notamment de préciser quelles sont les intentions cliniques ou quelles informations le patient souhaite partager et recevoir (ce qui est particulièrement pertinent dans le cas de découvertes fortuites, comme par exemple sur les données génomiques) (Fiore et Goodman 2016). L’obtention du consentement représente un des principaux modèles pour limiter les préjudices associés aux entraves à la vie privée. Selon la conception classique du consentement, les individus consentent à participer à une étude considérant l’équilibre entre les bénéfices et les risques, assistés par des professionnels de santé informés, en amont de la recherche ou de la prestation de soins et pour une intervention, un projet ou une juridiction bien définis (Mittelstadt and Floridi 2016a; ÉPTC2 2018; Mittelstadt and Floridi 2016b; CERNA 2018; Woolley 2016).

Cependant, l’avènement d’une médecine guidée par les données complique le respect des termes du consentement dans sa compréhension traditionnelle (Woolley 2016; Christen et al. 2016). En premier lieu, parce-que le contexte de la collecte, du stockage et de l’analyse des données massives rend souvent impossible l’obtention d’un consentement libre et éclairé relativement aux utilisations secondaires desdites données (Rumbold et Pierscionek 2017; Woolley 2016; Christen

et al. 2016). En effet, il devient impossible de prévoir à l’avance les usages qui seront fait des données collectées, comme le présente Mittelstadt et Floridi (2016b):

Secondary effects of pharmaceuticals can be identified by comparing data not only from multiple clinical trials, but ‘informal sources’ as well, such as incidental self-reporting via social media and search engine queries. In this type of research the connections that can be revealed through linking multiple data sets cannot be accurately predicted prior to carrying out the research. As a result, ‘consent’ cannot be ‘informed’ in the sense that data subjects cannot be told about future uses and consequences of their data, which are unknowable at the time the data is collected or aggregated (p. 454).

Un défi en ce qui concerne les données massives en santé est en effet la réutilisation infinie que leur collecte et leur stockage permettent. Considérant les impératifs de partage, il devient presque impossible de prédire à l’avance les finalités de leur usage (Rial-Sebbag 2017). Cette possibilité infinie de réutilisation tend ainsi à transformer la collecte dans le cadre de la recherche biomédicale : les données ne sont plus recueillies dans le contexte spécifique des objectifs de recherche mais ce sont les ensembles de données massives déjà collectées qui offrent de multiples opportunités de recherche (Rumbold et Pierscionek 2017; Brouard 2017; Zwitter 2014).

Tel que mentionné précédemment, la portabilité associée à la santé connectée et la possibilité pour les individus de partager directement des données de santé conduisent à l’apparition d’une collecte horizontale qui complique le contrôle et les rôles de la gestion des données (IEEE 2017; Villani 2018). Même lorsque les individus consentent à la collecte des données via leurs objets connectés, ces services dépendent de paramètres évolutifs codés pour des finalités qui ne sont pas toujours explicites, les concepteurs eux-mêmes peuvent sous-estimer l’impact de leurs applications sur l’environnement digital global (CERNA 2018). Il est alors souvent difficile pour les utilisateurs de déterminer quelles informations sont collectées, de modifier ou de gérer ces données, voire de connaître l’étendue avec laquelle leurs données vont être publiquement diffusées et analysées, en dehors des espaces ou elles ont été générées (IEEE 2017; Mittelstadt et Floridi 2016b).

Si le modèle traditionnel de consentement ne fonctionne plus, c’est également en raison des opportunités qui existent de mettre en lien les ensembles de données médicales et non-médicales (Mittelstadt et Floridi 2016a). Les données ne sont plus forcément collectées dans un contexte biomédical (où le consentement reste un standard) mais proviennent de médias sociaux ou

d’applications mobiles où le consentement explicite est souvent absent (Mittelstadt et Floridi 2016b). Lorsqu’il est présent, le consentement digital (souvent un « click ») peut également mettre à mal l’autonomie des individus, considérant par exemple la surcharge d’informations des clauses de confidentialité qui ne sont finalement plus informatives – voire qui ne sont même pas lues (Jones, Kaufman, et Edenberg 2018). Le consentement dans ce contexte peut d’autant plus être questionné si l’on considère les algorithmes « invisibles » pour les utilisateurs qui peuvent aujourd’hui accéder aux données longtemps après qu’elles aient été fournies (IEEE 2017).

L’opacité des réseaux de neurones représente également une potentielle entrave à la conception traditionnelle du consentement et donc à leur autonomie, car il devient difficile d’expliquer pourquoi une décision a été prise ou d’informer les patients et les participants en amont de ce qui sera découvert par le modèle prédictif. En effet, les réseaux de neurones peuvent fonder leurs décisions ou recommandations sur la base de paramètres appris implicitement auxquels nous n’avons pas forcément accès (Castelvecchi 2016). Ceci peut avoir des conséquences face aux choix de santé des individus et des professionnels, par exemple dans le cadre de la mise en place de traitements préventifs lourds où la décision peut être encore plus difficile à prendre en l’absence de connaissance des facteurs de risques (Castelvecchi 2016). L’apparition d’une forme de paternalisme technologique est également à craindre considérant que les algorithmes peuvent conseiller, recommander et influencer les comportements de santé (CERNA 2018). Par extension, il est possible de questionner la réelle liberté de choix des individus à consentir à l’usage de l’IA et des données massives dans un système de santé où ces technologies tendent à devenir ubiquitaires.

Des préoccupations relatives à la nature véritablement éclairée du consentement apparaissent également. Ces préoccupations concernent la capacité des utilisateurs à comprendre le potentiel des données massives et de l’IA et de prendre des décisions informées, notamment sur la qualité publique des données qu’ils génèrent et des conséquences non-envisagées de leurs utilisations (Floridi et Taddeo 2016; Zwitter 2014), mais surtout leur capacité à comprendre le

fonctionnement des systèmes utilisés, dans un contexte où il est reconnu qu’améliorer le niveau de littératie numérique67 est essentiel (Déclaration de Montréal IA Responsable 2018).

S’observe alors également, dans le contexte du respect du consentement, une tension entre la protection des intérêts individuels (ici, l’autonomie des patients et des participants) et des intérêts collectifs (ceux de la recherche en santé et par extension, des avancées de la médecine) :

A basic tension currently exists between the regulation of biomedical information and the goals of research. On the one hand is the protection of basic rights of data providers and fears of abuse by data users. On the other is the promised greater societal good of research into the aetiology of disease (Woolley 2016 p.173).

L'apprentissage automatique tend en effet à détourner le consentement de l'utilisation individuelle de données personnelles vers un consentement collectif permettant d'utiliser ces systèmes (CERNA 2018). Une restriction trop importante relativement au consentement requis des utilisateurs dans ce contexte est parfois vue comme une barrière financière et bureaucratique au partage des données et à la recherche (Mittelstadt et Floridi 2016b; Wellcome Trust 2013). Il se pourrait, face à des restrictions trop importantes, que ces données ne soient pas partagées entre chercheurs et ce même si les individus auraient potentiellement consenti à le faire (considérant qu’il est difficile de savoir s’ils ont réellement consenti ou non dans les situations décrites) risquant ainsi de limiter l’avancée des connaissances (Mittelstadt et Floridi 2016b). Selon ces perspectives, éliminer ou tempérer le besoin de consentement se fait de manière pragmatique (relevant de l’altruisme) ou substantielle (relevant de la solidarité ou du bien commun) et peut se justifier si les bienfaits sociétaux dépassent les risques d’atteintes aux droits individuels (notamment, ici, l’autonomie) (Mittelstadt et Floridi 2016b; Wellcome Trust 2013).

67 La littératie numérique correspond à la capacité de comprendre et d’utiliser l’information issue des outils numériques

ou des technologies en réseaux (UNESCO 2018a). Assurer que l’ensemble de la population acquiert les compétences à la fois techniques et critiques est essentiel afin de garantir que « tout individu puisse agir de façon autonome, éclairée et responsable », par l’entremise du système formel de formation ou hors de ce dernier (Déclaration de Montréal IA Responsable 2018). Ces compétences sont incontournables lorsqu’il est question de consentement : « La littératie numérique ne se résume donc pas seulement au fait de savoir utiliser des outils technologiques, elle inclut également une dimension critique amenant à savoir prendre des décisions éclairées quant à cette utilisation. » (Vézy C. dans Déclaration de Montréal IA Responsable 2018 p. 272).

Néanmoins, un consentement valide (soit libre et éclairé) est considéré comme fondamental en ce qui a trait au respect de l’autonomie des patients et des participants à la recherche et ce depuis les débuts de la bioéthique (Jones, Kaufman, et Edenberg 2018). La notion de consentement informé est au centre des considérations éthiques depuis le procès de Nuremberg afin de protéger les participants à la recherche médicale contre d’éventuels préjudices, volontaires ou non (Christen et al. 2016). Pour certains, protéger l’avancée du progrès et le bien commun au détriment de l’autonomie individuelle ne peut être éthiquement justifié sans débat public, doit tenir compte de la manière dont la recherche sur les données massives risque de porter atteinte aux individus et ne peut se faire au nom d’un paternalisme médical qui limiterait les options de choix des individus qui ne comprendraient pas réellement la portée des projets (Mittelstadt et Floridi 2016b; Christen et al. 2016).

Ainsi, la nécessité de repenser le consentement – notamment dans le contexte de la recherche et de la médecine – face à l’IA et aux données massives est soutenue par plusieurs auteurs (Mittelstadt et Floridi 2016b; 2016a; Jones, Kaufman, et Edenberg 2018; Christen et al. 2016; Woolley 2016). En lieu et place d’un « consentement à usage unique » aujourd’hui pratiquement impossible à renouveler pour chaque utilisation (Mittelstadt et Floridi 2016b) la mise en place de consentements « ouverts » (ex. un patient atteint d’un Alzheimer précoce peut consentir à donner ses données pour toute recherche qui fait avancer les connaissances sur cette maladie) (Christen et al. 2016) ou « dynamiques » (ex. une interface interactive qui permettrait aux participants de choisir et de changer leur consentement en temps réel) (Woolley 2016; Villani 2018; Jones, Kaufman, et Edenberg 2018) sont actuellement en discussion. La nécessité d’accompagner les individus et de favoriser leur autonomie face au partage de leurs données devient alors une urgente nécessité (Villani 2018; Christen et al. 2016).