• Aucun résultat trouvé

Chapitre 2 – Les promesses de l’utilisation des systèmes d’intelligence artificielle en santé

2. Les principaux enjeux éthiques de l’utilisation des systèmes d’intelligence artificielle en

2.4. Déshumanisation des soins et du patient

L’utilisation de systèmes d’IA en santé s’accompagne également de préoccupations relatives à une certaine déshumanisation. Celle-ci pourrait se manifester de deux principales manières : 1) une relation de soins déshumanisante liée à la diminution du contact humain et 2) un patient déshumanisé considérant les impacts du numérique sur l’identité et l’individualité.

Premièrement, le recours croissant aux systèmes d’IA et aux données massives pourrait exacerber la déshumanisation de la relation de soins, en augmentant la distance entre les professionnels de santé et les patients, notamment car ces technologies ne requièrent peu voire pas d’intervention humaine (Nakrem et al. 2018). Ceci pourrait ainsi conduire à une réduction du contact humain dans la relation de soins (Coeckelbergh 2015). Cette distance pourrait également être exacerbée par le temps que les professionnels de santé vont devoir consacrer à la compréhension et à l’utilisation des systèmes d'IA plutôt qu'au chevet du patient71. Cette déshumanisation de la relation de soins s’accompagne d’un appauvrissement des aspects émotionnels et psychologiques essentiels, en plus d'une expertise médicale plus formelle, à la qualité des soins (Coeckelbergh 2015) ainsi qu’à la confiance entre patient et professionnels de santé.

La distance à la base de la déshumanisation des soins pourrait également être favorisée par un isolement des patients. Cet isolement découlerait soit de l’exclusion de personnes (vulnérables) laissées aux mains des machines, soit des individus qui pourraient s’isoler eux-mêmes en préférant interagir avec des machines (Devillers 2017; Coeckelbergh 2012, 2015). Le risque d’exclure les patients qui nécessitent un certain niveau d’assistance clinique (comme les personnes âgées) est par exemple dénoncé par Coeckelbergh (2015) :

71 Ce point est souligné par Robert Truog (2019) dans un essai produit pour le projet « AIship » (voir : https://aiship.org/fr/projets/les-nouveaux-etats-detre/), qui n’est pas encore publié.

In discussions about care robots for elderly care, an important concern is that the care robots will reduce human contact. (…) Nightmare scenarios are sketched in which elderly people are abandoned and left in the hands of machines, shielded from the rest of the world (p. 268).

La crainte que les individus s’excluent eux-mêmes en se cantonnant uniquement à des relations avec les machines est également soulevée par Devillers (2017), notamment car ils pourraient préférer interagir avec des robots prévisibles et développés de manière à être toujours agréables à des humains imprévisibles. Ceci serait particulièrement le cas avec les robots « empathiques » ou lorsque les frontières entre humains et systèmes d’IA se brouillent (comme par exemple dans le cas des chatbots) (Devillers 2017). Préférer les interactions avec les systèmes d’IA plutôt qu’avec d’autres humains serait favorisé par le potentiel engagement émotionnel vis-à-vis des machines, qui se manifeste selon différents mécanismes de projection d’intention ou d’anthropomorphisation (Devillers 2017; Iphofen et Kritikos 2019). Le recours grandissant au numérique n’étant pas sans impact sur les capacités sociales des individus, certains s’inquiètent que cela nuise à l’exercice de « capacités humaines fondamentales » - en particulier, les compétences sociales comme l’empathie, l’introspection et la compassion (Schwab 2016).

Deuxièmement, l’avènement de l’IA et des données massives contribuerait à une perception déshumanisée du patient considérant les impacts du numérique sur l’identité et l’individualité. Ce risque de déshumanisation s’inscrit dans le phénomène que Lahlou (2015) nomme le « retournement du miroir » : avec la numérisation grandissante, nos sociétés et les individus qui la composent deviennent « icodynamiques », c’est-à-dire qu’ils se définissent par leur image (numérique) qui finit par ne plus correspondre à la réalité (physique) (Lahlou 2015). Le phénomène du soi quantifié pourrait conduire à percevoir les patients comme des ensembles de données plutôt que des individus à part entière et dans toute leur complexité (Rouvroy 2014; Coutellec et Weil- Dubuc 2017; Ajana 2017). Ce phénomène serait favorisé par la création de profils de santé en vue d’une médecine de précision. C’est ce que dénoncent Coutellec et Weil-Dubuc, discutant du profilage des patients qui pourrait conduire à la perception du « moi » comme un « agrégat de données » : « Le profil est une représentation appauvrie de l’humain, un ‘homme disloqué’ puis agrégé » (Coutellec et Weil-Dubuc 2017 p. 71).

Les conséquences du profilage algorithmique – quel qu’en soit les applications – conduisent à un certain paradoxe de l’individualisation de la statistique (Ibekwe-Sanjuan 2014) qui pourrait amener à une « désubjectivation » (Rouvroy et Berns 2013) en négligeant la personne (Rouvroy 2014) par une industrialisation la personnalisation (Ibekwe-Sanjuan 2014). L’établissement de profils contournerait les sujets humains se basant sur des données insignifiantes sans jamais en appeler au sujet lui-même. Ces profils se substitueraient parfois à l’identité des individus (Rouvroy 2014), ou en tout cas participeraient à la création d’une « identité digitale » qui contribuerait à la dépersonnalisation des soins, ne reflétant pas un assemblage qu’il est possible d’assimiler au soi (Rouvroy et Berns 2013; Coutellec et Weil-Dubuc 2017). Le profilage amène alors à des préoccupations relatives au contrôle et à la compréhension qu’aurait les individus de leur identité digitale (IEEE 2017), à une nouvelle objectivation du corps des patients (CCNE 2019) qui impacterait l’image de l’humain, la place de l’individu, la dignité et le sentiment d’être unique (CNIL 2017; CCNE 2019).

Le recourt croissant aux technologies pourraient également conduire à une aliénation du personnel médical et du patient, issue d’un potentiel glissement de la perception des humains comme des objets et du soin comme d’un produit (Coeckelbergh 2015). L’automatisation des tâches pourrait même transformer la perception que les professionnels de santé ont d’eux-mêmes en automatisant leur travail (qui seraient alors réduit à celui des machines); et conduirait à des patients « managed and processed » de manière impersonnelle (Coeckelbergh 2015). Un glissement vers une atteinte à l’authenticité est alors envisageable, soit à ce qui constitue l’identité propre des individus (patients).

Cette transformation potentielle du rapport à soi s’inscrit cependant dans la lignée des préoccupations relatives à la biomédicalisation de la société, déjà décriée par certains auteurs avant le développement de systèmes d’IA en santé. Rose définit par exemple ce qu’il nomme les

neurochemical selves, caractéristiques de nos sociétés psychopharmacologiques (Rose 2003). La

profonde transformation de l’identité individuelle (Rose 2003). Ceci fait échos aux concepts de

biosocialité et de biocitoyen, qui mettent en lumière une redéfinition des identités collectives dans

les sociétés occidentales contemporaines au travers des attributs génétiques, somatiques, ou physiques que les individus partagent et autour desquels ils sont mobilisés (Collin 2016). Le soi

quantifié et les préoccupations qui s’y rattachent semble alors s’inscrire dans la même lignée,

exacerbant potentiellement ces phénomènes.

La déshumanisation des soins n’est en effet pas le propre de l’IA, déjà dénoncée par exemple avec l’avènement de la médecine fondée sur les données probantes (ou l’evidence-based

medicine), où la standardisation de la pratique médicale conduit à une déshumanisation de la

relation de soin par le biais d’une médecine « procédurale » qui rationnalise la pratique médicale (Azria 2012). Dans cette situation, les modèles (statistiques) conduisant à la production de « preuves » viennent « nier l’incertitude », ce qui revient à nier la dimension humaine des soins considérant qu’il est impossible de contrôler tous les paramètres des patients (Azria 2012). L’objectivation des patients est ici à la base d’une tension dans la pratique médicale :

La pratique médicale impose en effet la mise en relation de deux univers ; l’un est scientifique, il est celui du général et du multiple, des études sur populations, des probabilités et autres modélisations du risque. L’autre univers, restreint à l’individu, domaine d’expression de sa singularité et de sa variabilité, est celui des affects et de l’inquantifiable. La médecine se fait dans un va-et-vient constant entre l’un de l’individu et le multiple de la connaissance scientifique (Azria 2012).

L’utilisation de systèmes d’IA et l’analyse des données massives en santé ne feraient alors qu’exacerber une déshumanisation des soins qui s’observait déjà. Pour certains, le recours à des systèmes d’IA représenterait même, au contraire, une opportunité d’améliorer la relation de soins dans le contexte d’une médecine déshumanisée ou les professionnels de santé n’ont que peu de temps à consacrer aux patients (Topol 2019). En offrant la possibilité d’automatiser la plupart des tâches répétitives aujourd’hui réalisées par les professionnels de santé, l’IA dégagerait l’espace et le temps nécessaires pour créer et entretenir une connexion humaine et des échanges avec le patient (Topol 2019).