• Aucun résultat trouvé

7. Limites

7.3. Limites relatives au projet en lui-même

Concernant les limites relatives au projet en lui-même, il est nécessaire de mentionner que le détail de l’analyse réalisée ne saurait rendre compte de l’ensemble des discussions ayant eu lieu autour des tables de coconstruction sur le thème de la santé. Différentes catégories n’ont pas été abordées, car elles ne répondent pas directement aux objectifs de recherche susmentionnés, telle que les discussions relatives à l’universalité d’accès aux soins, à la justice sociale ou à la transformation de la relation médecin-patient – quand elles n’avaient pas trait à la responsabilité. Cette limite est aussi inhérente à l’approche holistico-inductive :

Il [le chercheur] laisse venir à lui toutes les informations susceptibles de jeter un éclairage sur le phénomène d’intérêt, quitte à les éliminer plus tard si elles ne s’avèrent pas utiles (D’Amboise et Audet 1996).

Également, il est essentiel de tenir compte du fait que les concepts mobilisés pour comprendre les craintes et les attentes citoyennes (ex. agentivité, responsabilité morale, capabilités

– cf. Chapitre 5) sont des concepts qui réfèrent à une littérature extrêmement riche – et non consensuelle – en philosophie morale. Il n’est pas nécessaire pour les fins de cette thèse d’explorer tous ces concepts ni de prendre position quant à leur définition, mais plutôt de voir comment leur conception pragmatique informe les réflexions bioéthiques. Cependant, une analyse approfondie de ces concepts à la lumière des craintes et des attentes citoyennes est sans nul doute d’intérêt et mériterait des recherches subséquentes.

De plus, tel que défendu dans le Chapitre 4 et dans le Chapitre 6, une approche pragmatique invite à trouver des réponses dans les contextes d’applications de l’utilisation des systèmes d’IA, selon les spécificités inhérentes à chaque situation. Ceci demanderait, en vue de formuler des réponses précises aux défis identifiés dans la présente thèse et de valider la pertinence pratique d’une conception pragmatique de la responsabilité, de réaliser des études de cas. Cependant, l’apport des analyses qui suivent se cantonne à la dimension « macro » de l’IRR telle que définit par Barré (2011), soit celle « des débats sociétaux et des visions de plus long terme d’élaboration des règles et codes de conduite » (p. 407). La présente thèse se limite ainsi à l’utilisation d’une conception pragmatique pour : 1) défendre l’utilité d’une approche contextuelle et 2) identifier les défis qui pourraient survenir lors de l’application d’une telle approche, sur la base de la littérature et des discussions citoyennes. Les deux autres dimensions présentées par Barré (la dimension méso des agences de financement en charge des priorités scientifiques et la dimension micro du « chercheur dans son laboratoire »), si elles sont considérées au fil des chapitres, mériteraient d’être explorées de manière approfondie lors d’études futures.

Enfin, il est important de souligner (bien que cela reste implicite) que l’orientation de la recherche, des analyses et des conclusions a été majoritairement réalisée selon une approche de l’éthique plutôt occidentale, avec un intérêt particulier pour les développements (éthiques et techniques) ayant cours au Canada, aux États-Unis et en France. Comme abordé lors du Chapitre 4, le domaine de l’éthique de l’IA (en santé comme dans d’autres secteurs) mériterait plus de recherche sur la base d’approches qui réfèrent à d’autres systèmes de valeurs.

Références bibliographiques

AI HLEG, (High-Level Expert Group on Artificial Intelligence). 2019. « Ethics Guidelines for

Trustworthy AI ». Brussels: European Commission.

https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419.

Altman, M., A. Wood, et E. Vayena. 2018. « A Harm-Reduction Framework for Algorithmic

Fairness ». IEEE Security Privacy 16 (3): 34‑45.

https://doi.org/10.1109/MSP.2018.2701149.

Amnesty International, Access Now. 2018. « The Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems ». RightsCon Toronto. https://www.accessnow.org/toronto-declaration.

Anadón, M. 2006. La recherche dite « qualitative »: de la dynamique de son évolution aux acquis indéniables et aux questionnements présents. Recherches qualitatives, 26(1), 5-31.

Ananny, Mike, et Kate Crawford. 2018. « Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability ». New Media & Society 20 (3): 973‑89. https://doi.org/10.1177/1461444816676645.

Avenier, M. 2011. Les paradigmes épistémologiques constructivistes : post-modernisme ou pragmatisme ?. Management & Avenir, 43(3), 372-391. doi:10.3917/mav.043.0372. Azencott C.-A. 2018. « Machine learning and genomics: precision medicine versus patient

privacy ». Philosophical Transactions of the Royal Society A: Mathematical, Physical and

Engineering Sciences 376 (2128): 20170350. https://doi.org/10.1098/rsta.2017.0350.

Barré, Rémi. 2011. « Des concepts à la pratique de l’innovation responsable : à propos d’un séminaire franco-britannique ». Natures Sciences Societes Vol. 19 (4): 405‑9.

Bourdieu, Pierre. 2004. Esquisse pour une auto-analyse. Raisons d’agir.

Bourg, Dominique, et Alain Papaux. 2008. « Des limites du principe de précaution: OGM, transhumanisme et détermination collective des fins ». Économie publique/Public

economics, no 21. http://economiepublique.revues.org/pdf/7932.

Bouter, Lex M., Joeri Tijdink, Nils Axelsen, Brian C. Martinson, et Gerben ter Riet. 2016. « Ranking major and minor research misbehaviors: results from a survey among participants of four World Conferences on Research Integrity ». Research Integrity and

Braun, Virginia, et Victoria Clarke. 2006. « Using thematic analysis in psychology ». Qualitative

Research in Psychology 3 (2): 77‑101. https://doi.org/10.1191/1478088706qp063oa.

Brundage, Miles. 2016. « Artifical intelligence and responsible innovation ». Dans Fundamental

issues of artificial intelligence, Springer International Publishing Switzerland, 543‑53. V.C.

Müller.

Brundage, Miles, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe, Paul Scharre, Thomas Zeitzoff, et Bobby Filar. 2018. « The malicious use of artificial intelligence: Forecasting, prevention, and mitigation ». arXiv preprint

arXiv:1802.07228.

Canadian Institutes of Health Research, Natural Sciences and Engineering Research Council of Canada, Social Sciences and Humanities Research Council of Canada.2016. Tri-Agency Framework: Responsible Conduct of Research. Secretariat on Responsible Conduct of

Research. https://rcr.ethics.gc.ca/eng/documents/Framework2016-

CadreReference2016_eng.pdf

Cath, Corinne J. N., Sandra Wachter, Brent Mittelstadt, Mariarosaria Taddeo, et Luciano Floridi. 2016. « Artificial Intelligence and the “Good Society”: The US, EU, and UK Approach ». SSRN Scholarly Paper ID 2906249. Rochester, NY: Social Science Research Network. https://papers.ssrn.com/abstract=2906249.

Chartrand, Louis. 2017. « Agencéité et responsabilité des agents artificiels ». Éthique publique.

Revue internationale d’éthique sociétale et gouvernementale, no vol. 19, n° 2 (novembre). https://doi.org/10.4000/ethiquepublique.3068.

Chow-White, Peter A., Maggie MacAulay, Anita Charters, et Paulina Chow. 2015. « From the Bench to the Bedside in the Big Data Age: Ethics and Practices of Consent and Privacy for Clinical Genomics and Personalized Medicine ». Ethics and Information Technology 17 (3): 189‑200. https://doi.org/10.1007/s10676-015-9373-x.

Christen, Markus, Josep Domingo-Ferrer, Bogdan Draganski, Tade Spranger, et Henrik Walter. 2016. « On the Compatibility of Big Data Driven Research and Informed Consent: The Example of the Human Brain Project ». Dans The Ethics of Biomedical Big Data, édité par Brent Daniel Mittelstadt et Luciano Floridi, 199‑218. Law, Governance and Technology Series. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-33525- 4_9.

Coeckelbergh, Mark. 2015. « Artificial Agents, Good Care, and Modernity ». Theoretical

Medicine and Bioethics 36 (4): 265‑77. https://doi.org/10.1007/s11017-015-9331-y.

Crnkovic, Gordana Dodig, et Daniel Persson. 2008. « Sharing Moral Responsibility with Robots: A Pragmatic Approach. » Dans Frontiers in Artificial Intelligence and Applications Volume 173, édité par Anders Holst, Per Kreuger, et Peter Funk. IOS Press Books.

ÉPTC2 : Conseil de recherches en sciences humaines du Canada, Conseil de recherches en sciences naturelles et en génie du Canada, et Instituts de recherche en santé du Canada. 2018. « Énoncé de politique des trois Conseils : Éthique de la recherche avec des être humains ». http://www.ger.ethique.gc.ca/fra/policy-politique_tcps2-eptc2_2018.html.

D’Amboise, G., et J. Audet. 1996. Le projet de recherche en administration. Un guide général à

sa préparation. Chapitre 4. L’approche holistico-inductive. Université Laval, Faculté des

sciences de l'administration.

Déclaration de Montréal IA Responsable. 2018. « Rapport de la Déclaration de Montréal pour un Développement Responsable de l’Intelligence Artificielle ». https://docs.wixstatic.com/ugd/ebc3a3_d806f109c4104c91a2e719a7bef77ce6.pdf.

Floridi, Luciano, et Mariarosaria Taddeo. 2016. « What Is Data Ethics? » Philosophical

Transactions of the Royal Society A-Mathematical Physical and Engineering Sciences 374

(2083): 20160360. https://doi.org/10.1098/rsta.2016.0360.

Fonds de recherche du Québec (FRQ). 2014. Politique sur la conduite responsable en recherche. FRQ. Disponible sur : www.frq.gouv.qc.ca/hxtNx87eSZkT/wp-content/uploads/Politique- sur-la-conduite-responsable-en-recherche_FRQ_sept-2014.pdf

Friedler, Sorelle A., Carlos Scheidegger, et Suresh Venkatasubramanian. 2016. « On the (im)possibility of fairness ». arXiv:1609.07236 [cs, stat], septembre. http://arxiv.org/abs/1609.07236.

Gibbons, Michael. 1994. The New Production of Knowledge: The Dynamics of Science and

Research in Contemporary Societies. SAGE.

Hamet, Pavel, et Johanne Tremblay. 2017. « Artificial intelligence in medicine ». Metabolism, Insights Into the Future of Medicine: Technologies, Concepts, and Integration, 69 (Supplement): S36‑40. https://doi.org/10.1016/j.metabol.2017.01.011.

Hacking, I. 1995 ; Entre science et réalité : la construction sociale de quoi ? traduit de l'anglais par Baudouin Jurdant. Paris : Éditions La Découverte 2001

IEEE, Institute of Electrical and Electronics Engineers. 2017. « Ethically aligned design - Version 2 - For Public Discussion ». https://standards.ieee.org/content/dam/ieee- standards/standards/web/documents/other/ead_v2.pdf.

Institut national de santé publique du Québec. 2016. « La gestion des risques en santé publique au

Québec : cadre de référence ».

https://www.inspq.qc.ca/pdf/publications/2106_gestion_risques_sante_publique.pdf. Jobin, Anna, Marcello Ienca, et Effy Vayena. 2019. « Artificial Intelligence: the global landscape

of ethics guidelines ». arXiv:1906.11668 [cs], juin. http://arxiv.org/abs/1906.11668. Jones, M. L., E. Kaufman, et E. Edenberg. 2018. « AI and the Ethics of Automating Consent ».

IEEE Security Privacy 16 (3): 64‑72. https://doi.org/10.1109/MSP.2018.2701155.

Kim, Pauline T. 2016. « Data-Driven Discrimination at Work ». William & Mary Law Review 58: 857‑936.

Koepsell, David. 2017. « Duties of Science to Society (and Vice Versa) ». Dans Scientific Integrity

and Research Ethics, 85‑95. SpringerBriefs in Ethics. Springer, Cham.

https://doi.org/10.1007/978-3-319-51277-8_8.

Kononenko, Igor. 2001. « Machine learning for medical diagnosis: history, state of the art and perspective ». Artificial Intelligence in Medicine 23 (1): 89‑109. https://doi.org/10.1016/S0933-3657(01)00077-X.

Kuhlau, Frida, Stefan Eriksson, Kathinka Evers, et Anna T. Höglund. 2008. « Taking Due Care: Moral Obligations in Dual Use Research ». Bioethics 22 (9): 477‑87. https://doi.org/10.1111/j.1467-8519.2008.00695.x.

Kuhlau, Frida, Anna T. Höglund, Kathinka Evers, et Stefan Eriksson. 2011. « A Precautionary Principle for Dual Use Research in the Life Sciences ». Bioethics 25 (1): 1‑8. https://doi.org/10.1111/j.1467-8519.2009.01740.x.

Lahlou, Saadi. 2008. « Identity, Social Status, Privacy and Face-Keeping in Digital Society ».

Social Science Information 47 (3): 299‑330. https://doi.org/10.1177/0539018408092575.

Lave, Rebecca, Philip Mirowski, et Samuel Randalls. 2010. « Introduction: STS and Neoliberal Science ». Social Studies of Science 40 (5): 659‑75. https://doi.org/10.1177/0306312710378549.

Le Moigne, Jean-Louis. 2006. « L’expérience de la responsabilité appelle l’éthique, qui appelle l’épistémique, qui appelle la pragmatique… ». Postface, in J.-J. Rosé, ed., Responsabilité

sociale de l’entreprise. Pour un nouveau contrat social, Brussels: De Boeck.

Lehoux, Pascale, Fiona A. Miller, Dominique Grimard, et Philippe Gauthier. 2018. « Anticipating Health Innovations in 2030–2040: Where Does Responsibility Lie for the Publics? » Public

Understanding of Science 27 (3): 276‑93. https://doi.org/10.1177/0963662517725715.

Métayer, Michel. 2001. « Vers une pragmatique de la responsabilité morale ». Lien social et

Politiques, no 46: 19‑30. https://doi.org/10.7202/000320ar.

Miller, Seumas, et Michael J. Selgelid. 2007. « Ethical and Philosophical Consideration of the Dual-Use Dilemma in the Biological Sciences ». Science and Engineering Ethics 13 (4): 523‑80. https://doi.org/10.1007/s11948-007-9043-4.

Mittelstadt, Brent. 2019. « AI Ethics – Too Principled to Fail? » SSRN Scholarly Paper ID 3391293. Rochester, NY: Social Science Research Network. https://papers.ssrn.com/abstract=3391293.

Moor, J. H. 2006. « The Nature, Importance, and Difficulty of Machine Ethics ». IEEE Intelligent

Systems 21 (4): 18‑21. https://doi.org/10.1109/MIS.2006.80.

Mucchielli, A. 2007. Les processus intellectuels fondamentaux sous-jacents aux techniques et méthodes qualitatives. Recherches qualitatives, 3, 1-27.

Noorman, Merel. 2016. « Computing and Moral Responsibility ». Dans The Stanford Encyclopedia

of Philosophy, édité par Edward N. Zalta, Winter 2016. Metaphysics Research Lab,

Stanford University. https://plato.stanford.edu/archives/win2016/entries/computing- responsibility/.

Hottois, Gilbert. 1990. Le paradigme bioéthique. Une éthique pour la technoscience. Bruxelles, ERPl Science.

Owen, Richard, Phil Macnaghten, et Jack Stilgoe. 2012. « Responsible Research and Innovation: From Science in Society to Science for Society, with Society ». Science and Public Policy 39 (6): 751‑60. https://doi.org/10.1093/scipol/scs093.

Paquette, Danielle. 2007. « Le rôle du cadre de référence théorique dans une recherche monographique constructiviste ». Recherches qualitatives 27 (1): 3–21.

Pawson, Ray, Trisha Greenhalgh, Gill Harvey, et Kieran Walshe. 2005. « Realist Review--a New Method of Systematic Review Designed for Complex Policy Interventions ». Journal of

Health Services Research & Policy 10 Suppl 1 (juillet): 21‑34. https://doi.org/10.1258/1355819054308530.

Pellé, Sophie, et Bernard Reber. 2016. Ethique de la recherche et innovation responsable. ISTE editions. Vol. 2. Innovation et recherche responsables.

Ralph, Jason. 2018. « What Should Be Done? Pragmatic Constructivist Ethics and the Responsibility to Protect ». International Organization 72 (1): 173‑203. https://doi.org/10.1017/S0020818317000455.

Resnik, David. 2017. « What Is Ethics in Research & Why Is It Important? » National Institute of

Environmental Health Sciences. 2017.

https://www.niehs.nih.gov/research/resources/bioethics/whatis/index.cfm.

Resnik, David B. 2003. « From Baltimore to Bell Labs: Reflections on Two Decades of Debate about Scientific Misconduct ». Accountability in Research 10 (2): 123‑35. https://doi.org/10.1080/08989620300508.

———. 2009. « What is “dual use” research? A response to Miller and Selgelid ». Science and

engineering ethics 15 (1): 3–5.

———. 2011. « Scientific Research and the Public Trust ». Science and Engineering Ethics 17 (3): 399‑409. https://doi.org/10.1007/s11948-010-9210-x.

Russell, Stuart, Daniel Dewey, et Max Tegmark. 2015. « Research Priorities for Robust and Beneficial Artificial Intelligence ». AI Magazine 36 (4): 105‑14.

Selbst, Andrew D., et Solon Barocas. 2018. « The Intuitive Appeal of Explainable Machines ». SSRN Scholarly Paper ID 3126971. Rochester, NY: Social Science Research Network. https://papers.ssrn.com/abstract=3126971.

Selgelid, Michael J. 2009a. « Governance of dual-use research: an ethical dilemma ». Bulletin of

the World Health Organization 87 (9): 720‑23. https://doi.org/10.1590/S0042-

96862009000900017.

———. 2009b. « Dual-Use Research Codes of Conduct: Lessons from the Life Sciences ».

NanoEthics 3 (3): 175‑83. https://doi.org/10.1007/s11569-009-0074-y.

Sharkey, Noel. 2008. « The Ethical Frontiers of Robotics ». Science 322 (5909): 1800‑1801. https://doi.org/10.1126/science.1164582.

Sharon, Tamar. 2016. « The Googlization of Health Research: From Disruptive Innovation to Disruptive Ethics ». Personalized Medicine 13 (6): 563-74. https://doi.org/10.2217/pme-2016-0057.

Smiley, Marion. 1992. Moral Responsibility and the Boundaries of Community. Power and Accountability from a Pragmatic Point of View. Chicago, The University of Chicago Press. 296 Stahl, B. C., et D. Wright. 2018. « Ethics and Privacy in AI and Big Data: Implementing

Responsible Research and Innovation ». IEEE Security Privacy 16 (3): 26‑33. https://doi.org/10.1109/MSP.2018.2701164.

Steneck, Nicholas H., et Ruth Ellen Bulger. 2007. « The History, Purpose, and Future of Instruction in the Responsible Conduct of Research ». Academic Medicine: Journal of the Association

of American Medical Colleges 82 (9): 829‑34.

https://doi.org/10.1097/ACM.0b013e31812f7d4d.

Torkamani, Ali, Kristian G. Andersen, Steven R. Steinhubl, et Eric J. Topol. 2017. « High- Definition Medicine ». Cell 170 (5): 828‑43. https://doi.org/10.1016/j.cell.2017.08.007. Villani, Cédric. 2018. « Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et

européenne. »

https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf. Voarino, N., V. Couture, S. Mathieu-Chartier, J. C. Bélisle-Pipon, E. St-Hilaire, B. Williams-Jones,

F. J. Lapointe, C. Noury, M. Cloutier, et P. Gauthier. 2019. « Mapping responsible conduct in the uncharted field of research-creation: A scoping review ». Accountability in Research 26 (5): 311‑46. https://doi.org/10.1080/08989621.2019.1620607.

Chapitre 2 – Les promesses de l’utilisation des systèmes