• Aucun résultat trouvé

Justice, éthique et intelligence artificielle : la délégation de la prise de décision judiciaire à un algorithme et l'égalité d'accès au juge

N/A
N/A
Protected

Academic year: 2021

Partager "Justice, éthique et intelligence artificielle : la délégation de la prise de décision judiciaire à un algorithme et l'égalité d'accès au juge"

Copied!
119
0
0

Texte intégral

(1)

Justice, éthique et intelligence artificielle. La délégation

de la prise de décision judiciaire à un algorithme et

l'égalité d'accès au juge

Mémoire

Maîtrise en droit - avec mémoire

Raphaëlle Nordmann

Université Laval

Québec, Canada

Maître en droit (LL. M.)

et

Université Toulouse 1 Capitole

Master (M.)

(2)

Justice, éthique et intelligence artificielle

La délégation de la prise de décision judiciaire à un

algorithme et l’égalité d’accès au juge

Mémoire

Propriété intellectuelle fondamentale et

Technologies numériques

Année 2018/2019

Raphaëlle Nordmann

Sous la direction de :

Mme la Professeure Alexandra Bensamoun, Université Paris-Saclay

M. le Professeur Pierre-Luc Déziel, Université Laval

(3)

Résumé

Ce projet de recherche porte sur la justice, l’éthique et l’intelligence artificielle (IA), et plus précisément sur les enjeux éthiques soulevés par la délégation de la prise de décision judiciaire à une IA. Parmi ces enjeux, celui sur lequel nous avons choisi de nous concentrer est celui de l’égalité d’accès au juge, un droit fondamental à l’échelle européenne comme internationale. Le respect de cet enjeu lors de la mise en œuvre d’algorithmes de règlement des litiges au sein des juridictions sera examiné ici au regard des textes qui sont actuellement les plus avancés pour encadrer éthiquement l’IA : il s’agit d’une part de la déclaration de Montréal, parue en décembre 2018, et d’autre part des lignes directrices de la Commission européenne, parues en avril 2019.

(4)

Abstract

This research deals with justice, ethics and artificial intelligence (AI). More precisely, the aim is to discuss what ethical issues are raised when delegating judicial decision-making to an AI. The issue we are focusing on is equal access to the judge, a fundamental right in both European and international texts. In regard to the most advanced ones that set an ethical frame for the development of AI – which are the Declaration of Montreal, published in December 2018, and the Ethical Guidelines for Trustworthy AI published by the European Commission in April 2019 – we will investigate whether this right is enforced when dispute resolution algorithms are implemented in jurisdictions.

(5)

Table des matières

Résumé ... ii

Abstract ... iii

Table des matières ... iv

Liste des abréviations, sigles, acronymes ... vii

Remerciements ... viii

Introduction ... 1

I. De l’éthique de l’IA à l’impact sur l’égalité d’accès au juge de la délégation de la prise de décision judiciaire à un algorithme ... 3

A. La délimitation quant aux sources ... 3

B. La délimitation thématique ... 4

C. La délimitation quant à l’enjeu éthique considéré ... 5

D. Définitions ... 7

II. La problématique de l’égalité d’accès au juge dans le contexte d’une justice dédoublée entre juge humain et juge-robot ... 9

A. La nécessaire démarcation entre litiges facilement automatisables et litiges difficilement automatisables ... 10

B. Une démarcation mettant en péril l’égalité d’accès au juge ... 12

III. Les objectifs poursuivis ... 14

IV. Les questions de recherche et hypothèses de travail ... 14

A. Question générale de recherche ... 14

B. Première question spécifique de recherche ... 15

C. Deuxième question spécifique de recherche ... 15

D. Troisième question spécifique de recherche... 16

E. Quatrième question spécifique de recherche ... 16

V. L’intérêt de la recherche ... 17

VI. La méthodologie de la recherche ... 19

VII. La structure de la recherche... 22

Partie 1. Les conséquences juridiques de la délégation de la prise de décision judiciaire à une IA . 24 Chapitre 1. Le remplacement du juge par une IA ... 25

Section 1. L’indispensable modernisation du système judiciaire ... 25

Section 2. Le développement des outils d’aide à la juridiction ... 29 I. Les outils algorithmiques développés dans le secteur privé : des progrès significatifs. 29

(6)

II. Les outils algorithmiques développés pour les institutions : des problèmes techniques et

éthiques encore importants ... 32

Section 3. La nécessité de distinguer entre les litiges automatisables et les litiges non automatisables ... 36

I. La distinction opérée selon la nature du jugement ... 36

II. La distinction opérée selon le temps du jugement... 38

Conclusion du premier chapitre ... 40

Chapitre 2. La délicate décomposition du raisonnement juridique ... 42

Section 1. Historique de la formalisation du droit ... 42

I. Une méthodologie juridique inspirée des sciences exactes ... 43

II. Une méthodologie juridique inspirée des sciences expérimentales... 44

III. Une méthodologie juridique inspirée des sciences sociales ... 45

IV. L’impossible informatisation de la méthodologie juridique ? ... 47

Section 2. Les difficultés inhérentes à la décomposition du raisonnement juridique ... 48

I. Les étapes du raisonnement juridique ... 48

II. Les limites à la décomposition du raisonnement juridique ... 52

Conclusion du deuxième chapitre ... 54

Conclusion de la première partie ... 55

Partie 2. Les enjeux éthiques de la délégation de la prise de décision judiciaire à une IA ... 57

Chapitre 1. La mise à l’épreuve des principes encadrant éthiquement le développement de l’IA 58 Section 1. Le principe de respect de l’autonomie humaine ... 59

I. Un consensus sur l’exigence de supervision humaine ... 59

II. Le caractère essentiellement moral des réticences à la délégation de la décision ... 61

III. Une difficulté surmontée par l’élaboration de garanties suffisantes ... 62

Section 2. Le principe de prévention des dommages ... 65

I. La pertinence du principe de précaution ... 66

II. La préservation de la vie privée, un enjeu courant en matière d’IA ... 69

Section 3. Le principe de justice ... 71

I. La nécessité d’élaborer des décisions équitables... 71

II. L’enjeu non résolu des biais discriminatoires ... 75

III. L’exigence d’une responsabilité humaine ... 79

Section 4. Le principe d’explicabilité... 81

Conclusion du premier chapitre ... 83

(7)

Section 1. Les fondements de l’égalité d’accès au juge ... 85

Section 2. L’opportunité de l’élaboration d’un cadre éthique pour assurer la sauvegarde de l’égalité d’accès au juge ... 88

I. Les principes éthiques concernés par l’égalité d’accès au juge ... 89

A. Les qualités communes aux décisions humaine et algorithmique ... 89

B. Les différences substantielles entre décisions humaine et algorithmique ... 90

II. La pertinence de l’élaboration d’un cadre éthique pour préserver l’égalité d’accès au juge 92 Conclusion du deuxième chapitre ... 94

Conclusion de la deuxième partie ... 95

Conclusion générale ... 96

(8)

Liste des abréviations, sigles, acronymes

APD : Archives de philosophie du droit C. civ. : Code civil

CCE : Communication Commerce électronique CEDH : Cour européenne des droits de l’homme CPI : Cahiers de propriété intellectuelle

D. : Recueil Dalloz

IA : intelligence artificielle

JCP G : La Semaine juridique, édition générale LGDJ : Librairie générale de droit et de jurisprudence LPA : Les Petites Affiches

OCDE : Organisation de coopération et de développement économique PUF : Presses universitaires de France

RFDA : Revue française d’éthique appliquée RLDI : Revue Lamy Droit de l’immatériel S. : suivant(e)(s)

(9)

Remerciements

Je souhaite remercier avant tout mes professeurs, Mme Alexandra Bensamoun et M. Pierre-Luc Déziel, pour avoir codirigé ce mémoire et m’avoir fait bénéficier de leurs nombreux conseils. Merci également à Mmes Michelle Cumyn et Mélanie Samson pour leur aide précieuse et leurs éclaircissements utiles, à l’occasion respectivement de l’atelier de présentation du mémoire et du cours de méthodologie de la recherche.

Je souhaite également remercier mes proches – Papa, Maman, Mutti, Mathilde, Maël pour ne citer qu’eux – pour leur soutien pendant toute cette longue année d’études supplémentaire (encore une…) et ce nouveau mémoire (encore un !).

Enfin, merci à toute la promotion PIFTN 2018/2019 pour nous être entraidés et encouragés mutuellement au cours de ce séjour au Canada.

(10)

Introduction

Le 21 mai 2019 encore, étaient adoptées des recommandations de l’Organisation de coopération et de développement économique (OCDE) visant à encadrer éthiquement le développement de l’intelligence artificielle (IA) par l’élaboration d’un certain nombre de principes à respecter1. Ce texte fait suite à un nombre important de chartes et de rapports ayant été publiés sur la question à travers le monde, ces deux dernières années : pour n’en citer que quelques-uns, on peut évoquer la déclaration d’Asilomar – du nom du lieu où s’est tenue la conférence lui ayant donné naissance – de janvier 20172, les principes de l’Institute of Electrical and Electronics Engineers (IEEE) dont la dernière version date de décembre 20173, la charte éthique de Google publiée en juin 20184, la Déclaration de Montréal publiée en décembre 2018 suite à un an de concertation publique5, ou encore les lignes directrices élaborées par un groupe d’experts désignés par la Commission européenne, dont la dernière version date d’avril 20196.

La multiplication de ces textes est symptomatique de l’importance accrue de la soft law, autrement dit du droit mou ou droit souple7, qui inclut entre autres les réglementations

éthiques non contraignantes, dans le domaine des nouvelles technologies8. L’élaboration prématurée de règles de droit contraignantes dans des secteurs en évolution constante et rapide ne peut en effet que conduire à leur obsolescence prochaine9. Pourtant, la nécessité de

1 Recommendation of the Council on Artificial Intelligence, OECD Legal Instruments, 21 mai 2019. En ligne :

<legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449>.

2 Asilomar AI Principles, Future of Life Institute. En ligne : <futureoflife.org/ai-principles/?cn-reloaded=1>. 3 Ethically Aligned Design, IEEE Standards Association. Téléchargeable en ligne :

<standards.ieee.org/industry-connections/ec/ead-v1.html>.

4 Sundar Pichai, AI at Google : our Principles, Google, 7 juin 2018. En ligne :

<blog.google/technology/ai/ai-principles/>.

5 Déclaration de Montréal IA responsable, Déclaration de Montréal IA responsable. En ligne :

<www.declarationmontreal-iaresponsable.com/la-declaration>.

6 Ethics Guidelines for Trustworthy AI, European Commission. Téléchargeables en ligne :

<ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top>.

7 Pour une définition du droit souple, voir J. Ghestin, H. Barbier et J.-S. Bergé, Traité de droit civil. Introduction

générale, Paris, Librairie générale de droit et de jurisprudence, 5e éd., 2018, p. 321 : l’expression désigne « une

norme ou un ensemble de normes émanant d’une autorité ou personne qui n’use pas d’un pouvoir d’imposer la norme à autrui ou d’une capacité à s’engager elle-même mais propose une norme afin d’influencer les autorités ou personnes qui usent de ce pouvoir ou de cette capacité ».

8 Ibid., p. 322.

9 A. Bensamoun et G. Loiseau, « L’intelligence artificielle : faut-il légiférer ? », D. 2017, p. 581, 5. Les auteurs

expliquent en effet que les mutations rapides que subissent certains secteurs, et principalement ceux concernant les nouvelles technologies, placent ces derniers dans une temporalité complètement différente de celle du droit.

(11)

réguler le domaine est soulignée par tous les acteurs, privés comme publics10. C’est pourquoi, en matière d’IA, la régulation éthique est celle qui prévaut pour le moment.

Ainsi, cette recherche s’inscrit dans le thème très large de l’étude, d’un point de vue juridique, des interactions entre éthique et IA, puisque c’est cette approche parmi celles que propose le droit souple qui a été privilégiée. Il importe néanmoins d’expliquer dans un premier temps de cette introduction le parti pris ayant conduit à limiter le sujet à la délégation de la prise de décision judiciaire à une IA, et à son impact sur l’égalité d’accès au juge (I). On précisera dans un second temps cette problématique, c’est-à-dire en quoi l’introduction de l’IA dans les juridictions peut conduire à l’émergence d’un système de justice à deux vitesses mettant en danger l’égalité d’accès au juge (II). La suite de cette introduction énoncera les objectifs poursuivis, qui découlent de la problématique posée (III), les questions de recherche ayant guidé cette étude ainsi que les hypothèses de travail (IV), l’intérêt de la recherche (V), la méthodologie adoptée (VI) et enfin la structure de la recherche (VII). Dans le cadre du remplacement du juge par une IA dans certains litiges seulement, notre thèse, comme nous la développons plus loin, est que la décision de justice prise par un algorithme ne présente pas les mêmes caractéristiques que celle prise par un magistrat. La mise en œuvre d’algorithmes de règlement des litiges risque donc de mettre en péril l’égalité d’accès au juge, à moins que des mesures suffisantes ne soient prises pour éviter cet écueil. Ainsi, le remplacement du juge par un algorithme est possible dans le cadre de certains litiges, aisément automatisables et n’entraînant pas d’enjeux éthiques importants. Ce remplacement doit néanmoins s’accompagner de garanties visant à préserver l’égalité d’accès au juge, mise à mal par le développement d’une justice duale, et à effacer les différences fondamentales entre les décisions prises par un humain et celles prises par une machine.

Ce dernier nécessite une durée de réflexion préalable, ainsi qu’une mise en œuvre lente et suffisamment souple pour pouvoir s’adapter à de subtiles évolutions. Or l’élaboration d’une règle contraignante pour encadrer un domaine dont on n’imagine même pas toutes les évolutions futures constitue une approche bien trop rigide. C’est pour cette raison pratique que l’on privilégie, tout du moins au premier abord, l’adoption d’un cadre flexible.

10 A. Piquard et M. Tual, « Ethique et intelligence artificielle : récit d’une prise de conscience », Le Monde, 5

oct. 2018. En ligne : <www.lemonde.fr/pixels/article/2018/10/04/ethique-et-intelligence-artificielle-recit-d-

(12)

I. De l’éthique de l’IA à l’impact sur l’égalité d’accès au juge de la délégation de la prise de décision judiciaire à un algorithme

Le sujet de cette recherche porte sur l’éthique et l’IA. Nous avons choisi d’en délimiter la portée à plusieurs égards : une première délimitation porte sur les textes considérés (A) ; une seconde limite est thématique et consiste à se concentrer sur une application pratique de l’IA (B) ; enfin, une dernière limitation prend pour point d’ancrage l’un des aspects éthiques que soulève cette application particulière (C). Nous nous attacherons ensuite à définir les termes du sujet (D).

A. La délimitation quant aux sources

Tout d’abord, en ce qui concerne la délimitation des sources juridiques, il s’agit d’étudier les deux principaux cadres qui ont été récemment posés afin d’encourager un développement éthique de l’IA. Il s’agit d’une part de la Déclaration de Montréal, qui liste dix principes éthiques pour un développement responsable de l’IA11, et d’autre part des lignes directrices pour une IA de confiance, élaborées par un comité d’experts désigné par la Commission européenne12. Ces deux textes constituent à l’heure actuelle les propositions les plus abouties13 d’encadrement éthique de l’IA, prises en concertation avec toutes les parties prenantes et notamment le public. Elles se distinguent ainsi par l’adoption et la revendication d’un processus participatif, impliquant non seulement les citoyens dans l’élaboration du texte mais également les entreprises, qui sont les premières à devoir l’appliquer par la suite. De par la conduite de cette recherche dans un cadre franco-québécois, au sein des Universités Paris-Saclay et Laval, il faisait sens qu’elle puisse mettre en perspective les textes d’encadrement éthique de l’IA amenés à prévaloir en France et au Québec. En outre, ces deux

11 Déclaration de Montréal, supra note 5. 12 Ethics Guidelines, supra note 6.

13 Les plus abouties en ce que ce sont, parmi les nombreuses chartes éthiques de l’IA qui ont fleuri ces dernières

années, les plus susceptibles d’avoir une application pratique : la déclaration de Montréal notamment parce que son caractère participatif la rend plus adaptée aux besoins des parties prenantes, et les lignes européennes parce qu’une application pratique auprès de certaines entreprises volontaires est prévue.

(13)

textes se sont construits en se prenant mutuellement en compte, puisque la Déclaration de Montréal a été bâtie en considération des rapports précédemment élaborés sur le sujet, et que les lignes directrices européennes citent expressément la déclaration comme source d’inspiration.

Les auteurs des deux textes soulignent par ailleurs le fait que le développement de l’IA a une portée internationale qui transcende les frontières, et que par conséquent la réflexion doit être menée de manière internationale et non pas cloisonnée, en mêlant les acteurs, les disciplines et les cultures14.

B. La délimitation thématique

Ensuite, en ce qui concerne la limitation à une thématique particulière, il s’agit de s’interroger sur l’utilisation de l’IA dans le système judiciaire. L’une des applications possibles en la matière est la délégation de la prise de décision judiciaire à une IA, autrement dit le remplacement du juge par un algorithme.

Le choix de cette thématique se justifie d’abord par goût personnel ; en tant que juriste, il est normal de s’intéresser au secteur judiciaire et son évolution en phase avec les développements technologiques. Il s’agit également d’un choix qui se veut en accord avec l’actualité, puisque la perspective d’un « juge-robot » n’est pas si éloignée ; un pays comme l’Estonie, très novateur en matière de numérique, prévoit la mise en place d’un juge-robot afin de traiter les litiges inférieurs à sept mille euros d’ici la fin de l’année 201915.

Mais ce choix se veut en outre utile, car ce secteur n’est pas concerné par la phase pilote lancée au printemps 2019 au sein de l’Union européenne. Cette phase, qui durera jusqu’en 2020, a en effet pour but de permettre à un certain nombre d’entreprises d’appliquer concrètement les principes et les orientations détaillées par les lignes directrices de la

14 Déclaration de Montréal, supra note 5, p. 36-38 ; Ethics Guidelines, supra note 6, p. 5.

15 W. Devillers, « Le juge du futur est-il un robot ? », Urbania, 24 avril 2019. En ligne :

<urbania.ca/article/le-

juge-du-futur-est-il-un-robot/?utm_source=AJC&utm_campaign=a3a949c55f- EMAIL_CAMPAIGN_2019_04_03_06_20_COPY_01&utm_medium=email&utm_term=0_fd0abac525-a3a949c55f-411925613>.

(14)

Commission européenne, et d’en éprouver la faisabilité pratique16. Deux processus parallèles

auront lieu afin que les entreprises privées puissent vérifier la pertinence des principes éthiques : un processus qualitatif, où des entreprises sélectionnées seront chargées d’appliquer les principes à leur activité, et de retourner leurs commentaires à la Commission sur la faisabilité réelle de cette application. Un processus quantitatif aura également lieu, puisque toutes les entreprises pourront, si elles le souhaitent, s’inscrire à la liste d’évaluation et donner des avis consultatifs sur l’applicabilité des principes à leur activité. Ce test aura ainsi lieu dans plusieurs des secteurs concernés par l’IA. Cependant, il s’agit de secteurs privés, et même si l’essor actuel de la legaltech démontre que le secteur judiciaire est lui aussi affecté par des entreprises privées, en revanche pour ce qui est du remplacement du juge par une IA, il s’agit d’une initiative résultant nécessairement d’une politique publique. Il n’y a donc pour l’instant pas de phase pilote prévue dans ce domaine, et compte tenu des enjeux résultant de la prise de décision judiciaire, une réflexion approfondie s’impose en amont.

C. La délimitation quant à l’enjeu éthique considéré

Enfin, parmi les nombreux enjeux éthiques que cette question soulève, nous avons choisi de nous intéresser à la problématique de l’égalité d’accès au juge.

En effet, il s’agit de l’une des problématiques les plus intéressantes mais les moins fréquemment abordées lorsque l’on parle de remplacer le juge par une IA. La littérature est par exemple de plus en plus abondante sur la problématique de la discrimination17, depuis l’affaire du logiciel COMPAS mais aussi désormais qu’il est bien établi que l’IA n’est pas capable de corriger les biais de ses concepteurs – or ceux-ci sont en majorité des hommes,

16 Ethics Guidelines, supra note 6, p. 24 et s.

17 Notamment, à la suite de l’affaire COMPAS : « State v. Loomis », (2017) 130 Harv. L. Rev. 1530 ; P.-L.

Déziel, « La justice prédictive », APD, Tome 60, Dalloz, 2018, p. 253-269 ; J. Dressel et H. Farid, « The accuracy, fairness and limits of predicting recidivism », ScienceAdvances, 17 jan. 2018. En ligne : <advances.sciencemag.org/content/4/1/eaao5580> ; J. Larson, S. Mattu, L. Kirchner et J. Angwin, « How We Analyzed the COMPAS Recidivism Algorithm », ProPublica, 23 mai 2016. En ligne : <www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm>.

(15)

blancs et occidentaux18. Les algorithmes reproduisent non seulement les préconceptions de leurs développeurs, mais aussi celles qui sont insidieusement contenues dans les jeux de données à partir desquels ils élaborent leur apprentissage. C’est donc en fonction de ces données, qui ne sont pas forcément un reflet de la réalité et qui peuvent au contraire en mettre en exergue certains aspects seulement, que le logiciel élabore ses schémas de manière à, finalement, amplifier ces aspects.

Dans son ouvrage consacré à la justice rendue par les robots19, l’avocat belge Adrien van den Branden liste un certain nombre de droits fondamentaux protégés par le droit européen voire international, mais auxquels il est susceptible d’être porté atteinte en la matière. Sont avant tout concernés le droit à un procès équitable, le principe d’individualisation des peines ou encore la protection de la vie privée20. Le développement de la justice prédictive est également un facteur d’aggravation du forum shopping, ce comportement qui consiste à choisir le juge statistiquement le plus susceptible de rendre une décision favorable, de l’effet performatif de la jurisprudence et de sa cristallisation. Si les risques listés sont nombreux, M. van den Branden se pose néanmoins comme un défenseur de l’implication de l’IA dans la justice, de manière à améliorer l’efficience de cette dernière afin de contribuer au bien commun.

Le choix de se concentrer sur l’un des droits fondamentaux que met en péril le remplacement du juge par un algorithme permet non seulement de réduire l’amplitude de cette recherche, mais aussi d’éprouver, au regard de ce droit seulement, la pertinence du cadre éthique posé par la Déclaration de Montréal et par les lignes européennes.

18 S. M. West, M. Whittaker et K. Crawford, Discriminating Systems: Gender, Race and Power in AI, AI Now

Institute, 2019. En ligne : <ainowinstitute.org/ discriminatingsystems.html>. Ce rapport a été très relayé par les médias, voir par exemple : C. Lecher, « The artificial intelligence field is too white and too male, researchers say », The Verge, 16 avr. 2019. En ligne : <www.theverge.com/2019/4/16/18410501/artificial-intelligence-ai-diversity-report-facial-recognition>.

19 A. van den Branden, Les robots à l’assaut de la justice. L’intelligence artificielle au service des justiciables,

Bruxelles, Bruylant, 2019.

(16)

D. Définitions

Les termes constituant le titre du sujet traité ici ne sont pas choisis au hasard ; c’est pourquoi il importe désormais de les définir.

Ainsi, plusieurs questions se posent parmi celles soulevées par l’interaction de ces trois éléments : justice, éthique et IA. Par « justice », on entend ici s’intéresser au secteur judiciaire uniquement, et plus précisément à l’un des enjeux qui y sont soulevés par l’introduction de l’IA. On ne parlera donc pas de la justice en tant que principe éthique, recouvrant bien plus d’enjeux que celui sur lequel on va se concentrer ici, l’égalité d’accès au juge.

Par « éthique », on entend les enjeux éthiques soulevés par l’IA en matière judiciaire. La définition exacte de ces enjeux demeure néanmoins floue, et cette lacune est bien représentative, à notre sens, de la difficulté de saisir précisément les problèmes posés par l’IA. Ces problèmes, qui ne sont pas que juridiques, découlent de la modification sociale profonde entraînée par l’IA ; or, il semble que ce soit le terme d’éthique qui soit le plus susceptible de les appréhender dans leur ensemble. Ce flou dans les concepts entraîne ainsi le flou dans les tentatives de régulation : le droit souple est privilégié au droit dur et contraignant. Saisir les enjeux éthiques posés par l’introduction de l’IA dans les juridictions, c’est finalement tenter de déterminer un cadre, dont le but est de servir de garde-fou visant à préserver le respect des droits des individus. On reviendra plus loin sur la proximité qui existe entre les valeurs éthiques d’une part, et les droits fondamentaux des personnes, d’autre part. Le terme « éthique » est privilégié à celui de « morale » afin de se conformer à la tendance moderne qui est celle de parler d’éthique plutôt que de morale21. Les textes récents tendant à

encadrer éthiquement le développement de l’IA font en effet tous appel à ce vocabulaire, mettant en avant des principes éthiques. Puisqu’il s’agit ici d’étudier certains de ces textes, il nous a semblé logique d’adopter le même vocabulaire.

Par « intelligence artificielle », abrégée en « IA » tout au long de cette étude, on entend tout algorithme probabiliste et apprenant, capable de dégager des schémas récurrents à partir de grands ensembles de données. Un algorithme de justice prédictive est ainsi capable de prédire la probabilité qu’un litige se solde par telle ou telle solution en justice ; il fonde ses

(17)

prédictions sur les affaires similaires déjà rendues, en dégageant de ces affaires des orientations de solutions. La définition posée par MM. Garapon et Lassègue dans leur ouvrage consacré à la justice digitale est tout à fait éclairante :

La justice prédictive désigne stricto sensu la capacité prêtée aux machines de mobiliser rapidement en langage naturel le droit pertinent pour traiter une affaire, de le mettre en contexte en fonction de ses caractéristiques propres (lieu, personnalité des juges, des cabinets d’avocats, etc.) et d’anticiper la probabilité des décisions qui pourraient intervenir.22

Le sous-titre du sujet tend à préciser quel enjeu exactement est considéré en matière d’introduction d’IA dans le secteur judiciaire. Ainsi, par « délégation de la prise de décision judiciaire à un algorithme » on entend le fait de déléguer la décision de justice à une IA. L’algorithme conçu à cet effet est désigné comme « algorithme de règlement des litiges ». Il ne faut pas confondre cette terminologie avec la notion de plateforme de règlement des litiges en ligne, ou online dispute resolution, qui vise à résoudre un litige sans passer par l’institution judiciaire et de façon amiable, en quelque sorte23. De plus, à la différence d’un algorithme classique de justice prédictive, avec ce type d’IA la délégation peut se faire entièrement lorsque l’algorithme, au terme de son analyse de la situation, décide également quelle est la solution à adopter, et ce sans qu’un magistrat vienne entériner cette décision en prenant ou non en compte d’autres facteurs. En revanche, de façon similaire à un algorithme de justice prédictive, la délégation se fait partiellement si la décision finale relève d’un magistrat, qui s’appuie en tout ou en partie sur les suggestions émises par l’IA. Dans ce dernier cas, une partie au moins de la décision découle des recommandations faites par l’algorithme, mais contrairement au premier cas, le jugement d’un être humain reste nécessaire, puisque c’est à lui de valider ou non la décision en examinant au minimum sa cohérence avec le litige traité. Les problématiques que ces deux possibilités soulèvent seront examinées.

Enfin, par « égalité d’accès au juge » on entend le droit fondamental protégé par l’article 10 de la Déclaration universelle des droits de l’homme24 et par l’article 6, §1 de la Convention

22 A. Garapon et J. Lassègue, Justice digitale, Paris, Presses universitaires de France, 2018, p. 219. 23 Ibid., p. 95.

24 Déclaration universelle des droits de l’homme, article 10 : « Toute personne a droit, en pleine égalité, à ce

que sa cause soit entendue équitablement et publiquement par un tribunal indépendant et impartial, qui décidera, soit de ses droits et obligations, soit du bien-fondé de toute accusation en matière pénale dirigée contre elle. » En ligne : <www.un.org/fr/universal-declaration-human-rights/>.

(18)

européenne de sauvegarde des droits de l’homme et des libertés fondamentales25.

Composante du droit à un procès équitable, l’égalité d’accès au juge recouvre le droit de pouvoir accéder à la justice dans des conditions égales, et de voir son cas traité dans des conditions égales. Ce droit au procès équitable est aussi protégé par l’article 2 e) de la Déclaration canadienne des droits26. Tout citoyen doit ainsi pouvoir accéder à un juge répondant aux mêmes caractéristiques – par exemple indépendant, impartial ou motivant sa décision. Or, comme on tentera de le démontrer, une IA et un humain ne rendront pas le même type de décision de justice. Pour préserver l’égalité d’accès au juge, il importe donc de mettre en place des garanties permettant de rendre ces deux types de décision équivalents.

II. La problématique de l’égalité d’accès au juge dans le contexte d’une justice dédoublée entre juge humain et juge-robot

Le remplacement du juge par un algorithme n’est envisagé, à l’heure actuelle, que dans le but d’automatiser le traitement de certains litiges, et non pas de tous les litiges. C’est ce que l’on voit bien dans le cas de l’Estonie, qui ne va déléguer à un juge-robot que les litiges civils inférieurs à sept mille euros27. Si ce constat soulève la question de savoir où tracer la démarcation entre ce qu’il est aisé de déléguer à un algorithme d’une part, et ce qui semble

25 Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, article 6, §1 :

« Toute personne a droit à ce que sa cause soit entendue équitablement, publiquement et dans un délai raisonnable, par un tribunal indépendant et impartial, établi par la loi, qui décidera, soit des contestations sur ses droits et obligations de caractère civil, soit du bien-fondé de toute accusation en matière pénale dirigée contre elle. Le jugement doit être rendu publiquement, mais l'accès de la salle d'audience peut être interdit à la presse et au public pendant la totalité ou une partie du procès dans l'intérêt de la moralité, de l'ordre public ou de la sécurité nationale dans une société démocratique, lorsque les intérêts des mineurs ou la protection de la vie privée des parties au procès l'exigent, ou dans la mesure jugée strictement nécessaire par le tribunal, lorsque dans des circonstances spéciales la publicité serait de nature à porter atteinte aux intérêts de la justice. » En ligne : <www.coe.int/en/web/conventions/full-list/-/conventions/rms/0900001680063776>.

26 Déclaration canadienne des droits, article 2 e) : selon ce texte, aucune loi ne doit s’interpréter ni s’appliquer

comme « privant une personne du droit à une audition impartiale de sa cause, selon les principes de justice fondamentale, pour la définition de ses droits et obligations ». En ligne : <laws-lois.justice.gc.ca/fra/lois/c-12.3/page-1.html#h-60172>.

27 Si de plus en plus d’outils d’aide à la juridiction sont en développement, les exemples d’automatisation du

traitement des litiges judiciaires sont actuellement rares – à notre connaissance, seule l’Estonie a affiché la volonté de déléguer la décision de justice à un algorithme. En France comme au Canada, on voit cependant fleurir, dans le secteur privé comme dans le secteur public, les logiciels permettant de traiter des cas pratiques ou de tenter de prédire l’issue d’un litige.

(19)

difficilement pouvoir l’être d’autre part (A), l’émergence d’une justice à deux vitesses qui en découlerait met en outre en péril l’égalité d’accès au juge (B).

A. La nécessaire démarcation entre litiges facilement automatisables et litiges difficilement automatisables

Il est important ici de préciser d’emblée que le remplacement du juge par un algorithme d’IA ne s’envisage pas, à l’heure actuelle, pour traiter tous les litiges, mais certains litiges seulement. Toute la question est dès lors de savoir où et comment tracer la ligne de démarcation entre les litiges qu’il est possible de déléguer à un algorithme, et ceux qui doivent rester de l’apanage de l’humain. Dans le cas de l’Estonie, le parti pris est celui de distinguer la matière civile et la matière pénale, en considérant cette dernière comme devant mettre en œuvre un jugement humain. Une distinction selon l’importance de l’affaire est également opérée, puisqu’une limite de sept mille euros est instaurée.

Or il apparaît que le traitement des litiges par un algorithme et le traitement des litiges par un humain présentent par nature des caractéristiques différentes. En comparant les avantages et les inconvénients d’un juge humain et d’un juge robot point par point, un auteur relève que l’un et l’autre ne sont finalement pas forcément substituables28. Ils ont leurs forces et

faiblesses propres, et une approche pertinente consisterait donc à optimiser le fonctionnement de la justice en tirant parti de la meilleure façon des qualités inhérentes à chaque type de juge, humain ou machine. Par exemple, en ce qui concerne la qualité de la décision rendue – les autres paramètres étudiés étant son coût et sa vitesse – on peut s’intéresser à plusieurs critères : la qualité réparatrice, la qualité distributive, la cohérence, la simplicité, la qualité de la motivation c’est-à-dire de l’explication, la transparence, la conscience, la catharsis, l’écoute, l’acceptabilité, l’impartialité, l’indépendance ou encore la fiabilité29. En ce qui

concerne la cohérence par exemple, elle est définie comme la faculté de maintenir la stabilité de l’ordre juridique et d’offrir une sécurité juridique et une certaine prévisibilité aux justiciables ; l’avantage est ici donné au juge robot par rapport au juge humain, en ce qu’il

28 A. van den Branden, supra note 19, p. 105. 29 Ibid., p. 87-89.

(20)

est capable d’analyser plus de décisions et donc d’en rendre une qui est, dans l’absolu, plus cohérente, puisqu’elle l’est au regard de l’entier ensemble qui lui préexiste30. Au contraire,

en ce qui concerne la conscience ou encore l’écoute, le juge humain est plus à même de faire preuve de telles qualités : analyser le contexte, l’air du temps, apporter une oreille attentive aux parties sont du ressort d’une personne, pas d’une machine31.

La ligne de démarcation tracée par M. van den Branden entre les litiges pouvant être automatisés et ceux ne pouvant pas l’être tient en outre compte de l’acceptabilité par les citoyens de cette automatisation en fonction de leur orientation politique (selon le clivage ancien qui prévaut dans les pays occidentaux francophones, plutôt à gauche ou plutôt à droite). En effet, selon cette orientation il ne sera pas donné le même poids par les citoyens aux différents critères participant à la définition d’une bonne définition de justice. Ce clivage peut être synthétisé de la manière suivante :

En caricaturant, la « gauche » invoque souvent une notion de « justice sociale », qui est très proche de la conception de justice distributive définie par Aristote. La « droite », quant à elle, met plutôt l’accent sur la notion de « justice pénale », celle qui fait régner l’ordre et qui est proche de l’idée de la justice réparatrice consacrée par Napoléon dans l’ancien article 1382 du Code civil.32

Un citoyen d’orientation politique à gauche serait moins enclin à accorder de l’importance aux qualités de réparation, de coût et de vitesse de la justice, qualités pour lesquelles le juge robot est plus efficace ; au contraire, il accordera davantage d’importance à la qualité distributive de la justice et à l’arbitrage de valeurs, pour lesquelles le juge humain est plus performant. Il sera donc moins favorable à la robotisation de la justice. A l’inverse, un citoyen plutôt de droite aura plus tendance à approuver la robotisation de la justice. M. van den Branden souligne ainsi que « le spectre de la robotisation des litiges […] [doit] correspond[re] aux aspirations des citoyens »33. On constate dès lors que l’introduction de l’IA dans le système judiciaire, dans un objectif de justice plus efficiente, rend nécessaire la distinction entre les décisions pouvant être déléguées à un algorithme de celles ne pouvant pas l’être.

30 Ibid., p. 52-54.

31 Ibid., p. 63 et 67.

32 Ibid., p. 91. Il s’agit du code civil français. 33 Ibid., p. 108.

(21)

B. Une démarcation mettant en péril l’égalité d’accès au juge

Or cette distinction conduit à la mise en place d’un système de justice hybride en ce que, comme on l’a vu, la décision rendue par un humain et la décision rendue par un algorithme présentent une nature si différente qu’elles ne sont non seulement pas substituables, mais qu’elles ne peuvent en outre pas être appréhendées de la même façon. Il est ainsi d’ores et déjà prévu dans certains textes que toute décision prise de manière automatique, sans intervention humaine, doit pouvoir être contestée et réexaminée par une personne34 : cela dénote bien du fait que la décision prise par un algorithme ne présente pas les mêmes garanties que celle prise par un être humain.

Dès lors, l’exigence d’égalité dans l’accès au juge, composante du droit à un procès équitable, semble remise en cause lorsque l’on s’accorde pour distinguer des cas où le traitement du litige serait facilité par le recours à une IA, et des cas où le maintien d’une justice humaine est indispensable. On aurait alors un traitement différencié selon les cas, puisqu’il n’est pas possible d’assimiler juge humain et juge-robot. Le risque est donc d’aboutir à une justice à deux vitesses, avec des garanties inéquitables pour les citoyens. En effet, l’homme et le robot ne rendent a priori pas la justice exactement de la même manière. Certaines différences sont à l’avantage de l’IA, d’autres à son détriment. Par exemple, il est aisé d’imaginer déléguer le traitement d’un petit litige civil concernant des indemnités liées à un trouble du voisinage à une IA ; il l’est beaucoup moins dans le cas d’une affaire criminelle où la vie même des personnes est en jeu. On l’a vu, la justice rendue par un homme et la justice rendue par un robot diffèrent sur certains points. Surtout, ce dernier est bien moins performant en matière de justice distributive, c’est-à-dire lorsqu’il s’agit d’arbitrer un conflit de valeurs. En pratique, la différence entre la décision rendue par un juge humain et celle rendue par un juge robot pourrait résider par exemple dans la motivation de la décision, ou encore dans sa transparence. En effet, le robot ne serait a priori capable que d’appliquer strictement le

34 C’est ce que prévoit par exemple le Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27

avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), dans son article 22 portant sur les décisions individuelles automatisées.

(22)

syllogisme judiciaire, sans pouvoir enrichir la décision d’un nouvel éclairage sur l’interprétation de la loi et sans pouvoir statuer en équité35.

Une distinction peut aussi être faite, comme on l’a vu, entre d’une part la justice à visée réparatrice ou commutative, qui a pour but de rétablir un équilibre et qui s’intéresse donc à un transfert de valeurs entre les individus, et d’autre part la justice distributive ou géométrique, qui suit une logique différente en s’intéressant plutôt à la répartition des ressources disponibles, et qui exige dès lors « plus de vertu que de science »36. On comprend vite que la première se prête plus aisément à l’automatisation et à la robotisation, tandis que la seconde semble réclamer un certain nombre de qualités proprement humaines que sont finalement le sens commun, le sens de la justice ou le sens de l’équité. Le caractère indéfinissable de ces notions montre bien d’ailleurs la difficulté qu’il y a à les synthétiser au sein de formules mathématiques, afin de les voir appliquer de manière répétitive et généralisée à une grande variété de cas, dont les paramètres diffèrent parfois de manière subtile du fait de facteurs faisant appel aux émotions, ou mettant en jeu l’empathie et la compassion. De même, une différence importante résiderait dans l’absence de conscience de l’IA, et dans son imperméabilité aux événements extérieurs et à « l’air du temps »37. Une

justice robotisée et fondée sur un jeu de données particulier resterait figée en étant limitée par les solutions rendues possibles au sein de ce jeu de données. Des solutions toujours plus similaires s’accumuleraient au fil du temps, sans laisser de place à l’innovation, en venant renforcer les tendances majoritaires38. Il n’y aurait plus de possibilité de marge de manœuvre pour le juge, importante en common law mais aussi en droit civil ou des concepts comme celui de notion cadre laissent délibérément la place à une interprétation capable d’évoluer avec les mœurs et la société39.

35 A. van den Branden, supra note 19, p. 60. 36 Ibid., p. 38.

37 Ibid., p. 63.

38 A. Garapon et J. Lassègue, supra note 22, p. 238.

(23)

III. Les objectifs poursuivis

C’est pourquoi la présente étude poursuivra plusieurs objectifs, découlant de cette problématique et de la tentative d’y apporter une réponse.

Le premier objectif consiste à déterminer si la Déclaration de Montréal et les lignes directrices européennes proposent un cadre éthique suffisant pour garantir l’égal accès des citoyens au juge, en cas de remplacement de ce dernier par une IA dans certains litiges. Il s’agit également, et c’est le deuxième objectif, d’identifier plus largement les problèmes éthiques soulevés par le remplacement du juge par une IA dans certains litiges.

Enfin, un troisième objectif est de proposer des pistes concrètes pour améliorer l’efficacité du système judiciaire grâce à l’IA tout en garantissant l’égal accès des citoyens au juge : il s’agit ici d’examiner les mesures permettant de garantir l’égalité d’accès au juge malgré la mise en place d’un système de justice utilisant des algorithmes de règlement des litiges.

IV. Les questions de recherche et hypothèses de travail

Il s’agit désormais de présenter notre question générale de recherche (A), de laquelle découlent quatre questions spécifiques auxquelles nous répondons par autant d’hypothèses, dont l’analyse et la vérification font l’objet de cette étude (B, C, D, E).

A. Question générale de recherche

Ainsi, la question générale de recherche qui se pose est la suivante : l’amélioration de l’efficacité de la justice par l’IA, en déléguant à un algorithme tout ou partie du processus décisionnel, est-elle incompatible avec l’égalité d’accès au juge ?

Comme on l’a évoqué, notre thèse consiste à affirmer que la mise en place d’algorithmes de règlement des litiges, dans certains types de litiges seulement, conduit à la mise en place d’une justice à double vitesse, où les décisions de justice rendues par ces algorithmes et les décisions de justice rendues par un juge ne présentent pas les mêmes qualités. Cette dualité

(24)

se présente dès lors comme incompatible avec l’égalité d’accès au juge, à moins de prévoir des garanties suffisantes, permettant de rétablir une équivalence entre les décisions automatisées et les décisions humaines.

B. Première question spécifique de recherche

La première question spécifique qui se pose est la suivante : en quoi consiste exactement le remplacement du juge par une IA ?

En effet, il convient d’abord de définir précisément ce que recouvre la délégation de la prise de décision judiciaire à un algorithme. Notre hypothèse ici est que cette délégation sera forcément totale, c’est-à-dire que l’on parle d’un algorithme de règlement des litiges qui aboutit à une décision de justice sans intervention humaine. En effet, si l’algorithme est aussi performant qu’on l’attend, la supervision humaine est un leurre : avec le temps, le juge fera de plus en plus confiance aux décisions pertinentes de l’algorithme, et il ne fera finalement que se conformer à ses recommandations sans plus vraiment exercer sa propre faculté de juger.

C. Deuxième question spécifique de recherche

La deuxième question spécifique qui se pose est la suivante : peut-on définir de façon suffisamment précise une décision de justice, et a fortiori une bonne décision de justice, pour la déléguer à une IA ?

Pour automatiser une décision de justice et la rendre reproductible par une machine, il convient d’abord de la définir précisément et d’en identifier toutes les étapes. Or notre hypothèse ici est que la décision de justice ne se réduit pas à la simple application du raisonnement syllogistique. Certaines étapes du raisonnement judiciaire sont automatisables – c’est le cas par exemple de la vérification des conditions d’existence d’une catégorie juridique donnée ; mais d’autres ne le sont pas – c’est le cas notamment de la mise en balance

(25)

de plusieurs droits fondamentaux via un contrôle de proportionnalité, ou de la prise en compte de l’évolution du contexte social.

D. Troisième question spécifique de recherche

La troisième question spécifique qui se pose est la suivante : quels sont les enjeux qui naissent de la confrontation de cette problématique avec la Déclaration de Montréal et les lignes directrices européennes ?

Pour répondre à cette question, il conviendra d’évaluer les différentes possibilités au regard de chacun des principes pertinents parmi ceux posés par la Déclaration de Montréal (bien-être, respect de l’autonomie, protection de l’intimité et de la vie privée, solidarité, participation démocratique, équité, inclusion de la diversité, prudence, responsabilité, développement soutenable), et par les lignes directrices de la Commission européenne (facteur humain et contrôle humain, robustesse et sécurité, respect de la vie privée et gouvernance des données, transparence, diversité, non-discrimination et équité, bien-être sociétal et environnemental, responsabilisation). Notre hypothèse est ici que si de nombreux enjeux éthiques sont soulevés par la délégation de la prise de décision judiciaire à un algorithme, aucun d’entre eux n’est insolvable, à condition qu’une réflexion approfondie soit menée en amont et que l’on s’attache à programmer l’algorithme de façon adaptée.

E. Quatrième question spécifique de recherche

Enfin, la quatrième question spécifique qui se pose est la suivante : concernant un enjeu éthique particulier, celui de l’égalité d’accès au juge, le remplacement du juge par une IA dans certains litiges seulement n’instaure-t-il pas un système de justice à deux vitesses ? Notre hypothèse est ici que si en apparence le traitement différencié des litiges, soit par une IA, soit par un humain, met en péril l’égalité d’accès au juge, des garanties comme le recours devant un juge humain lorsque la décision a été prise de façon automatique permettent de contourner cet écueil. Cependant, la seule possibilité d’un recours devant un juge humain ne

(26)

suffit pas à rétablir l’équilibre dans tous les litiges : il conviendra également de préciser les modalités d’un tel recours, qui peuvent varier d’un type de litige à un autre, et de déterminer ceux pour lesquels sa mise en place semble envisageable d’une manière respectueuse du cadre éthique posé, ainsi que des droits fondamentaux des individus. Mais dans tous les cas, si les chartes éthiques posées sont respectées, ce droit fondamental qu’est l’égalité d’accès au juge ne sera pas remis en cause.

V. L’intérêt de la recherche

Les enjeux éthiques soulevés par l’IA font l’objet d’un nombre croissant d’études d’experts, commanditées ou non par des gouvernements40. L’essor de la justice prédictive, de plus en plus répandue aussi bien dans le secteur privé avec les entreprises de legaltech que dans le secteur public, pose la question urgente d’un encadrement de l’utilisation de l’IA dans le secteur judiciaire41.

Ce dernier fait en outre figure d’une institution poussiéreuse et en manque de modernisation. En France, la loi J21 tente de faire évoluer un système qui fait l’objet de vives critiques, afin de l’adapter au XXIe siècle42. La vitesse de traitement des litiges, par exemple, ne permet pas

de respecter l’exigence de délai raisonnable, qui est pourtant posée par la Convention européenne des droits de l’homme et qui participe de la définition d’une bonne décision de justice : la France a été condamnée à plusieurs reprises à ce sujet par la Cour européenne des droits de l’homme (CEDH). Il est arrivé qu’une instruction prenne plus de sept ans entre le placement en garde à vue et l’ordonnance de non-lieu, ce qui a été jugé comme violant le

40 Par exemple, en France, le rapport Villani a été très médiatisé : C. Villani, Donner un sens à l’intelligence

artificielle. Pour une stratégie nationale et européenne, Paris, mars 2018. Voir notamment M. Tual et V. Fagot,

« Cédric Villani : "Il faut plus de recherche dans l’intelligence artificielle" », Le Monde, 28 mars 2018 ; en ligne : <www.lemonde.fr/economie/article/2018/03/28/intelligence-artificielle-il-faut-plus-de-recherche_5277702_3234.html?xtmc=villani_intelligence_artificielle&xtcr=44>.

41 A. Dumourier, « Faut-il réguler l’utilisation de l’intelligence artificielle dans le domaine de la justice ? », Le

Monde du Droit, 9 avr. 2019. En ligne :

<www.lemondedudroit.fr/decryptages/63612-faut-il-reguler-utilisation-intelligence-artificielle-domaine-justice.html>.

(27)

droit au procès équitable43. Ainsi, le délai raisonnable n’est pas respecté dès lors que l’affaire n’est pas traitée ou bien exécutée dans un délai raisonnable44.

Au Canada, les magistrats eux-mêmes en sont venus à préconiser le recours à la justice prédictive et donc à l’IA pour améliorer l’efficacité, la vitesse et le coût de la justice. Il a notamment été reproché à un avocat, par la Cour supérieure de justice de l’Ontario, de n’avoir pas fait en sorte de réduire la facture de son client en ayant recours à la technologie de manière à réduire considérablement le temps consacré à la recherche juridique, réalisée en amont du procès45.

L’actualité du sujet n’est donc pas à démontrer. La question du remplacement du juge par une IA se pose en ce moment même, et il convient d’y apporter des réponses satisfaisantes très rapidement. Cela est d’autant plus possible depuis que l’on dispose de textes internationaux aboutis sur les règles éthiques à respecter lors du déploiement et du développement de l’IA.

Or maintenant qu’un cadre éthique a été posé, ce cadre est-il adapté au système judiciaire et à la question spécifique du remplacement du juge par une IA ? Surtout, comment modifier, en pratique, le service public de la justice de façon à le rendre plus efficient en faisant un usage adapté de l’IA, tout en continuant à garantir l’égal accès des citoyens à la justice et à respecter l’exigence d’un procès équitable ? C’est une question que les juristes comme les politiciens se posent dès aujourd’hui. Le but est donc d’apporter des réponses concrètes en proposant des pistes de réflexion pratiques, tout en mettant les décideurs en garde contre les dérives possibles.

43 CEDH, 8 fév. 2018, Goetschy c. France, req. n°63323/12.

44 A. Hacene, « Délai raisonnable et point de départ du délai de prescription de la responsabilité de l’Etat »,

Dalloz Actualité, 27 sept. 2018. En ligne :

<www.dalloz-actualite.fr/flash/delai-raisonnable-et-point-de-depart-du-delai-de-prescription-de-responsabilite-de-l-etat#.XNcvkHsrlxA>.

45 A. Balakrishnan, « Judge says AI could have been used », Law Times, 3 déc. 2018. En ligne : <

(28)

VI. La méthodologie de la recherche

Deux approches méthodologiques vont principalement guider cette étude : une approche de droit comparé et une approche philosophico-éthique.

Il s’agit tout d’abord, comme indiqué dans la définition du sujet, d’une approche de droit comparé. Celle-ci va s’appuyer sur deux outils distincts, produits par des systèmes juridiques différents et dans des zones géographiques différentes46. Parmi ces outils, on trouve d’abord la Déclaration de Montréal, issue d’une concertation citoyenne et de réflexions d’experts spécialisés dans des champs variés (éthiciens, juristes, ingénieurs…), et qui a été publiée au Canada en décembre 2018. On trouve ensuite les lignes directrices pour une IA de confiance, élaborées par un comité d’experts mandaté par la Commission européenne. Les auteurs de ces lignes directrices soulignent eux-mêmes qu’ils se sont sur certains points inspirés de la Déclaration de Montréal, notamment en ce qui concerne l’inclusion des citoyens dans le processus.

Aucun de ces deux textes n’a de valeur contraignante. Ils se répondent néanmoins en ce qu’ils cherchent à énoncer des principes éthiques assez généraux, devant servir de cadre éthique aux législations plus spécifiques qui seront adoptées par la suite. Un de leurs objectifs affichés est également de servir de source d’inspiration pour les autres pays voulant ouvrir une réflexion sur l’encadrement éthique de l’IA47. En nous concentrant sur la question de la

délégation de la prise de décision judiciaire à une IA, et plus particulièrement à la façon dont cela affecterait l’égal accès au juge, il s’agira donc de comparer la pertinence de ces textes en soulignant leurs avantages et leurs inconvénients. Dans une démarche plus prospective et pratique, on proposera également des exemples de garanties permettant à la fois de tirer le meilleur parti de l’IA pour rendre la justice plus efficiente, et de respecter le cadre éthique qui a été posé.

46 I. Zajtay, « Problèmes méthodologiques du droit comparé », dans Aspects nouveaux de la pensée juridique :

recueil en hommage à Marc Ancel, vol. 1, Paris, A. Pedone, 1975, p. 69-79.

(29)

Il s’agit ensuite de suivre une approche interdisciplinaire en incorporant des éléments philosophiques et éthiques48. De nombreux auteurs ont souligné l’intérêt de l’internormativité49 : la question de l’articulation des systèmes juridique et éthique est ici

particulièrement appropriée à notre sujet d’étude. En effet, ce dernier nécessite d’opérer un « mouvement de va-et-vient »50 entre deux systèmes normatifs bien distincts, et ayant une logique propre, que sont le droit et l’éthique.

Il faut souligner que cette dernière est définie différemment par les philosophes et par les juristes. Parmi les premiers, certains y voient un équivalent de la morale, où se distinguent le conséquentialisme, l’éthique déontologique et l’éthique des vertus51. L’éthique

conséquentialiste, dont la figure la plus connue est l’utilitarisme, préconise de s’intéresser aux conséquences d’un acte pour déterminer si celui-ci est moral. L’éthique déontologique, elle, se désintéresse des conséquences puisque l’acte est moral dès lors qu’il respecte un principe supérieur préalablement défini comme tel. L’éthique des vertus, enfin, vise à l’élévation morale de l’agent.

L’éthique telle qu’elle est appréhendée par les juristes, en revanche, consiste finalement en une éthique appliquée, dont les contours fluctuent en fonction des thèmes abordés. L’éthique et la déontologie se distinguent, d’un point de vue juridique, en ce que les valeurs et les principes relèvent du domaine de l’éthique, tandis que les règles de celui de la déontologie52.

Lorsque des règles déontologiques sont posées, on attend de l’agent qu’il s’y conforme, dans une logique de commandement53. En revanche, en matière de cadre ou de charte éthique, il s’agit de raisonner en termes de valeurs, l’agent étant autonome dans sa réflexion pour

48 F. Ost et M. Van de Kerchove, « De la scène au balcon. D’où vient la science du droit », dans F. Chazel et J.

Commaille, Normes juridiques et régulation sociale, Paris, Librairie générale de droit et de jurisprudence, 1991, p. 77.

49 J. Carbonnier, Sociologie juridique, Paris, Presses Universitaires de France, 1994, p. 305-330.

50 V. Lemay, « La propension à se soucier de l’Autre : promouvoir l’interdisciplinarité comme identité savante

nouvelle, complémentaire et utile », dans F. Darbellay et T. Paulsen (dir.), Au miroir des disciplines : réflexions

sur les pratiques d’enseignement et de recherche inter et transdisciplinaires, Berne, Peter Lang, 2011, p. 29.

51 Voir l’introduction de l’ouvrage de J.-C. Billier, Introduction à l’éthique, Paris, Presses Universitaires de

France, 2010, p. 9 et s.

52 L. Bégin, « Légiférer en matière d’éthique : le difficile équilibre entre éthique et déontologie », Éthique

publique, revue internationale d’éthique sociétale et gouvernementale, printemps 2011, vol.13, #1, p. 39-61, 6.

(30)

décider de conformer son comportement à ces valeurs54. Les textes considérés au cours de cette étude constituent donc bien des textes éthiques, au sens juridique du terme.

Mais nous suivons délibérément une approche déontologique au sens philosophique du terme, qui est celle adoptée par les auteurs des deux textes juridiques servant de base à cette recherche. En effet, l’objectif de ces textes est bien de poser un cadre déontologique, toujours au sens philosophique du terme, au développement d’une IA éthique. Nous avons choisi de ne pas écarter ce cadre pour par exemple adopter une approche conséquentialiste mais, au contraire, de l’approfondir en tentant d’en éprouver l’applicabilité.

L’internormativité a un intérêt également ici en ce qu’il s’agit de comparer des systèmes juridiques différents : l’un des textes qui sert de base à cette étude, la Déclaration de Montréal, a été élaboré dans le contexte juridique canadien et au regard d’une tradition juridique qui mêle droit civil et common law. L’autre texte, élaboré au niveau européen, l’est dans le contexte d’une union de plusieurs Etats dont une partie seulement des décisions est déléguée à un niveau supranational. La dominante est celle du droit civil, même si jusqu’à récemment la tradition de common law de la Grande-Bretagne devait aussi être prise en compte – le Brexit à venir viendra sans doute modifier la gouvernance de l’Union européenne. Ces deux textes ne sont cependant pas indépendants l’un de l’autre, et se sont mutuellement influencés : les travaux préalables à la Déclaration de Montréal ont consisté notamment à analyser les différents rapports sur l’éthique et l’IA qui avaient été élaborés partout dans le monde, y compris en Europe. De même, le groupe d’experts ayant présidé à la réalisation des lignes directrices pour une IA de confiance s’est penché avec attention sur les autres textes, dont la Déclaration de Montréal, qui le précède de quelques mois.

Cette étude nécessite en outre de se livrer à plusieurs types de recherche juridique55. Il s’agit d’abord d’une analyse exégétique traditionnelle des deux textes cités, notamment en étudiant plus particulièrement les principes qu’ils mettent en avant.

54 Ibid., 9.

55 Pour l’exposé des types de recherche juridiques mentionnés, v. CRSHC, Le droit et le savoir, Ottawa,

(31)

Il s’agit ensuite de prolonger cette analyse par des éléments de théorie du droit, en proposant une critique de la pertinence de ces textes et en évaluant leur applicabilité au problème qui nous intéresse plus spécifiquement (la délégation de la prise de décision judiciaire et ses conséquences sur l’égalité d’accès au juge). Notre étude s’inscrit ici dans une perspective herméneutique, en considérant d’emblée la Déclaration de Montréal et les lignes directrices européennes comme des sources de droit non formelles56.

Il s’agit également d’élaborer des propositions de réforme, ou tout du moins des pistes de réflexion à cet effet, afin d’inclure l’IA dans le système judiciaire tout en respectant les cadres éthiques élaborés tout récemment. Il s’agit enfin d’incorporer quelques éléments de recherche fondamentale, puisque les implications philosophiques et éthiques du sujet seront aussi abordées. Le projet de recherche s’inscrit ici dans une approche réaliste inspirée de la sociologie du droit57, qui prend acte du pluralisme juridique et de la diversité des facteurs

donnant naissance à de nouvelles législations, concernant en l’espèce de nouvelles technologies comme l’IA. Il s’agit finalement d’opter pour un « point de vue externe modéré »58 en ce que la recherche consiste à la fois à prendre une certaine distance critique

avec les textes étudiés, et à envisager la posture du législateur en proposant des possibilités pratiques conformes à ces textes.

VII. La structure de la recherche

L’étude de l’impact de la délégation de la prise de décision judiciaire à un algorithme sur l’égalité d’accès au juge sera divisée en deux parties.

La première partie consiste à poser le cadre et à définir précisément de quoi il s’agit. Elle porte ainsi sur les conséquences juridiques de la délégation de la prise de décision judiciaire à une IA, et est elle-même divisée en deux chapitres. Le premier chapitre vise à répondre à

56 M. Cumyn et M. Samson, « La méthodologie juridique en quête d’identité », dans G. Azzaria (dir.), Les

cadres théoriques et le droit. Actes de la 2e Journée d’étude sur la méthodologie et l’épistémologie juridiques, Cowansville, Yvon Blais, 2013, p. 71.

57 J.-G. Belley, « Le pluralisme juridique comme orthodoxie de la science du droit » (2011) 26 Can. J.L. & Soc.

275.

(32)

la première question de recherche et à éprouver la validité de notre hypothèse. Il explicite le remplacement du juge par une IA en détaillant pourquoi il est nécessaire de moderniser la justice par l’introduction d’outils utilisant l’IA, ainsi qu’en donnant des exemples tirés de l’actualité la plus récente d’algorithmes de règlement des litiges, ou encore en justifiant la distinction qui doit être dressée entre les litiges à déléguer et ceux ne devant pas à être délégués à une IA.

Un second chapitre vise à répondre à la deuxième question de recherche et à vérifier la pertinence de notre hypothèse. Il souligne dès lors la nécessité de définir la décision de justice, et a fortiori de définir ce qu’est une bonne décision de justice. Il s’agit ici de décomposer le raisonnement judiciaire et de souligner les difficultés que soulève cette décomposition, le but étant d’examiner quelles étapes peuvent être déléguées sans difficulté à une IA, et quelles étapes sont plus problématiques.

La seconde partie est consacrée aux enjeux éthiques de la délégation de la prise de décision judiciaire à une IA, et analyse la pertinence du cadre éthique actuel. Un premier chapitre vise à répondre à la troisième question de recherche et à vérifier l’hypothèse de travail correspondante. Il consiste donc dans la mise à l’épreuve des deux textes éthiques évoqués, la Déclaration de Montréal et les lignes directrices européennes, en examinant en quoi un algorithme de règlement des litiges est susceptible de mettre à mal les différents principes que ces textes mettent en avant.

Le second chapitre s’attache à la vérification de notre quatrième hypothèse, en se concentrant sur l’enjeu éthique particulier qu’est l’égalité d’accès au juge. Des pistes de réflexion sur les garanties pouvant permettre de contourner les écueils soulevés par la délégation de la prise de décision judiciaire à une IA, et qui sont détaillés dans le chapitre précédent, y sont notamment proposées.

Enfin, une brève conclusion viendra clore cette étude afin de synthétiser les réponses qui y ont été obtenues, ainsi que les questions qui se posent encore.

Références

Documents relatifs

Il met donc en lumière un conflit entre deux libertés, la liberté contractuelle et la liberté d'association, soulignant l'inefficacité des clauses contractuelles bridant la

1 – Des actes insusceptibles de constituer un engagement Le juge financier, pour vérifier le caractère « obligatoire dans son principe » de la dette, va devoir tout d’abord

[r]

Concernant, ensuite, le rapport entre le provisoire et la chose jugée, une distinction doit être faite entre les ordonnances de référé et celles rendues sur requête, qui sont

À cet égard, dans un contentieux fiscal éclaté, il y a lieu de relever en cette matière le croisement, vers une forme d'unité, des compétences judiciaires

Une réponse par courrier électronique de Donna Hill du gouvernement du Manitoba a indiqué, entre autres, qu'un individu atteint d’hépatite C peut légalement utiliser une piscine

Dans une précédente affaire que j’ai menée, près de la zone industrielle X, il y avait eu au cours des trois dernières années 168 garçons sur 400 naissances, ce qui donne

ne limite pas l’intervention du juge étatique, pour l’exercice de sa mission d’instance technique et de coopération judiciaire à l’arbitrage, aux seules