• Aucun résultat trouvé

Les responsabilités : L’imputation des dommages causés par les MAAD

L’imputation des dommages causés par les MAAD

1- Problématiques

Des responsabilités doivent être engagées après un préjudice causé par des résultats algorithmiques. Pour autant, reconnaître une responsabilité aux « machines » qui renferment un algorithme est discutable. Ce serait admettre que des objets techniques sont dotés de la personnalité juridique. Or, bien que programmés pour construire des modèles avec une parcelle d’autonomie, ils n’en demeurent pas moins des choses conçues, paramétrées par un humain, vouées à rester sous sa mainmise162. En revanche, pour que les personnes impliquées rendent des comptes,

la « chaîne des commandes humaines »163 sera à préciser.

Deux catégories d’algorithmes seront distinguées :

- les algorithmes non apprenants qui implémentent une suite de spécifications prédéterminées par le concepteur. Ces algorithmes aident à la recherche juridique grâce à des mots-clés ou à la génération automatique de documents (statuts, contrats) ou encore à l’effectuation de statistiques comme le chiffrage du nombre de décisions rendues dans tel sens sur n années précédentes ;

- les algorithmes apprenants qui sont pourvus de facultés de « mémoire, [d]’adaptation, [de] généralisation »164. Assimilant des exemples d’entrée/sortie, ils

modélisent des corrélations qu’ils ajustent sans cesse165. Ils sont des objets

techniques « ouverts »166 : ils n’exécutent pas une procédure écrite dans leur code

par le concepteur mais, au moyen d’un apprentissage fondé sur des expériences passées, ils extrapolent des règles qu’ils modulent aux évolutions de facteurs extérieurs déterminants (en l’occurrence les décisions de justice au fur et à mesure qu’elles sont rendues).

2- Discussion

Sur quel(s) fondement(s) la victime doit-elle agir pour obtenir réparation si une décision dommageable a été prise à l’aide d’un MAAD ?

162 H. JONAS, Une éthique pour la nature, Arthaud Poche, 2017, préface A. CARON, p.99 et s. 163 C. VILLANI, OPECST 16 novembre 2017, http://videos.assemblee-nationale.fr/commissions

164 T. REIGELUTH, « L'algorithmique a ses comportements que le comportement ne connaît pas »,

Multitudes 2016/1 (n°62), pp. 112-123.

165 I. PAVEL, J. SERRIS, Modalités de régulation des algorithmes de traitement de contenus, Rapport

remis à Madame la Secrétaire d'État chargée du numérique, 2016, p.8.

Le droit de la responsabilité du fait des produits défectueux issu de la directive du 25 juillet 1985167 serait écarté pour un dommage du fait d’un programme

informatique. Celui-ci ne semble pas être un produit selon ce texte, pas plus que le logiciel qui le supporte168. Les conditions de mise en œuvre de ce régime n’étant pas

réunies169, la victime pourrait invoquer les fondements du droit commun.

Concernant la responsabilité du fait des choses visée à l’article 1242 alinéa 1er du

code civil170, « l’appréhension physique d’une chose ne se limite pas à une relation

tactile avec celle-ci, il suffit qu’elle soit perceptible par un sens pour admettre son existence physique »171. Il s’ensuit que le discernement de l’impact technique d’un

algorithme autorise à le qualifier juridiquement de chose. L’article 1242 alinéa 1er du

code civil implique de prouver le rôle actif de l’algorithme dans la survenance du dommage. Selon la jurisprudence, le rôle actif est avéré si la chose accuse un état, une position ou un fonctionnement anormal au moment du dommage. Cela pourrait se traduire par des résultats algorithmiques incohérents.

La désignation du gardien est plus délicate. La jurisprudence présume que le propriétaire de la chose possède la qualité de gardien car il en a le pouvoir d’usage, de contrôle et de direction. Cette présomption est renversée si le propriétaire l’a transféré, volontairement ou non, à condition que ce transfert, s’il est volontaire, soit accompagné de la transmission des moyens de neutraliser le risque172. L’utilisateur

est donc susceptible d’engager sa responsabilité vis-à-vis de la victime si le concepteur, toujours propriétaire, lui a communiqué les instructions nécessaires au bon usage de l’outil.

Toutefois, le propriétaire, le concepteur et l’utilisateur détiennent-ils un réel pouvoir de direction sur l’algorithme ?

Dans un arrêt du 19 juin 2013173, la Cour de cassation a censuré les juges du fond qui

avaient retenu la responsabilité de la société Google sur le fondement des articles 29 et 33 de la loi du 29 juillet 1881 pour des suggestions injurieuses engendrées

167 Directive 85/374/CEE du 25 juillet 1985 relative au rapprochement des dispositions législatives,

règlementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux, transposée aux articles 1245 à 1245-17 du Code civil.

168 O. SABARD, « Les produits » in La responsabilité du fait des produits défectueux, GRERCA, IRJS

Éditions, 2013 : « (…) chaque fois qu'un logiciel présente un dysfonctionnement ou qu'une information est erronée ou incomplète, plus que le produit, c'est bien la prestation de service qui est défectueuse, auquel cas le régime spécial de responsabilité du fait des produits défectueux n'a aucune vocation à s'appliquer (…) ».

169 Le régime spécial de responsabilité issu de la directive du 25 juillet 1985 exclut l'application du droit

commun de la responsabilité dès lors que les conditions de mise en œuvre du droit spécial sont réunies. V. l'interprétation de l'article 13 de la directive, CJUE le 25 avril 2002, EU : C : 2002 : 252, points 21 à 23.

170 À noter l’article 1243 alinéa 1er du projet de réforme de la responsabilité civile présenté le 13 mars

2017 qui dispose : « On est responsable de plein droit des dommages causés par le fait des choses corporelles que l’on a sous sa garde ».

171 V. N. BINCTIN, « Les biens intellectuels : contribution à l’étude des choses », Communication

Commerce électronique n°6, Juin 2006, étude 14.

172 Cass.civ.2e, 12 octobre 2000, n°99-10734. 173 Cass.civ.1ère, 19 juin 2013, n°12-17591.

automatiquement par Google à la suite des recherches des internautes. Pour la Cour de cassation, « la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats, de sorte que l’affichage des mots-clés qui en résulte est exclusif de toute volonté de l’exploitant du moteur de recherche d’émettre les propos en cause ou de leur conférer une signification autonome au-delà de leur simple juxtaposition et de leur seule fonction d’aide à la recherche ».

Le propriétaire, le concepteur et l’utilisateur sont dans l’incapacité d’anticiper toutes les évolutions d’un algorithme qui exécute un modèle qui s’ajuste en continu.

La responsabilité du fait des choses que l’on a sous sa garde semble ne pas toujours être un fondement opportun174.

Enfin, la désignation du concepteur comme responsable est contestable lorsqu’il exécute un travail pour le compte d’un donneur d’ordre. Une solution serait d’engager la responsabilité de ce donneur d’ordre qui serait devenu propriétaire de l’outil algorithmique.

3- Objectifs

- Définir les régimes de responsabilités susceptibles de réparer les dommages causés par un MAAD

Si le fait générateur du dommage est constitué par une faute, volontaire ou involontaire, le régime de responsabilité invocable par le justiciable victime serait la responsabilité du fait personnel visé aux articles 1240 et 1241 du code civil. Une présomption simple de faute pèserait sur son auteur, par exemple le concepteur qui aurait réédité des biais figurant dans les intrants175, introduit des données non

pertinentes176 ou détourné les usages convenus de l’algorithme.

Outre ces fondements classiques177, un régime juridique serait à instaurer si le

dommage trouve sa source dans l’autonomie de l’algorithme apprenant178. Dans ce

cas, l’absence de causalité humaine dans le dysfonctionnement d’un outil algorithmique ayant généré des incohérences de nature à altérer l’appréciation d’une situation par son utilisateur est compensée par un principe de responsabilité de plein

174 V. J-M. BRUGUIERE, « Droit à l’oubli des internautes ou… responsabilité civile des moteurs de

recherche du fait du référencement ? Retour sur l’arrêt de la CJUE du 13 mai 2014 », Responsabilité

civile et assurances, n°5, mai 2015, étude 5 : « Il a été plusieurs fois démontré qu’il était inconcevable

d’envisager une responsabilité du fait des choses immatérielles et l’on peine à trouver des décisions ayant fait application de l’article 1384 alinéa 1er à des choses incorporelles ».

175 Il existe en effet des « boîtes à outils » pour que les développeurs de logiciels puissent tester la

qualité d'un algorithme en détectant des associations non souhaitées. V. I. PAVEL, J. SERRIS, op.cit., p.37.

176 Par exemple, les algorithmes de recommandation prennent en compte les avis des internautes. Or,

la qualité de ces avis est parfois problématique. V. à ce propos la norme AFNOR NF Z74-501 sur la sincérité des avis en ligne de consommateurs qui engage les certifiés à des audits réguliers.

177 V. A. GRINBAUM, « Intelligence artificielle : alliée ou ennemie du droit ? », Conférence Cyberjustice

Europe 2016, Strasbourg, 5 décembre 2016.

droit du propriétaire (concepteur ou donneur d’ordre) en raison de son implication dans la survenance du risque.

Dans les relations entre les parties professionnelles au contrat d’utilisation de l’outil, des clauses limitatives ou exclusives de responsabilité peuvent être négociées.

4- Synthèse - Traçabilité des actions effectuées par l’algorithme

Pour remonter aux causes du dommage (dans le paramétrage initial par le concepteur ou dans l’entrée des données d’un cas d’espèce par l’utilisateur), des instruments de traçabilité du système179 sont inclus dans l’outil algorithmique pour

conserver la mémoire des actions effectuées180.

- Application du régime de responsabilité du fait personnel des articles 1240 et 1241 du code civil

Le comportement fautif est présumé. Il échoit à son auteur de rapporter la preuve de son absence de faute ou d’un cas de force majeure.

- Création d’un régime spécial de responsabilité objective dupropriétaire de l’outil algorithmique

Le fait générateur de cette responsabilité siège dans le risque technique caractérisé par l’absence de causalité humaine et qui se manifeste par un dysfonctionnement de l’algorithme apprenant du fait de son autonomie.

- Application des règles relatives à la responsabilité contractuelle en cas d’inexécution de leurs obligations par le concepteur ou le propriétaire de l’outil algorithmique à l’égard de leurs cocontractants

179 CERNA collectif, ibid., « 4-[dON-4] Traces. Le chercheur doit veiller à la traçabilité de l’apprentissage

machine et prévoir des protocoles à cet effet. Les traces sont elles-mêmes des données qui doivent à ce titre faire l’objet d’une attention sur le plan éthique ».

180 V. dans le domaine de la robotique, CERNA, rapport Éthique de la recherche en robotique, http://cerna-ethics-allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf, novembre 2014.