• Aucun résultat trouvé

4 Droit de l’intelligence artificielle

PARTIE III : POUR UNE ARTICULATION EFFICACE DU DROIT COMMUN DE LA RESPONSABILITE CIVILE ET DES

III- 4 Droit de l’intelligence artificielle

La technicité du sujet et son évolution particulièrement rapide justifient que le groupe de réflexion ne formule pas de propositions, mais attire l’attention du ministère de la Justice sur la nécessité d’élaborer un corpus de règles adaptées à l’intelligence artificielle.

Le développement de l’utilisation d’objets ou de processus reposant sur l’intelligence artificielle conduit naturellement à poser la question du régime de responsabilité civile applicable en cas de dommages causés par ces dispositifs : robots, véhicules autonomes, logiciels d’aide à la décision médicale…

Le concept d’intelligence artificielle englobe des réalités qui varient en fonction de la sophistication de l’outil allant de la capacité à comprendre des ordres et à les exécuter (programmation) : intelligence artificielle dite faible, à celle de s’extraire du programme initial et de progresser à partir de la propre expérience de l’outil (apprentissage) : intelligence artificielle dite forte.

L’intelligence artificielle permet désormais de parvenir à des résultats avec une intervention humaine très limitée, des systèmes auto apprenants de plus en plus autonomes pouvant être ainsi à l’origine de dommages causés aux personnes et aux biens.

À l’occasion de la réflexion sur la réforme du droit de la responsabilité civile engagée par le ministère de la Justice, la question de l’adéquation des fondements existants de responsabilité mérite d’être posée.

L’un des objectifs de la réforme est, en effet, d’apporter une plus grande prévisibilité et sécurité juridiques aux citoyens et aux acteurs économiques.

Des différentes réflexions qui ont eu lieu ou sont encore en cours sur ce sujet en constante évolution et développement, deux courants se dessinent clairement :

 le recours à l’un des fondements existants de la responsabilité civile objective suffirait à régler la grande majorité des cas,

 seule, la reconnaissance de la personnalité juridique aux robots permettrait de répondre aux enjeux de l’intelligence artificielle,

sans qu’à ce stade aucun n’emporte totalement la conviction.

Le recours à l’un des fondements existants de la responsabilité civile objective : du fait des produits défectueux, du fait des choses peut convenir dans les cas d’intelligence artificielle « non autonome » : la responsabilité du producteur du fait des produits défectueux pourrait être engagée pour défaut de conception ou d’exécution d’un produit. Toutefois, ce renvoi aux articles 1245 et s. du Code civil risquerait de se heurter aux objections suivantes30 : détermination de la défectuosité au moment de la commercialisation (car il est possible que le système évolue entre sa commercialisation et la survenance du dommage), établissement du lien de causalité entre le dommage et le défaut et plus globalement à l’application de ce régime aux biens immatériels.

30Laurène Mazeau, Intelligence artificielle et responsabilité civile : le cas des logiciels d’aide à la décision en matière médicale, Revue pratique de la prospective et de l’innovation, n°1 Avril 2018 dossier 6.

108

Certains s’interrogent en outre sur l’opportunité de redonner vie au régime de la responsabilité du fait des choses qui a perdu de sa pertinence depuis l’introduction de l’indemnisation des accidents du travail et la loi Badinter sur les accidents de la circulation.

De plus, cela signifierait une extension expresse à l’article 1243 du projet de réforme du champ d’application de cette responsabilité, aux choses incorporelles, ce qui ne serait pas neutre au regard notamment de son application potentielle à l’information.

Un certain nombre de spécialistes y sont cependant favorables en lui donnant un champ large incluant objets corporels et incorporelles mais également prestations de services intelligentes et en faisant reposer la responsabilité sur le gardien de la structure, c’est-à-dire du programme.

D’où la tentation de certains (v. la résolution du Parlement européen du 16 février 2017) de pousser le raisonnement jusqu’à l’extrême en cas d’intelligence artificielle autonome dite « forte » de reconnaître la personnalité juridique aux « robots autonomes les plus sophistiqués ».

Cette approche qui n’est pas inintéressante même si elle soulève des questions éthiques, ne fait que déplacer le problème, puisque qui dit personnalité juridique dit patrimoine et qu’il conviendrait alors de trouver les moyens d’abonder ce patrimoine par des personnes physiques ou morales.

On peut douter de la pertinence de cet artifice.

C’est ce qui conduit d’autres spécialistes à revenir à une responsabilité pour faute.

Son application à des situations où une intelligence artificielle dite forte aurait entraîné des dommages pourrait toutefois placer les victimes de ces dommages corporels dans une situation très difficile, car la preuve de l’imputabilité du dommage risque de devenir particulièrement complexe en raison de la sophistication de l’intelligence artificielle.

Comme le soulignent certains auteurs31, la recherche et l’analyse des causes d’un dommage à ou par un système automatisé ne sont pas nouvelles, mais les procédés mis en œuvre par les experts pourraient être mis à mal en raison d’un caractère évolutif de l’intelligence artificielle.

Avec le développement de la sophistication de l’intelligence artificielle, les spécialistes mettent en avant le fait que l’expertise va se déplacer du programmeur vers le spécialiste de l’organisation et du traitement des données et que cela supposera de disposer des données d’apprentissage et d’en connaître l’origine pour déterminer l’imputabilité du dommage.

La recherche de la preuve et l’analyse d’imputabilité seront soumises à une double exigence de traçabilité : la première afin de disposer des données d’apprentissage pour expliquer le

31Laurent Szuskin, Intelligence artificielle et responsabilité, Communication Commerce électronique, n°6 juin 2018 p.7 et s.

109 comportement de l’intelligence artificielle, la seconde afin de connaître l’origine de ces données d’apprentissage (pour pouvoir imputer le comportement à une cause)32.

La question se pose avec une acuité particulière pour les dommages corporels pour lesquels l’exigence de la preuve d’une faute paraît excessive et l’indemnisation par le responsable ou par l’assurance devrait être facilitée.

Il serait infiniment préférable sur ce point que la solution soit une solution européenne, mais le fait que le groupe d’experts mis en place par le Commission européenne n’envisage la question qu’au travers d’une éventuelle révision de la directive de 1985 relative à la responsabilité du fait des produits défectueux ne paraît pas totalement satisfaisant.

32 Voir Serge Migayron, Pratique contentieuse : Intelligence artificielle : qui sera responsable ? Revue Communication

commerce électronique, n°4 avril 2018.

111

Annexes

 Contributions de la Fédération Française de l’Assurance

113

115

117

119

121

123

125

127

129

131