• Aucun résultat trouvé

Des solutions particulières pour la protection des renseignements personnels contenus dans les données judiciaires

Section 3. Pseudonymisation et open data

B. IA et open data

Le Service de documentation, des études et du rapport de la Cour de cassation possède un algorithme permettant d’occulter les prénoms et noms des personnes physiques, mais le reste des éléments permettant de remonter à l’identification des individus se fait encore manuellement, au cas par cas.

En France, Etalab, qui est l’un des départements de la direction interministérielle du numérique (DINUM), coordonne la conception et la mise en œuvre de la stratégie de l’État dans le domaine de la donnée. Plus précisément, il coordonne la politique de l’open data, et supervise les actions des administrations de l’État en leur apportant son appui pour faciliter la diffusion et la réutilisation de leurs informations publiques172. Il

y a 4 ans, en 2016, Etalab a ainsi conçu, lancé et développé le programme « Entrepreneurs d’Intérêt Général » (EIG), qui recrute chaque année pendant 10 mois des talents du numérique (développeurs, data scientists, designers…) pour résoudre des défis d’intérêt général aux côtés des administrations173.

Dans le cadre de la mise en œuvre de l’open data, et pour accélérer la pseudonymisation des décisions de justice, Etalab a retenu cette année la candidature de la Cour de cassation au programme EIG 4 avec le projet Logiciel d'Anonymisation d'une

base enrichie Labellisée (L.A.B.E.L)174. Il s'agira d'améliorer les techniques de

reconnaissance automatique et de développer des algorithmes de pseudonymisation automatique des données grâce à des techniques de « machine learning » et de traitement du langage naturel, pour remplacer la tâche manuelle.

172 Le blog d’Etalab, en ligne : https://www.etalab.gouv.fr/qui-sommes-nous>.

173Entrepreneurs d’Intérêt Général, en ligne : https://entrepreneur-interet-general.etalab.gouv.fr/>. 174 Cour de cassation, projet 2020 L.A.B.E., en ligne :

<https://www.courdecassation.fr/institution_1/open_data_dematerialisation_7985/open_data_decisions_j ustice_7821/l.a.b.e.l._innovation_9130/l.a.b.e.l._projet_2020_9710/>.

Nous pouvons souligner la pertinence de la Cour de cassation dans cette démarche. En effet, selon le livre blanc intitulé « intelligence artificielle - une approche européenne axée sur l'excellence et la confiance »175, l’IA peut entraîner des risques

pour les droits fondamentaux, notamment concernant « la protection des données à caractère personnel, le respect de la vie privée, et la non-discrimination »176. Il est ainsi

détaillé dans le Livre que :

« Le recours à l'IA peut porter atteinte aux valeurs sur lesquelles l’UE est fondée et entraîner des violations des droits fondamentaux, tels que les droits à la liberté d'expression et de réunion, la dignité humaine, l'absence de discrimination fondée sur le sexe, l’origine raciale ou ethnique, la religion ou les convictions, le handicap, l’âge ou l’orientation sexuelle, selon le cas, la protection des données à caractère personnel, le respect de la vie privée ou le droit à un recours juridictionnel effectif et à un procès équitable, ainsi que la protection des consommateurs »177 (soulignement rajouté)

Le fait que la Cour de cassation participe donc activement à la mise en place de l’IA dans le système judiciaire peut être considéré comme une bonne garantie que les droits fondamentaux seront pris en compte, et les risques prévenus.

Conclusion du premier chapitre

Afin de protéger les données à caractère personnel lors de leur traitement, notamment lors de leur divulgation, nous avons vu que la solution conseillée par la législation européenne réside dans la technique de la pseudonymisation.

Afin d’arriver à un équilibre dans l’univers numérique entre, d’un côté, le droit à la vie privée, et, de l’autre, la transparence de la justice, nous avons pu voir que la France avait adopté la pseudonymisation dans le cadre de l’open data des décisions judiciaires. On peut se réjouir de cela pour plusieurs raisons : tout d’abord, le fait même que la pseudonymisation soit recommandée à l’échelle de l’Union européenne pour le traitement des données à caractère personnel signifie que les enjeux entourant les risques pour l’individu ont été pris en compte. Ensuite, pour minimiser ces risques, la

175 Commission européenne, Livre blanc « Intelligence artificielle. Une approche européenne axée sur

l’excellence et la confiance », 19 févr. 2020, COM(2020) 65 final, en ligne : <https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf>.

176 Id. p.12. 177 Ibid.

France a choisi d’appliquer cette technique lors du traitement des données judiciaires, et donc dans la mise en place de l’open data des décisions judiciaires. Cela permet alorsn théoriquement, de protéger les individus contre une quelconque réutilisation des données qui apparaissent dans les documents judiciaires.

Cependant, des lacunes persistent. On peut souligner le fait que ce travail de pseudonymisation se rajoute à la charge de travail, déjà conséquente, des magistrats. Des travaux pour avoir recours à l’intelligence artificielle sont en cours, mais pour le moment, cela n’offre pas de résultat satisfaisant. Un autre point faible, et non des moindre, concerne la fiabilité de la pseudonymisation : celle-ci n’est pas infaillible, et c’est ce que nous avons démontré avec l’étude des métadonnées.

Face à ces tempéraments, nous avons décidé de se tourner vers les autres instruments que le RGPD propose également en matière de protection des données à caractère personnel, et qui pourraient venir au soutien d’une meilleure protection des individus. En effet, en France la pseudonymisation est appliquée mais n’est pas efficace totalement, et au Canada, elle n’est pas du tout appliquée. Les possibilités, autre que la pseudonymisation, pour prévenir les risques qui peuvent peser sur les individus fera l’objet du chapitre suivant.

Chapitre 2. Les outils mis à disposition par le Règlement Général sur