• Aucun résultat trouvé

L’absence d’obligation générale de surveillance

B. LES OBLIGATIONS MISES À LA CHARGE DES PLATEFORMES DE

3. L’absence d’obligation générale de surveillance

La question de la réapparition des contenus après leur suppression par la plateforme s’est également posée. Il faut en effet se demander si l’hébergeur est tenu ou non de faire en sorte que les contenus manifestement illicites ne soient pas de nouveau publiés.

L’article 27 de la Loi concernant le cadre juridique des technologies de l’information, tout comme l’article 15 de la Directive sur le commerce électronique, ne met pas à la charge des intermédiaires une obligation générale de surveillance active, ce qui s’explique notamment par le grand nombre de contenus partagés chaque jour sur les plateformes numériques. L’article 6, I, 7 de la Loi pour la confiance dans l’économie numérique prévoit ainsi que les personnes fournissant une prestation d’hébergement « ne sont pas soumises à une obligation générale de surveiller les

informations qu'elles transmettent ou stockent, ni à une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites ».

154 Le Monde avec Reuters, « Facebook transmettra plus rapidement à la justice les adresses IP d’auteurs de messages

haineux » (2019), Lemonde.fr. En ligne : < https://www.lemonde.fr/pixels/article/2019/06/25/facebook-transmettra- plus-rapidement-a-la-justice-les-adresses-ip-d-auteurs-de-messages-haineux_5481335_4408996.html>.

155 Journaldunet.fr, « VPN (Virtual Private Network) : définition, traduction et acteurs » (2019). En ligne :

< https://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1203417-vpn-virtual-private-network- definition-traduction-et-acteurs/>.

La jurisprudence a également suivi sur ce point et affirmé qu’une obligation générale de surveillance n’était pas mise à la charge des intermédiaires techniques156. Ainsi, la première

notification concernant le contenu illicite supprimé ne suffit pas. En cas de réapparition de celui- ci, il faudra procéder à l’envoi d’une nouvelle notification, peu importe que le contenu ait été publié à nouveau par la même personne ou par un internaute différent. Ainsi, on dit qu’il ne lui est pas imposé d’obligation de « notice and stay down ». En effet, il s’agit ici plus d’une obligation de

« notice and take down »157.

Il existe cependant des exceptions. En effet, si les hébergeurs ne peuvent pas se voir imposer une obligation générale de surveillance active, il peut cependant leur être demandé de procéder à une « surveillance ciblée et temporaire » comme le prévoit le second alinéa de l’article 6, I, 7 de la Loi pour la confiance dans l’économie numérique. En effet, ce sera l’autorité judiciaire qui pourra demander aux fournisseurs d’hébergement d’exercer cette surveillance ciblée sur les contenus dommageables. Il peut également leur être demandé de bloquer les sites pédopornographiques ainsi que les sites terroristes. Cette demande peut également émaner de l’autorité policière.

Il reste que ces exceptions sont ciblées et temporaires, leur effectivité n’étant pas de mise sur les contenus de haine. En préférant le « notice and take down », la Cour de cassation permet encore une fois aux hébergeurs de se soustraire à leur responsabilité et de profiter du régime sous conditions, solution qui est également très défavorable aux titulaires de droits de propriété intellectuelle, sur qui l’obligation est finalement déplacée, étant donné que s’ils veulent que le contenu ne soit pas remis en ligne, c’est à eux de vérifier s’il réapparait, et si tel est le cas, de procéder à l’envoi d’une nouvelle notification au fournisseur d’hébergement158.

Pourtant, initialement, le Tribunal de grande instance de Paris avait considéré dans un jugement rendu en 2007 que Google était tenu de « de mettre en œuvre tous les moyens nécessaires

156 Cass Civ 1re, 12 juillet 2012, n° 11-13.666.

157 Antoine CASANOVA, « La Cour de cassation préfère le "notice and take down" au "notice and stay down", au

risque de voir les ayants droit "knocked down" » (2012), Lexbase Hebdo - Edition Affaires, n° 307.

en vue d'éviter une nouvelle diffusion »159 du documentaire qui avait été diffusé en ligne. Il avait

été soutenu que la remise en ligne du documentaire en question était un fait nouveau et devait ainsi nécessairement entrainer l’envoi par les internautes d’une nouvelle notification, mais le jugement précise que « l'argumentation selon laquelle chaque remise en ligne constitue un fait nouveau

nécessitant une nouvelle notification doit être écartée ». En effet, il faut considérer que bien que

les nouvelles publications du contenu soient « imputables à des utilisateurs différents, leur contenu

et les droits de propriété intellectuelle y afférents sont identiques ».

Par ailleurs, les plus grosses plateformes ont les moyens techniques d’identifier un contenu et par la suite de le marquer afin qu’il ne réapparaisse pas. Dailymotion a par exemple mis en place un service en partenariat avec Audible Magic160et l’Institut national de l’audiovisuel161, consistant

à poser une empreinte numérique sur un contenu qui a été retiré afin de pouvoir savoir lorsqu’un utilisateur tente de mettre en ligne un contenu similaire qui sera alors automatiquement bloqué. Dailymotion explique ainsi que « toutes les vidéos mises en ligne sur Dailymotion sont comparées

aux bases de données d'empreintes audio et vidéo d’INA et d'Audible Magic. À chaque fois que nous identifions une vidéo correspondant à une empreinte, nous bloquons sa diffusion avant sa publication sur le site »162.

Chez Youtube par exemple, les vidéos mises en ligne sur la plateforme sont « comparées à

une base de données de fichiers fournis par les propriétaires de contenu »163, l’outil utilisé étant

dénommé Content ID. Cependant, Youtube précise que seuls les « titulaires de droits d'auteur qui

remplissent des critères spécifiques » peuvent être utilisateurs de l’outil. Encore une fois, l’outil

est utilisé par les créateurs de contenus, et ne bénéficie d’ailleurs pas à la totalité des créateurs de contenus. On remarque que là encore, l’activité de surveillance est une fois de plus déplacée sur les ayants-droit alors que l’outil pourrait être utilisé directement par les plateformes de contenus.

159 TGI Paris, 19 octobre 2007, n° 06/11874.

160 Audible Magic. En ligne : <https://www.audiblemagic.com>. 161 INA. En ligne : <https://www.ina.fr>.

162 Faq.dailymotion.com, « Protéger votre Copyright avec l'empreinte de vos vidéos ». En ligne : <

https://faq.dailymotion.com/hc/fr/articles/203921173-Protéger-votre-Copyright-avec-l-empreinte-de-vos-vidéos>.

163 Support.google.com, « Fonctionnement de Content ID ». En ligne : <

Ainsi, avant la jurisprudence de 2012, bien que les juges n’avaient pas décidé d’en faire une obligation de résultat164, les hébergeurs étaient tout de même tenus de mettre en place des moyens

techniques afin de veiller à ce que les contenus illicites ne fassent pas leur réapparition. En effet, dans un jugement rendu en 2011165, le Tribunal de grande instance de Paris a pris en compte que

la société Youtube disposait d’un « d’un système d’identification des œuvres par empreintes dit

“content identification” » qui consiste à extraire de « chaque œuvre des empreintes uniques audio et vidéo et permet de reconnaître automatiquement des vidéos mises en ligne qui comporteraient des séquences, même partielles, identiques ». Ainsi, elle en a conclu que « dès lors que l’hébergeur dispose des moyens techniques qui lui permettent de reconnaître les vidéomusiques qui ont fait l’objet d’une première notification et ainsi d’en rendre impossible l’accès, il n’y a pas lieu d’imposer à l’ayant droit de procéder à une nouvelle notification ». Cependant, il faut noter que

cette obligation qui reposait sur les fournisseurs d’hébergement ne devait pas être considérée comme une obligation générale de surveillance et ainsi ne pas être disproportionnée. Par ailleurs, le juge précise que « la mise en œuvre du système d’identification des œuvres par empreintes et de

filtrage doit être réaliser (sic) sans coût ni contrainte excessive pour le titulaire du contenu ». Une

telle solution semblait plus satisfaisante au regard de la pratique, bien qu’imparfaite.

La Directive sur le droit d’auteur dans le marché du numérique, qui a principalement pour but de modifier la directive sur le droit d'auteur et les droits voisins dans la société de l'information166, pourrait être un outil, certes pour le moment applicable seulement en droit

d’auteur, mais dont les règles pourraient être également applicables aux contenus haineux. Cette directive a été approuvée par le Conseil européen le 15 avril 2019 et publiée au Journal Officiel du 17 avril 2019. Elle devrait ensuite être retranscrite en droit national au sein des pays membres d’ici juin 2021. Le but de cette directive est de « mieux faire respecter le droit d'auteur et garantir un

partage plus équitable de la valeur générée par les œuvres, spécialement dans les rapports aux GAFA »167.

164 Supra note 157.

165 TGI Paris 3e ch. 4e section, 28 avril 2011, SPPF c Youtube, n°09/08485. En ligne : < http://data.over-blog-

kiwi.com/1/13/34/21/20140707/ob_8eab81_jugement-tgi-paris-28-avril-2011-youtu.pdf>.

166 Directive n° 2001/29/CE du 22 mai 2001 du Parlement européen et du Conseil sur sur le droit d'auteur et les droits

voisins dans la société de l'information, JO n° L 167 du 22 juin 2001.

167 Céline CASTETS-RENARD, « Le Parlement européen et la directive sur le droit d'auteur dans le marché unique

En France, l’article 17 relatif à l’utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne, qui avait fait débat lors de l’adoption de la Directive, devrait être transposé au sein d’une loi audiovisuelle. Le ministre de la Culture, Franck Riester avait par ailleurs avancé que la loi audiovisuelle française serait présentée en Conseil des ministres cet été168. Finalement, le mercredi 19 juin, le Premier ministre français, Édouard Philippe, a indiqué

que le projet de loi serait présenté avant la fin du mois d’octobre, l’espoir étant que l’entrée en vigueur de cette loi se fasse au cours de l’année 2020169.

La Directive sur le droit d’auteur dans le marché unique numérique, grâce à son article 17, fait retomber les plateformes de contenus dans le champ du droit d’auteur, le but étant de mettre fin au « value gap » ou transfert de la valeur entre les plateformes de contenus et les ayants-droits des œuvres qui sont partagées par les internautes sur ces sites. La directive prévoit ainsi désormais une responsabilité de la plateforme du fait des contenus publiés par les utilisateurs, alors que jusqu’à maintenant, les plateformes de contenus bénéficiaient du régime de quasi-irresponsabilité des hébergeurs prévu par la Loi pour la confiance dans l’économie numérique. Une telle directive, bien qu’applicable au domaine du droit d’auteur, pourrait tout à faire être transposée afin de lutter contre la diffusion de propos haineux sur les plateformes. En effet, elle si elle a pour but de lutter contre la diffusion illicite d’œuvres, elle pourrait tout à fait être étendue à la lutte des contenus illicites de manière générale, ce qui permettrait d’inclure les contenus de haine en ligne dans le champ de la directive.

En effet, l’article 17.3 de la Directive sur le droit d’auteur dans le marché unique numérique prévoit que lorsqu’un « fournisseur de services de partage de contenus en ligne procède à un acte de communication au public ou à un acte de mise à la disposition du public, dans les conditions fixées par la présente directive, la limitation de responsabilité établie à l’article 14, paragraphe 1,

168 Culture.gouv.fr, « Discours de Franck Riester, ministre de la Culture, prononcé à l'occasion de la cérémonie des

vœux aux professionnels de la culture, jeudi 31 janvier 2019 » (2019). En ligne : <http://www.culture.gouv.fr/Presse/Discours/Discours-de-Franck-Riester-ministre-de-la-Culture-prononce-a-l- occasion-de-la-ceremonie-des-voeux-aux-professionnels-de-la-culture-jeudi-31-janvier-2019>.

169 Challenges.fr, « Le projet de loi sur l'audiovisuel public entrera en vigueur en 2020 » (2019). En ligne :

<https://www.challenges.fr/media/audiovisuel/le-projet-de-loi-sur-l-audiovisuel-public-entrera-en-vigueur-en- 2020_659233>.

de la directive 2000/31/CE ne s’applique pas aux situations couvertes par le présent article ». Ainsi, les plateformes de contenus ne peuvent bénéficier de la responsabilité sous-condition prévue au bénéfice des hébergeurs. Cette responsabilité mise en place par la directive s’applique aux plateformes ayant plus de trois ans d’expérience et affichant un chiffre d’affaire d’un montant supérieur à 10 millions d’euros. Cela permet de ne pas porter préjudice aux plus petites plateformes, mais oblige les plus grosses comme Youtube ou Facebook à prendre leurs responsabilités.

Parmi les obligations mises à la charge des plateformes de contenus, l’article 17.1 de la Directive sur le droit d’auteur dans le marché unique numérique prévoit que désormais, les plateformes devront obtenir l’autorisation des ayants-droits avant de diffuser une œuvre en ligne, cette autorisation pouvant prendre la forme d’un accord de licence. L’article 17.4 de la directive prévoit que si aucune autorisation n’est accordée au fournisseur de contenus de la part des ayants- droits, il ne pourra échapper à sa responsabilité que s’il démontre qu’il a fourni les meilleurs efforts pour obtenir l’autorisation, pour garantir l’indisponibilité des œuvres et contenus protégés et qu’il a « agi promptement, dès réception d’une notification suffisamment motivée de la part des titulaires

de droits, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites internet, et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur ».

Il a été affirmé à plusieurs reprises que les obligations prévues par l’article 17 de la Directive sur le droit d’auteur dans le marché unique numérique imposaient aux plateformes numériques de mettre en place un système de filtrage des contenus. En effet, à l’origine, le texte prévoyait que les prestataires de service pouvaient mettre en œuvre leurs obligations via l’utilisation de « techniques de reconnaissance de contenu ». Cependant, ce passage a finalement été supprimé du texte de la directive. Par ailleurs, le rapporteur de la directive avait affirmé qu’elle ne contraignait aucunement les acteurs concernés à mettre en place des mesures filtrantes de publication des contenus170.

Cependant, il est possible de se demander comment les plateformes pourront répondre à l’obligation prévue à l’article 17.4 qui les contraint à empêcher que les contenus soient à nouveau

170 Twitter, Tweet d’Axel Voss, 31 août 2018. En ligne : <

« téléversés dans le futur », sans prendre des mesures techniques de filtrage de contenus. Il est

d’ailleurs regrettable que la notion de « mesures appropriées et proportionnées » ait été retirée du texte de la directive car contraindre les plateformes à prévoir de telles mesures les aurait obligées à être « non plus simplement réactifs (retrait après notification), mais proactifs »171, ce qu’elles

peuvent tout à fait faire étant donné qu’elles ont la possibilité technique de mettre en place de telles mesures.

En matière de contenus haineux, Youtube permet à ses utilisateurs de configurer un filtre s’appliquant aux commentaires laissés par les internautes sous une vidéo. Il sera alors possible de

« sélectionner des utilisateurs dont les commentaires sont automatiquement approuvés »,

d’« [e]mpêcher certains utilisateurs de laisser des commentaires », d’« [a]jouter des termes et des

expressions à votre liste de mots bloqués » ce qui permet de bloquer directement les commentaires

comprenant les termes ou expressions sélectionnés et enfin de « [s]oumettre à examen les

commentaires contenant des liens »172.

Étant donné que la Directive sur le droit d’auteur dans le marché unique numérique ne s’applique qu’au droit d’auteur, il pourrait être intéressant de s’en inspirer afin de compléter la proposition de loi visant à lutter contre la haine en ligne. Mettre à la charge des plateformes du numérique des mesures techniques visant à filtrer les contenus partagés par les internautes serait, certes, un frein aux petites plateformes étant donné que de telles mesures techniques peuvent être lourdes à mettre en place financièrement. Pour pallier cela, il pourrait être intéressant de prévoir dans la proposition de loi visant à lutter contre la haine en ligne une obligation de mise en place de mesures techniques visant à filtrer les contenus dans lesquels on retrouve certains termes ou certaines expressions préalablement définies dans un filtre. Cette obligation pourrait ne s’appliquer qu’à certaines plateformes, et c’est ici qu’on s’inspirerait de la Directive sur le droit d’auteur dans le marché unique numérique, puisque l’idée serait de se fonder sur le critère de l’expérience de la plateforme ainsi que sur celui de son chiffre d’affaire. L’obligation ne serait donc applicable qu’aux

171 Alexandra BENSAMOUN, « Value gap : une adaptation du droit d'auteur au marché unique numérique » (2018),

D., n°3, p. 122-123.

172 Support.google.com, « Configurer des filtres pour les commentaires et le chat en direct ». En ligne : <

plateformes numériques ayant plus de trois ans d’expérience et affichant un chiffre d’affaire d’un montant supérieur à 10 millions d’euros.