• Aucun résultat trouvé

B. LES OBLIGATIONS MISES À LA CHARGE DES PLATEFORMES DE

2. L’obligation de retrait des contenus illicites

L’article 6-I-2 de la Loi pour la confiance dans l’économie numérique prévoit à l’égard des fournisseurs d’hébergement, et donc des plateformes de contenus, qu’ils ne sont pas responsables civilement des activités ou des informations qu’ils stockent ainsi que des « faits et circonstances

faisant apparaître ce caractère » s’ils « n’avaient pas effectivement connaissance de leur caractère illicite » ou encore si dès lors qu’ils en ont eu connaissance, ils « ont agi promptement pour retirer ces données ou en rendre l’accès impossible »139. C’est le principe de la quasi-irresponsabilité. Par

ailleurs, si le « comportement de l’hébergeur est susceptible de contribuer à l’aggravation du

dommage souffert par autre, il est possible d’établir un lien de causalité entre sa faute et cette aggravation en justifiant ainsi l’application des articles 1240 et 1241 du Code civil »140. L’article

22 de la Loi concernant le cadre juridique des technologies de l’information du Québec énonce le même principe de quasi-irresponsabilité. L’hébergeur sera donc, comme c’est le cas en France, tout de même responsable « notamment s’il a de fait connaissance que les documents conservés servent

à la réalisation d’une activité à caractère illicite ou s’il a connaissance de circonstances qui la rendent apparente et qu’il n’agit pas promptement pour rendre l’accès aux documents impossible

136 Supra note 17, art. 6, III, 2. 137 Supra note 107, p. 370. 138 Supra note 107, p. 369. 139 Supra note 17, art. 6-I-2. 140 Supra note 107, p. 366.

ou pour autrement empêcher la poursuite de cette activité » comme le prévoit le second alinéa de

l’article 22.

L’article 6, I, 5 de la Loi pour la confiance dans l’économie numérique présume que l’hébergeur a connaissance des faits litigieux lorsqu’il reçoit la notification de plusieurs éléments. Il s’agit de la « date de la notification », des « noms, prénoms, profession, domicile, nationalité,

date et lieu de naissance » si le requérant est une personne physique, et inversement s’il s’agit

d’une personne morale ; de la forme, dénomination, siège social et l'organe qui la représente légalement, de la « description des faits litigieux » ainsi que « leur localisation précise », des

« motifs pour lesquels le contenu doit être retiré, comprenant la mention des dispositions légales et des justifications de faits » et enfin de « la copie de la correspondance adressée à l'auteur ou à l'éditeur des informations ou activités litigieuses demandant leur interruption, leur retrait ou leur modification, ou la justification de ce que l'auteur ou l'éditeur n'a pu être contacté ». La

« connaissance de fait » prévue à l’article 22 de la Loi concernant le cadre juridique des

technologies de l’information se rapporte soit à la situation dans laquelle les informations ou

l’activité illicite est apparente, soit à la situation dans laquelle des indices sont portés à la connaissance de l’hébergeur qui peut alors en déduire l’illicéité de l’activité ou des informations partagées141.

La connaissance de l’illicéité de l’information peut intervenir dans plusieurs cas. Tout d’abord, si l’hébergeur conserve des documents illicites qui émanent directement de lui et qu’il a choisi lui-même de partager, l’hébergeur aura alors connaissance de fait de l’illicéité en question. Deuxièmement, si l’hébergeur, bien qu’il n’ait pas d’obligation de surveillance générale, choisit d’exercer une surveillance régulière ou non des contenus qu’il conserve, cette surveillance permettra alors de justifier la connaissance de fait du contenu illicite. Enfin, si une notification est effectuée par un tiers à l’hébergeur, cet hébergeur est présumé avoir la connaissance effective de l’activité illicite142.

141 Pierre TRUDEL, La responsabilité des médias en ligne, Rapport de recherche Université de Montréal, 2010, p. 16.

En ligne : <https://pierretrudel.openum.ca/files/sites/6/2014/11/La_responsabilite_des_medias_en_ligne.pdf>.

Après avoir été notifié de la présence du contenu illicite, l’hébergeur doit donc procéder au retrait de ce contenu de manière prompte s’il présente un caractère manifestement illicite. Une question s’est cependant posée : l’hébergeur pouvait-il être notifié par tous moyens ou seule la notification répondant précisément aux exigences de l’article 6, I, 5 de la Loi pour la confiance

dans l’économie numérique était valide ? En effet, il est possible qu’une notification soit faite par

un internaute par exemple, mais que ce dernier ne notifie pas tous les éléments prévus par la loi. La Cour de cassation a répondu à cette question en 2011 en affirmant que les éléments prévus à l’article 6, I, 5 étaient bien des éléments cumulatifs et qu’une notification valide devait comporter l’ensemble des éléments143. C’est en ce sens qu’a statué la Cour d’appel de Bordeaux en 2012144,

la profession, le domicile, la nationalité, la date ainsi que le lieu de naissance du requérant étant en l’espèce les éléments manquants de la notification145.

De plus, comme l’a précisé le Conseil constitutionnel dans son arrêt du 10 juin 2004146,

« ces dispositions ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge ». Il ne doit donc

y avoir aucun doute sur le caractère illicite du contenu. La question s’est notamment posée en matière de diffamation, le juge du Tribunal de grande instance ayant finalement énoncé qu’« une

appréciation du caractère éventuellement diffamatoire des vidéos, photographies et écrits litigieux suppose une analyse des circonstances ayant présidé à leur diffusion, laquelle échappe par principe à celui qui n’est qu’un intermédiaire technique ». Ainsi, seul le juge du fond peut

apprécier le caractère diffamatoire, et les intermédiaires techniques ne peuvent « être considéré[s]

comme ayant eu un comportement fautif » du fait du maintien des contenus en ligne. Il semblerait

cependant que cette solution ne soit applicable que dans le domaine de la diffamation, car cette dernière, « à la supposer constituée, n’égale pas forcément trouble manifestement illicite »147.

143 Supra note 122.

144 CA Bordeaux, 10 mai 2012, Amen c M. K.. En ligne : < https://www.legalis.net/jurisprudences/cour-dappel-de-

bordeaux-1ere-chambre-section-b-arret-du-10-mai-2012/>.

145 Christophe BIGOT, « Le point sur les règles de notification de contenus illicites » (2014), Légicom, n°52, p. 68. 146 Cons. const., n° 2004-496 DC, 10 juin 2004, Loi pour la confiance dans l’économie numérique.

147 TGI Paris, 4 avril 2013, H&M Hennes & Mauritz Logistics GBC France et H&M Hennes & Mauritz AB c Google

Inc, Youtube. En ligne : < https://www.legalis.net/jurisprudences/tribunal-de-grande-instance-de-paris-ordonnance- de-refere-jugement-du-04-avril-2013/>.

Cependant, le meilleur moyen pour l’hébergeur d’être certain d’échapper à toute responsabilité est de supprimer directement le contenu après avoir été régulièrement notifié. Cette solution est cependant déplorable du point de vue de la liberté d’expression étant donné que la suppression d’un contenu qui se révèle être licite après un débat de fond aura pour conséquence une censure illégitime, alors que l’internet défend l’idée d’une liberté de communication. Au Québec, certains auteurs avancent que « [l]’attitude appropriée pour l’intermédiaire est d’obtenir

une confirmation d’un tiers, tel un expert neutre et d’agir sur la foi d’une telle évaluation » et que « tant que l’intermédiaire n’a pas obtenu une confirmation indépendante du caractère illicite d’un document, il n’a pas d’obligation d’agir de manière à censurer l’information »148. Cette solution

est plus à même de respecter les exigences relatives à la liberté d’expression. Cependant, des exigences de prompteté étant prévues, il faudrait que des experts soient dédiés à la tâche de qualification des contenus. Une autre critique à formuler serait que le juge n’est pas lié par les constatations des experts car ce dernier peut également se tromper. Si tel était le cas, que se passerait-il alors si l’hébergeur décide, après avoir reçu l’avis d’un expert, de retirer un contenu qui s’avère finalement licite ?

L’article 6, I, 3 de la Loi pour la confiance dans l’économie numérique dispose que les hébergeurs « ne peuvent voir leur responsabilité pénale engagée à raison des informations stockées

à la demande d'un destinataire de ces services si elles n'avaient pas effectivement connaissance de l'activité ou de l'information illicites ou si, dès le moment où elles en ont eu connaissance, elles ont agi promptement pour retirer ces informations ou en rendre l'accès impossible ». La responsabilité

pénale est semblable à celle prévue en matière civile. Cependant, les mêmes questions se posent en matière pénale. De plus, ce texte « ne constitue pas un texte d’incrimination »149 car il ne prévoit

aucune sanction.

La question de la sanction des plateformes du numérique, et notamment des réseaux sociaux est abordée par la proposition de loi contre la haine en ligne introduite le 11 mars 2019 par la députée Laetitia Avia. Ce texte prévoit le retrait par la plateforme des contenus manifestement illicites dans un délai imposé de 24 heures. En cas de non-respect, le CSA pourrait prononcer une

148 TRUDEL Pierre, « La responsabilité sur internet en droit civil québécois », Rapport de recherche Université de

Montréal, 2018, p. 22. En ligne : <https://www.pierretrudel.net/files/sites/6/2015/01/TRUDEL_resp_internet.pdf>.

amende atteignant un montant maximum de 4% du chiffre d’affaire de la plateforme. Cette dernière devra également rendre publiquement des comptes de ses actions entreprises dans le but de lutter contre la cyber-haine, ainsi que les résultats du traitement des contenus illicites. En cas de refus, des sanctions financières pourront intervenir et atteindre un montant d’un million d’euro. Enfin, l’objectif est également de simplifier et d’uniformiser le signalement des contenus illicites en mettant en place un bouton unique de signalement des contenus commun à toutes les plateformes en ligne150. Il existe déjà à ce jour un bouton de signalement, mais ce dernier n’est pas toujours

bien visible ni accessible, ainsi, l’idée est de prévoir un bouton de signalement qui accompagne chaque contenu afin de le rendre plus visible. Le mercredi 19 juin, la commission des lois de l’Assemblée nationale française a terminé l’examen de la proposition de loi. Au cours de cet examen, la proposition de loi a été renforcée et élargie aux « messages à caractère terroriste,

pédopornographique, l’apologie des crimes de guerre et des crimes contre l’humanité, le harcèlement et le proxénétisme, les messages comportant des atteintes à la dignité de la personne humaine, ainsi que toute forme d’appel à la haine, à la violence ou à la discrimination sur la base de l’« origine », de la nationalité ou du genre »151. Par ailleurs, l’obligation de retrait de contenus

dans un délai de 24 heures a été étendue aux moteurs de recherche. Si le retrait n’est pas opéré par la plateforme ou le moteur de recherche, la proposition de loi prévoit un « délit spécifique de refus

de retrait ou de déréférencement de contenus illicites […] passible d’une amende et d’un an d’emprisonnement »152 . Enfin, pour pallier la critique selon laquelle les internautes pourraient

signaler toute sorte de contenu afin d’inonder la plateforme, la commission a ajouté un « délit de

signalement abusif, passible d’un an d’emprisonnement et de 15 000 euros d’amende »153, ce qui

permettrait d’empêcher ce genre de comportement. La critique qui pourrait cependant être formulée est que la plateforme sera contrainte d’analyser elle-même les contenus pour les qualifier de manifestement illicites ou non. Aucune solution à ce problème n’a pour le moment été proposée.

150 Lefigaro.fr, « Ce que dit la proposition de loi contre la haine en ligne » (2019). En ligne : <

http://www.lefigaro.fr/actualite-france/2019/03/10/01016-20190310ARTFIG00033-ce-que-dit-la-proposition-de-loi- contre-la-haine-en-ligne.php>.

151 Martin UNTERSINGER, « L’Assemblée muscle la loi pour lutter contre les messages haineux en ligne » (2019),

Le Monde. En ligne : < https://www.lemonde.fr/pixels/article/2019/06/20/l-assemblee-durcit-la-loi-contre-la-haine- en-ligne_5479205_4408996.html>.

152 Ibid. 153 Ibid.

Il faut également noter que le 25 juin 2019, lors d’une interview de Cédric O, le nouveau secrétaire d’État au numérique à l’agence Reuters, ce dernier a affirmé que Facebook avait annoncé qu’elle accepterait désormais de fournir à la justice française les adresses IP qui permettent d’identifier les internautes sur l’internet, et ce pour les contenus de haine en ligne, via une procédure simplifiée. Cette nouvelle est une bonne chose étant donné que jusqu’à présent, « la

procédure, qui passe par une demande d’entraide internationale auprès des autorités américaines, est lourde et lente »154, cela permettra donc d’accélérer les choses. Cependant, il est désormais

facile pour un internaute de cacher ses traces sur le net, notamment en utilisant un VPN ou « Réseau privé virtuel » qui permet principalement à ses utilisateurs de naviguer sur l’internet de manière anonyme155. Il sera alors impossible pour la société Facebook de recueillir l’adresse IP de tous les

utilisateurs partageant des contenus de haine en ligne.