• Aucun résultat trouvé

Chapitre II : Mesures d’aide sociale

Mercredi 12 janvier 2022

COMMISSION DE LA CULTURE, DE L’ÉDUCATION ET DE LA COMMUNICATION

Face à cette situation, la commission européenne a publié le 15 décembre 2020 deux propositions de règlement, qui s’imposeront d’elles-mêmes et ne seront pas transposées dans le droit de chaque état-membre :

- une proposition de législation sur les services numériques : le Digital Services Act (DSA). Celle-ci est destinée à lutter contre les contenus illicites et préjudiciables en ligne et à réguler les services, en introduisant de nouvelles obligations de modération des contenus et de vigilance ;

- une proposition de législation sur les marchés numériques : le Digital Markets Act (DMA). Celui-ci pose les bases d’un rééquilibrage des relations entre les plateformes et leurs utilisateurs (entreprises et consommateurs finaux).

Nous nous sommes saisies de ces deux textes pour présenter des propositions, qui ont donné lieu à deux résolutions européennes adressées au Gouvernement et à deux avis politiques adressés à la commission européenne. Nous avons déjà reçu quitus de notre premier rapport sur le DMA.

S’agissant du DSA, le cadre européen de responsabilité des fournisseurs de services numériques, dit régime de responsabilité limitée, a été établi par la directive sur le commerce électronique (e-commerce) de 2000. Selon cette directive, un hébergeur ne peut être tenu responsable des contenus illicites qui se trouvent sur ses services qu’à deux conditions cumulatives :

- qu’il ait connaissance de ce contenu et de son caractère illicite ; - qu’en ayant eu connaissance, il ne l’ait pas retiré promptement.

À défaut d’une politique en faveur de la construction d’un écosystème européen propre, les États-Unis ont profité de la situation. Cette directive a surtout profité aux acteurs américains, qui sont devenus des géants. En 20 ans, l’écosystème numérique a profondément évolué.

Dans le silence des textes, le juge a progressivement appliqué le régime de non redevabilité des hébergeurs à des services et des modèles d’affaires qui n’existaient pas au moment de son adoption, tels que les réseaux sociaux ou les places de marché en ligne. Par conséquent, il est désormais très difficile de faire retirer un contenu illicite.

La directive e-commerce de 2000 a été transposée en France en 2004. Pour faire retirer un contenu jugé illicite, il faut d’abord s’adresser à son auteur, et en cas de refus, à l’hébergeur. C’est seulement si l’hébergeur ne retire pas le contenu qu’il est possible de porter plainte contre lui.

Parallèlement, les injonctions de retrait adressées par les autorités administratives ou judiciaires nationales à des plateformes établies à l’étranger ne sont pas toujours suivies d’effets.

Qu’apporte le DSA face à cette situation ? Tout d’abord, tous les fournisseurs de services en ligne seront tenus d’avoir un représentant légal dans l’Union européenne et de répondre aux injonctions émanant d’autorités administratives ou judiciaires nationales.

La Commission souhaite clarifier le fait que la protection des données personnelles ou le respect du principe du pays d’origine, selon lequel un fournisseur de services numériques est placé sous la juridiction du pays où il est établi, ne sont pas des motifs valables pour refuser de répondre.

En outre, le DSA met en place un mécanisme de notification harmonisé à l’échelle européenne qui permettra d’engager plus facilement la responsabilité des plateformes.

De plus, les fournisseurs de services numériques seront soumis à des obligations de vigilance graduelle, notamment en matière de transparence. Les plateformes qui dépassent 45 millions d’utilisateurs en Europe seront soumises à des obligations renforcées, en vue de prévenir les risques systémiques posés par l’utilisation de leurs services (auto-évaluation des risques, mise en place de mesures d’atténuation, etc.).

Des sanctions importantes (jusqu’à 6 % du chiffre d’affaires mondial) pourront être infligées aux acteurs qui enfreindront le règlement. Si les progrès apportés par le texte sont réels, ils restent toutefois insuffisants.

Nous avons mené plus d’une vingtaine d’auditions relatives à ce texte, et nous avons également assisté avec vous à l’audition de Frances Haugen. Nous en avons conclu que certaines propositions devaient être précisées et renforcées.

Nous proposons trois axes de progression :

- La lutte contre les contenus illicites, qui doit s’accompagner de garanties fortes en faveur de la liberté d’expression.

Pour faciliter la notification, nous recommandons la mise en place d’un bouton d’accès à l’interface commun à tous les hébergeurs et facilement identifiable.

Par pragmatisme, le règlement confie aux plateformes la modération de l’énorme masse de contenus qui transitent dans leurs services. Il faut donc s’assurer que les plateformes mettent en œuvre des moyens à la hauteur des enjeux qui leur permettent d’effectuer cette modération d’une manière efficace et qui correspondent aux objectifs du règlement.

De plus, il faut exiger que figurent dans les rapports de transparence des indications chiffrées sur les moyens humains et technologiques que les plateformes vont consacrer à la modération, avec une ventilation par pays et par langues.

Il faut aussi proportionner la modération aux risques réels causés par la diffusion de contenus illicites. C’est pourquoi nous préconisons d’inclure les moteurs de recherche dans le règlement, de privilégier une catégorisation des acteurs en fonction de leurs audiences et de soumettre les plateformes populaires chez les enfants à des obligations renforcées.

Par ailleurs, pour se prémunir de l’immixtion directe des plateformes dans le débat démocratique, nous avons estimé souhaitable que la fermeture de comptes d’intérêt général, tels que ceux de responsables politiques, ne puisse intervenir que sur décision judiciaire.

Plus fondamentalement, nous recommandons de prendre davantage en compte les spécificités du modèle économique des grandes plateformes en ligne, seule façon de lutter réellement contre la prolifération des contenus illicites.

Il nous semble également crucial que le risque d’atteinte au pluralisme des médias soit mieux pris en compte. Ce risque devrait être spécifiquement examiné par les très grandes plateformes lors de leur examen annuel des risques systémiques. Je note que ce point a été ajouté aux textes en commission du Parlement européen.

En outre, les plateformes devraient être tenues d’assurer une visibilité renforcée des informations émanant de sources fiables, notamment journalistiques. Nous pourrions par exemple tirer parti de la Journalism Trust Initiative, qui a été impulsée par Reporters sans frontières, visant à créer un cadre de référence de qualité pour les médias.

- La nécessité de mener à bien l’approche par le risque.

Dans cette optique, nous recommandons que les critères d’audience soient mieux pris en compte pour déterminer le régime d’obligation des différents opérateurs. Les autorités de régulation devraient ainsi pouvoir soumettre les plateformes très populaires parmi les enfants à des obligations renforcées.

De manière générale, la protection des enfants semble constituer un angle mort du texte, ce qui est particulièrement dommageable lorsque l’on voit les ravages provoqués par le harcèlement scolaire en ligne.

- une meilleure prise en compte du fonctionnement même des plateformes en ligne et du modèle économique sous-jacent.

Ce modèle repose sur l’accumulation de grandes masses de données personnelles, qui sont ensuite exploitées par des algorithmes de recommandation, des contenus et la publicité. Ce système aboutit inévitablement à favoriser les contenus les plus clivants, mais aussi à enfermer les utilisateurs dans des bulles de contenus.

Il est crucial de permettre aux utilisateurs de retrouver leur autonomie dans l’espace en ligne. Nous rappelons à cet égard qu’une application stricte du règlement général sur la protection des données permettrait déjà de limiter certaines pratiques abusives en matière de ciblage. Il faut toutefois aller plus loin, en désactivant par défaut le ciblage publicitaire et l’adressage des contenus.

Il faut aussi que les algorithmes utilisés par les plateformes cessent d’être des

« boîtes noires. » Le DSA propose d’importantes avancées en matière d’accès aux données pour les autorités de régulation et les chercheurs. Les critères et les motifs d’accès devraient cependant être élargis pour permettre la participation de chercheurs indépendants et la détection de tous types de risques. Surtout, les grands acteurs du numérique ne devraient pas pouvoir opposer le secret des affaires aux autorités de régulation et aux chercheurs agréés par ces autorités.

En outre, ces algorithmes devraient respecter un socle minimal de normes éthiques, intégrées dès l’étape du développement, selon un principe de « legacy and safety by design. » Pour les plateformes à venir, une étude d’évaluation des risques devrait être menée avant la mise sur le marché.

Enfin, je reprends une préconisation du Sénat datant d’il y a trois ans, mais dont l’urgence ne s’est pas démentie. Nous souhaitons une réforme du régime de responsabilité des hébergeurs, qui prenne en compte le rôle des algorithmes dans la sélection des contenus.

C’est en sélectionnant les contenus et en augmentant la visibilité de certains au détriment d’autres que les plateformes jouent un rôle actif susceptible de s’apparenter à celui d’un éditeur. De ce point de vue, nous considérons que le DSA manque cruellement d’ambition.

Dans ce monde interconnecté, il est important que l’Europe légifère la première, selon ses valeurs et ses principes, pour fixer ce que Frances Haugen a qualifié d’« étalon or mondial », et ainsi inspirer d’autres pays.

Pour rappel, le Conseil a arrêté sa position sur le texte à la fin du mois de novembre. Un texte amendé a été voté en commission du Parlement européen le 14 décembre dernier. Il pourrait être voté en plénière la semaine prochaine.

Les positions du Conseil et du Parlement sur le DSA étant relativement éloignées, il est possible que d’importantes évolutions apparaissent durant les trilogues. Nous espérons que dans l’intervalle, la voix du Sénat pourra porter.

Mme Florence Blatrix Contat. – Le deuxième volet de la régulation des plateformes est le DMA, qui vise à un rééquilibrage des relations entre les grandes plateformes et leurs utilisateurs.

Ces grandes plateformes d’envergure mondiale sont parvenues à développer un pouvoir de marché inégalé à ce jour. À partir d’un service initial, elles ont pris appui sur des effets de réseau, en exploitant massivement les données recueillies grâce à des algorithmes.

L’autre sujet essentiel est celui des acquisitions incessantes de potentiels concurrents (« killer acquisitions »), qui brident toute concurrence possible.

Le comportement de ces plateformes entrave le développement des entreprises utilisatrices, bride l’innovation et la compétitivité, enferme les utilisateurs finaux dans des écosystèmes et verrouille le marché.

Le droit de la concurrence permet de sanctionner les comportements anti-concurrentiels, mais ses délais de mise en œuvre ne sont pas adaptés. De nombreuses amendes, parfois très élevées, ont été dispensées pour abus de position dominante. Toutefois, lorsque ces amendes sont imposées, la concurrence a déjà disparu.

Ces sanctions, qui sont infligées après des enquêtes particulièrement longues, ne s’avèrent pas efficaces du point de vue de la contestabilité du marché. C’est pour cette raison que le DMA propose une approche ex ante, qui n’est pas exclusive du droit de la concurrence.

Cette démarche cible seulement les très grands acteurs, qui portent le plus préjudice à la concurrence, qui sont qualifiés de contrôleurs d’accès (« gate keepers ») et qui proposent un ou plusieurs services de plateformes essentiels et les soumettent à des obligations dont le respect sera contrôlé par la Commission européenne.

Le DMA intervient en amont, soit pour interdire les comportements anti-concurrentiels observés, soit pour rendre obligatoires des mesures qui en réduiraient les effets.

Il est nécessaire d’intervenir au niveau européen afin d’éviter la fragmentation des législations et d’assurer une protection harmonisée.

Il nous semble que le niveau d’ambition du texte doit être rehaussé. Sur notre proposition, la Commission des affaires européennes a adressé le 7 octobre un avis politique à la Commission et au Parlement, qui reprend nos observations.

J’évoquerai cinq points en particulier.

- Le périmètre

La Commission européenne propose d’appliquer une présomption au-delà d’un certain nombre d’utilisateurs actifs, d’un certain niveau de puissance financière, et pour les plateformes qui n’atteindraient pas ces seuils, de critères d’appréciation.

Cette approche nous paraît satisfaisante, car elle permettra de se concentrer sur les contrôleurs d’accès essentiels.

Plusieurs compléments nous semblent pour autant nécessaires. Tout d’abord, il faut cibler les très grandes plateformes, car les moyens que la Commission y consacrera seront assez limités (80 ETP à horizon de 2025).

Le Parlement européen propose de rehausser les seuils de ciblage de ces plateformes, à hauteur de 8,5 milliards d’euros de chiffres d’affaires et de 85 milliards d’euros de capitalisation boursière.

Il nous semble également important de définir les modalités de calcul de ces seuils en annexe du règlement plutôt que dans des actes délégués, afin de définir les utilisateurs finaux actifs. Les opérateurs auront plus de visibilité, et la mise en œuvre du texte sera accélérée.

S’agissant des services de plateformes essentiels pris en compte, nous proposons d’y ajouter la publicité en ligne, les navigateurs et les assistants vocaux. Le Parlement vise également les services de télévision connectés et les systèmes intégrés de paiement en ligne.

- Les obligations des contrôleurs d’accès

Sept obligations ou interdictions horizontales sont applicables de plein droit, et onze mériteraient d’être précisées dans le dialogue entre la Commission et les acteurs concernés.

Nous mettons l’accent sur le nécessaire renforcement de l’interdiction d’utiliser les données de l’utilisateur sans son consentement exigé dans le règlement général sur la protection des données (RGPD, en prohibant les techniques de contournement (« dark patterns »). Le Parlement européen abonde dans le même sens.

Il nous semble également qu’il faut aller plus loin dans le rééquilibrage des relations entre les plateformes et les entreprises utilisatrices, notamment en matière d’interdiction de clauses de parité, car cela empêche les entreprises utilisatrices de proposer des prix inférieurs sur leur propre site.

Il en est de même pour l’interdiction d’obliger les entreprises utilisatrices à recourir aux services d’identification du contrôleur d’accès. Celle-ci doit être étendue à tous les services accessoires, en particulier aux services de paiement en ligne, dont les marges sont très élevées.

Dans le même esprit, nous demandons que les droits à l’inter-opérabilité et à la portabilité des données soient techniquement faciles à mettre en œuvre, de même que la désinstallation des applications préinstallées.

Pour éviter les contournements de ces interdictions, nous souhaitons que soit explicitement interdit tout comportement qui aurait le même objet.

- La mise en œuvre de cette régulation

L’objectif d’une application harmonisée du texte justifie le rôle central de la Commission européenne. Toutefois, il semblerait qu’une coordination forte avec les régulateurs sectoriels nationaux ne pourrait pas être mise en œuvre, car les moyens de la Commission ne sont pas suffisants.

Des compétences humaines et techniques sont développées à l’échelle nationale ; pour nous, il s’agit de l’Autorité de la concurrence et du service du PEReN rattaché à la DGE, qui travaille notamment sur l’analyse des algorithmes.

Il serait par exemple utile de prévoir que la Commission délègue les enquêtes de marché à des autorités nationales. Le Parlement européen va dans le même sens.

Nous proposons que soit créée une structure de coordination entre les diverses autorités, sous la forme d’un réseau européen de régulation numérique. Le Parlement la désigne sous le nom de « groupe de haut niveau de régulateurs numériques » et détaille plus précisément ses tâches.

Par ailleurs, le Parlement a entendu notre souhait que les mesures provisoires prises par la Commission en cas d’urgence soient subordonnées non pas à un préjudice irréparable, mais à la démonstration d’un préjudice grave et immédiat.

- Le rôle donné aux entreprises utilisatrices et aux consommateurs dans la mise en œuvre de la régulation

Les utilisateurs étant les bénéficiaires de cette régulation, ils semblent les mieux placés pour apprécier l’efficacité des remèdes proposés.

Il nous semble indispensable de prévoir des guichets nationaux de dépôt de signalement, qui transmettraient les éléments pertinents à la Commission. Le Parlement européen propose un mécanisme similaire.

- Le contrôle des acquisitions réalisées par les grandes plateformes pour empêcher la concurrence de prospérer

Ces acquisitions se trouvent le plus souvent en-deçà des seuils de contrôle. Elles échappent donc de facto à tout contrôle au niveau national ou au niveau européen.

La direction générale de la concurrence de la Commission a indiqué qu’elle ferait application de la nouvelle lecture de l’article 22 du règlement de 2003 sur le contrôle de concentrations, qui lui permet d’intervenir en-deçà de ces seuils. Le Parlement européen prévoit explicitement que les autorités nationales de la concurrence puissent demander à la Commission d’intervenir, même si les seuils ne sont pas atteints.

Le Conseil et le Parlement européen ont d’ores et déjà adopté leurs positions respectives sur le DMA. Une réponse a été adressée à la Commission par le vice-président Maros Sefcovic et par le commissaire Thierry Breton. Cette réponse indique partager nos préoccupations, même si elle ne souscrit pas entièrement à l’ensemble de nos points, précisant que certains sont déjà couverts.

Par exemple, concernant l’adjonction immédiate de services de plateformes essentiels non visés par leurs propositions, ils font valoir que le texte englobe les points d’accès les plus importants, et que la Commission pourra ouvrir des enquêtes de marché pour pouvoir en ajouter ultérieurement.

La réponse met par ailleurs en avant le fait que la Commission ne manquera pas de s’appuyer sur l’expérience acquise par les autorités répressives nationales pour définir les contrôleurs d’accès et certaines missions d’enquête.

En revanche, la Commission ne soutient pas l’approche envisagée par la Commission des affaires européennes de prise en compte des écosystèmes pour la désignation des contrôleurs d’accès.

S’agissant des obligations et des interdictions, la Commission relève que les aménagements ciblés de la Commission des affaires européennes s’inscrivent dans le souci de la Commission européenne. Elle considère que les dark patterns sont déjà couvertes par les techniques comportementales anti-contournement qui figurent déjà dans le texte.

Enfin, la Commission prend note de la demande d’accélérer la réaction en cas de manquement avéré, mais malheureusement elle estime qu’il n’est pas opportun de réduire le standard de preuve en matière de mesures provisoires.

Le Président de la République a l’ambition que ces textes aboutissent sous présidence française, en 2022. Nous suivrons avec attention les trilogues et l’évolution de nos recommandations.

M. Laurent Lafon, président. – Nous pouvons ouvrir la discussion sur ces deux textes.

Mme Laure Darcos. – Si je mesure bien l’importance de ces deux projets de règlement, je voudrais toutefois en souligner les insuffisances.

Certes, ceux-ci répondent aux objectifs de réguler l’incidence des grandes plateformes sur les marchés numériques et de lutter contre les contenus illicites.

Cependant, dans le secteur de la culture, les apports de ces projets de législation semblent relativement modestes. De nombreuses inquiétudes persistent, notamment sur le piratage des livres sur internet et sur l’inter-opérabilité sur le marché du livre numérique.

Pourriez-vous nous indiquer ce que prévoient précisément ces projets de législation pour garantir les droits des auteurs des œuvres contrefaites ainsi que les moyens d’action dont ils pourront disposer pour faire cesser les préjudices subis ?

Pourriez-vous nous préciser ce que prévoit le DMA pour clarifier les obligations applicables aux plateformes en matière de concurrence dans le secteur de la vente du livre, y compris lorsque la plateforme intervient directement comme vendeur ?

Enfin, pourriez-vous nous indiquer s’il est prévu de rendre effectif le principe d’inter-opérabilité sur le marché du livre numérique afin de mettre fin aux pratiques d’enfermement des consommateurs dans des écosystèmes fermés ?

M. Pierre Ouzoulias. – Je trouve que l’interaction entre les parlements nationaux et les institutions européennes est tout à fait essentielle dans le cadre de la construction européenne. J’ai bien entendu les limites que vous identifiez dans ce texte ; je partage totalement votre analyse.

Si, comme l’affirment les opérateurs des grandes plateformes, les applications mises au service des utilisateurs sont totalement neutres, ils doivent le prouver. Il faut assurer aux utilisateurs une transparence totale des algorithmes.

S’agissant de l’inter-opérabilité, j’abonde complètement dans votre sens. Je n’ai pas été entièrement convaincu par le discours de Frances Haugen, selon lequel cette mesure ne fonctionnerait sans doute pas, au motif que la dépendance entre l’utilisateur et le réseau qu’il a constitué grâce à la plateforme serait trop forte.

Je souscris à votre souhait de conserver une part de données propres, même en cas d’abandon d’une application pour une autre. Cela me semble fondamental pour éviter le caractère trop monopolistique de ces plateformes.

Mme Sylvie Robert. – Pourriez-vous nous dire de quelle manière ce travail pourrait être collectivement porté par le Sénat et par chacun et chacune d’entre nous ?

Mme Morin-Desailly, vous avez terminé votre intervention en affirmant que le DSA manquait d’ambition. Cette ambition inclut-elle la protection du droit d’auteur et le piratage, que nous pourrions prendre en compte collectivement ?

S’agissant du DMA, je m’interroge sur la caractérisation des plateformes. Vous avez fait mention de critères d’appréciation. Pourriez-vous préciser quelles plateformes sont visées ?

Par ailleurs, vous avez peu évoqué le ciblage publicitaire, qui implique les modèles économiques. Pourriez-vous préciser vos préconisations en la matière ?

M. Jean-Raymond Hugonet. – Nous traitons là d’un sujet extrêmement important, auquel nous sommes confrontés quotidiennement au Sénat : le libéralisme régulé.

Mme Morin-Desailly, vous avez évoqué le point sensible que constitue le secret des affaires. Vous semblez dire que des pistes permettraient de trouver cette limite.

Pouvez-vous les expliciter ?

Mon deuxième point concerne les « killer acquisitions. » Vous avez montré de quelle manière le DMA pouvait apporter un ciblage des très grands acteurs. N’y a-t-il pas là une piste de réflexion pour la commission d’enquête ?

M. Julien Bargeton. – Nous nous plaçons là du côté de la régulation des plateformes privées. Une réflexion est-elle menée au niveau européen ou français sur un contre-modèle, notamment sur le rôle que pourraient jouer les États ou la société civile ?