• Aucun résultat trouvé

Velléités de contrôle et premières célébrations des liens libérés

2. Approche chronologique

2.2. Velléités de contrôle et premières célébrations des liens libérés

À la fin des années 1990 et au début des années 2000, les expérimentations qui caractérisaient les premiers pas des sites d’information laissent place à des rédactions qui se structurent, se professionnalisent (Charon, 2012, p. 32). En ce qui concerne les liens hypertextes, cette évolution s’accompagne de tentatives de plus en plus explicites, de la part

des institutions médiatiques, de mieux contrôler ce qui se passe sur le web, et notamment de contrôler les liens.

Un article de Scott Rosenberg, publié sur le pure-player Salon en 1999 est intitulé « Fear of links » : il y critique l’attitude des journalistes des médias traditionnels qui « dédaignent » les liens, alors que ceux-ci sont un « service fondamental » à rendre aux lecteurs [Rosenberg 1999]. En cela, il oppose l’attitude des journalistes à celle des blogueurs, et avance que le succès des « Weblogs » — genre alors naissant — repose notamment sur le fait qu’ils proposent de nombreux liens : « les blogueurs ont trouvé une niche fertile dans l’écologie de l’information sur le web » [Rosenberg 1999].

En 2002, le réseau de radios publiques américaines NPR, tente ainsi de soumettre à une autorisation préalable tous les liens qui pointent vers des contenus de son site [Manjoo 2002a, 2002b, Kramer 2002]. Selon les termes des nouvelles conditions d’utilisation, tout webmaster désireux de créer sur son site un lien vers des pages de NPR devrait remplir un formulaire exigeant notamment son nom, son adresse, son numéro de téléphone, la durée prévue au cours de laquelle le lien resterait actif, ou même les mots utilisés pour placer le lien [Manjoo 2002a]. NPR justifie cette mesure par le souci de vérifier que ses contenus ne sont pas utilisés à des fins commerciales (ce qui irait à l'encontre du caractère public et sans but lucratif du réseau de radios) ou partisanes [Manjoo 2002a]. Le formulaire d’autorisation préalable existe depuis mars 2002, mais ce n’est qu’en juin que la polémique nait, suite à un billet de blog de Cory Doctorow (auteur de science-fiction, essayiste et contributeur du blog Boing-Boing, qui occupe une place importante dans la blogosphère naissante du début des années 2000), qui la commente en ces termes : « Vraiment, cela défie l’imagination de penser que quiconque de nos jours puisse être aussi fatalement stupide » [Doctorow 2002]. Repris par Farad Manjoo dans les pages web du magazine Wired, fer de lance de la culture « technologique » américaine (Turner, 2006), la critique de Cory Doctorow se répand dans les blogs et les forums de discussion et prend, en quelques jours, la tête du classement Daypop — qui recense les liens les plus partagés par les blogueurs [Manjoo 2002b].

Les critiques de l’autorisation préalable allient des arguments pragmatiques — non seulement la définition des liens qui sont autorisés ou interdits par NPR n’est pas opérationnelle, mais en plus, les ressources nécessaires pour envisager un contrôle systématique des liens sont immenses, probablement hors de portée de l’opérateur public — et des doutes sur le fondement juridique d’une telle mesure. Le médiateur de NPR, cité par Farad Manjoo dans son article publié sur le site de Wired, avance en effet que l’autorisation préalable est nécessaire pour protéger la propriété intellectuelle des auteurs

des contenus publiés. C’est sur ce point particulier que des arguments ayant trait à la légalité des liens entrent en scène : Manjoo rappelle que la décision d’une cour californienne en 2000 dans l’affaire « Ticketmaster v. Tickets.com » stipule que « les liens [il s’agissait de “liens profonds”] en eux-mêmes ne constituent pas une infraction au droit d’auteur » [Manjoo 2002b]. Il souligne néanmoins que, malgré cette jurisprudence, de nombreux sites tentent encore de faire reconnaitre leur droit à interdire les « liens profonds », c’est-à-dire ceux qui pointent vers des pages spécifiques des sites web et non vers sa page d’accueil [White 2002].

Face à la polémique, NPR finira par supprimer le formulaire d'autorisation préalable et par réécrire les conditions d’utilisation de son site en précisant que les webmasters ne doivent pas utiliser de liens à des fins commerciales ou pour suggérer que NPR soutient une cause, des services ou des produits d’une tierce partie [Manjoo 2002a]. On voit déjà la diversité des mondes enrôlés dans cette controverse : des blogueurs issus des mondes informatiques (et en particulier Cory Doctorow) remarquent les conditions d’utilisation du site des radios de service public américaines, qu’ils dénoncent comme « absurdes ». Dans les interventions suivantes, des journalistes — qui, par leur sujet de spécialisation, se situent à l'intersection du monde du journalisme avec celui de l'informatique et des nouvelles technologies, comme c’est le cas de Farad Manjoo pour Wired — évoquent des décisions de justice, et les efforts faits par de nombreux opérateurs de sites web (pas seulement des sites d’information) d’interdire les « liens profonds ».

Si NPR justifie ses ambitions de contrôle par son rôle de service public, le besoin de dompter le flux des liens découle aussi de préoccupations commerciales. Après les premières années d'enthousiasme où, pour les médias, il fallait être présent sur le web parce qu'il s'agissait d'une nouvelle frontière technologique à conquérir, la presse en ligne cherche des moyens de monétiser et de pérenniser ses activités. L’éclatement de la « bulle internet », en 2000, met également fin à des stratégies euphoriques d’investissements qui laissaient les déficits des entreprises de presse en ligne se creuser (Charon, 2012, p. 26). La publicité s'impose, et avec elle, la préoccupation des sites d'accumuler les pages vues et les clics, et de conserver les lecteurs en leur sein.

On ne trouve pas de discours qui prône directement le contrôle strict des liens externes afin de ne pas perdre de lecteurs. Mais des traces de telles pratiques se donnent à voir dans des discours de la première moitié des années 2000 qui constatent un changement d’attitude de la part des sites d’information. Ces textes expliquent que, jusque-là, les sites contrôlaient strictement les liens externes, mais que la situation est en train d’évoluer vers

résume par exemple en ces termes la situation du début des années 2000 (pour montrer qu’il s’agit d’une situation révolue) : « les sites d'information avaient une vue très propriétaire de leurs contenus. L'accent était mis sur la collecte des vues, et n'importe quel lien qui enverrait les lecteurs en dehors du site était mal vu. Un lien vers un site concurrent était presque une trahison » [Glaser 2003b]. Puisqu’aucun texte ne défend directement cette position « propriétaire », il est difficile de dénouer ce qui, dans les discours de la libération des liens externes, tient du constat réel d’une absence de liens et ce qui relève plutôt de la rhétorique du changement : pour affirmer que la situation devient meilleure, il faut peut-être un peu noircir le tableau en ce qui concerne la situation antérieure. On peut toutefois supposer que ces pratiques « propriétaires » étaient au moins en partie réelles, puisque les recherches empiriques sur les liens dans les sites d’information datant de la même époque mettent bel et bien en évidence la rareté des liens externes (voir p.9).

En 2003, le ton est donc à l'optimisme et à la célébration de la liberté des flux hypertextes. Deux longs articles de Mark Glaser dans les colonnes de la Online Journalism Review (en 2003, puis en 2004) affirment par exemple que les sites d'information produisent enfin librement des liens, et plus particulièrement des liens externes : « Les temps ont changé. Lentement, la politique de liens des sites d'information se détend. Nous entrons dans une ère avec une politique de liens presque “open source” au sein de certains grands sites d'information, qui comprennent enfin la religion des liens externes » [Glaser 2003b]. Glaser s'appuie sur quelques exemples de sites d’information régionale comme Nola.com (affilié au quotidien Times-Picayune) : leurs contenus sont produits par la société Advance.Net, dont Jeff Jarvis — qui s’illustrera plus tard comme ardent promoteur de « l’éthique du lien » — est alors directeur, et ces sites hébergent des pages n’hésitant pas à proposer de nombreux liens vers des blogs, des sites locaux. « Perdre une page vue au profit d’articles écrits par d’autres est un investissement dans la relation avec le lecteur », affirme Jeff Jarvis dans l’article de Glaser [Glaser 2003b].

Les articles de Glaser mettent également en lumière d’autres initiatives menées par des sites d'information renommés, pour annoncer le début d'une tendance, celle des liens « enfin libres ». Ainsi, il remarque l'existence, dans le site du Wall Street Journal, de deux rubriques spécialisées — le « Daily Fix » et le « Daily Scan », spécialisés l'une dans l'actualité sportive et l'autre dans la santé — qui proposent régulièrement des articles contenant beaucoup de liens externes (alors que le Wall Street Journal a déjà opté pour un modèle fermé, plaçant ses contenus derrière un mur payant).

De même, Glaser remarque que des lettres d'information envoyées par le New York Times contiennent des liens vers des sources extérieures [Glaser 2003b]. Ces initiatives restent

cantonnées à des contenus spécialisés ou des parties bien définies des sites d'information (ou en dehors de celui-ci en ce qui concerne les lettres d’information), mais d’autres agissent à plus grande échelle. C’est par exemple le cas de la BBC, qui a créé un outil spécifique pour alimenter tous ses articles en liens [Glaser 2004]. Lancé en novembre 2004 par la BBC, cet outil nommé Newstracker permet d'ajouter de manière automatisée des liens vers des contenus similaires, parmi ceux produits par des sources choisies. La mise en place de Newstracker fait suite à un rapport d’évaluation du site bbc.co.uk par le gouvernement britannique (le Graf Report, publié en juillet 2004), qui stipule notamment que « BBC Online doit continuer à agir comme un guide sur internet, pour ceux qui en ont besoin. Le site doit inclure plus de liens cohérents et transparents, vers toutes les sources pertinentes, commerciales ou publiques, et pas seulement des liens vers les pages de la BBC » [Graf 2004]. Le projet Newstracker avait été lancé avant que les conclusions du rapport Graf ne soient connues, mais selon Martin Belam (alors responsable des « nouveaux médias » à la BBC), l’outil répond bel et bien aux préoccupations qui y sont soulevées [Belam 2004]. On voit à l’œuvre l’entrecroisement de recommandations gouvernementales, de problématiques journalistiques, de missions de service public et de réalisations techniques, qui convergent plus qu’elles n’obéissent à des rapports de cause à effet.

La juxtaposition de ces initiatives, même s’il est impossible de juger de leur ampleur dans le journalisme en ligne en général, est en tout cas mise en avant comme l'amorce d'un mouvement qui ne peut — disent les prophètes de la libération des liens — que s'amplifier : « Maintenant que l'information en ligne existe depuis 10 ans, peut-être est-il temps de mettre de côté les conceptions propriétaires des liens externes » [Glaser 2003b].