• Aucun résultat trouvé

Vers une réappropriation des agrégateurs d'informations en ligne par les médias

N/A
N/A
Protected

Academic year: 2021

Partager "Vers une réappropriation des agrégateurs d'informations en ligne par les médias"

Copied!
12
0
0

Texte intégral

(1)

HAL Id: hal-01526253

https://hal.archives-ouvertes.fr/hal-01526253

Submitted on 22 May 2017

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Distributed under a Creative CommonsAttribution - NonCommercial - NoDerivatives| 4.0 International License

Vers une réappropriation des agrégateurs d’informations en ligne par les médias

Gilles Verley, Nicolas Sourisce

To cite this version:

Gilles Verley, Nicolas Sourisce. Vers une réappropriation des agrégateurs d’informations en ligne par les médias. “ Le Journalisme, une activité collective ”. Premier colloque organisé par le GIS journalisme, GIS journalisme, Mar 2011, PARIS, France. �hal-01526253�

(2)

1

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011 Communication au colloque du GIS-Journalisme

« Le journalisme, une activité collective » 16-18 mars 2011, Paris

Vers une réappropriation des agrégateurs d'informations en ligne par les médias ?

Gilles Verley, maître de conférences en Informatique – Université François-Rabelais (Tours) Nicolas Sourisce, maître de conférences en Sciences de l’information et de la communication –

Université François-Rabelais (Tours)

Introduction

Le baromètre de confiance dans les médias que publie, en janvier 2011, La Croix avec l’Institut TNS- Sofres, montre qu’environ un tiers des Français font confiance aux informations qu’ils trouvent sur Internet, qu’un tiers n’ont pas confiance et qu’un tiers n’ont pas d’opinion ; et que l’information sur Internet est jugée « la moins crédible ». A l’autre bout de l’échelle, la radio est le média le plus crédible, puis viennent la presse écrite et la télévision.

Comment interpréter ces résultats ? D'abord, que l’information que l'on peut trouver sur Internet est très hétérogène et que celle diffusée par des journalistes professionnels est très minoritaire ; ensuite, que les internautes sollicitent des portes d’accès à l’information elles-aussi très hétérogènes ; enfin, qu'il n’y a pas ou peu de réflexion collective menée par les éditeurs - et donc encore moins de réponses apportées - pour valoriser l’information sur Internet faite par des journalistes professionnels, pour valoriser son enrichissement (le richmedia) : la place est cannibalisée par les moteurs de recherche.

Notre réflexion s’inscrit dans cette troisième interprétation : quelles réponses originales les médias en ligne peuvent-ils, collectivement, apporter dans la mise en valeur d’une information de qualité et pluraliste sur Internet ?

La réponse que nous proposons passe par des outils contrôlés par les producteurs de l’information ; utilisant l’expertise des auteurs pour répondre aux besoins des lecteurs ; et prenant en compte les contraintes technologiques, déontologiques, juridiques et économiques liées à la diffusion de l’information sur le web.

Cette recherche pourrait éclairer utilement les acteurs dans les choix en cours. Elle fait d’ailleurs écho au partenariat conclut fin 2010 entre le fournisseur d’accès internet Orange et le GIE E-Presse Premium (qui regroupe cinq titres de presse quotidienne nationale et trois hebdomadaires généralistes) qui permettra d’installer un moteur de recherche Orange sur chaque site, moteur qui travaillera sur l’ensemble des contenus des huit sites d’information. L’objectif : permettre « aux éditeurs de mieux protéger leurs contenus face à Google et Apple » (Bonnamour et Garnaud, 2011, p. 36)

(3)

2

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

L'accès à l’information sur le web : une organisation complexe et peu pertinente

L'internaute privilégie aujourd'hui deux familles de solutions pour organiser son propre système d'informations provenant de sites variés, actualisables en temps réel et structurables sémantiquement.

La première repose sur l'exploitation des notices RSS (sous-langage formel issu du XML). Produites par les sites d'informations ou par des blogs, elles sont lues automatiquement par des lecteurs de flux (par exemple Netvibes, Tweeter…) utilisant la technologie AJAX (mise à jour asynchrone de la fenêtre du navigateur). La seconde s'appuie sur l'exploitation de l'indexation en texte intégral faite par les moteurs de recherche (par exemple Google actualités). Celle-ci permet d'agréger en rubriques standards ou personnalisées les articles provenant de l'ensemble des sites dits d'informations.

Ces deux dispositifs sont très différents à tous points de vue. Dans le premier, l’internaute garde en partie la main puisqu’il s’inscrit aux flux qu’il souhaite, crée lui-même une hiérarchie en modulant sa page d’accueil, mais les informations qu’il fait venir sur son espace, via des sources externes, ne sont que des portes d’entrée vers les sites qu’il a choisis. Certains flux sont certes typés (international, économie, culture…) mais cela reste limité. Surtout, il n’y a pas de mise en correspondance des articles provenant de flux différents.

Dans le second, s’il peut thématiquement créer sa propre modularité, géographique et thématique, l'internaute dépend néanmoins d’une hiérarchie (celle des moteurs de recherche) pas toujours lisible puisque modulée en fonction notamment du nombre de pages vues et très souvent hiérarchisées via le prisme chronologique, l’information présentée en tête de liste étant la plus récente, pas forcément la plus pertinente.

Une troisième attitude existe : faire confiance à ce que proposent les médias en ligne, qui travaillent aussi sur l’enrichissement de leur propre information, via leur moteur de recherche interne ; à travers les liens internes par mots clés ou dans le texte ou via des rubriques ; grâce, enfin, à des liens externes.

Si l’intertextualité est pratiquée par les journalistes sur les sites en ligne, elle est souvent limitée et très majoritairement interne au site lui-même. Et lorsqu’elle est externe, elle renvoie majoritairement vers des sites institutionnels, donc non concurrentiels. Des raisons politiques et juridiques peuvent ici être mises en avant : faire régulièrement un lien vers un ou des sites concurrents peut être traduit, par l’internaute, par une hiérarchie de la qualité de l’information au détriment du site qui fait le lien ; par ailleurs, cette intertextualité externe, lorsqu’elle existe, renvoie aujourd’hui au mieux au titre de l’article tiers (parfois seulement au portail), et rarement au paragraphe pertinent de l’article tiers. On atteint là les limites juridiques de l’exploitation des liens dits « profonds ».

Une recherche faite par site et par capillarité jusqu’au second niveau de l’arborescence de l’information, concernant le report du procès dit des emplois fictifs à la mairie de Paris, menée le 8 mars 2011 sur six sites d’informations en ligne faits par des journalistes professionnels (dans l'ordre des graphiques ci-dessous : liberation.fr, lacroix.fr, lefigaro.fr, mediapart.fr, lemonde.fr et ouest-france.fr) illustre bien ces limites.

Les six recherches ont été menées à partir de l'article mis en ligne par chacun des sites le 8 mars.

Chaque case correspond au titre d'un article (avec sa date de mise en ligne entre parenthèse), chaque

(4)

3

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

trait à un lien vers un autre article mis en ligne, les cases colorées sont celles qui ont donné lieu à une lecture/visionnage approfondie.

fig. 1 : Recherche sur le site liberation.fr faite le 8 mars 2011 à partir de l'article titré : « Le procès Chirac renvoyé ».

fig. 2 : Recherche sur le site lacroix.fr faite le 8 mars 2011 à partir de l'article titré : « Le procès de Jacques Chirac renvoyé au 20 juin ».

Le procès de Jacques Chirac renvoyé au 20 juin (08/03/11)

La prescription au cœur du premier jour du procès de Jacques Chirac

(07/3/11)

Les questions prioritaires de

constitution- nalité soulevées au procès Chirac (07/3/11)

Jacques Chirac jugé vingt ans après les faits (07/3/11)

Le procès Chirac, chronologie

d’une procédure (07/3/2011)

Le

« système RPR » au cœur de l’accusa-

tion (07/3/11)

Les questions prioritaires

de constitu- tionnalité soulevées au procès Chirac (07/3/11)

4 pdf sur les QPC (source : tribunal correction

nel de Nanterre)

Le conseil constitutionnel pourrait

être appelé à trancher (08/3/11)

Les questions prioritai-

res de constitu- tionnalité soulevées au procès Chirac (07/3/11)

La prescription

au cœur du premier jour

du procès de Jacques Chirac (07/3/11) Le procès

Chirac renvoyé (08/03/11)

une analyse vidéo d’un éditorialiste

de Libération (08/3/11)

Procès Chirac : que peut-il se passer ?

(07/3/11)

Chirac et les emplois fictifs : recours toujours

(07/3/11)

Procès Chirac : que peut-il se passer ?

(07/3/11)

Chirac : le tribunal se prononce ce mardi sur la QPC, le procès pourrait être reporté(07/3/11)

Chirac et les emplois fictifs : repères(07/3/11)

Un procès, dix prévenus

(04/3/11)

Emplois fictifs : malaise au Conseil de Paris sur le deal Chirac – Delanoë

(28/9/10)

(5)

4

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

fig. 3 : Recherche sur le site lefigaro.fr faite le 8 mars 2011 à partir de l'article titré : « Le procès Chirac intégralement reporté ».

fig. 4 : Recherche sur le site mediapart.fr faite le 8 mars 2011 à partir de l'article titré : « L'embuscade procédurale sauve Chirac ».

Jean Veil, l’avocat que s’est choisi Jacques Chirac

(02/3/11)

Procès Chirac : combat de juristes en coulisses (07/3/11)

Le procès Chirac intégralement reporté(08/03/11) Mots clés: procès / emplois fictifs /

renvoi / Paris / Jacques Chirac / Tribunal correctionnel

Analyse vidéo d’un éditorialiste du

Figaro (08/3/11)

Infographie sonore explicative

du procès (04/3/11)

Dossier Chirac : Jean-Louis Debré

resterait en retrait(08/3/11)

Décision attendue sur le report du

procès Chirac (07/3/11)

Emplois fictifs : non-lieu requis

pour Jacques Chirac

(04/10/10)

Procès Chirac : QPC

soulevée (DMA du 07/3/11)

Le Parquet plaide pour un

renvoi du procès Chirac

(06/3/11)

Infographie sonore explicative

du procès (04/3/11)

(6)

5

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

Ouest-france.fr et lemonde.fr ne proposent, au moment de la recherche, qu'un seul article mis en ligne, celui du quotidien du soir étant titré : « Le procès Chirac reporté d'au moins trois mois ». Aucun lien hypertexte ne figure dans l'article.

L'ensemble de ces recherches ne fait apparaître aucun lien d'un des six sites vers un autre, chaque lien hypertexte renvoyant à un article mis en ligne sur le même site, à l'exception de liens proposés par lacroix.fr vers les documents originaux des Questions Préalables de Constitutionnalité (en format PDF).

La synthèse des articles et/ou animations et/ou vidéos retenues par nous aboutit à une arborescence fictive représentée ci-dessous :

fig. 5 : Synthèse fictive des recherches faites par site.

Une recherche faite le même jour via le moteur de recherche Google (mots clés : « procès » « Chirac »

« reporté »), fait lien vers 46 références journalistiques (articles et traitements multimédias spécifiques). De celles recensées via la première recherche par site, Google n’en propose que quatre sur ses cinq premières pages de résultats.

Aujourd’hui, l’internaute doit donc mettre en œuvre des stratégies complexes pour trouver, à partir des informations contenues dans un article, d’autres informations qui l’enrichissent réellement avec un minimum de redondances inutiles.

Un modèle pour l’enrichissement des articles

Le procès Chirac reporté d’au moins trois mois (09/03/11)

Analyse vidéo

d’un éditoria-

liste de Libéra-

tion (08/3/

11)

Emplois fictifs : Chirac et l’UMP règlent l’addi-

tion avant le

procès (25/08/

10)

Emplois fictifs : malaise

au Conseil de Paris sur le

deal Chirac – Delanoë (28/9/

10)

Le

« systè- me RPR » au cœur de l’accusa-

tion (07/3/

11)

Faux électeurs parisiens

: la justice

se réveille

enfin (14/02/

11)

Un procès,

dix prévenus (04/3/11)

Dossier Chirac : Jean- Louis Debré resterai t en retrait (08/3/

11)

4 pdf sur les QPC (source : tribunal correc- tionnel de Nanterre)

Jean Veil, l’avocat

que s’est choisi Jacques

Chirac (02/3/

11)

Infogra- phie sonore explica- tive du procès (04/3/

11)

(7)

6

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

L’homme, par sa compréhension profonde du sens d’un texte, reste le meilleur « agent » pour mettre en correspondance les articles provenant de sources différentes. Il faut donc mieux utiliser cette capacité dès l’écriture des articles.

La proposition que nous soumettons repose sur deux postulats : 1) Faire de l’entité éditoriale le cœur d’un accès intelligent aux autres sources en diminuant ainsi sensiblement l’intérêt des services fournis par les outils vus précédemment (Google actualités, Netvibes, etc.) ; 2) Utiliser l’intelligence des auteurs pour intégrer les besoins des internautes (en termes de pluralité des sources) dès la création des articles grâce à un modèle prenant en compte l’ensemble des contraintes éditoriales mais qui ne remet pas en cause l’autonomie éditoriale. Ce modèle repose sur une coopération des éditeurs et des auteurs sur les plans juridiques (par les questions de partage des droits d’auteurs), économiques (avec les coûts et recettes supplémentaires induits par cette coopération), déontologiques, des usages professionnels (avec les contraintes supplémentaires pour les journalistes comme le renseignement de métadonnées) et technologiques (avec les infrastructures matérielles et logicielles à mettre en place).

A partir d’un article donné, faisant partie d’une entité éditoriale donnée, l’internaute peut souhaiter vouloir accéder facilement à des articles provenant d’autres sources portant sur :

- le même sujet traité sous un angle voisin (variation éditoriale)

- le même sujet traité sous un angle différent (variation rédactionnelle)

- le même sujet traité dans un genre journalistique différent (variation journalistique, stylistique) - la même information sur un support différent (variation perceptive, sensorielle)

- sur des sujets différents ayant un rapport sémantique pertinent avec le sujet de l’article considéré (variation sémantique telle que variation circonstancielle, etc.)

Actuellement, pour accéder à ces types d’articles, l’internaute est obligé de mettre en œuvre une stratégie complexe comme il a été montré précédemment. L’agrégation que nous proposons ici consisterait alors à fournir une liste limitée d’articles correspondant à ces cinq formes de variation.

Pour constituer cette liste d’articles pertinents devant répondre aux différents besoins de diversité exprimés dans le paragraphe précédent, certaines informations utiles peuvent être récupérées facilement de manière automatique sans modifier les usages actuels. Ainsi la source du média est indiquée dans l’url (variation éditoriale). De même, le genre journalistique est souvent détectable dans l’en-tête (ex.

édito, interview, etc.). Aussi, l’information sur le support (variation perceptive) qui est donnée par le format de fichier ou l’en-tête.

Le problème crucial consiste donc à regrouper les articles ayant le même sujet que l’article considéré correspondant aux quatre premières formes de variation ou ayant un sujet sémantiquement proche correspondant à la cinquième forme de variation.

(8)

7

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

Ces regroupements peuvent être faits par des experts. Cela suppose que tout nouvel article soit regroupé à un sujet existant (ou nouveau). Ce regroupement n’a pas besoin d’être justifié explicitement et donc le « sujet » n’a pas besoin d’être défini par des mots. Le fait que le regroupement ait été réalisé par un expert suffit à le justifier. De même pour relier des « sujets » entre eux de par leur proximité sémantique. Nous verrons que cette constatation a de l’importance dans l’approche que nous proposons pour réaliser les regroupements. Fait ainsi par des experts, le travail est excellent mais très coûteux sur le plan humain.

Lorsqu’ils sont entièrement faits par des algorithmes « maison » comme dans Google actualités, ces regroupements pêchent largement par les défauts qui ont été montrés [1]. De plus, les sujets ne sont pas reliés sémantiquement entre eux (tout juste dans des « rubriques »). Enfin, il s’agit essentiellement de boîtes noires qui subissent de nombreuses modifications annuelles et dont les mécanismes restent largement secrets même si leurs auteurs en dévoilent parfois partiellement quelques éléments comme suit. « Les titres de la page d’accueil de Google Actualités sont sélectionnés automatiquement par des algorithmes informatiques en fonction de plusieurs facteurs, notamment de la fréquence selon laquelle ils apparaissent sur d’autres sites du Web. Cette méthode de sélection s’inscrit tout à fait dans la tradition de recherche du Web de Google, qui repose essentiellement sur le jugement collectif des éditeurs Web pour déterminer les sites proposant les informations les plus intéressantes et les plus pertinentes. Google Actualités s’appuie de la même façon sur le jugement des rédacteurs des agences d’information pour déterminer les nouvelles qui méritent le plus d’être incluses et mises en évidence sur la page Google Actualités. » [http://news.google.fr/intl/fr_fr/about_google_news.html]. On appréciera l’effort de transparence !

Une solution intermédiaire passe par des métadonnées telles que les mots-clés libres. Ceux-ci sont rarement pertinents, posent les problèmes habituels de synonymie et d’homonymie. De plus, on ne sait pas très bien comment les combiner pour effectuer les regroupements des articles de manière automatique. En général, on va prendre les articles qui ont un maximum de mots-clés en commun avec l’article courant, ce qui ne permet pas de distinguer les articles ayant le même sujet des articles ayant un rapport sémantique proche mais distinct. En pratique, ils ne donnent pas de meilleurs résultats que les solutions entièrement automatiques tout en demandant un travail supplémentaire de la part des auteurs.

Une autre solution semi-automatique, utilisée en documentation, passe par l’usage d’un vocabulaire contrôlé tel que les thesaurus et ontologies pour décrire les articles. Ces vocabulaires permettent de régler les problèmes d’homonymie et de synonymie ainsi que de faciliter l’accès à des documents proches sémantiquement. Ils ont le défaut majeur d’être très contraignants à utiliser, ce qui réserve leur utilisation à des professionnels.

(9)

8

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

La solution imaginée ici combine la plupart des avantages des solutions précédentes. Elle consiste pour les auteurs d’articles à fournir des métadonnées selon les deux types formels suivants : la référence à un article ayant le même sujet issu d’une autre source (variation éditoriale) ; et une phrase-clé basique du type « sujet + verbe + complément ».

Les références réalisées par une communauté d’auteurs permettraient ainsi de constituer le regroupement des articles pertinents sans avoir besoin d’expliciter leur contenu. Les phrases-clés permettraient de lever une grande partie des ambigüités sémantiques que l’on rencontre habituellement avec les mots-clés libres grâce à la présence du verbe qui donne un sens plus précis aux mots de la phrase [2]. On pourrait alors passer plus facilement d’un vocabulaire d’indexation libre à un vocabulaire contrôlé et structuré et proposer ainsi des articles traitant du même sujet ou de sujets ayant un rapport sémantique avec l’article considéré telle qu’une variation circonstancielle (géographique, temporelle, etc.).

Relier les articles entre eux sans les expliciter textuellement ou expliciter les articles par des phrases- clés sont deux approches duales. Dans le premier cas, les liaisons créent de fait des champs sémantiques sans étiquettes. Dans le deuxième cas, ce sont les phrases-clés qui permettent, par leur sens, de créer des liaisons comme on peut le voir dans le graphe ci-dessous obtenu à partir des phrases- clés tirées de cinq articles traitant du procès des emplois fictifs à la mairie de Paris (cf. supra). Les nœuds du graphe correspondent à des articles qui sont alors reliés sémantiquement.

Une des contraintes consiste à préserver l’autonomie des coopérateurs. Il faut donc que les solutions proposées ne remettent pas en cause leur infrastructure logicielle. Cela est possible dans le cadre de la technologie actuelle.

Du côté des éditeurs, il suffit de s’arranger pour que les méta-informations demandées aux auteurs (et d’autres obtenues automatiquement telles que le titre, la source, l’url, etc.) se retrouvent dans un flux RSS hébergé par leurs serveurs. Du côté des lecteurs, il suffit d’ajouter un programme (applet) à leurs navigateurs de telle manière que tout « clic » sur un lien d’un des journaux en ligne active, en plus de la cible du lien, une requête sur un serveur ad hoc qui fournira les liens externes correspondant aux besoins décrits plus haut. Du côté du serveur ad hoc, un programme (lecteur de flux) récupérera toutes les métadonnées contenues dans les flux générés par les serveurs des éditeurs et répondra aux requêtes faites par le programme ajouté au navigateur du lecteur.

(10)

9

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

fig. 6 : Graphe des phrases-clés tirées de différents articles traitant du procès des emplois fictifs à la mairie de Paris.

Conclusion

Cette approche permet de replacer le journaliste au cœur du circuit de l’enrichissement de l’information. Les technologies liées à Internet ont permis à ceux qui n’étaient, jusqu’alors, que récepteurs des flux d’informations de devenir également diffuseurs, sans qu’aucune règle déontologique ne vienne encadrer cette nouvelle forme de diffusion de l’information. Or, comme le rappelle Eric Rhode, c’est « entre l’information-première (ou information brute) et l’information-média (ou information élaborée) que prennent place toutes les procédures de validation […], de recherche de complément dans le temps et l’espace, d’analyse contextuelle et prévisionnelle (éventuellement élaborée en consultant des spécialistes), ou de réévaluation au sens large » (Rhode, 2010, p. 15). Si, à travers cet outil client, des sites d’informations en ligne proposent à l’internaute d’accéder à ces procédures décrites par Rhode, cela donnera à l’information proposée une crédibilité dont, de surcroit, les agrégateurs de flux ne peuvent se prévaloir.

Ce recentrage du journaliste dans la diffusion d’une information dite « de qualité », sans que celle-ci ne fasse pour autant l’objet d’un « label » juridiquement défini (lire à ce sujet l’article de Baffert et Tessier), répond par ailleurs à l’exigence, sur le plan collectif, dessinée par Rhode : « L’information-

(11)

10

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

média doit le moins possible être délivrée comme jaillissant d’une boîte noire dont personne ne connaîtrait le mécanisme interne » (op. cit. p. 122). Le lien entre journaliste et internaute se construirait alors sur une exigence partagée. Et ce dernier continuerait de jouer un rôle actif dans la réception de l’information puisqu’il créerait, à partir de l’agrégation des métadonnées « propriétaires », son propre enrichissement de l’information.

Pour les entreprises de presse, les intérêts sont aussi pluriels : reprendre la main dans la diffusion de l'information ; se démarquer des agrégateurs en créant de la valeur ajoutée à l'information via le rich media ; continuer à être concurrentes (les liens internes) sur le terrain de l'information mais face à des sites qui partagent une même pratique professionnelle. Comme le remarque Francis Balle, « les nouveaux comme les anciens savent qu'ils sont désormais dans la situation d'associés-rivaux dans la collecte et la diffusion de l'information et simultanément pour gagner la confiance de ceux auxquels ils s'adressent. » (Balle, 2001, p. 61).

Si la qualité de l’information sur Internet ne peut être définie juridiquement, cette solution d’un outil client partagé par des sites d’informations apporte néanmoins des réponses, sur le plan juridique, notamment aux interrogations sur les droits d’auteur (voir Barthe Emmanuel).

L’affaire qui a opposé, en 2010, les journaux locaux Le Bien Public, basé à Dijon, et Le Journal de Saône-et-Loire, publié à Macon, au pure player DijOnscOpe est symptomatique des flous juridiques qui existent autour de l’intertextualité externe et de l’usage des liens dits « profonds » (deep linking - qui conduisent l'utilisateur vers une page secondaire d'un autre site web distincte de la page d'accueil), en opposition aux liens dits « simples » (surface linking - qui relient le document d'origine à la seule page d'accueil d'un autre site web).

DijOnscOpe s’appuyait sur des articles mis en ligne par les deux journaux de la presse quotidienne départementale pour faire ses propres revues de presse quotidiennes, articles en accès libres les premiers jours de diffusion sur le web puis en accès payant via l’accès aux archives des deux journaux.

Permettre d’affiner, via ces liens hypertextes, le renvoi vers un enrichissement tiers, et donc permettre un partage, accepté par les différentes parties, s’inscrit ainsi dans la philosophie de l’usage d’Internet, celui du partage de l’information.

Enfin, cet outil client, parce qu’il apporterait uniquement un enrichissement de l’information et non un accès à l’information, et parce qu’il s’ajouterait aux enrichissements internes des sites d’informations en ligne, doit être un outil payant. « Un contenu de qualité permet […] de créer du trafic, d’accroître l’audience qualifiée, d’attirer ses fidèles lecteurs vers des produits et des services payants, de renforcer l’image de marque de son site, etc. » (Bonnamour et Garnaud, 2011, p. 26).

[1] Rebillard F. (2006). L’information journalistique sur l’internet, entre diffusion mass-médiatique et circulation réticulaire de l’actualité. Dans Broudoux E. et Chartron G., (dir.). Document numérique et société – Actes du colloque DocSoc 06.

Paris : ADBS Editions. 213-226.

[2] Braffort Paul et Leroy André. (1959). Des mots-clés aux phrases-clés : Les progrès du codage et l'automatisation des fonctions documentaires, 4(9). Paris : bbf1959.

(12)

11

Sourisce Nicolas et Gilles Verley, « Vers une réappropriation des agrégateurs d’informations en ligne par les médias ? », communication au colloque du GIS Journalisme Le journalisme, une activité collective, Paris, 16-17-18 mars 2011

Références

Baffert Marc et Tessier Maxime. (2007). Valoriser la qualité de l’information sur Internet : vers un label pour les sites d’information ? Cahiers Français, (338), 38-39.

Balle, Francis. (2001). Twitter ou Facebook : nouveaux collecteurs d’infos ? La Revue européenne des médias, (18-19), 60-62.

Barthe Emmanuel. (2005). Panoramas de presse à partir de liens hypertextes - Droit, usages et recommandations pratiques. URL : http://www.precisement.org/panor_presse/panor_eb.htm [28 mars 2005].

Bonnamour Pascale et Garnaud Ludivine. (2011). Monétiser l'information sur le web. Paris : CFPJ Editions.

Rohde Eric. (2010). L'éthique du journalisme. Paris : Que sais-je ?, PUF.

Références

Documents relatifs

Combining the classical “push-pull factors” and the “Lucas paradox” theoretical approaches, and controlling for the relationship between two forms of private capital flows

Luciana Radut-Gaghi, Université de Cergy-Pontoise - Journaliste ou scientifique - quelle épistémologie pour le discours sur l’Europe. 12.30

Eight partners are currently part of the network: University of Cergy-Pontoise (coordinator), University of Bologna, London College of Communication, Bauhaus

Newport dans les fèces de 55,6% à 100% d’une partie des animaux démontrant des signes cliniques lors d’éclosions de salmonellose en Grande-Bretagne, notre étude est la seule

COMPRÉHENSION  DES  INFORMATIONS  ÉCONOMIQUES  DIFFUSÉES  DANS  LES  MÉDIAS   Procédure  économétrique  :  Probit  ordonné... CONFIANCE  DANS  LES

[r]

Malgré quelques partenariats précurseurs, avec Libération en France par exemple (2007), beaucoup de médias et de journalistes se sont opposés au concept, invoquant les

L’instrument peut être aussi une dette financière, s’il entraîne une obligation contractuelle de remettre de la trésorerie ou tout autre instrument financier ; c’est un