• Aucun résultat trouvé

5. La question de la participation à l’égard d’internet

5.1. Les enjeux des mesures de participation

La plupart des informations que l’on possède sur le public émanent de données d’ordre quantitatif ; le cas le plus parlant étant la chimère consistant à écouter la voix du public de télévision à travers les enquêtes d’audimat. Dans le milieu télévisuel, les mesures d’audience revêtent un rôle fondamental parce qu’elles servent à justifier la publicité de chaque émission.

Boullier (2004) signale qu’elles assument « leurs postures d’outils de l’arbitrage du marché publicitaire » (Boullier, 2004 : 61). D’après certains auteurs, la mesure d’ordre quantitatif a des conséquences nocives en termes de qualité. De ce point de vue dans un article intitulé

« Les jugements des téléspectateurs. L'évaluation des programmes de télévision », Durand (1992) commence par dénoncer la dictature de l’audimat face à l’absence des autres méthodes, il stipule en effet qu’« on est en droit de penser que, si les mesures d’audience ont pris une telle importance dans le milieu audiovisuel au cours des dernières années, c'est surtout en raison de 1’absence d’autres indicateurs plus pertinents pour évaluer les prestations des chaînes » (Durand, 1992 : 312). Cela revêt de l’importance dès lors qu’il s’agit de penser la télévision des chaînes publiques qui ne sont pas seulement mesurables par l’audience mais aussi par leurs apports en termes de service public. Dans ce cadre, l’auteur fait un recueil critique des tentatives françaises pour mesurer la satisfaction du public en allant des enquêtes par carte postale entre les années 60 et 80, de la mesure de la qualité sur la base de différents critères mis en place dans les années 70, jusqu’à son époque marquée par la diversification de l’évaluation qualitative mise en fonctionnement par trois instituts (Konso, Sofres, Ipsos). Or, selon Durand (1992) « leurs réponses ne sont pas prises en compte. On ne pourra pas indéfiniment se contenter de compter les téléspectateurs, comme des moutons menés en rangs serrés à l'abattoir. Il faudra bien s'intéresser un jour à ce qu'ils pensent, et se décider à leur donner à nouveau la parole » (Durand, 1992 : 317). Jusqu’à aujourd’hui la mesure d’audience s’avère cruciale, étant donné que « pour obtenir le financement publicitaire, dit-on, les chaînes doivent s'attacher à accroître leurs audiences, et pour cela diffuser les programmes qui peuvent plaire au plus grand nombre, c'est-a-dire des programmes de basse qualité » (Durand, 1992 : 311).

Sur le même sujet, Cefaï et Pasquier (2003) à propos des travaux sur la réception de publics concluent qu’ils ont apporté « beaucoup du côté des connaissances empiriques, peu du côté des avancées théoriques » (Cefaï et Pasquier, 2003 : 41). Les techniques de mesure sont de plus en plus précises, cependant on insiste pour exclure le public :

« Les mesures gagnent en précision ; les instruments s'affinent ; les techniques se standardisent, acquièrent une stabilité, une homogénéité, une comparabilité ; les échantillons s'élargissent, la continuité des mesures s'établit. Mais […] l'« objectivité » consiste pour une large part à exclure que le public soit traité en sujet ; à le priver des occasions de s'exprimer ; à lui couper la parole. Son discours n'est plus nécessaire. Des indices l'ont remplacé » (Dayan, 2000 : 434).

Le manque de parole du public et le besoin d’objectivité ne vont pas conjointement de pair avec le phénomène de fragmentation d’audiences qui d’ailleurs oblige à réfléchir sur les mesures. D’ailleurs, il est bien connu que les moyens de mesurer l’audience sur internet ont renouvelé et complexifié les méthodes anciennes. Face à ces divergences certains chercheurs ont tenté de classifier les différents types de mesures d’audience que l’on peut trouver sur internet. Tel est le cas de Jouët (2003) dans « La pêche aux internautes » qui a pour intention d’« aborder les enjeux des études d'audience, de s'interroger sur les modes de construction des principales méthodologies » (Jouët, 2003 : 204). Dans cet article, l’auteure signale que paradoxalement Internet permet un grand nombre de traces d’internautes « mais il est à la fois le média le plus complexe à mesurer » (Jouët, 2003 : 205). Au début de son article, Jouët (2003) montre les deux points de vue classiques sur la question de la mesure d’audience.

D’un côté, on trouve ceux qui signalent qu’on ne peut pas parler d’audience parce qu’internet n’est pas un média comme les autres, mais un plurimédia et un hypermédia polyvalent ; de l’autre, figurent ceux qui parleront d’internet comme d’un média de masse ouvert au grand public, qui a fait développer les études de marketing pour parvenir à cerner le maximum d’usagers. Dans ce cadre, cette auteure signale que les méthodes de mesure se sont multipliées récemment en donnant lieu à un grand marché des entreprises qui mesurent le trafic sur internet mais qui parviennent à des résultats parfois différents car les techniques utilisées sont, elles aussi, diverses (ou même les paramètres de mesure). A ce moment-là on observe une tentative de mise en place d’une labélisation, même s’il n’y a pas un seul type de mesure qui s’impose car « le média Internet, qui offre une diversité d’applications et de services […] rend impossible une mesure d’audience unique et exhaustive » (Jouët, 2003 : 205). Dans le noyau de cet article, il est montré qu’il existe deux principales mesures d’audience sur internet, « les mesures dites « site centric » qui chiffrent la fréquentation des sites d’une part, et les mesures dites « user centric » qui permettent de connaître le comportement des internautes d’autre part » (Jouët, 2003 : 206). L’auteure conclut en disant que « la quantification excessive risque de ne plus produire que des modèles formels, des segmentations de publics, des stéréotypes de comportements, des typologies hâtives qui ne se ressourcent pas dans l'épaisseur du social » (Jouët, 2003 : 210).

Dans « Du lien au Like sur internet », publié dans la revue Communications consacré au sujet de la réputation, Cardon (2013) explique pour sa part que « la mise en visibilité des différents sites constitue l'instrument de leur sélection et le principal déterminant de leur audience » (Cardon, 2013 : 173). En introduction, il explique que la mise en visibilité peut être très variée, donc que la page vue n’est pas la seule mesure, malgré cela, la réputation des sites est devenue une mesure calculable. Afin d’aborder ce phénomène, Cardon (2013) procède à une division du web en deux types : le web documentaire et le web de personnes.

Cette démarche est exemplifiée à travers Google (web documentaire), Facebook et Twitter (web de personnes). L’hypothèse centrale de l’auteur est que la façon de mesurer affecte les formats d'énonciation des internautes.

D’une part, on trouve PageRank, algorithme de Google dont la réputation est en principe d’autorité, c’est-à-dire qu’elle,

« est calculée en dénombrant l'ensemble des liens hypertextes que lui adressent les autres documents du Web. Chaque lien envoie un « vote » vers la page qu'il cite, mais le poids de ce vote dépend du nombre de liens qu'a elle-même reçue des autres la page citeuse » (Cardon, 2013 : 173-174).

Autrement dit, la réputation est mesurée par les mêmes documents et son lien avec des autres documents. Cela pour l’auteur peut être fait au moyen d’une dépersonnalisation du document qu’il explique à travers le processus de distanciation ainsi que par le biais du concept de lien hypertexte, « on parlera de distanciation lorsqu'un énoncé parvient à circuler dans un espace de diffusion sans prendre appui sur la personne de l'énonciateur, mais plutôt en se référant à un sujet de l'énonciation qui s'en verra attribuer la qualité d'auteur » (Cardon, 2013 : 175). D’ailleurs, l’hypertexte a été imaginé au début (par Levy) comme des énoncés qui dialoguent entre eux et provoquent la disparition des auteurs en donnant lieu à une écriture collective. Cependant, « la réputation algorithmique y est devenue à la fois un calcul et un marché » (Cardon, 2013 : 179). Cela est dû notamment au développement de SEO (Search Engine Optimization) qu’optimise la visibilité des sites web sur les moteurs de recherches. Cardon (2013) critique ce type de mesure sur quatre points que nous avons résumés ainsi, 1) effets de réseau, poids démesuré donné à ceux qui sont en tête du classement et attirent à eux un nombre de liens surnuméraires ; 2) moyenniser la sélection, il valorise souvent les informations les plus conformes et consensuels en écrasant la diversité du Web ; 3) manque de sensibilité pour la nouveauté ; 4) seuls les internautes qui publient participent au classement.

En bref, sur internet il est délicat de parler de mesure de la participation des publics.

D’ailleurs, sur internet, comme dans d’autres médias, les mesures sont affectées par le marketing et des facteurs de visibilité qui ne dépendent pas seulement des audiences. Nous allons ensuite porter notre attention sur un public particulier, les publics de la culture, en particulier du théâtre.