• Aucun résultat trouvé

L’intérêt différencié des acteurs scientifiques et commerciaux

PREMIÈRE PARTIE : LES AUTOPUBLICATIONS NUMÉRIQUES COMME SOURCE DE RENOUVELLEMENT THÉORIQUE ET

CHAPITRE 1 - LES USAGES COMMERCIAUX ET SCIENTIFIQUES DES AUTOPUBLICATIONS NUMÉRIQUES DES AUTOPUBLICATIONS NUMÉRIQUES

3. Un nouveau champ de l’opinion ?

3.1. L’intérêt différencié des acteurs scientifiques et commerciaux

Si les autopublications constituent un matériau commun aux études scientifiques et commerciales, les méthodes et les approches adoptées ne sont pas les mêmes. Alors que dans le champ académique, et plus particulièrement dans les travaux de sociologie et de science de l’information et de la communication, les recherches sur les autopublications revêtent souvent une dimension « artisanale » et privilégient une analyse « manuelle » et qualitative de petits corpus de données, la production des études commerciales est quant à elle davantage « industrielle » – bien que peu standardisée – et centrée sur des analyses essentiellement quantitatives, partiellement ou entièrement automatisées, d’importants volumes de données (3.1.1).

Les logiciels et les instruments de mesure des autopublications numériques ont donc été créés, légitimés et théorisés au sein d’un nouveau sous-secteur économique marqué par l’arrivée d’une série diversifiée d’acteurs (agence de communication, de e-réputation, producteurs de logiciels, etc.) venue concurrencer les instituts de sondage. La numérisation des terrains et des méthodes, en réduisant le coût de production des données, a contribué à abaisser le coût d’entrée dans le champ des études d'opinion (3.1.2).

La diffusion parfois plus tardive des logiciels et instruments de mesure des autopublications dans le champ académique s’est principalement orientée vers des disciplines ayant développé un rapport précoce à l’informatique, comme la sociologie des réseaux, les sciences du langage ou les sciences de l’information et de la communication. (3.1.3).

3.1.1. Un matériau commun aux études scientifiques et commerciales

Les autopublications numériques sont un matériau commun aux études scientifiques et commerciales. Les sciences sociales n’en ont pas le monopole. Cette situation n’est cependant pas inédite. La majorité des méthodes quantitatives et qualitatives sont en effet communes aux disciplines académiques et aux études d’opinion et de marché commercialisées par les instituts d’études et de conseil.

La technologie du sondage d’opinion est sans doute l’exemple le plus connu d’importation dans le champ académique de méthodes issues du champ commercial des

87

études. Loïc Blondiaux, dans son histoire sociale des sondages181, a ainsi rappelé l’origine de cette technique d’enquête, issue de l’univers du marketing et des études de marché aux États-Unis dans les années 1930, puis a montré comment les sondages d’opinion ont dès leur naissance été conçus et légitimés comme des outils de recherche appliquée, notamment sous l’impulsion de Paul Lazarsfeld à l’Office of Radio Research puis au Bureau of Applied Social

Research. En France comme aux États-Unis, les « pères fondateurs » des sondages ont ainsi

entrepris d’apporter une légitimité à la fois commerciale et scientifique à l’instrument182. Cette double appartenance restera une propriété constitutive des sondages. Pierre Bourdieu, dans sa critique des sondages, s’adressera ainsi tout autant aux sondeurs professionnels des instituts qu’aux « politologues » universitaires, désignés sous la qualification commune de « doxosophes »183. De manière analogue, Sophie Duchesne et Florence Haegel ont rappelé comment les focus group ont été à l’origine un outil créé par la recherche appliquée, notamment sous l’influence de Robert Merton aux États-Unis dans les années 1940, puis comment le marketing s’est emparé de la méthode dans les années 1950 jusqu’à sa redécouverte par les sciences sociales dans les années 1980184.

L’étude des autopublications, en se situant à la croisée des champs scientifique et commercial, s’inscrit donc dans une trajectoire historique similaire à celle des sondages ou des focus groups. Cependant, à la différence des réponses de questionnaire ou des propos recueillis en entretien, qui n’ont de réalité empirique que par les méthodes et les instruments qui les mettent au jour, les autopublications ont une existence propre, antérieure et indépendante de leurs instruments d’étude. On peut ainsi dissocier conceptuellement et pratiquement le matériau étudié – les verbatims publiés par les internautes sur les espaces d’autopublication – des méthodes et des instruments qui les mesurent.

L’usage de logiciels de veille et de tracking a longtemps été un élément distinctif entre les études scientifiques et les études commerciales des autopublications numériques. En effet, alors que les recherches académiques en sciences sociales, revêtaient – et revêtent toujours dans leur majorité – une dimension « artisanale », adoptant ainsi une analyse manuelle de petits corpus de données, les études commerciales ont dès leur apparition eu recours à des logiciels industriels de veille et de tracking, proposant ainsi des analyses essentiellement

181

Loïc Blondiaux, La Fabrique de l’opinion, op. cit.

182 Loïc Blondiaux, « Paul F. Lazarsfeld (1901-1976) et Jean Stœtzel (1910-1987) et les sondages d'opinion : genèse d'un discours scientifique », Mots, Vol. 23, n°23, 1990, p. 5-23.

183 Pierre Bourdieu, « Les doxosophes », art. cit. 184

88

quantitatives, partiellement ou entièrement automatisées d’impressionnants volumes de données. Ces éléments d’opposition entre pratique scientifique et pratique commerciale avaient déjà été observés par François Backman et Olivier Rozenberg dans leur étude comparée de la pratique des focus groups en instituts d’études et en recherche185. Les deux auteurs avaient en effet notamment constaté « des écarts d’échelle » entre les grands instituts et les laboratoires de recherche, avec d’un côté une pratique industrielle et de l’autre une pratique artisanale.

Les logiciels de tracking et les instruments de mesure des autopublications, avant d’être importé dans le champ académique, ont donc pour la plupart été créés, légitimés et parfois théorisés au sein des champs professionnels des études, du marketing et de la communication.

3.1.2. La création d’un nouveau secteur d’activité économique marqué par l’arrivée de nouveaux acteurs, concurrents des instituts de sondage

L’étude des autopublications numériques constitue un secteur d’activité économique à part entière. Un secteur caractérisé par une surabondance de l’offre, une grande hétérogénéité des acteurs, des frontières floues – entre études, communication, marketing, veille et conseil – et des perspectives de développement et de rentabilité incertaines. Il ne s’agira pas ici de dresser une sociogenèse de ce champ, un chapitre n’y suffirait pas. Nous nous bornerons à évoquer les principales causes et quelques conséquences de l’ouverture du champ professionnel de l’opinion à des acteurs issus de la communication, du marketing ou de la veille.

Dominique Boullier et Audrey Lohard ont recensé une vingtaine de termes différents pour qualifier les études et services proposés autour des autopublications numériques186 : «

e-réputation », « veille marketing », « veille digitale », « référencement », « community management », « communication interactive », « veille en intelligence économique », « buzz tracking », « brand monitoring », « marketing communautaire », « web marketing »,

« marketing digital », « sentiment analysis », « social analytics », « relation blogueurs », «

185 Olivier Rozenberg et François Backman, « Mortels transferts ? La pratique des entretiens collectifs par les Grands Instituts de Sondages Internationaux et par la recherche en Science Sociale », art. cit.

186

89

influence », « sentiment monitoring », « veille d’image », « réputation digitale », « online sentiment », « mesure de la visibilité », « suivi de notoriété » ou encore « buzz monitoring »,

etc. Cette profusion de termes et d’appellations est révélatrice de la très grande hétérogénéité des acteurs qui ont investi ce secteur. On peut sommairement identifier cinq grandes catégories d’acteurs : les instituts d’études et de conseils (GfK, Ipsos, Médiamétrie, BVA, etc.), les instituts « pure player », c’est-dire spécialisés exclusivement dans les études numériques (Linkfluence, Trendybuzz, Semiocast, etc.), les agences de communication et de publicité (Publicis, Havas, etc.), les « web agency », spécialisées dans toutes les activités liées à internet (création de site internet, référencement et mise en valeur de contenu, etc.) et enfin les éditeurs de logiciels – qui commercialisent pour certains des études (Lingway, Digimind, Spotter, etc.). En 2011, on recensait ainsi plus de 160 entreprises proposant des études numériques au sens large187.

Le secteur des études numériques regroupe donc des acteurs, des professions et des secteurs d’activité qui étaient jusqu’alors relativement cloisonnées : le secteur de la veille (concurrentielle, économique, juridique), le secteur des études (d’opinion, de marché, de marketing), le secteur du conseil (en vente, en stratégie financière, etc.) et le secteur de la communication et de la publicité. La matérialisation et la concentration de données de différentes natures sur un même espace – numérique – peuvent constitués un élément d’explication de la plus grande porosité de ces frontières sectorielles sur internet. Sur un même réseau socionumérique – Twitter – un analyste réalisant une veille pourra trouver des informations qui n’ont pas encore été reprises par les agences de presse, un chargé d’étude pourra « sonder » en temps réel les réactions des internautes à des événements en direct tandis qu’un chargé de communication pourra publier massivement des tweets pour promouvoir la marque ou le produit de son client. De plus, les acteurs de ces différents secteurs ont souvent recours aux mêmes logiciels de veille et de tracking pour collecter et traiter leurs données. Le logiciel Ami Opinion Tracker, initialement conçu pour la veille et l’intelligence économique, est aujourd’hui commercialisé et présenté comme « un outil parfaitement adapté aux métiers

des études et de la communication, en plus d’un savoir-faire hérité en matière de veille et d'Intelligence économique188 ». Cette concentration des données de différentes natures sur un même espace numérique et leur traitement par des logiciels identiques constituent donc des

187 Nous qualifions de « numériques » les études commerciales prenant pour objet les autopublications numériques. Ces études n’incluent pas les études CAWI.

188

90

éléments d’explication de la plus grande porosité des secteurs de la veille, des études, du conseil ou de la communication sur internet.

Cette plus grande porosité a ainsi conduit des acteurs venus d’autres secteurs à produire également des études numériques. En disposant des mêmes logiciels et en ayant accès aux mêmes données, des agences de communication et des entreprises de veille ont ainsi pu réaliser à leur tour des études numériques. Ce phénomène d’ouverture a de plus été renforcé par une baisse relative des coûts de production des études sur internet. Les coûts de production des études numériques sont en effet bien moins élevés que ceux d’une étude par sondage ou d’une étude qualitative commercialisée en institut. Cette baisse des coûts concerne à la fois la phase de production des données mais aussi celle de l’analyse. Alors qu’une étude par sondage nécessite la mobilisation d’une vingtaine d’enquêteurs en moyenne et peut durer plusieurs jours, la phase de collecte des autopublications numériques peut être réalisée par un seul enquêteur, ou directement par le chargé d’étude, en quelques heures seulement. Le coût de l’analyse des données est quant à lui difficile à estimer et est variable d’une société à l’autre. À partir d’un même corpus de données, cette phase d’analyse peut durer en effet plusieurs jours, plusieurs heures voire moins d’une heure. L’automatisation de l’analyse des données par les logiciels d’opinion mining et de sentiment analysis, le degré de qualification du chargé d’étude, l’absence de standardisation des méthodes ainsi que la relative méconnaissance par les clients des potentialités et des limites des études numériques sont quelques éléments d’explication de la grande plasticité des pratiques, de la qualité et in fine des coûts de production des études numériques. La livraison des résultats peut ainsi prendre la forme d’un rapport d’étude analytique détaillé de plusieurs pages, d’un simple « reporting » présentant quelques graphiques et données chiffrées accompagnés de commentaires descriptifs, ou encore d’un « tableau de bord » mis à la disposition du client et présentant en temps réel l’évolution de la volumétrie, de la tonalité ou de la distribution des résultats par mot-clé ou selon différentes variables (types de sources, catégories thématiques, etc.). Au final, alors que la production d’une étude « classique » nécessite une forte division du travail et d’importants moyens humains (une batterie d’enquêteurs, plusieurs statisticiens, un ou deux chargés d’études) et logistiques (location d’une plateforme téléphonique, etc.), une étude numérique peut être réalisée par un seul chargé d’étude (sans qu’il ait d’ailleurs la qualification et le titre de chargé d’étude), avec comme seul outil de production un logiciel de veille et de tracking. Cette baisse des coûts de production a donc abaissé le coût d’entrée dans

91

le champ professionnel des études d’opinion et a permis à une grande diversité d’acteurs de produire et commercialiser des études numériques.

L’ouverture du secteur a donc logiquement entravé le monopole des instituts de sondage. Cette ouverture, notamment aux acteurs de la communication, a eu pour conséquence une absence totale de standardisation des études, que cela soit au niveau de leurs dénominations – le rapide inventaire dressé plus haut nous en a donné un aperçu – au niveau des concepts et notions mobilisés (« opinion », « réputation », « influence », « sentiment », etc.) ou encore au niveau des méthodes employées.

Parmi cette offre abondante et hétérogène, Dominique Boullier et Audrey Lohard distinguent deux principales postures : « observer pour comprendre » et « observer pour

agir »189. La première posture consiste à appréhender internet comme un terrain d’observation, où s’expriment et circulent des opinions formulées par des internautes « citoyens » ou « consommateurs ». Cette posture attribue donc aux études numériques des fonctions similaires à celles des études « classiques » : comprendre et anticiper les besoins des consommateurs, évaluer la réception d’un produit ou d’une campagne de communication, etc. On peut, parmi les études adoptant cette première posture, distinguer deux principales catégories : les études quantitatives de tonalité et les études qualitatives ou cartographiques de « communautés en ligne ».

Les études quantitatives de tonalité sont les études numériques qui se rapprochent formellement le plus des études par sondage, certains auteurs anglo-saxons les qualifiant même de « semantic polls »190. Ces études proposent généralement une analyse volumétrique de citations (combien d’internautes, sur différents supports du web, ont cité l’objet étudié – un produit, une marque, une entreprise, etc.), suivie d’une analyse – manuelle, automatisée ou partiellement automatisée – de la tonalité des messages évoquant l’objet. Est alors associé à l’objet étudié un pourcentage d’avis positif, neutre ou négatif. Ces études, majoritairement qualifiées d’« e-réputation », peuvent prendre également pour objet des hommes politiques. Ainsi, l’institut TNS Sofres et la société Semiocast, en collaboration avec le site TF1.fr et le journal gratuit Métro, publia mensuellement de janvier 2011 à juin 2012 le « Twittoscope », un « nouveau baromètre d’opinion »191 établissant chaque mois le classement des

189 Dominique Boullier et Audrey Lohard, Opinion mining et Sentiment analysis : Méthodes et outils, op. cit. 190 Nick Anstead, « Social media metrics: measuring manifestations of the public in online spaces », Colloque international Regards critiques sur la participation politique en ligne, Paris, 19-20 juin 2013.

191

92

personnalités politiques les plus citées sur Twitter et mesurait pour chacune d’elle la tonalité des tweets l’évoquant (avec une échelle en quatre items : rejet, critique, neutre, positif). À l’instar des sondages d’opinion, les commentaires du « baromètre » précisaient les variations mensuelles de la courbe d’avis positifs ou d’avis négatifs des tweets prenant pour objet les hommes politiques étudiés.

Le second type d’études adoptant « une posture de compréhension » propose quant à elles une analyse qualitative ou cartographique de « communautés en ligne ». Il s’agit alors d’identifier des « communautés d’internautes » échangeant plus ou moins régulièrement des messages sur des espaces d’autopublication thématiques (des forums ou réseaux sociaux consacrés au sport dans le cas d’une étude réalisée pour un équipementier sportif, par exemple, etc.). L’étude consiste alors à identifier les internautes de cette communauté, analyser leurs discussions et éventuellement cartographier leur réseau de relations. Ces études reposent sur les théories du « marketing viral ». Le marketing viral, issu comme nous le verrons de la rencontre entre les théories sociologiques de l’influence interpersonnelle, de leur application dans le domaine du marketing (« word-of-mouth marketing ») et de l’analyse mathématique des réseaux socionumériques, appréhende les internautes comme des individus en capacité d’influencer leur réseau de relations sur internet et ainsi de faire et défaire la réputation d’une marque ou d’un produit192. Les consommateurs seraient ainsi devenus des « consom’acteurs »193. Ce jeu de mot, formé de la contraction de « consommateurs » et d’« acteurs » traduirait ainsi le changement de perception ontologique des individus par le marketing, passés du statut de récepteurs passifs à celui de promoteurs actifs. Dès lors, il deviendrait essentiel pour les entreprises d’identifier ces « leaders d’opinion » et d’analyser leurs opinions afin d’anticiper les réactions futures des consommateurs.

Ces deux catégories d’études, bien que reposant sur des théories et des méthodologies différentes, ont pour point commun de circonscrire les études numériques à leur fonction d’observation et de compréhension des phénomènes sociaux. Si les conclusions et recommandations de l’étude peuvent inciter le commanditaire à agir, en faisant appel à une agence de communication pour corriger et réorienter l’image de sa marque par exemple, cela ne se fera que dans un second temps, un temps distinct de celui de l’étude.

192 Kévin Mellet, « Aux sources du marketing viral », Réseaux, 2009/5-6 (n° 157-158), p. 267-292.

193 Laurent Florès, « Web 2.0 et études de marché : vers une nouvelle génération d’études de marché ? », Revue Française du Marketing, 220 (2008), p. 7-16.

93

La seconde posture (« observer pour agir ») adoptée par les acteurs du secteur conçoit internet comme un terrain d’action où il est possible de convaincre les internautes et d’influer sur leurs opinions et intentions d’achat. Ces études reposent en effet sur le postulat selon lequel les individus se constituent des opinions sur un objet (une marque, un produit, une entreprise, etc.) à partir d’une lecture des commentaires d’autres internautes ou à partir d’un échange ou d’une discussion avec ces internautes. De nombreuses études qui ont ainsi démontré que les consommateurs prenaient en compte dans leur décision d’achat sur internet les commentaires formulés par d’autres internautes-consommateurs194. Après avoir observé les opinions circulant sur un objet, l’enjeu est alors de promouvoir l’objet, soit en créant artificiellement des messages positifs et en améliorant leur référencement, soit en associant des « leaders d’opinion » à la promotion de l’objet. Les études et services de « gestion

d’e-réputation » consistent à produire de faux avis d’internautes et à améliorer leur

référencement. L’objectif est donc que le consommateur, lorsqu’il consulte les avis et commentaires publiés sur un site d’achat, lise prioritairement les commentaires positifs. Le second type d’étude, qualifié de « community management » consiste à identifier et mobiliser des communautés d’internautes autour d’un objet afin d’en faire des promoteurs de l’objet. Il ne s’agit donc plus d’observer passivement les communautés mais bien de les mobiliser pour les associer à une démarche de promotion de l’objet. Les études numériques adoptant cette seconde posture, qu’elles proposent de créer artificiellement de faux avis de consommateurs ou d’associer les internautes à la stratégie de promotion de la marque, se situent alors davantage dans une stratégie de communication et de promotion que dans une démarche de connaissance des consommateurs et de leurs besoins, envies ou attentes.

Si la majorité des entreprises du secteur adoptent soit l’une soit l’autre de ces postures, Dominique Boullier et Audrey Lohard notent cependant que « sous l’effet de la concurrence,

les offres semblent tendre peu à peu à se ressembler et à se rapprocher vers une sorte de modèle « 360 » 195». Ces « offres 360 » proposent d’étudier et de mesurer les opinions des

internautes sur un objet donné, de produire des opinions fictives ou d’encourager les enquêtés à publier des messages pour améliorer la « réputation » de l’objet et enfin de mesurer à nouveau cette dernière. Ces offres fusionnent donc des activités d’étude, de production

194 Selon diverses études synthétisées par le site Olimeo.com, en 2010, 86% des internautes feraient « confiance aux avis » des consommateurs sur les sites d’achat : http://frenchweb.fr/infographie-importance-des-avis-des-consommateurs-sur-le-web/20070

195

94

communicationnelle et de valorisation marketing qui étaient jusqu’alors relativement

Documents relatifs