• Aucun résultat trouvé

Intermédiaires et Médiateurs neuromarketing français

dans la plupart des disciplines»5. L’analyse des citations d’un auteur peut revêtir

plusieurs usages et intérêts :

— contribue à la recherche documentaire et la gestion de collections de revues scientifiques ;

— répond à l’histoire et la sociologie des sciences ; — permet l’évaluation des chercheurs ;

— donne lieu à leur classement, ou au classement de leur institution, de leur établissement (type classement de Shanghai).

Plusieurs bases de données de références existent aujourd’hui pour les institutions et les chercheurs :

— Thomson Reuters : Web of Science Core Collection (+ de 8 600 titres) et Essential Science Indicators

— Elsevier : Scopus (+ de 20 000 titres)

Pour les sources et revues :

5. Du bon usage de la bibliométrie pour l’évaluation individuelle des chercheurs : Rapport de l’Académie des Sciences, 17 janvier 2011.

— le Journal Citation Reports : données du Web of Science Core Collection — Journal Metrics : données de Scopus

Ces mégabases sont payantes et mêmes onéreuses (sur abonnement uniquement et l’Université Paris-Dauphine n’en disposait pas). Mais depuis 2007, il existe heu- reusement une base de données gratuite et accessible via un logiciel Publish or Per- ish (PoP)développé par Ann Harzing en 20076 et qui a pour vocation d’indexer et de stocker l’ensemble des publications disponibles à partir de Google Scholar et de Microsoft Academic Search.

Nous utilisons dans le cadre de notre travail de recherche la version du logiciel PoP qui date du 6 janvier 2014 (et de ses mises à jour successives), en sélectionnant un filtre pour que les résultats soient tous issus de Google Scholar. Car en effet, après avoir fait plusieurs tests, nous nous sommes vite aperçus que les résultats étaient bien meilleurs sur Google Scholar que sur Microsoft Academic Search. Les résul- tats affichés dans PoP sont plus importants en nombre du fait de l’indexation faite par Google depuis plus de 15 ans et Google fait preuve de plus de pertinence dans les résultats des requêtes (grâce à leur algorithme Page Rank notamment).

A partir de cet ensemble de citations, le logiciel POP calcule un certain nombre de scores et de données statistiques (nombre d’articles, de citations, h-index, g-index, etc.) qui vont permettre d’évaluer un chercheur, en tant qu’auteur. Ce logiciel a été conçu afin de permettre aux chercheurs de présenter sous leur meilleur jour l’in- fluence qu’ils ont eu sur leur domaine scientifique. Les chiffres obtenus n’ont donc pas pour ambition de permettre la comparaison pure et simple d’un ensemble de chercheurs entre eux. En effet, la signification de ces chiffres peut varier en fonc- tion de nombreuses circonstances. Les résultats statistiques obtenus et exploitables sont nombreux et nous en avons retenu près d’une douzaine dont voici la liste et les définitions synthétiques :

— Nombre total de publications trouvées (« Papers »). — Nombre total de citations trouvées (« Citations »).

— Nombre d’années sur lesquelles s’étalent ces publications (« Years »). — Nombre moyen de citations par an (« Cites/year »).

— Nombre moyen de citations par publication (« Cites/paper »). — Nombre moyen de publications par auteur (« Papers/author »).

— Le nombre moyen d’auteurs par publication (« Authors/paper ») permet de se faire une idée sur l’influence de co-auteurs dans le travail du chercheur.

Le h Index, proposé par J.E. Hirsh en 20057, cherche à mesurer l’impact cumulatif

des publications d’un chercheur en se basant sur les citations que son travail a re- çues. Un scientifique possède un h-index de la valeur h si h de ses publications ont été citées au moins h fois. Il est ici complété par la constante a (où N = ah2 avec N nombre total de publications du chercheur) et le paramètre m (où h ∼ mn avec n représentant le nombre d’années depuis la première publication).

Le g Index, proposé par Leo Egghe en 20068, est défini comme suit. Pour un en- semble d’articles classés par ordre décroissant de nombre de citations qu’ils ont reçues, le g Index est le nombre le plus grand pour lequel les g premiers articles ont reçu ensemble au moins g2 citations. Cet indice cherche à améliorer le h Index en

donnant plus de poids aux articles les plus cités.

Il est nécessaire de rester prudent quant à l’analyse de ces indices bibliométriques. Car si un universitaire obtient de bonnes statistiques, alors il a très probablement eu un impact significatif dans son domaine. Mais l’inverse est loin d’être vrai.

Comme nous l’avons évoqué dans le premier chapitre, la bibliométrie suit une loi de distribution tout à fait étonnante : on parle de Loi de Bradford, ou de Pareto (80-

7. J.E. Hirsh, (2005) An index to quantify an individual’s scientific research outputSeptember 1, 2005 (received for review August 15, 2005.

20), mais avec pour conséquence ce que certains appellent l’effet Saint-Mathieu : « Car on donnera à celui qui a et il sera dans l’abondance, mais à celui qui n’a pas, même ce qu’il a lui sera retiré»9. En effet, la popularité académique ne profite

qu’à une portion congrue de la communauté scientifique. Les auteurs les plus cités sont très peu nombreux et une majorité de chercheurs demeurent dans l’ombre de leurs pairs, malgré la qualité de leurs travaux.

L’immensité de la littérature scientifique contemporaine représente une production de plus de 58 millions d’articles, pour la plupart référencés par Thomson Reuter dans son application et base de données Web Of Science. Si l’on devait imprimer et entasser cette somme d’articles, elle atteindrait le point culminant du Kilimandjaro, soit 5891 mètres d’altitude. Le Top-100 des articles les plus lus et les plus cités représente seulement 1 centimètre d’épaisseur, sur cette gigantesque montagne de papiers scientifiques (cf. infra figure 3.4).

Seuls 14.499 papiers - environ un mètre de hauteur à l’échelle de la montagne de Kilimandjaro ont été cités plus de 1000 fois. La moitié de la littérature savante, soit environ 29 millions d’articles (toutes disciplines confondues) ont été mentionnés qu’une seule fois, voire jamais.

FIGURE3.4 – « The Paper Mountain », in « The Top 100 papers », Nature, octobre 2014

3.3.2

Analyse bibliométrique comparée des acteurs-réseaux neu-

romarketing

3.3.2.1 La démarche et le processus de construction du réseau d’acteurs neu- romarketing

Comment avons-nous construit les réseaux d’acteurs neuromarketing américain et français ? C’est à partir de la revue de littérature que nous avons pu identifier facile- ment les acteurs impliqués dans la genèse et le développement du neuromarketing.

En fait, grâce à leurs publications, nous avons immédiatement repéré les co-auteurs et nous avons consulté dans PoP leur différents scores bibliométriques des acteurs- réseaux (h-index, g-index, cites, papers...).

On peut souligner que PoP est un excellent outil logiciel, accessible, facile d’utilisa- tion (et gratuit) pour notamment permettre dans le cadre de nos travaux de montrer par acteur-réseau l’impact de sa recherche à son meilleur avantage : puisqu’en ef- fet, PoP indexe tous les travaux, mêmes ceux qui ne sont pas référencés dans les bases de données spécialisées (Web of Science et Scopus). Ainsi, lorsqu’il s’agissait plutôt de professionnels du marketing ayant rédigé des ouvrages sur le neuromar- keting, nous bien vérifié leur notoriété sur Google directement et consulter les liens correspondants aux résultats des requêtes indexés par Google. Et sachant bien évi- demment que nous connaissions la plupart des auteurs en question que ce soient en France ou aux États-Unis, faisant partie pour la plupart de nos réseaux de rela- tions. En effet, nous sommes en relation directe sur Twitter, Linkedin avec nombre d’entre d’eux depuis de nombreuses années : Christophe Morin, Patrick Renvoisé, Martin Lindstrom, Roger Dooley. Et nous avons eu l’occasion de participer à des conférences communes et même d’avoir organisé des rendez-vous client avec Pa- trick Renvoisé et Christophe Morin de SalesBrain en France.

Notre connaissance des acteurs nous aura permis de distinguer facilement dans la littérature les neuroscientifiques, des marketeurs composant le réseau neuromarke- ting. Nous avons alors dressé plusieurs listes nominatives et nous avons vérifié dans PoP notamment les profils « académiques/scientifiques » et les liens vers leurs pu- blications (articles ou ouvrages).

En croisant les différentes données et sources précitées nous avons pu définir la :

— liste nominative des neuroscientifiques américains et français, ainsi que la — liste nominative des marketeurs américains et français

A partir de ces listes, nous avons élaboré plusieurs tableaux qui sont des extractions de PoP sous forme de tableau Excel, afin de comparer les indices bibliométriques

de tous les acteurs des réseaux neuromarketing américains et français. Nous avons pris le soin de distinguer les « neuroscientifiques » et les « marketeurs », à travers et la mesure et l’analyse comparée des auteurs américains et français selon leurs indices bibliométriques :

— Nombre total d’articles publiés par acteur-réseau (« papers »). — Nombre de citations totales par acteur-réseau (« citations »). — h index de chaque acteur-réseau

— g index de chaque acteur-réseau

Nous avons pu reconstruire grâce à l’analyse bibliométrique comparée de chacun des principaux acteurs, le réseau neuromarketing américain et français. Pour ce faire, nous avons effectué des extractions depuis PoP sous Excel et nous avons pro- duit une représentation graphique par tableau. Ces tableaux nous permettent ainsi d’identifier les acteurs et de les comparer au sein d’un même réseau neuromarketing (américain et français).

Nous avons conservé les auteurs les plus prolifiques et dont l’impact bibliométrique était le plus élevé en terme de score et d’index. Nous voyons des différences extrê- mement nettes entre les indices de citations de chaque acteur (auteur scientifique ou marketeur) et notamment leur g-Index, leur h-Index, leur nombre de citations totalesainsi que le nombre d’articles qu’ils ont publié.

3.3.2.2 Analyse comparée des scores bibliométriques des réseaux neuromarke- ting américain et français

Ainsi, en première lecture, on voit d’emblée que les neuroscientifiques publient beaucoup plus en volume (tous types de publications compris : articles, livres...) que leurs confrères spécialisés en « marketing ». Puisque sur les 13 neuroscien- tifiques américains représentant les principaux acteurs du réseau neuromarketing, ils totalisent plus 3 000 « papiers » référencés et cités dans PoP. Les académiques « marketeurs » américains sont moins nombreux à former les membres fondateurs du réseau : ils sont 9 identifiés selon les critères bibliométriques retenus et définis

supra et ont donc publié en tout 700 « papiers ». C’est-à-dire un quart de moins en volume de publication que leurs collègues neuroscientifiques depuis le démarrage de leurs carrières universitaires respectives et cumulées. Mais le nombre de 700 articles, soit environ une moyenne d’une centaine de papiers publiés par auteur, est déjà très élevé, comme nous allons le constater comparativement aux acteurs- réseaux français.

Tableau 3.2 – Nombre total d’articles trouvés par acteur-réseau humain « neuros- cientifique » et « marketeur » américain.

En nombre total de citations, l’écart se creuse davantage, au profit des neuroscien- tifiques américains qui cumulent plus de 300 000 citations, contre 26 000 citations pour l’ensemble des acteurs « marketeurs » américains. Sur les 300 000 citations, on peut souligner qu’Antonio Damasio (107 219 citations) et Hanna Damasio (46911 citations) totalisent à eux seuls 150 000 citations soit la moitié du nombre total de citations.

Tableau 3.3 – Nombre de citations des acteurs-réseaux humains « neuroscienti- fiques » et « marketeurs » américains. Nombre total de citations trouvées (« Ci- tations»).

Ces premiers résultats nous permettent de mieux appréhender et comprendre les écarts s’agissant du h-index des auteurs américains entre eux et notamment l’écart proportionnel entre « neuroscientifiques » et « marketeurs ».

Rappelons aussi que le h index est un indice bibliométrique qui mesure l’impact cu- mulatif des publications d’un chercheur en se basant sur les citations que son travail a reçues. Sachant que le h index mesure uniquement l’impact d’un chercheur et non celui d’un article ou d’une revue à la différence du facteur d’impact qui mesure la « popularité » d’une revue scientifique. Le h index moyen est très variable se- lon les disciplines universitaires. Le h index avantage les chercheurs expérimentés (« seniors ») ayant une activité de recherche reconnue sur le long terme. Le h index ne valorise pas les articles à très fort impact, ou à impact durable dans le temps. Pour être plus précis, les citations excédentaires au h index ne sont pas intégrées au calcul du h index, car un universitaire ayant publié 1 seul article avec 200 citations aura tout de même un h index égal à 1.

On observe que les h index des époux Damasio sont très au-dessus de la moyenne des h index des autres acteurs du réseau. Antonio Damasio a un h index égal à 129, ce qui le situe très au-dessus de la moyenne de ses confrères. Alors comment se calcule-t-on un h index manuellement ? Et que signifie-t-il dans le cas d’Antonio Damasio par exemple ? Rappelons tout d’abord que le facteur h d’un auteur est le nombre d’articles de cet auteur, qui ont reçu au moins h citations chacun. Si un en- semble d’articles est classé dans l’ordre décroissant du nombre de citations qu’ils ont reçues, le facteur h est le plus grand nombre d’articles pour lesquels il est vrai de dire que h articles ont reçu chacun au moins h citations.

Pour Antonio Damasio, avoir un h index de 129 signifie qu’il a publié au moins 129 articlesqui ont reçu chacun au moins 129 citations. Le h index récompense par conséquent seuls les auteurs aux flux constants de publications et donc à fort impact académique dans le temps.

Read Montague est à l’origine de l’expérience pionnière et fondatrice du neuromar- keting, protocole qui a donné lieu à une publication en 2004 dans la revue Neuron qui fut très médiatisée. Read Montague est un chercheur américain extrêmement productif, puisqu’il a co-publié plus de 130 articles. Mais si on le compare aux époux Damasio, Hanna et Antonio, ce sont respectivement (254 + 730) = 984 ar- ticles co-publiés dans le champ des neurosciences, pour un total de 154 130 citations de leurs travaux à travers la littérature (source PoP).

Rappelons que le g index, en tant qu’indice de référence bibliométrique, cherche à améliorer le h index en donnant plus de poids aux articles les plus cités. Les 4 pre- miers tableaux que nous avons commentés ci-dessus nous ont permis de voir que les 4 indicateurs bibliométriques précités, se trouvent plutôt corrélés dans le cas des acteurs-réseaux américains (g-index, h-index, citations, papers). Ces illustrations graphiques permettent facilement d’identifier dans une logique scientométrique, les acteurs les plus performants et leur popularité académique.

Mis à part les époux Damasio et Read Montague, nous voyons très clairement se détacher quelques neuroscientifiques tels que Camerer, Lowenstein, Knutson, Pre- lec, Ariely et Zaltman dont les g-index sont supérieurs à 100 avec plus de 10 000 citations a minima chacun, pour 130 à 809 articles publiés par acteur, ce qui est vraiment considérable.

Les acteurs scientifiques du réseau neuromarketing américain (Camerer, Lowen- stein, Knutson, Prelec, Mc Clure, Ariely et Zaltman) ont tous déjà collaboré en co-publiant ensemble. C’est ce qui nous montrons à travers les 2 tableaux infra qui expliquent comment à partir d’un classement « TOP 20 » des articles les plus ci- tés de Read Montague, on peut établir les liaisons pondérées, directes ou indirectes avec ses co-auteurs. Ces liens pondérés directs ou indirects nous renseignent sur le réseau académique « neuroscientifique américain » en comprenant qui le compose, qui coopère, collabore et donc co-construit ce réseau sociotechnique.

Tableau 3.7 – TOP 20 des liens directs et indirects Read Montague

S’agissant du réseau d’acteurs du neuromarketing français, nous pouvons souligner les points suivants :

Les performances des acteurs français est sans commune mesure sur le plan scien- tométrique (bibliométrique) : en effet, nous avons eu du mal à trouver dans PoP des auteurs dont le g index ou le h index était réellement représentatif. Aucun acteur du

réseau neuromarketing français ne dépasse 27 de g index par exemple, soit un in- dice 4 fois inférieur à un auteur, un acteur neuroscientifique américain appartenant au réseau neuromarketing.

Tableau 3.8 – h index des acteurs-réseaux humains « neuroscientifiques » et « mar- keteurs » français.

Tableau 3.9 – g index des acteurs-réseaux humains « neuroscientifiques » et « mar- keteurs » français.

Olivier Oullier (27 papiers recensés dans PoP) et Dorothée Rieu (7 papiers cités dans PoP) ont finalement peu publié au cours de leur carrière scientifique, en re- vanche, on peut remarquer un nombre de citations très élevé par rapport au nombre d’articles publiés. A contrario, Olivier Droulers serait à l’origine de 51 articles et livres (source globale PoP), pour un niveau de citations très faible : 62 citations en tout. Nous sommes allés chercher les raisons de ces scores disproportionnés et nous avons bien évidemment compris que les publications de Olivier Oullier et Dorothée Rieu étaient pour les plus citées des papiers publiés dans des grandes revues amé- ricaines telles que le Journal of the Neurological Sciences, Psychiatry Research, Neuroimaging, Social Neuroscience ou encore Journal of Experimental Psycho- logy. Ce qui n’est pas le cas d’Olivier Droulers qui a essentiellement publié dans des revues de gestion française et se retrouve donc pénalisé par la logique biblio- métrique qui favorise les revues anglo-saxonnes et les résultats de calculs d’index qui en découlent.

Tableau 3.10 – Nombre total d’articles trouvés par acteur-réseau humain « neuros- cientifique » et « marketeur » français.

Tableau 3.11 – Nombre total de citations par acteur-réseau humain « neuroscienti- fique » et « marketeur » français.

Bien que PoP soit très performant et tende vers l’exhaustivité en matière d’indexa- tion et de référencement grâce à Google Scholar, on remarque les limites néanmoins du système logiciel tel qu’il est conçu pour la communauté francophone. Pour nos acteurs-réseaux français, PoP a encore du mal à restituer l’ensemble des citations issues des livres écrits par ces mêmes auteurs. En conséquence, les indices de cita- tion de nos acteurs-réseaux « marketeurs » qui publient en « sciences de gestion » et/ou en « sciences sociales et humaines » sont systématiquement sous-évalués.

Nous savons bien que dans ces mêmes disciplines, les publications dans d’autres langues que l’anglais, sont fréquentes et que les publications d’ouvrages sont beau- coup plus fréquentes qu’en « sciences dures ». C’est bien ce dont souffrent les acteurs-réseaux du « neuromarketing français », plus encore que leurs confrères américains, qui ont l’avantage de pouvoir publier naturellement en anglais, dans des revues anglo-saxonnes qui comptent vraiment sur le plan bibliométrique.

Les premiers résultats nous indiquent que le réseau neuromarketing américain est beaucoup plus mature du fait du nombre d’acteurs que nous avons pu facilement recenser grâce à la bibliométrie comparée versus le réseau neuromarketing français qui publie peu et se compose de quelques membres visibles et reconnus en France contre une bonne vingtaine aux États-Unis. Mais la différence se fait surtout sur les données quantitatives à la fois dans la littérature scientifique comme nous le rap- portons avec nos données issues de PoP, mais également lorsque nous regardons l’aura médiatique des acteurs-réseaux américains et leur présence sur le web et les réseaux sociaux. Là encore, les scientifiques et les marketeurs les plus connus, sont aussi désormais les plus visibles sur la « scène numérique ».

Leur participation aux Conférences TED par exemple nous montre à quel point leur notoriété dépasse le cadre académique et national pour devenir une vitrine média- tique mondiale (les vidéos sont sous-titrées en une trentaine de langues). Le réseau neuromarketing français est en très net retrait par rapport au réseau neuromarke- ting américain. Read Montague comptabilise plus de 50 000 vues sur sa conférence TED de 2012, Antonio Damasio, plus de 930 000 vues, Dan Ariely une moyenne

3 millions de vues (accessibles sur le site de TED et sur Youtube). Nous verrons d’ailleurs au Chapitre 7 de notre travail doctoral, si l’idée d’un score bibliomé- trique pour un universitaire, fondé sur la célébrité sur le web et les réseaux sociaux, (comme seul le show business ou quelques « Youtubers » savent le faire) est perti- nente ou sans intérêt académique.

Cette question a inspiré un chercheur qui a mis au point une formule, pour calculer un score de notoriété qui prend en compte certains indices de popularité sur Twitter,