• Aucun résultat trouvé

Introduction à la bibliométrie : modèles, outils, méthodes | Unité Régionale de Formation à l'Information Scientifique et Technique

N/A
N/A
Protected

Academic year: 2021

Partager "Introduction à la bibliométrie : modèles, outils, méthodes | Unité Régionale de Formation à l'Information Scientifique et Technique"

Copied!
172
0
0

Texte intégral

(1)

Guillaume Sire

MCF – Université Toulouse 1 Capitole

(2)

« La bibliométrie est l’application des mathématiques

et des méthodes statistiques aux livres, articles et

autres moyens de communication. »

Pritchard A., « Statistical Bibliography or

Bibliometrics », Journal of Documentation, 25,

4, p. 348-349, 1969

(3)

1. Appréhender le comment et le pourquoi de

l’évaluation quantitative de la recherche

scientifique

2. Savoir quels en sont les principaux outils

3. Connaître les enjeux

4. Comprendre les principales controverses

(4)

Plan de cours

} Introduction : qu’est-ce que la bibliométrie ?

} Définition / Pour qui / Pour quoi / Exemples

} 1. Fondations et fondateurs d’une discipline et d’une pratique

} 1.1 Derek Price } 1.2 Eugene Garfield } 1.3 Pinski et Narin

} 2. Les lois

} 2.1 Loi de Bradford (les revues) } 2.2 Loi de Lotka (les auteurs) } 2.3 Loi de Zipf (les mots)

} 2.4 D’autres types de concentration } 2.5 Le problème des effets Matthieu

(5)

Plan de cours

} 3. Les méthodes

} 3.1 La modélisation des distributions } 3.2 Elaboration d’indicateurs multivariés } 3.3 Elaboration d’indicateurs relationnels

} 4. Les bases de données

} 4.1 Les bases de l’Institute for Scientific Information } 4.2 Le Scopus d’Elsevier

} 4.3 Google Scholar } 4.4 Comparaison

(6)

Plan de cours

} 5. Les indicateurs

} 5.1 Pour un chercheur } 5.2 Pour un article } 5.3 Pour une revue

} 5.4 Les indicateurs de l’OST } 5.5 Les pratiques émergentes

} 6. Les classements internationaux

} 6.1 Le classement de Shanghai } 6.2 Le classement de Leiden } 6.3 D’autres classements

(7)

Plan de cours

} 7. Controverses

} 7.1 Les indicateurs } 7.2 L’effet normatif

} 7.3 Les différences de périmètres } 7.4 Le mille-feuille des affiliations } 7.5 Les classements internationaux } 7.6 Les revues prédatrices

(8)

Introduction

Qu’est-ce que la

bibliométrie ?

(9)

Qu’est-ce que la valeur et qu’est-ce que

l’évaluation ? Y a-t-il une « valeur en soi » ?

« Évaluer c’est créer : écoutez donc, vous qui êtes créateurs ! C’est leur évaluation qui fait des trésors et des joyaux de toutes choses évaluées.

(…)

Les valeurs changent lorsque le créateur se transforme. Celui qui doit créer détruit toujours. »

(10)

Comment la recherche est-elle évaluée ?

}

2 types d’évaluation

}

A priori, qualitative, par les pairs (peer reviewing)

}

A posteriori, quantitative, par les citations

(bibliométrique)

} Quels effets de l’évaluation (feed-back, ajustements,

(11)

La bibliométrie…

}

Analyse de deux choses en particulier :

}

Le Nombre

}

La Relation

(12)

Quelques définitions de la bibliométrie

Pritchard, 1969 : « l’application des mathématiques et

des méthodes statistiques aux livres, articles et autres moyens de communication »

Hawkins et Miller, 1993 « Les analyses quantitatives d'un corpus. »

White et McCain 1989 « La bibliométrie est aux publications ce que la démographie est aux populations. »

Rostaing 1993 : « un outil de mesure auquel on fait appel pour aider à la comparaison et à la compréhension d'un ensemble d'éléments

bibliographiques. (…) La bibliométrie étudie la qualité des publications sur la base de données quantitatives et non plus simplement

(13)

La bibliométrie…

(14)

La bibliométrie…

}

Pour qui ?

} Les instances d’évaluation de la recherche nationales (HCERES) et

internationales (H2020)

} Les chercheurs eux-mêmes } Les chercheurs en bibliométrie } Les bibliothécaires

} Les autres

(15)

La bibliométrie…

}

Pour quoi ?

}

Les instances d’évaluation de la recherche, locales,

nationales, internationales

} Répartir les budgets et les postes } Remettre des prix et des primes } Fixer les prix du « job market »

}

Les chercheurs eux-mêmes

}

Les chercheurs en bibliométrie

}

Les bibliothécaires

(16)
(17)

La bibliométrie…

}

Pour quoi ?

}

Les instances d’évaluation de la recherche, locales,

nationales, internationales

}

Les chercheurs eux-mêmes

} Effectuer un état de l’art, trouver d’autres travaux

} Topographier les paradigmes les uns par rapport aux autres } Situer leurs travaux dans la discipline

} Assurer la « cumulativité » : la fameuse « pierre à l’édifice ».

}

Les chercheurs en bibliométrie

}

Les bibliothécaires

(18)

La bibliométrie…

} Pour quoi ?

} Les instances d’évaluation de la recherche, locales, nationales, internationales } Les chercheurs eux-mêmes

} Les chercheurs en bibliométrie

} Etudier une discipline dans le temps et dans l’espace

¨ Les réseaux de citations, les articles les uns par rapport aux autres, les revues les unes par rapport aux

autres, les horizons paradigmatiques

} Etudier les disciplines les unes par rapport aux autres

¨ Les ponts entre disciplines, les concepts communs

} Etudier la vie d’un concept

¨ Où est passé le trou dans la couche d’ozone ? Depuis quand parle-t-on des algorithmes en sciences

sociales ?

} Etudier les conditions et les modalités de la circulation du savoir (et éventuellement de sa performativité)

} Faire une sociologie des sciences et des techniques (les auteurs qui se citent entre eux se connaissent-ils ? (Moed et Van Raan, 1986)

} Etudier la politique de la recherche et des chercheurs qui produisent le savoir (approches constructivistes)

} Les bibliothécaires } Les autres

(19)

« Pour prendre un exemple contemporain, comment, avant sa

reconnaissance publique, aurait-on isolé le groupe des spécialistes du bactériophage ? Pour répondre à une question de ce genre, il faut se fonder sur la présence aux conférences socialisées, sur la circulation des manuscrits ou des preuves d’articles avant leur publication, et surtout sur les réseaux de communication officiels et officieux, y compris ceux que l’on découvre dans la correspondance et dans les liens révélés par les citations. » (Thomas Kuhn, 1962, p. 242 de l’édition française)

(20)

La bibliométrie…

}

Pour quoi ?

} Les instances d’évaluation de la recherche, locales, nationales,

internationales

} Les chercheurs eux-mêmes } Les chercheurs en bibliométrie } Les bibliothécaires

} Trouver l’information pertinente

} Hiérarchiser les informations par ordre de pertinence supposée } Les autres

} Hiérarchiser les contenus concernant un même sujet alors qu’on n’y connaît rien } Aider à y voir plus clair dans les débats scientifiques

(21)

Deux enjeux principaux pour la bibliométrie

}

Enjeux de pouvoir

} L’enjeu est la répartition des moyens financiers, matériels, humains et

institutionnels entre des groupes de chercheurs parfois concurrents tout en étant d’accord

} deux laboratoires de météorologie travaillant sur les origines anthropiques du

réchauffement climatiques

} ou bien des chercheurs n’étant pas d’accord } Climatosceptiques vs Anthropistes

} Economie industrielle vs Economie des conventions

}

Enjeux de savoir

} Epistémologie générale (qu’est-ce, concrètement, que le Savoir) } Epistémologie particulière (qu’est-ce que le savoir sur ce sujet) } Sociologie des sciences et des techniques (STS)

(22)

Exemples de travaux

}

Exemple n. 1 : Robert McSweeney, « The most ‘cited’

(23)

Exemples de travaux

}

Exemple n. 1 : Robert McSweeney, « The most ‘cited’

(24)

Exemples de travaux

}

Exemple n. 1 : Robert McSweeney, « The most ‘cited’

(25)

1. Définitions

}

Exemples de travaux

} Exemple n. 1 : Robert McSweeney, « The most ‘cited’ climate

(26)
(27)
(28)
(29)
(30)
(31)

1. Définitions

Situer les papiers

concernant le changement climatique par rapport à ceux qui concernent le climat mais pas le

(32)

Exemples de travaux

}

Utilité pour les chercheurs :

}

Travaux cités par : Jean-Louis Dufresne et Venance Journé,

CNRS, Laboratoire de météorologie dynamique, Institut

Pierre-Simon Laplace.

}

Pour les professionnels :

(33)

Exemples de travaux

} Utilité pour les politiques :

} Travaux cités ou relayés par : Europe Ecologie les Verts, le PS, l’UMP

} Utilité pour les journalistes…

Sur Libération (1er septembre 2015, avant la COP21)

« Quels scientifiques faut-il interroger pour connaître la climatologie et bien informer les citoyens ? (…) Question pour journalistes spécialisés, mais aussi pour rédacteurs en chef. Pour les guider, voici une étude bibliométrique sous la forme d’une analyse réalisée par Robert McSweeney pour le site web Carbon Brief. Une étude statistique, donc, qui peut s’appuyer sur des grands nombres. Elle est fondée sur les données de la base Scopus, qui recense les recherches publiées sous forme d’articles dans des revues à comité de lecture et les citations qu’ils ont ensuite reçues par d’autres articles ultérieurs. Dans cette base de données, le nombre d’articles de recherche portant sur le changement climatique est passé de quelques dizaines par an en 1987 à près de 13.000 en 2014. Un signe indubitable de la mobilisation de la communauté scientifique sur ce sujet décisif pour l’avenir de l’Humanité. »

(34)

Exemples de travaux

}

Merot, P. & Bridet-Guillaume, F. (2006). Les bocages

armoricains : repères sur l'évolution des thèmes de

recherche depuis les années 1960. Natures Sciences

(35)

Exemples de travaux

} Evans J. A. (2008), « Electronic Publication and the Narrowing of Science and Scholarship », Science,

vol. 321, n°5887, p. 395-399

(36)

Pour la suite

} Choisissez 5 articles à propos de votre sujet de thèse, en anglais, publiés dans 5 revues différentes

(37)

1. Fondations et fondateurs

d’une discipline et d’une pratique

(38)

Les toutes premières études

} En 1917, Cole et Eales répertorient toute la littérature publiée entre 1850 et

1860 concernant l'anatomie et étudient statistiquement les « fluctuations » des centres d’intérêts (i.e. les effets de mode)

} En 1927, Gross et Gross comptabilisent des citations des chercheurs en chimie

pour classer ensuite les journaux par ordre décroissant du nombre de citations reçues.

} En 1934, Bradford propose aux gestionnaires de bibliothèques une manière

d’identifier les thèmes privilégiés par les différents journaux en comptant les articles associés à tel ou tel thème dans chaque journal, de manière à optimiser ensuite la gestion de leurs abonnements aux différentes revues en fonction des centres d’intérêts de leur clientèle.

} Rostaing H. (1996), La bibliographie et ses techniques, Toulouse, Editions

(39)

1.1

Derek John de Solla Price (1922-83)

« La science est ce qui se publie dans les revues, les articles, les communications et les ouvrages scientifiques. Bref, elle est ce que matérialise la Littérature... Ainsi définie, toute littérature scientifique se prête au dénombrement, à la classification et à la représentation sous forme de séries temporelles ; et dans de nombreux cas, c'est même chose faite ».

(40)

1.1

Derek John de Solla Price (1922-83)

} Hypothèses de Price (lui permettant d’aboutir à la conclusion citée ci-avant)

} La science est une population de publications.

} Un document écrit est une sorte d'atome de connaissance.

} Un article représente au moins un quantum d'information

scientifique.

} La conclusion proposée par Price sur la nature de la science est

contestable (« un article scientifique » est-ce que cela veut dire quelque chose ? peut-on additionner ou soustraire des articles scientifiques ? Peut-on les transformer en variables continues ?)

(41)

1.1

Derek John de Solla Price (1922-83)

}

Price, 1962 : « la méthode empirique traitant le nombre

brut de périodiques ou d'articles comme indice du volume

de la science trouve une justification théorique dans

l'existence de courbes stables et régulières »

}

Définition de la scientométrie par Price :

« les recherches

quantitatives de toutes les choses concernant la science

et auxquelles on peut attacher des nombres »

} A la fois plus resserré que la bibliométrie (seule l’ist est

concernée) et plus large (on prend aussi des données économiques (financement) sociologiques (ressources humaines)

(42)

1.1

Derek John de Solla Price (1922-83)

}

Price, "The Science of Science", dans J. H. Platt (ed.),

New Views of the Nature of Man, Chicago, 1965

}

Il suggère que le pattern d’un réseau d'articles

scientifiques peut être étudié par la théorie de

graphes et les méthodes matricielles, et propose

l'image selon laquelle "les articles se groupent dans

des continents et dans des états qui peuvent eux aussi

être cartographiés (mapped)".

(43)

1.2

Eugene Garfield (1925-2017)

}

Eugène Garfield

} Crée le L'Institute for Scientific

Information (ISI) en 1960

} Le Science Citation Index (SCI) en 1963 } L’impact Factor en 1972

} Le Social Sciences Citation Index en 1973 } Le Journal Citation Reports en 1976

} Art & Humanities Citation Index en 1978

Il crée les institutions (ISI), les instruments de collecte (SCI) et de mesure (IF), et les supports de publication (JCR)

(44)

1.2

Eugene Garfield (1925-2017)

}

Le SCI permet d'identifier la chaîne de citations et la

(45)

1.2

Eugene Garfield (1925-2017)

(46)

1.2

Eugene Garfield (1925-2017)

}

Au début, le SCI comprenait 3 répertoires

} Citation Index (répertoire des citations par noms d’auteurs)

} Source Index (répertoire des publications par noms d’auteurs)

} Permuterm Subject Index (répertoire des mots du titre des publications)

} Puis à partir de 1976, le Journal Citation Reports (JCR) est venu

faire office de quatrième répertoire, pour fournir notamment :

} Le nombre de citations reçues par une revue pendant une année

} Le facteur d’impact de chaque revue

(47)

Garfield, Pudovkin, Istomin (2003), « Mapping the output of topical searches in the Web of Knowledge and the case of Watson-Crick. »,

Information Technology and Libraries 22:183-187

(48)

1.3 Pinski & Narin

}

Pinski, Gabriel and Francis Narin. 1976. ‘Citation

influence for journal aggregates of scientific

publications.’ Information Processing and Management

12: 297–312, 298.

}

L’idée : toutes les citations ne se valent pas / grands

électeurs ?

} Tout en utilisant les données du SCI, Narin a proposé des définitions

de l’influence d’une revue qui lestent les citations d’un poids relatif à la revue citante : plus une revue est citée par une revue prestigieuse, plus elle est prestigieuse

David Pontille, Didier Torny, « La manufacture de l'évaluation scientifique. Algorithmes, jeux de données et outils bibliométriques », Réseaux 2013/1 (n° 177), p. 23-61.

(49)
(50)

« Après avoir remarqué que le classement de ces

valeurs numériques suivaient certaines régularités, les

chercheurs en bibliométrie ont souhaité découvrir les

modèles et les lois reproductibles qui engendraient ces

valeurs. »

Rostaing H. (1996), La bibliographie et ses techniques, Toulouse, Editions Sciences de la société.

(51)

2.1 La loi de Bradford : les revues

}

Objectif de Bradford : trouver quel « noyau » de

revues traite plus souvent que les autres de tel ou tel

sujet (une science appliquée, visant à aider les

bibliothécaires)

Le Coadic Y. (2005) « Mathématique et statistique en science de l’information et en science de la

communication: Infométrie mathématique et infométrie statistique des revues scientifiques », Ciência da

Informação, vol.34, no.3, p.15-22.

Bradford, S.C. (1934) « Sources of Information on Specific Subjects », Engineering: An Illustrated Weekly

(52)

2.2 La loi de Lotka (1926) : les auteurs

} Constat de départ : très peu d’auteurs ont publié un grand nombre d’articles (cœur), beaucoup

d’auteurs ont très peu publié (dispersion)

} par rapport au nombre d'auteurs C qui publient un article (y =C), 4 fois moins d'auteurs en publient

deux (y=C/4) , 9 fois moins en publient trois (y=C/9) , ... n² fois moins en publient n (y=C/n²)

} Si y(1) : 1 000 000 } y(2) : 250 000 } y(3) : 111 111 } y(4) : 62 500 } y(5) : 40 000 } y(6) : 27 778 } y(8) : 15 625 } y(9) : 12 346 } y(10) : 10 000 } Y(100) : 100 } Y(1000) : 1 ????

(53)

2.3 Loi de Zipf : les mots

}

Le ratio 1/n•(n+1) donne la fraction du nombre total de

mots différents apparaissant à la fréquence n.

}

La moitié des mots apparaissent une fois (pas pertinent)

}

Un sixième des mots apparaissent deux fois (peut-être)

}

Un douzième apparaissent trois fois (peut-être ++)

(54)

2.3 Loi de Zipf : les mots

}

Elle n’est pas fondée à proprement parler sur des

principes bibliométriques mais sur des principes

linguistiques.

}

Application en IR : (Peter Luhn montrera notamment

que la fréquence d’utilisation d’un mot dans un

document ainsi que sa position par rapport aux

autres mots permettaient de mesurer le degré de

pertinence du document pour une requête donnée

[Luhn, 1958].)

(55)
(56)

2.4 D’autres types de concentration

Rostaing H. (1996), La bibliographie et ses techniques, Toulouse, Editions Sciences de la société.

(57)

2.5 Le problème des « effets Matthieu »

}

« Car on donnera à celui qui a, et il sera dans

l'abondance, mais à celui qui n'a pas on ôtera même

ce qu'il a. » (Mt 13:12)

… The rich gets richer !

} Robert K. Merton, « The Matthew Effect », Science, vol. 159, no 3810, 1968,

(58)
(59)

3.1 La modélisation des distributions

}

Répartition de type cœur/dispersion, lois de Bradford,

(60)

3.2 Elaboration d’indicateurs univariés

}

mesures purement quantitatives basées sur du simple

dénombrement ou des calculs de ratio à partir des

différents éléments bibliographiques : la date de

publication, les revues, les auteurs, les organismes, les

pays, les thèmes.

(61)

3.3 Elaboration d’indicateurs relationnels

}

exploitation des méthodes d’analyse des données

statistiques pour décrire les relations entretenues

entre différents éléments bibliographiques : analyses

des citations, des mots associés, des

(62)
(63)

4.1 ISI

} En 1992, Thomson a racheté l’Institute for Scientific Information créé par

Garfield

} Science Citation Index (SCI)

} Social Sciences Citation Index (SSCI)

} Arts and Humanities Citation Index (A&HCI)

} Actes de colloques :

¨ Conference Proceedings Citation Index - Science (CPCI-S) ¨ Conference Proceedings Citation Index - Social Sciences &

Humanities (CPCI-SSH).

} Les livres :

¨ Book Citation Index (BCI)

} Deux bases de données consacrées à la chimie :

¨ Index Chemicus (IC),

¨ Current Chemical Reactions (CCR-Expanded).

SCI : plus de 9 700 revues, dont 70 % en sciences

naturelles

(64)

4.1 ISI

}

En juillet 2016, les fonds d’investissement Onex Corporation

et Baring Private Equity Asia rachètent au groupe Thomson

Reuters sa division "Intellectual Property & Science" pour

3,55 milliards de dollars.

}

… qui devient « Clarivate Analytics »

(65)
(66)

Web of Science (interface web de l’ISI)

(67)

Web of Science (interface web de l’ISI)

(68)

Web of Science (interface web de l’ISI)

(69)

Web of Science (interface web de l’ISI)

(70)

4.2 Scopus (Elsevier)

}

En 2004, l’éditeur de revues scientifiques Elsevier lance un

concurrent de l’ISI

(71)

4.2 Scopus (Elsevier)

}

En 2004, l’éditeur de revues scientifiques Elsevier lance un

concurrent de l’ISI

(72)

4.2 Scopus (Elsevier)

(73)

4.2 Scopus (Elsevier)

(74)

4.3 Google Scholar

}

Lancé en 2004, gratuit, automatique

}

En 2014, Google Scholar prétendait couvrir 85 % des

publications scientifiques.

}

Mais une qualité qui laisse à désirer pour les études

bibliométriques (à cause du manque de contrôle des sources

notamment)

} cf. Péter Jacsó, « Google Scholar’s ghost authors », Library

(75)

4.4 Comparaison

(76)

} Nomb

(77)

4.1 Web of Science

(78)

4.4 Comparaison

} On trouve de nombreux articles de comparaison des bases de données :

} Adriaanse, L. S., & Rensleigh, C. (2013). Web of Science, Scopus and Google Scholar: A content comprehensiveness comparison. The Electronic

Library, 31(6), 727–744.

} Amara, N., & Landry, R. (2012). « Counting citations in the field of business and management: Why use Google Scholar rather than the Web of

Science ». Scientometrics,93(3), 553–581.

} Bakkalbasi, N., Bauer, K., Glover, J., & Wang, L. (2006). Three options for citation tracking: Google Scholar, Scopus and Web of Science. Biomedical digital

libraries, 3(1), 7.

} Bar-Ilan, J. (2010). Citations to the “Introduction to informetrics” indexed by WOS. Scopus and Google Scholar. Scientometrics, 82(3), 495–506.

} Bergman, E. M. L. (2012). Finding citations to social work literature: The relative benefits of using Web of Science, Scopus, or Google Scholar. The Journal

of Academic Librarianship, 38(6), 370–379.

} De Groote, S. L., & Raszewski, R. (2012). Coverage of Google Scholar, Scopus, and Web of Science: A case study of the h-index in nursing. Nursing

Outlook, 60(6), 391–400.

} De Winter, J. C., Zadpoor, A. A., & Dodou, D. (2014). The expansion of Google Scholar versus Web of Science: A longitudinal study. Scientometrics, 98(2),

1547–1565.

} Meho, L. I., & Yang, K. (2007). Impact of data sources on citation counts and rankings of LIS faculty: Web of Science versus Scopus and Google

Scholar. Journal of the American Society for Information Science and Technology, 58(13), 2105–2125.

} Mikki, S. (2010). Comparing Google Scholar and ISI Web of Science for earth sciences. Scientometrics, 82(2), 321–331.

} Minasny, B., Hartemink, A. E., McBratney, A., & Jang, H. J. (2013). Citations and the h index of soil researchers and journals in the Web of Science, Scopus,

and Google Scholar. PeerJ, 1, e183.

(79)

4.4 Comparaison

}

En France, Scopus serait plus pertinent que le Web of

Science sur les revues AERES/HCERES (source : 2015)

Bordignon F., "Scopus plus pertinent que le Web of Science sur les revues AERES/HCERES," in Carnet'IST, 15/10/2015,https://carnetist.hypotheses.org/190. Consulté en ligne le 21/09/2017.

(80)

4.4 Comparaison

}

En France, Scopus plus pertinent que le Web of Science sur

les revues AERES/HCERES (source : 2015)

Bordignon F., "Scopus plus pertinent que le Web of Science sur les revues AERES/HCERES," in Carnet'IST, 15/10/2015,https://carnetist.hypotheses.org/190. Consulté en ligne le 21/09/2017.

(81)

4.4 Comparaison

}

En France, Scopus plus pertinent que le Web of Science sur

les revues AERES/HCERES (source : 2015)

Bordignon F., "Scopus plus pertinent que le Web of Science sur les revues AERES/HCERES," in Carnet'IST, 15/10/2015,https://carnetist.hypotheses.org/190. Consulté en ligne le 21/09/2017.

(82)
(83)

4.5 Les bases de données spécialisées

}

Informatique : Association for Computing Machinery, ACM

Attention : Moins performant que le WoS selon l’OST (2010)

OST (2010), « Note sur la comparaison Web of Science - ACM Guide pour la couverture bibliométrique de l'informatique »

(84)
(85)

5.1 Pour un chercheur

}

Nombre d’articles

}

Nombre de citations

}

Pondération du nbre d’articles et du nbre de citations

en fonction de l’IF des revues

}

Indice H

}

Indice G d’Egghe

}

Indice i10

}

Impact factor

(86)

L’indice h (ou indice de Hirsh)

} « Un scientifique a un indice h si h de ses articles ont chacun au moins h citations. »

} Si j’ai publié 20 articles et que 8 de mes articles sont cités au moins huit fois (sachant que tous les autres sont cités moins de huit fois) mon indice h est 8.

(87)

Le H-Index

}

“Un h-index de 20 après 20 années d’activité scientifique

}

caractérise un savant qui a réussi […] un h-index de 40

}

après 20 années d’activité scientifique caractérise les

}

savants exceptionnels, qu’on ne trouve probablement

}

que dans les meilleurs universités ou les grands

}

laboratoires de recherche [...] un h-index de 60 après 20

}

années, ou de 90 après 30 années, caractérise des

}

individus réellement uniques” (Hirsch 2005, p. 16571).

}

Puis des “versions améliorées” comme le g-index

(88)

L’indice H (ou indice de Hirsh)

} “Un h-index de 20 après 20 années d’activité scientifique caractérise

un savant qui a réussi […] un h-index de 40 après 20 années

d’activité scientifique caractérise les savants exceptionnels, qu’on ne trouve probablement que dans les meilleurs universités ou les

grands laboratoires de recherche [...] un h-index de 60 après 20 années, ou de 90 après 30 années, caractérise des individus

réellement uniques” (Hirsch 2005, p. 16571).

} Hirsch suggère que, pour les physiciens, une valeur de 10-12 devrait

permettre de considérer un poste de chercheur résidant dans une université renommée. Un poste de professeur pourrait être

considéré à partir de 18, et 15-20 pour la qualité de membre de l'American Physical Society. Une valeur supérieure à 45 pointerait vers la possibilité d'être admis à l'Académie des Sciences américaine.

(89)

L’indice h (ou indice de Hirsh)

} Le rôle du temps : plus un article est publié depuis longtemps, plus il a reçu de

citations (s’il est bon)… c’est donc un indicateur qui convient mieux pour les chercheurs ayant déjà un certain âge

} Toutes les citations sont comptées de la même façon (une de Nature et une d’un

acte de colloque publié par une toute petite revue)

} Les co-auteurs capitalisent les citations de manière identique (y compris dans le cas

où il y a un premier auteur)

} Certains auteurs multiplient les citations à eux-mêmes dans le but d’augmenter leur

indice H

} « Gel » : Je peux avoir trois articles cités 10 000 fois chacun et un facteur H de 5,

(90)

Le facteur G d’Egghe

} Le facteur G est calculé comme le plus grand nombre G tel que les

G publications les plus citées ont reçu au moins G citations au carré

} Si G = 10, cela signifie que le chercheur a publié 10 articles recueillant, au

total, au moins 100 citations

} Il remédie au « gel » des publications captées au-dessus de l’indice H en tenant

compte du nombre exceptionnellement élevé de citations générées sur le (très) long terme par quelques unes d’entre elles

} Le G est reconnu et recommandé notamment par l’Académie des

(91)

L’indice iX (inventé par Google Scholar)

} « Un scientifique a un indice iX de Y s’il a Y articles cités au moins X fois chacun. »

} Si 4 de mes articles sont citées au moins 10 fois mon indice i10 est de 4 (en général c’est toujours de i10 dont il s’agit)

(92)
(93)

Web of Science (interface web de l’ISI)

(94)
(95)

Web of Science (interface web de l’ISI)

(96)

Le facteur d’impact pour un chercheur

Le nombre moyen de citations de chaque article publié durant la période des 2 ans précédents (mais normalement le FI est fait pour les revues)

(97)

Les indicateurs de flux

} Les indicateurs de flux mettent en évidence les relations entre les chercheurs, institutions et domaines de recherche. Pour cette raison, ils sont parfois désignés sous le terme d'indicateur relationnel.

(98)

Les indicateurs de flux

} Les indicateurs de flux mettent en évidence les relations entre les chercheurs, institutions et domaines de recherche. Pour cette raison, ils sont parfois désignés sous le terme d'indicateur relationnel.

} Science et technologie résultent des échanges de connaissance et de la collaboration entre les acteurs de la recherche. De cette prémisse découle le besoin de créer des indicateurs pour identifier ces réseaux d'échange. L'analyse des flux cherche donc à rendre compte des

(99)

5.2 Pour un article

}

Nombre de citations

}

Leur(s) auteur(s) (indice(s) H)

}

Leur origine (IF des revues, indice H des chercheurs citant)

}

Impact factor de l’article : « Le nombre moyen de citations

de cet article a reçu durant la période des 2 ans

précédents »

} Successful paper : « un article qui a reçu davantage de citations que le

nombre de références bibliographiques qu’il utilise » (Kosmulski, 2011) }

Indicateur de flux : PageRank…

(100)
(101)

5.2 Pour un article

(102)

5.3 Pour une revue

}

Facteur d’impact

}

PageRank

}

Facteur Y

}

Taux d’acceptation

}

Taux d’articles non cités

}

Eigenfactor

}

SCImago

(103)

Facteur d’Impact (FI ou IF)

}

Le FI d'une revue est le nombre moyen de citations de chaque

article publié dans cette revue durant la période des 2 ans

précédents

}

Ils sont publiés chaque année par Carivate Analytics dans le

Journal Citation Reports

Problème : là encore les liens ne sont pas pondérés (une citation venant de Nature vaut la même chose qu’une citation d’une toute petite revue)

(104)
(105)

Facteur d’Impact (FI ou IF)

}

Le FI d'une revue est le nombre moyen de citations de chaque

article publié dans cette revue durant la période des 2 ans

précédents

}

Ils sont publiés chaque année par Carivate Analytics dans le

(106)

La course au Facteur d’impact

En 2009, le rédacteur en chef du Journal of Sleep Research commençait ainsi un éditorial, intitulé “the race for the impact factor”, où il décrivait l’attente générée par la parution annuelle du JCR (Lavie 2009) :

“Chaque année, pendant la deuxième quinzaine du mois de juin, les rédacteurs

en chef et les éditeurs de revues deviennent nerveux et agités, et même peut-être insomniaques, attendant impatiemment la publication du facteur d’impact de leur revue (JIF) pour l’année en cours par Thomson Reuters (auparavant Thomson Scientific). Ces dernières années, le JIF a acquis une influence

légendaire sur le prestige des revues et les articles qu’elles publient, qui a

engendré une “course pour le facteur d’impact”. Les rédacteurs en chef essaient d’augmenter leur JIF autant que possible et les auteurs s’efforcent de publier leurs articles dans les revues ayant le plus grand JIF possible”

(107)

Anecdote…

} En 2008, un article unique (en anglais), Une brève histoire du SHELX,

incluait la phrase « Cet article peut servir comme une citation de

littérature générale quand un des logiciels libres SHELX est utilisé pour déterminer la structure d'un cristal. »

} Cet article a reçu plus de 6 600 citations. Par conséquent, le FI de Acta

Crystallographica Section A augmenta de 2,051 en 2008 à 49,926 en 2009, soit plus que Nature (31,434) et Science (28,103)22. Le second article le plus cité dans Acta Crystallographica Section A en 2008 avait seulement 28

citations

(108)

PageRank de la revue

(109)

Facteur Y

}

Facteur Y : produit de l’IF et du « PageRank »

(en

plus du PageRank le WPR prend notamment en compte les liens

sortants, cf. Xing et Ghorbani, 2004)

(110)

Taux d’acceptation

}

Rapport entre le nombre d’articles publiés par

la revue et le nombre d’articles soumis

(données difficiles à obtenir)

Pontille D., Torny, D. (2013). La manufacture de l'évaluation scientifique: Algorithmes, jeux de données et outils bibliométriques. Réseaux, 177,(1), 23-61..

(111)

Taux d’articles non cités

}

Mesure la partie « morte » de la production

d’une revue en divisant le nombre d’articles

non cités par le nombre total d’articles publiés

sur une période donnée.

Pontille D., Torny, D. (2013). La manufacture de l'évaluation scientifique: Algorithmes, jeux de données et outils bibliométriques. Réseaux, 177,(1), 23-61..

(112)

Eigenfactor & Article influence

}

l’Eigenfactor est calculé pour une revue sur une période de

5 ans de citations d’articles. La formule n’intègre pas le

nombre d’articles publiés dans la revue.

} Les valeurs de l’Eigenfactor (EF) sont normalisées de telle sorte que la

somme des valeurs EF de toutes les revues classées dans le JCR est égale à 100.

}

Article Influence est le rapport entre l’Eigenfactor de la revue

et le nombre d’articles publiés par cette revue au cours des 5

années précédentes.

(113)
(114)
(115)
(116)
(117)
(118)
(119)
(120)

Retraction index

= (Nombre d’articles d’une même revue désavoués pendant une période T x 1000) / Nombre d’articles publiés par cette revue pendant la période T

Fang, F. C.; Casadevall, A. (8 August 2011)."Retracted Science and the Retraction

Index".Infection and Immunity. 79 (10): 3855–3859.

(121)

http://retractionwatch.com/

} Nomb

(122)

http://retractionwatch.com/

(123)

http://retractionwatch.com/

} Nomb

(124)

http://retractionwatch.com/

} Nomb

14 septembre 2017

(125)

Faites l’expérience…

} Eigenfactor } Scimago } Scopus } Web of Science } Retraction Watch Source : http://passeurdesciences.blog.lemonde.fr/2012/10/03/la-fraude-scientifique-est-plus-repandue-recherche/

(126)
(127)
(128)
(129)
(130)

5.5 Les pratiques émergentes

}

Altmetrics

}

Fac of 1000

(131)
(132)
(133)
(134)
(135)
(136)
(137)
(138)
(139)

Fac of 1000

(140)
(141)
(142)
(143)

6.1 Le classement de Shanghai

(144)
(145)

6.2 Le classement de Leiden

(146)

6.2 Le classement de Leiden

(147)

6.2 Le classement de Leiden

Indices de collaboration

Proportion des publications de collaboration (PP collab ) . La proportion des publications d'une université qui ont été co-écrit avec un ou plusieurs

autres organisations.

Proportion publications internationales de collaboration (PP int collab ) . La proportion des publications d'une université qui ont été co-écrit par deux ou plusieurs pays.

La distance moyenne collaboration géographique (MGCD) . La collaboration à distance géographique moyenne des publications d'une université

Proportion des publications à longue distance de collaboration (PP > 1000 km ) . La proportion des publications d'une université qui ont une distance géographique de la collaboration de plus de 1000 km.

(148)

6.2 Le classement de Leiden

(149)

6.3 D’autres classements…

(150)
(151)
(152)

1. Est-ce que les indicateurs sont les bons ?

} Cela a-t-il un sens de quantifier pour qualifier ?

} Le paradoxe sorite (4ème siècle av. J.-C., Eubulide)

(153)
(154)

1. Est-ce que les indicateurs sont les bons ?

} La périodicité ? (pourquoi deux ans ? Cinq ans ? ) } La pondération des différents critères ?

} Les autocitations ?

} Quelle marge d’erreur (en fonction des bases de données) ?

} Peut on comparer les années (nouvelles revues, changements de noms,

nouveaux chercheurs, chercheurs partis, chercheurs déplacés…) ?

} Le facteur H fige l’I.F. des jeunes chercheurs à un niveau faible sur

(155)

2. La question de l’effet normatif

}

Publish or perish… à quel prix pour la recherche ?

}

Tutelles, Communauté d'universités et établissements

(156)

3. Le problème des périmètres

}

Différence de périmètre entre WoS/Scopus/Google

Scholar

}

Absence des revues francophones…

(157)

4. Le problème des affiliations / tutelles etc.

Voir : Girard, F., Sene, A., Pothier, N., Deniau, A., Prêtre, V. & Durand-Barthez, M. (2016). Le mille-feuille des affiliations : où en sommes-nous ?. I2D – Information, données & documents, volume 53,(1), 15-15.

(158)

4. Le problème des affiliations / tutelles etc.

Voir :

• Michèle Dassa, Alina Deniau, Manuel Durand-Barthez, Françoise Girard, Nathalie Pothier, et al.. Le millefeuille des affiliations françaises dans les publications scientifiques. Documentaliste - Sciences de l’Information, ADBS, 2014, Le Droit sans complexe : décryptage et repères, 51 (4), pp.12-16.

• Girard, F., Sene, A., Pothier, N., Deniau, A., Prêtre, V. & Durand-Barthez, M. (2016). Le mille-feuille des affiliations : où en sommes-nous ?. I2D – Information, données & documents, volume 53,(1), 15-15.

}

Tentatives de solution :

} Ajout dans la base WoS d’un champ « intermédiaire » :

l’Organization-Enhanced qui fait référence à toutes les graphies d’un seul et même organisme. On a donc quatre champs indexés sur le WoS : Address (AD) (sous-entendu du/des laboratoire(s) d’affiliation des auteurs), Organization (OO), Suborganization (SG), et

Organization- Enhanced (OG)

(159)

5. Les classements internationaux des

universités

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

(160)

6. Les revues prédatrices

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

} Quelles sont les garanties, la fiabilité ?

(161)

5. Les prédateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

} Quelles sont les garanties, la fiabilité ?

(162)

5. Les prédateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

} Quelles sont les garanties, la fiabilité ?

(163)
(164)

6. Les prédateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

} Quelles sont les garanties, la fiabilité ?

(165)

5. Les prédateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

} Quelles sont les garanties, la fiabilité ?

(166)

5. Les prédateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

(167)

5. Les prédateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

(168)

Pour vérifier par ISSN :

http://road.issn.org/

(169)

Pour vérifier par ISSN :

(170)

Pour vérifier par ISSN :

(171)

7. Les faux indicateurs

} Pourquoi ces classements ? Enjeux économiques et politiques } Quels effets concrets sur les formations et la recherche ?

} Qui a autorité pour comparer les universités, les laboratoires, les

chercheurs ?

} Qui a autorité pour définir les critères et les pondérations ? } Quels sont les grands gagnants/perdants ?

(172)

Questions

Discussion

} Mail : guillaumesire@gmail.com } Twitter : @guillaumesire

Références

Documents relatifs

Since the parameter estimates and the ¯ltered state variables can be obtained by using a set of yields that cover a desirable maturity spectrum, its application to derivative

Auch wenn es Traven nie darum gegangen sei 228 , die Lebensweise der mexikanischen Indianer im Sinne eines konkreten Lösungsvorschlags für die Probleme der modernen,

In light of these results, and remembering the two greatest differences in the incidence of types of training at the employee level, namely that employees receiving on-the-job

le texte ne révèle pas les conséquences tant pour l’entité prophète que pour l’ED, nous pouvons en déduire au terme de cette analyse que ces oracles du prophète contribuent

Le bon sens peut être parfois de jouer avec le système, ce qui ne signifi e pas qu’on s’y com- plaise… Mais il suffi t de libérer le champ des possibles pour

de même, ce sont dans leurs fondements que sont interrogées nos écoles d’architecture plus traditionnellement portées sur le « projet » lui-même (ses formes et ses fonctions,

C’est pour cela que, si nous étions cohérents dans la réalisation de l’égalité des chances, nous devrions donner à l’avenir des points supplémentaires,

communistes à rejeter leurs positions anti-colonialistes, l'idéal de justice de Camus n'était plus assez fort pour' lui faire \garder la.. confiance dans le