• Aucun résultat trouvé

Les contraintes à l’établissement d’un grand marché

MARCHES NUMERIQUES DU TRAVAIL

2. Le grand marché inachevé

2.1. Les contraintes à l’établissement d’un grand marché

Dans cette section, nous montrons que l’amélioration des conditions de fonctionnement du marché – souhaitable individuellement et collectivement – repose sur l’instauration d’instruments de gouvernance [cf. ci-dessous, encadré 1]. Ainsi, la dynamique horizontale, caractérisée par des relations de concurrence, devrait bénéficier de la création d’une mesure

unique et certifiée de l’activité des firmes d’intermédiation. Parallèlement, la mise en place d’un standard technique unique et certifié devrait faciliter les échanges d’information entre systèmes d’information et améliorer la compatibilité des intermédiaires le long de la chaîne verticale de structuration. Or, quoique la plupart des acteurs s’accordent sur l’utilité de tels instruments, ils peinent à les adopter. Nous montrons que la réticence des intermédiaires à coopérer trouve une partie de son explication dans la coexistence ambiguë des deux dynamiques de structuration.

2.1.1. La loi des grands nombres ou la délicate mesure du grand marché

Le bon fonctionnement d’un marché de services d’intermédiation repose sur la capacité à évaluer la performance des intermédiaires. Sur l’internet, les acteurs reconnaissent la nécessité de disposer d’indicateurs précis permettant de mesurer l’activité des sites. Cependant, le rôle de signal de la qualité exercé par cette mesure, d’une part, et le caractère plus ou moins

comparable de l’activité des sites, d’autre part, entravent l’émergence d’une mesure unique et certifiée de la performance.

La réalisation de l’échange marchand n’est possible que si les agents sont en mesure d’évaluer les caractéristiques des biens ou des services échangés. En effet, pour que l’échange ait lieu, il faut que les parties engagées aient la perception que ce qu’elles reçoivent a plus de valeur que ce qui est donné. Cette perception dépend directement de la capacité à mesurer la qualité du

Encadré 1. Coopération et gouvernance : le dilemme du prisonnier

La théorie de l’organisation industrielle nous enseigne que, dans les conditions de la concurrence imparfaite, la recherche de l’intérêt indviduel – le profit – ne conduit pas nécessairement à la réalisation du meilleur surplus total [Tirole, 1988 ; Gabszewicz, 1994]. Voire, l’adoption d’un comportement stratégique peut conduire les firmes à privilégier une stratégie qui n’est, ni collectivement, ni individuellement, la meilleure. En théorie des jeux, cette configuration est illustrée par le dilemme du prisonnier. La matrice des gains indique que le surplus maximum est atteint lorsque les deux joueurs coopèrent. Cependant, la stratégie de la meilleure réponse conduit les joueurs à faire défection. L’équilibre atteint (l’équilibre de Nash) est non seulement paréto-dominé, mais aussi insatisfaisant individuellement :

Le dilemme du prisonnier

Comment résoudre ce dilemme, et parvenir à la coopération ? La répétition du jeu peut amener les joueurs à préférer la coopération afin d’éviter les représailles au tour suivant [Axelrod, 1981]. Cependant, la stratégie de la coopération n’est préférée, du point de vue logique, que si l’horizon temporel est infini – car les joueurs adoptent un raisonnement récursif. Selon J.-P. Dupuy [1994], la seule solution est extérieure au jeu et consiste à se tourner vers un objet collectif irréductible à la rationalité individuelle. Cette certitude peut être obtenue si l’ensemble des joueurs se tourne vers un même tiers, extérieur et doté d’une autorité reconnue. Ainsi, si chaque joueur se lie les mains et sait avec certitude que son vis-à- vis s’est lié les mains, et donc coopérera, alors lui-même coopérera. Concrètement, la coopération doit être soutenue par l’installation d’instruments de gouvernance qui s’imposent à l’ensemble des acteurs. Cependant, l’établissement d’un tel dispositif repose sur l’accord des participants, et est lui-même soumis à la contrainte de coopération…

bien ou service échangé [Akerlof, 1970 ; Barzel, 1982 ; Eymard-Duvernay, 1989 ; Mazé, 2005]. Sur le marché du travail, un offreur ou un demandeur s’adressera à un intermédiaire s’il est en mesure d’évaluer la qualité du service rendu, et de le comparer au coût engagé. Or, en raison des externalités positives de réseau, l’utilité d’un intermédiaire est une fonction croissante du nombre d’agents faisant appel à cet intermédiaire sur l’autre versant du marché. Ainsi, à service rendu équivalent91, un chercheur d’emploi s’adressera d’abord au site qui diffuse le plus grand nombre d’offres d’emploi dans son domaine, et un employeur au site qui attire le plus grand nombre de candidats. Il est donc primordial que chacun dispose d’une mesure précise de la performance du site sur ses deux versants. En raison du mode de tarification asymétrique de ces sites, la mesure de l’audience constitue une variable stratégique, non seulement pour attirer des clients annonceurs mais aussi pour déterminer le prix de l’annonce92. L’intermédiaire est par conséquent incité à manipuler ses chiffres d’audience… et l’annonceur à se méfier des chiffres avancés par son fournisseur. Afin d’être reconnue comme légitime, la mesure doit être établie et certifiée par un tiers ayant une réputation d’indépendance solide. Ainsi, sur le modèle de la presse écrite et de la télévision, les intermédiaires numériques ont recours à des organismes de mesure et de contrôle. Mais, que peut-on mesurer sur internet ?

La mesure de la fréquentation des sites repose sur deux grandes méthodologies distinctes [Groupement Français de l’Industrie de l’Information, 2000]. La première, dite site centric, consiste à mesurer le trafic à partir du site. Plusieurs technologies – les fichiers ‘log’, les ‘sniffers’, les ‘cookies’ – permettent d’enregistrer les traces du passage des internautes, et d’obtenir quelques informations sur leur identité. Ces technologies permettent d’évaluer le trafic de différentes façons : nombre de pages vues, type de pages vues, nombre de visites, temps de connexion et nombre de visiteurs uniques – ces derniers étant identifiés par leur adresse IP. La mesure à partir du site est peu coûteuse, relativement pauvre en information, mais exhaustive. Elle induit cependant des erreurs importantes de comptage et peut être manipulée – un site malveillant peut développer un robot chargé de visiter le site à intervalles réguliers, gonflant artificiellement l’audience. Enfin, l’utilisation de marqueurs, ajoutés aux pages d’un site et collectés par un serveur extérieur, permet la certification de la mesure par

91 Ce qui est le cas dans le modèle de structuration horizontale, puisque tous les intermédiaires sont supposés

proposer le même service : la mise en relation [cf. ci-dessus, 1.2.].

92 La plupart des sites proposent un tarif à l’annonce, dégressif avec le nombre d’annonces diffusées. Le prix

n’est qu’indirectement fonction de l’audience (globale) du site. A l’inverse, certains sites agrégateurs proposent une tarification au clic [cf. ci-dessous, 2.2.2.].

un tiers – les plus connus étant Xiti, Cybermétrie, Diffusion Contrôle et Webtrends. La seconde méthodologie, dite user centric, produit une mesure à partir de l’internaute. Elle repose sur un dispositif plus lourd et plus coûteux, mais permet de définir avec précision le profil et les habitudes des internautes, et donc de qualifier l’audience. Un panel d’individus est constitué en appliquant des critères tels qu’ils puissent être considérés comme représentatifs de la population à étudier ; on installe un logiciel mouchard sur l’ordinateur du paneliste et on enregistre l’ensemble de sa navigation internet. Cette technique d’enquête permet non seulement de connaître le comportement des internautes, mais aussi de déduire l’audience des sites enregistrant un nombre significatif de visites. Ce type d’enquête est toujours réalisé et certifié par une société tierce – par exemple, Nielsen-Netratings ou

Médiamétrie.

La pluralité des méthodes de mesure et des organismes de certification est au cœur de la « controverse » qui anime les acteurs du secteur, incapables de s’entendre sur une mesure unique. Nous identifions deux motifs principaux conduisant les intermédiaires à recourir à des méthodes et à des sociétés de certification différentes.

Le premier est lié au rôle de signal de qualité exercé par les chiffres d’audience en présence d’externalités positives de réseau93 : occuper la position de leader sur le marché a un effet auto-renforçant. Afin d’attirer davantage d’annonceurs, les sites doivent pouvoir se targuer de chiffres d’audience élevés – et, si possible, des meilleurs. Ainsi, en 2004, en excluant les sites publics Anpe.fr et Apec.fr, qui occupent de facto les deux premières places, cinq sites privés annoncent sur leur plaquette commerciale occuper la première place en France, en termes d’audience94 : Monster.fr s’appuie sur une mesure de panel non publique pour se placer « N° 1 en audience cumulée pour l’année 2003 » ; Keljob.com cumule son audience et celle de Emploi.com (site racheté en 2002) en terme de visites mensuelles, ce qui lui permet d’occuper la place de « 1er acteur indépendant du recrutement en ligne » – Monster.fr appartenant au groupe Monster, Cadremploi.fr au groupe Figaro ; Cadresonline.fr affirme

93 Ce phénomène a été mis en évidence par M. Katz et C. Shapiro dans le cadre d’un marché où les standards

techniques diffèrent : « given the possibility of multiple equilibria when products are incompatible, firms’ reputations may play a major role in determining which equilibrium actually obtains. For example, the existence of a strong reputation for being a market share leader may explain IBM’s rapid rise to preeminence in the personal computer market » [1985, p. 439].

94 Nous reprenons ici les principaux résultats du dossier « mesurer et analyser son audience » de la Newsletter du

contre toute vraisemblance être « le 1er site emploi en visiteurs uniques (source Nielsen//Netratings) et en nombre de visites (source Cybermétrie) » en mars 2004 ; Cadremploi.fr s’appuie sur sondage IPSOS datant de 2003 pour occuper la position de « 1er site emploi privé visité par les cadres et professions intermédiaires » ; Enfin Emailjob.com, « 1er site emploi français (source : panel exclusif Hewitt - L’expansion) » annonce 873 000 visiteurs uniques en juin 2004 (source Xiti), tandis que Diffusion Contrôle certifie, pour le même site et le même mois, 373 000 visites uniques. Profitant de l’abondance des mesures et des organismes certificateurs, cinq intermédiaires affirment ainsi occuper la plus haute marche du podium… S’ils se considèrent tous leaders, se considèrent-ils tous comme des concurrents ?

Le second motif de mésentente est lié à la structuration verticale des MNT : la spécialisation des intermédiaires rend leur activité difficilement comparable. Au-delà de la manipulation stratégique des multiples mesures de l’audience, certains intermédiaires dénoncent la pertinence-même de ce type de mesure. Ils adoptent un point de vue extérieur et considèrent que d’autres acteurs exercent une concurrence déloyale. Cette critique se traduit par le refus de quatre sites emploi généralistes – Monster, Cadremploi, Cadresonline et Emailjob (racheté en 2005 par Monster) – d’être associés au classement mensuel proposé par le site Focusrh.com en partenariat avec Xiti. Ce classement des sites selon leur audience – nombre de visiteurs et de visites uniques – accueille, outre Anpe.fr, Apec.fr et Keljob.com, une trentaine de sites spécialisés. Selon ses détracteurs, ce classement est contestable, non en raison de la qualité de la mesure effectuée, mais parce qu’il conduit à privilégier les sites ayant une forte audience. Or, si Anpe.fr et Apec.fr reçoivent un grand nombre de visites, c’est en raison de leur statut de service public ; si Keljob.com peut se targuer d’une audience élevée, cela est dû à son positionnement comme méta-moteur de recherche. Aussi, c’est la validité même de la mesure d’audience pour évaluer la qualité de l’intermédiaire, qui est rejetée : « Je ne sais pas si vous connaissez la lettre FocusRH. Alors, on n’apparaît plus dans le top FocusRH-Xiti, édité tous les mois, pour la simple et bonne raison qu’on n’adhère pas à ce type d’indicateur, parce que pour nous, justement, le fait de dire qu’un indicateur de visites est un indicateur de performance est entièrement faux. Mettre en place un top, tel qu’il le fait, laisse entendre que c’est un indicateur de performance. Or, ça ne l’est pas95 ». Comment, dès lors, évaluer la performance des intermédiaires numériques ? La mesure de

l’activité des sites sur le versant de l’offre d’emploi fait l’objet du même type de critique : « Le nombre d’offres est forcément important ; effectivement il ne va pas atteindre le niveau de certains autres sites. Il y en a un, c’est un méta-moteur, Keljob, donc on est sur une logique de volume dans une dimension réellement différente. Après, on est sur une logique de sites liés à la presse. Là, je pense par exemple à Cadremploi, mais Cadremploi c’est le site le plus malin de la terre. Le Figaro est actionnaire n°1 du site, largement, mais, ensuite, il y a les agences de communication qui sont actionnaires, et les cabinets de recrutement qui sont actionnaires, sachant que les cabinets de recrutement mettent leurs annonces gratuitement sur le site. Donc, forcément, ça biaise le système96 ».

Au final, les intermédiaires ne parviennent pas à s’entendre sur une mesure unique et certifiée de la qualité du service qu’ils délivrent. L’échec de leur coopération élève l’incertitude qualitative et favorise la manipulation stratégique de l’information.

2.1.2. Standards et compatibilités : enjeux techniques et économiques

L’établissement d’instruments de gouvernance constitue également un enjeu dans le cadre de la logique verticale de structuration des MNT. En effet, la mise en place d’un standard technique unique et certifié devrait faciliter grandement les échanges d’informations le long des chaînes d’intermédiaires. Ce standard existe au niveau international mais son adoption par tous les acteurs rencontre des obstacles.

La mise en œuvre d’une démarche coopérative est a priori plus aisée dans le cadre de la logique verticale que dans celui de la logique horizontale. En effet, les firmes cherchent à nouer des relations contractuelles et ont donc un intérêt commun à coopérer à la construction d’un cadre commun. Cette question se pose en particulier lorsqu’il s’agit de réduire les coûts de coordination générés par la multiplication des partenariats : la mise en compatibilité de systèmes et de technologies d’information hétérogènes réduit de tels coûts. Généralement, cet intérêt commun est limité au cadre local de l’arrangement contractuel : les parties engagées sont incitées à n’établir qu’une mise en compatibilité minimale, par exemple en recourant à des outils ad hoc, tels que les « adaptateurs97 » [Katz et Shapiro, 1994]. Cependant, la mise en

96 Ibidem.

97 A la différence de la standardisation, qui consiste à concevoir deux systèmes d’information hétérogènes à

partir de composants interchangeables, l’adaptateur vient s’attacher à un composant d’un système pour lui permettre de communiquer avec un autre système [Katz et Shapiro, 1994, p. 110].

place de tels mécanismes d’échange de données engendre des coûts de négociation et de mise en oeuvre. De plus, le contenu d’un arrangement contractuel dépend du pouvoir de négociation des parties ; une asymétrie de pouvoir peut conduire à faire supporter le coût de mise en compatibilité par une seule partie [Brousseau, 1993]. Finalement, la coopération peut s’avérer délicate et coûteuse au niveau local.

Afin de prévenir les risques et les dépenses liés à la multiplication des arrangements techniques ad hoc, les firmes peuvent peuvent avoir intérêt à coopérer en amont des arrangements contractuels bilatéraux. Leur intérêt individuel rejoint alors l’enjeu collectif de l’amélioration de l’infrastructure d’échange d’information. M. Katz et C. Shapiro [1985 ; 1986 ; 1994] relient directement les gains de la mise en compatibilité des systèmes aux externalités de réseau qu’elle génère : si n systèmes sont compatibles, alors le réseau pertinent est constitué de la somme des utilisateurs de ces n systèmes ; si n systèmes sont incompatibles, alors il y a n réseaux réduits chacun aux utilisateurs de chaque système. L’incompatibilité se traduit par une perte de surplus collectif. Inversement, la compatibilité élève le niveau de bien-être social : les utilisateurs bénéficient des externalités de réseau et les producteurs profitent de coûts de production réduits – économies d’échelle, effets d’apprentissage. L’adoption du format ouvert HTML (HyperText Markup Language) par tous les navigateurs Internet – tels que Internet Explorer, Netscape Communicator ou Mozilla Firefox – a ainsi permis d’étendre le réseau « pertinent » à l’ensemble des internautes, et non aux utilisateurs de tel ou tel navigateur. L’enjeu est identique pour les firmes d’intermédiation : le recours à un standard technique unique pourrait élever sensiblement le surplus collectif. En effet, comme le note E. Brousseau, « des normes ouvertes favorisent la communication interentreprises et contribuent, ainsi, à améliorer la circulation de l’information au sein d’une communauté étendue d’utilisateurs » [1993, p. 274-275]. Lorsqu’aucune firme dominante n’est en mesure d’imposer son propre standard à l’ensemble des acteurs, l’établissement d’un standard repose sur un processus coopératif : au sein de comités de normalisation, la négociation et l’échange précèdent la prise de décisions irrévocables [Farrell et Saloner, 1988]. Ainsi, les agents se lient les mains, de façon à prévenir le risque de défection. Une dynamique coopérative de normalisation existe pour le commerce électronique, et les applications destinées à soutenir les transactions et les échanges de données dans le domaine des ressources humaines sont discutées au sein d’un comité de normalisation : le Consortium HR-XML.

Le Consortium HR-XML98 est une organisation internationale indépendante à but non lucratif chargée de valoriser et de certifier le format XML dans le domaine des ressources humaines (RH). Le format XML (eXtensible Markup Language) a été adopté en 1998 par le World Wide Web Consortium (W3C), le consortium international d’industriels qui produit les spécifications et les implémentations de référence pour l’internet. L’objectif était alors de développer un format d’échange de documents ouvert qui dépasse les limites du format HTML. Les fonctionnalités du langage HTML sont, en effet, restreintes à la description de l’apparence physique des documents : on ne peut pas isoler les informations de leur représentation physique. A l’inverse, le XML est un langage qui décrit la structure logique d’un document : ses applications concernent explicitement l’échange de documents, la gestion de contenus et l’interopérabilité des systèmes d’information hétérogènes [Troulet- Lambert, 2000]. Cependant, le XML n’est pas un standard « prêt à l’emploi » : ses usages reposent sur le développement de modules et de schémas utilisant des balises XML. C’est ce travail de spécification qui est pris en charge, pour l’échange de données et les transactions dans les RH, par le Consortium HR-XML. Ce travail a abouti en mai 2002, à la publication de SIDES (Staffing Industry Data Exchange Standards), un ensemble de modules décomposant les principaux « objets » transversaux aux différentes opérations RH99. Par ailleurs, d’autres spécifications ont été établies ou sont en cours d’élaboration au sein du consortium : le Curriculum Vitae (CV), la publication d’offres d’emploi, les compétences, etc. Par exemple, le module « CV » comprend une vingtaine de schémas indépendants permettant de décrire un CV : informations personnelles, résumé du CV, objectifs professionnels, historique des emplois passés, etc. Ces spécifications sont libres d’accès et d’utilisation, et leur adoption par des entreprises permet à celles-ci d’obtenir la certification « HR-XML100 ». Une entreprise certifiée est autorisée à afficher le logo « HR-XML » sur son site, et ainsi de signaler la compatibilité de son système d’information avec le standard international.

Tout comme le W3C, le Consortium HR-XML est un consortium d’industriels : l’adhésion, volontaire et payante, permet de participer au processus de négociation et de décision. En décembre 2005, une centaine d’entreprises sont membres du Consortium et participent donc à l’élaboration des standards au sein de groupes de travail. Pour l’essentiel, il s’agit de firmes de très grande taille, dont des éditeurs de logiciels généralistes (Cisco, IBM,

98 http://www.hr-xml.org.

99 [HR-XML, 2002, « HR-XML Consortium - Guide to SIDES »].

Microsoft, Oracle) et spécialistes (Peoplesoft, SAP, Brassring, MrTed), des entreprises de travail temporaire (Adecco, Manpower, Vedior), des sites emploi américains (Careerbuilder, Monster) et également les services publics de l’emploi allemand et suédois101. Par ailleurs, environ cinquante entreprises détiennent la certification « HR-XML ». Ainsi, il y a deux fois plus d’entreprises impliquées dans le processus de négociation des standards que d’entreprises certifiées. Comment expliquer cette différence ? La raison évidente est que la