• Aucun résultat trouvé

Algorithmes et big data : des outils potentiels de réduction des discriminations ?

III. Défaire le mythe de la révolution de l’IA en RH ?

2. OUVRIR LA BOȊTE NOIRE DES ALGORITHMES DANS LES PROCÉDURES RH : vers un

2.1. Algorithmes et big data : des outils potentiels de réduction des discriminations ?

a) Des aides efficaces pour les décisions de recrutement et de déroulement de carrière

Les concepteurs de systèmes et nombre d’utilisateurs et de chercheurs tiennent à souligner les apports du recours aux algorithmes pour éclairer le choix des décideurs. Face à la prolifération actuelle des données, la machine permet une meilleure exploitation des données utiles, soit par automatisation simple permettant d’alléger les tâches de duplication des contenus, soit par le biais de machines apprenantes, qui permettent d’être meilleur dans l’appréhension du risque en entreprise, en combinant notamment des outils qui n’étaient pas reliés auparavant. Ces nouvelles technologies sont donc d’importants outils d’aide à l’action ou à la décision. L’analyse des données a le potentiel d’apporter une très grande valeur économique et sociale dans les organisations et notamment pour l’animation des talents.

Fathallah Charef, directeur des ressources humains du BHV Marais329, estime ainsi que, grâce au recrutement prédictif, il a réduit d’un tiers la durée du processus du recrutement qui est passé de 45 à 30 jours et diminué le turn over. Si l’on prend en considération qu’aux Etats Unis, 27% des employeurs indiquent que le coût d’une seule erreur de recrutement est d’environ 50 000 dollars330, l’importance des nouveaux outils est réelle en révélant notamment des potentiels que les recruteurs n’auraient jamais pris la peine de rencontrer. Ainsi, Berner, une société française qui vend de l’outillage industriel, a recruté une commerciale qui bat tous les records de vente et qui se trouve être une ancienne fleuriste qui ne connaissait rien au secteur.

329

TRUFFAUT H., « Les systèmes d’information RH progressent… au ralenti », Entreprises & Carrières, juin 2017.

330

188 Sans aller jusqu’au recrutement prédictif qui recourt au big data, une approche analytique et non prédictive peut être permise par ce que Jérôme Lamri appelle le « matching affinitaire », c'est-à-dire la détermination d’une compatibilité de la personne susceptible d’être recrutée par rapport à une liste définie de critères. Par exemple, pour savoir si une offre d’emploi vous correspond, il s’agira de savoir si les critères qui vous définissent sont compatibles et pertinents avec ceux de l’offre d’emploi en question. Loin du prédictif qui prend en compte des inconnus, vos amis, vos parents, vos choix sur internet, voire votre huissier pour définir votre avenir, il est possible, avec une quantité raisonnable d’informations concernant le potentiel recruté, d’effectuer des recommandations qui ne relèvent pas de la prédiction mais simplement de la compatibilité point par point aux caractéristiques retenues. Il s’agit d’une approche plus modeste et pragmatique possible grâce à ce qui est appelé le « small data ».

b) Un meilleur décryptage des risques de discrimination

Ces outils sont également, aux dires de certains, un atout important pour neutraliser certains biais décisionnels, corriger les préjugés des recruteurs, alerter sur des risques de discrimination et aider à la mesure des résultats des choix opérés.

 Neutraliser

Par le recours à des algorithmes, il est possible de neutraliser certaines limites propres à l’analyse humaine. Lors de son audition par le CSEP, Daniel Louis, Vice-Président en charge des opérations de la société Eptica Lingway fait ce constat : « quand on reçoit 100 CV pour un poste, que faire ? Un tri manuel où finalement on regarde surtout les 10 premiers CV en haut de la pile ? Ou bien, analyser les CV avec un dictionnaire sémantique, introduire les données dans la base de données et actionner un algorithme pour chercher toutes les combinaisons possibles avec un arbre sémantique ? ».

Aux dires de Clotilde Coron331, que ce soit pour le recrutement ou pour rechercher et accompagner les talents, ces nouveaux outils permettent de fluidifier les process en interne. Elle indique également que les algorithmes peuvent aider à réduire les biais de sexe,

331

189 et ce notamment en cas de réception d’un grand nombre de candidatures. La machine pourra lire tout un CV quand un humain n’aura lu que quelques lignes. De plus, alors que l’humain se concentrera sur ce qu’il aura eu le temps de lire (photo, nom et quelques informations supplémentaires), la machine aura tout pris en compte et pourra ainsi effectuer un choix plus objectif, non dicté par des stéréotypes.

 Corriger

De plus, des algorithmes peuvent corriger certains biais des recruteurs. Par exemple, des recruteurs peuvent être persuadés qu’un certain diplôme garantit la performance et les compétences des candidates et candidats. Néanmoins, un modèle exprimant la performance en fonction non pas d’une seule variable (par exemple le diplôme) mais de plusieurs peut permettre d’estimer l’importance réelle des variables. Ce modèle associé à des big data permettra donc de revoir les critères de « recrutabilité » notamment au regard du sexe. Laurent Depond précise ainsi que, dans une entreprise, alors que les managers pensaient que les hommes expérimentés sortant de formations d’ingénieurs réussissaient mieux au poste d’ingénieur commercial, une analyse multi-variable a montré que c’étaient les jeunes femmes sortant d’école de commerce qui réussissaient le mieux à ce poste332.

 Détecter et alerter

Les algorithmes peuvent s’avérer être un outil utile pour diagnostiquer les biais cognitifs et structurels liés à l’emploi et alerter ainsi les recruteurs sur les biais de sexe. Par exemple, des outils numériques d’aide à la rédaction d’offres ont été créés pour repérer les stéréotypes de sexe dans les offres d’emploi et orienter la vigilance des rédacteurs des offres. A ce titre, trois initiatives méritent d’être mentionnées :

- Pôle emploi a passé un marché afin de mettre en place un système d’analyse sémantique automatique et de contribuer à l’amélioration de la qualité de l’ensemble des offres d’emploi. Cette analyse fonctionne sur la base d’une liste de

332

190 mots interdits et de mots alerte333 : l’outil détecte ainsi les éventuelles mentions non conformes aux critères de légalité et de la qualité de l’offre.

- Un décodeur de vocabulaire genré pour les offres d’emploi a été mis en place sur la base d’une liste de mots identifiés par l’étude de Gaucher, Friesen et Kay (liste de mots disponible en première partie, 1.3.c).

- La société Palatine analytics, en analysant, grâce à un algorithme, des enquêtes, des témoignages d’employés, des données salariales, de promotion, d’évaluation de performance, etc., a pu détecter de nombreux biais en défaveur des femmes334.

 Mesurer

Grâce aux progiciels qui gèrent les candidatures, il sera plus aisé de tracer les procédures de recrutement. L’entreprise pourra ainsi regarder les impacts différenciés sur les femmes et sur les hommes des différentes étapes de recrutement.

BONNE PRATIQUE : Compter

Pour pallier ces impacts différenciés des algorithmes sur les femmes et sur les hommes, des entreprises comme Randstad réalisent des audits sur l’utilisation du progiciel de recrutement dont les résultats sont exploités dans le cadre d’un comité anti-discrimination335. De plus, dans son progiciel, Randstad a mis en place des messages automatiques d’alerte à l’attention des utilisateurs, rappelant la loi sur la non-discrimination lors d’étapes où des choix discriminatoires peuvent s’opérer, notamment lors de la recherche multicritères.

c) L’accompagnement par une démarche éthique

Au-delà des outils de détection des biais de sexe, nombre d’acteurs du secteur travaillent à engager une démarche éthique. Ainsi le lab RH, en partenariat avec la CFE/CGC, a élaboré une « charte éthique et numérique » qui détaille des bonnes pratiques en termes d’acquisition des données, de leur traitement algorithmique, de leur restitution,

333

Défenseur des droits, Recruter avec des outils numériques sans discriminer […] op. cit., p.12

334

Ephrat Livni, “Your workplace rewards men more and AI can prove it”, Quartz at work, 7 décembre 2017, [en lgine] disponbile à l’adresse:

https://qz.com/work/1149027/your-workplace-rewards-men-more-and-an-ai-can-prove-it/

335

191 structuration et conservation. De même d’autres s’inspirent du serment d’Hippocrate, que les médecins prêtent à la fin de leurs études, sorte de rite de passage qui a plus une valeur morale qu’une portée juridique. La France n’est pas en reste puisque l’association Data for good a publié un serment d’Hippocrate pour « datascientists » qui s’engage à informer de façon compréhensible et précise sur les finalités et les implications potentielles de l’utilisation des données. De son côté, un collectif d’entrepreneurs franco-américains a publié le serment Holberton-Turing qui insiste sur l’impact du travail sur la donnée, notamment lorsqu’il crée « de nouvelles conditions qui augmentent l’inégalité économique ou toute autre forme d’inégalité » :

Serment Holberton-Turing :

192 Mais les règles de conduite ne suffisent pas toujours à créer des repères moraux et le risque existe toujours qu’un code d’éthique soit utilisé comme caution de vertu par des acteurs qui continueront à faire comme d’habitude. Faire le lien entre valeurs et process, puis le contrôle des process semblent ici indispensable.