• Aucun résultat trouvé

4. Chapitre 4 : Critiques et obstacles du Data as Labor

4.3. Inégalités de richesses

4.3.2. Disparité dans la valeur des données

Le DaL ne représente donc pas forcément le meilleur outil pour réduire les inégalités de richesses. Il semble plutôt proposer un pacte faustien aux moins nantis. Les bénéfices allégués du DaL quant à une redistribution des richesses plus équitable, comme nous le verrons dans cette sous-section, seront aussi remis en question. En effet, toutes les données n’ont pas la même valeur sur le marché. Selon le mode de rétribution choisi et les politiques en place pour l’encadrer, les internautes pourraient se voir offrir des montants très variables pour leurs données53. Nous avions déjà discuté de plusieurs critères influençant le prix des

données et la redistribution des montants des rétributions dans le chapitre précédent. Nous voulons ici mettre l’accent sur les possibilités de discrimination dans un marché des données au regard des prix54. Pour ce faire, nous examinerons le scénario d’un modèle de micro-

redevances individuelles dans un marché laissant totalement libre cours aux lois de l’offre et de la demande. Afin de restreindre la grande quantité de variables et d’enjeux qui peuvent être liés à cet exercice, nous nous concentrerons sur la disparité de valeur des profils de

risque* associés à chaque individu par des entreprises.

Quels risques posez-vous pour une compagnie d’assurance, un futur employeur, ou encore pour la société ? Une fois ce profil de risque établi sur vous par une entreprise, vos données ne vaudront pas nécessairement le même montant. Les disparités de valeurs entre les données numériques mises sur le marché peuvent s’expliquer par de multiples facteurs, qui ne sont pas toujours aisés à départager ni même à identifier55. Si l’on se concentre uniquement sur

les contributions des utilisateurs et des utilisatrices (par exemple les historiques de navigation, d’achat, etc.), plusieurs critères pourraient influencer le prix de leurs données sur

53 Notons que cette partie repose sur une documentation encore très peu développée, en particulier lorsque l’on

aborde les algorithmes d’IA.

54 Plusieurs États et entreprises travaillent pour encadrer et limiter les biais, mais peu d’entre eux sont jusqu’à

maintenant assujetis à des structures de contrôle et de vérification. La prévention et la détection de la discrimination restent encore difficiles dans bien des cas. Voir à nouveau Kleinberg et al., 2018 pour plus d’informations.

55 Les algorithmes, particulièrement ceux qui utilisent de l’intelligence artificielle, exécutent leurs calculs à

l’aide de quantités massives de données, ainsi que de multiples variables, ce qui produit un effet de « boîte noire »*. On peut observer les données entrées dans un système et les résultats qui en sortent, sans savoir exactement ce qu’il s’est produit comme opération entre les deux. Difficile, voire impossible, d’expliquer pourquoi telle donnée recevrait tel montant de redevance, dans le cas où les prix seraient assignés par des algorithmes d’IA. Voir l’ouvrage de Frank Pasquale, The black box society: the secret algorithms that control

le marché. Par exemple, une même action (comme une recherche sur Google) pourrait avoir une valeur différente selon le contenu de la recherche. Comme nous l’avons mentionné dans le chapitre précédent, le profil de la personne qui effectue la recherche pourrait aussi influencer le prix de la donnée.

La valeur de chaque donnée ou jeu de données, dépendante de l’offre et de la demande, varie non seulement en fonction de la quantité et la qualité des données, mais également de la valeur des prédictions que ces informations permettent de déduire. Deux internautes ayant choisi les mêmes options de partage de données pourraient recevoir, avec un modèle de micro-redevances, un montant bien différent, en fonction de l’utilité des renseignements que leurs données fournissent aux entreprises qui les achètent. Ces deux individus, s’ils ont vendu les mêmes types de données (par exemple, les renseignements sur leur identité et les données sur leurs déplacements et leurs historiques d’achat) et généré à peu près la même quantité de données, pourraient représenter différents profils de risque. Ce profil indique toute forme de risque que peut représenter un individu ou un groupe, par exemple en ce qui concerne les risques de santé, la fiabilité de paiement, ou même les chances d’être un terroriste (Busters, 2013 : 13). Les données d’un client jugé plus fiable pourraient donc être rémunérées plus fortement que celles d’un client jugé plus imprévisible56. À l’inverse, un individu jugé très à

risque de commettre des crimes pourrait se faire grandement rémunérer pour ses données (ou certaines d’entre elles, mais sans nécessairement en savoir les raisons). Ces scores de prédictibilité sont déjà largement utilisés dans des domaines comme l’assurance et les prêts bancaires, offrant des traitements différents aux individus selon ces indices de fiabilité. Certains scores peuvent refléter et amplifier des inégalités.

La vente des données avec le DaL implique ce fonctionnement prédictif. Elle comporte cependant un potentiel encore plus invasif que les modèles de gestion de données actuels. Les individus vendraient volontairement leurs données et pourraient même en fournir davantage et de meilleure qualité, puisqu’ils seraient rémunérés. Les occasions de disparités de traitements et de discrimination seraient donc multipliées, avec les risques de reproduire

56 Les données les plus exactes pourraient aussi être celles qui ont le plus de valeur, sans qu’elles soient

directement corrélées à un état qualitatif de la personne (par exemple, si elle est jugée fiable ou non). La tendance se profilerait toutefois vers une création et un renforcement d’inégalité économique défavorables envers les moins nantis dans plusieurs cas.

certaines inégalités sociales et économiques déjà existantes et d’en créer de nouvelles. Les données d’une telle lui rapporteraient plus, puisqu’il est estimé qu’elle possède un statut économique élevé. Les données de tel autre, au contraire, auraient peu de valeur, puisqu’il semble être en grande difficulté financière. À l’inverse, les données de cette utilisatrice pourraient être précieuses, puisqu’elle a l’air d’une consommatrice très réceptive aux achats impulsifs. À l’inverse, les données de cet utilisateur comporteraient peu de valeur, puisqu’il est établi que son état de santé très précaire ne lui laisse que quelques mois de plus à vivre57.

Une équipe de recherche de l’Université Northwestern a d’ailleurs tenté de modéliser divers modèles de « dividendes de données ». Ils ont évalué la distribution des gains venant de différentes tâches réalisées par des algorithmes d’IA de classification dans des secteurs liés notamment à la finance et à la santé. Leurs résultats ont démontré plusieurs disparités dans les dividendes, dont certaines pouvaient refléter des attributs sur les individus et des éléments de leur identité (comme l’âge, le genre et la race). Il y a donc des possibilités de discriminations. Une approche « méritocratique » de répartition des rétributions pourrait favoriser des groupes d’individus au détriment d’autres pour des raisons discriminatoires. Les algorithmes d’IA peuvent mener à des effets imprévisibles et potentiellement nuisibles sur le plan des inégalités. (Vincent et al., 2019 : 10-11).

L’objectif de cette sous-section était de jeter un regard sur les dérives supplémentaires qu’apporterait le DaL dans un marché des données plus libre et individuel. La question de ce qui constitue un facteur discriminatoire ou non reste également à débattre dans plusieurs cas. Les compagnies d’assurance peuvent refuser d’assurer certaines personnes qui ont des risques élevés de développer certains problèmes de santé, ou encore de leur charger une prime très élevée. Nous supposons que l’application de tout système de DaL interdirait la discrimination directe. Par exemple, il ne serait pas permis de rémunérer différemment l’ensemble des données d’un genre sur un autre pour une quantité et une qualité comparables, toutes choses étant égales par ailleurs. Toutefois, il serait difficile de prouver une

57 Les variations de prix sont hypothétiques, elles visent à démontrer la dynamique marchande qui se développe

discrimination (entre autres en raison de l’opacité des systèmes algorithmiques) et aussi de trancher ce qui pourrait s’apparenter à de la discrimination indirecte.

Loin d’entraîner une répartition forcément plus équitable des richesses, les revenus engrangés par les données des utilisateurs et utilisatrices pourraient causer davantage d’inégalités et d’injustices sur des bases aléatoires et arbitraires, voire discriminatoires. Même si le DaL était implanté dans un marché plus encadré ou avec un système de redevances relevant moins des prédictions comportementales individuelles, cette approche ne saurait résorber les inégalités de richesses de manière significative. La marchandisation d’un nouvel aspect de notre quotidien, soit nos données sur les plateformes numériques, n’est pas sans conséquence. Ces plateformes prennent de plus en plus de place dans nos existences, devenant des services incontournables dans bien des situations (pensons aux communications). Ainsi, le marché aura nécessairement des impacts sur l’accès des individus à des services de qualités. Avec le

data as capital, les données de chaque utilisateur et utilisatrice ne valent pas le même

montant. Les internautes n’en sont toutefois pas directement affectés lors de l’utilisation des plateformes.