• Aucun résultat trouvé

Une prothèse résolument cognitive

92

Pour autant que le morceau en question soit présent dans la base de données de Shazam ; ce qui n’est parfois pas le cas s’il s’agit d’un contenu peu connu (et donc peu ré-férencé), comme c’est le cas de petits groupes de musique indépendants et peu distribués. Shazam fonctionne grâce à l’analyse instantanée de l’extrait envoyé, l’identification de motifs dans celui-ci, et leur comparaison avec ceux

chaîne opératoire du fonctionnement de l’app Shazam (sur la base de Wang, 2017).

No Phases Opérations Actions Acteurs Outils impliqués 1 Enregistrement Enregistrement d’un

extrait sonore X Usager Smartphone de l’usager et app Shazam

2 Analyse locale Extraction de la « si-gnature » de l’extrait sur la base d’une ana-lyse des fréquences

Shazam Smartphone de l’usager et app Shazam

3 Communication Envoi du fichier « signature » sur les serveurs de Shazam avec la requête d’iden-tification

Shazam Smartphone de l’usager, app Shazam, serveurs distants Shazam 4 Analyse distante Comparaison de la

signature envoyée avec celle extraite de la base de données de contenus

Shazam Serveurs distants Shazam

5 Communication Envoi de la réponse (nom du morceau et auteurs, lien sur maga-sin en ligne) si iden-tification, ou réponse négative si non-identi-fication Shazam Smartphone de l’usager, app Shazam, serveurs distants Shazam 6 Résultat Affichage

de la réponse Shazam Smartphone de l’usager et app Shazam Tableau

Malgré le caractère léger d’un tel usage, on peut faire l’hypothèse que cette application musicale habitue les usagers à une nouvelle forme d’extension cognitive. Avec les capacités de calcula-bilité du smartphone93, l’appareil devient une prothèse computationnelle qui vient se substituer aux capacités cognitives de perception, de reconnaissance et de rappel des usagers. On retrouve ce principe dans d’autres applications employées par les usagers que j’ai rencontré : BirdGenie (reconnaissance d’oiseaux par leur chant), Leafsnap et PlantNet (identification de plantes et de fleurs), SoundHound (qui permet de reconnaitre des mélodies en les chantant proche du portable), Color Identifier (identification de la couleur d’un objet pour les daltoniens) ou Smartify (recon-naissance d’oeuvre d’arts). De même, cette exo-perception – une perception de forme externalisée aux objets techniques – se retrouve dans le discours des usagers lorsque ceux-ci font référence à la température extérieure sans mettre le nez dehors, uniquement en consultant les données statistiques fournies par l’application météo du smartphone94.

Cette logique peut éventuellement dépasser la recherche d’une information oubliée. En effet, avec d’autres apps basées sur le même principe d’identification de formes ou de contenus, il ne s’agit plus d’aider le rappel, mais clairement de fournir des recommandations à son usager. C’est le cas de Rania qui me montre Camfind (Figure 40), une application permettant d’identifier un produit quelconque en le prenant en photo avec le portable (par exemple le modèle d’une paire de chaussures) et de déterminer où l’acheter directement dans l’app, voir de trouver un magasin où il serait possible de l’acquérir. De l’identification, on passe subrepticement à la suggestion d’achat.

De la même façon, les usagers de programme de traduction tels que Google Translate, se servent du smartphone pour traduire des extraits de textes, des courriels, ou des extraits de conversations : « I can’t speak French, but I sometimes need to, for administrative purposes, or in class. I use Translate on the iPhone, with which I dictate a short message, the smartphone translate it and read it aloud. It is quite slow but it helps » (Anab, artiste, 31 ans, Genève). J’ai pu aussi constater un usage similaire dans la file des taxis de l’aéroport, lorsqu’un jeune chinois tentait d’échanger avec un chauffeur au moyen de son smartphone. Celui-ci indiquait dans sa langue la destination accompagnée d’une formule de politesse, et l’app traduisait l’ensemble dans un français plutôt correct au conducteur. Comme ces exemples l’illustrent, il ne s’agit pas ici d’un appareil qui permet de tenir une conversation chacun dans sa langue et de dialoguer instantanément, comme dans un roman de science-fiction (Adams, 1979 ; Sterling, 2006). Mais, ces cas montrent tout de même un bénéfice certain, surtout pour des registres de discours très formalisés, pour lesquels l’ambiguité est faible (salutations, remerciements, destination de taxi, information précise).

Et, l’application en question ne se contente pas de permettre une traduction à partir d’une source sonore ou écrite avec le clavier tactile du smartphone. Elle peut aussi, comme on le voit sur la Figure 44, le faire via la caméra du terminal : en pointant un contenu textuel, l’image à l’écran du téléphone contient une traduction qui apparait avec le fond visuel capturé95.

93

Combinées aux technologies de réseaux qui permettent l’échange d’informations entre le smartphone et des serveurs distants. Sans une connexion au réseau Internet sur le téléphone, un programme comme Shazam ne serait d’aucune utilité, puisque la base de morceaux de musique à comparer à l’extrait enregistré n’est pas présente dans la mémoire du téléphone.

94

L’exo-perception elle-même prend une dimension très mécaniste lorsque les usagers en viennent à débattre des probabilités de précipitation offertes par le programme, sans forcément regarder le ciel, la forme des nuages ou le type de vent.

95

Il s’agit ici d’une technologie dite de « Réalité Augmen-tée », qui dans la terminologie en informatique indique les représentations numériques se superposant à une capture d’une scène visuelle. Une perspective évidemment très

Usage de l’application Translate (Google) afin de traduire grossièrement le titre et le début d’un article du New York Times.

Cette externalisation des processus cognitifs (reconnaissance de morceaux de musique ou d’ob-jets, traduction) sont d’autant plus singuliers qu’ils ne reposent pas uniquement sur une simple mémorisation des données personnelles de l’usager. Le smartphone, ses apps et son lien avec les données ou les programmes stockés dans le cloud, ne « fait pas prothèse » tout seul, il doit pour cela s’appuyer sur les données des autres usagers, par la combinaison, le croisement et l’analyse des multiples contenus produits par chacun. Comme le résume le développeur Stéphane (Ma-drid), « ma prothèse est connectée à celle des autres, elle ne marche que si elle est en lien avec les informations des autres, c’est comme ça qu’elle est efficace ». Qu’est-ce que cette phrase signifie pratiquement ? On retrouve ici dans une moindre mesure le mécanisme décrit notamment par Brynjolfsson et McAfee (2014) à propos des services de traduction instantanées. Lesquels sont basés sur une analyse et une comparaison entre des phrases nouvelles et un matériau archivé antérieurement :

« (Instantaneous online translation services) takes advantage of this fact. They make use of paired sets of documents that were translated, often at conside-rable expense, by a human from one language into another. For example, the European Union and its predecessor bodies have since 1957 issued all official documents in all the main languages of its member countries, and the United Nations has been similarly prolific in writing texts in all six of its official languages. This huge body of information was not cheap to generate, but once it’s digitized it’s very cheap to replicate, chop up, and share widely and repeatedly. This is exactly what a service like Google Translate does. When it gets an English sentence and a request for its German equivalent, it essentially scans all the documents it knows about in both English and German, looking for a close match (or a few fragments that add up to a close match), then returns the corresponding German text. Today’s most advanced automatic translation services, then, are not the result of any recent insight about how to teach computers all the rules of human languages and how to apply them. Instead, they’re applications that do statistical pattern matching over huge pools of digital content that was costly to produce, but cheap to reproduce. »

(Brynjolfsson et McAfee, 2014, p. 118)

Que retenir ici ? Avec ces exemples de délégation de formes de perception ou de raisonnement à des programmes sur le smartphone, on s’aperçoit que la cognition distribuée évoquée en intro-duction ne se limite pas à la mémoire et au stockage de contenus. Ces apps telles que Shazam, Translate, Camfind ou de mécanismes de recommandations montrent la richesse du smartphone comme technologie résolument cognitive, qui aide divers types de raisonnements. Et les initiatives actuelles dans les technologies dites de « machine learning » – ce que les médias grand public nomment « intelligence artificielle » – incitent à penser que la délégation de processus cognitifs aux objets techniques tels que le smartphone va continuer. Je reviendrai plus en détail dans le chapitre suivant sur ces mécanismes, en analysant en particulier comment ceux-ci sont au coeur d’applications de suggestion et de recommandations sur la base des données personnelles, com-parées à des normes ou à l’analyse des données d’autres usagers. Cependant, pour le moment, voyons comment ces usages sont répartis chez mes informateurs.

Fi

gu

re 4

Si ces usages du smartphone comme une prothèse mnésique, perceptive ou cognitive sont fré-quemment cités chez mes enquêtés, j’ai pu néanmoins constater qu’ils ne sont pas forcément tous employés. Sur la base des types d’applications utilisées ou non, et sur leur fréquence, j’ai pu repérer trois régimes d’usages comme le résume le tableau 4.