• Aucun résultat trouvé

donnent des informations, encouragent le mouvement (Pepper, Roméo_ grand âge)

Dans le document NTIC et santé mentale : état de l'art (Page 33-36)

Le langage du soin est co-constitué par les dispositifs robotiques, selon le philosophe AJ. Wright. Il entre-prend dans sa thèse121 de décrire l’évolution du sens et des pratiques de soin, au moyen d’une analyse ethno-graphique sur le long terme et sur plusieurs appareils. Il brosse le portrait de plusieurs robots de soin dont

120 ANZIEU Didier, « Le Moi-peau », Dunod, Octobre 1995 p.29

121  WRIGHT Adrian James, « Technowelfare in Japan – Personal care robots and temporalities of care », University of Hong Kong, Philosophy, May 2018

Pepper. Destiné aux dégénérescences liées à l’âge, l’automate à l’aspect humanoïde a été lancé par SoftBank Robotics en 2015, date à laquelle la compagnie était évaluée à 590 millions de dollars. Haut de 1,2 mètres, des cercles en relief délimitent ses oreilles et en attente d’une réponse de l’utilisateur, ses yeux s’éclairent différemment. Son design de plastique blanc, propre et brillant, évoque des appareils comme l’iPhone avec lequel il partage le même fabricant. Pepper intervient au moment clé de la journée, celui au cours duquel les soignants de la maison de retraite de Sakura prennent le temps de communiquer de manière privilégiée avec les résidents : le moment de loisir. L’un d’eux a été capturé par la photo ci-dessous. Très présent dans le Sud de la France, Pepper est utilisé seulement pour donner des informations et amuser les résidents. Il est mobile grâce à sa structure sur roues (à la place des jambes). Son écran tactile installé sur le torse, offre plus de 140 applications de divertissement et de quiz développées par des entreprises tierces pour être « émotionnelle-ment intelligentes et humoristiques », à différents niveaux cependant, selon l’investisse« émotionnelle-ment : basiques pour le modèle « Pepper », avancées pour « Pepper for Biz ».

Du même fabriquant SoftBank Robotics, notons l’existence de Roméo. Pour le moment, seuls quatre labora-toires européens ont fait l’acquisition des premiers prototypes destinés aux personnes âgées. Avec ses 40 kg, ce robot androïde fait de fibres de carbone et caoutchouc est capable de marcher, voir en 3D et adapter sa conversation aux émotions qu’il perçoit chez son interlocuteur, comme le montre la photo ci-dessous. Il a été introduit dans les maisons de retraite en 2017 « pour distraire leurs résidents, mais aussi, pour les inviter à rester en mouvement via des jeux de danse ou d’exercice physique »122.

122  https://information.tv5monde.com/info/vieillissement-les-robots-arrivent-en-maison-de-retraite-146992

1.1.2

Des dispositifs à activer par l’expression physique d’affects

(Milo_ Autisme ; Paro _Alzheimer, démence sévère, trouble du comportement ; Leka_ TSA ; Pepper_dégénérescence liée à l’âge)

La technologie de Paro est japonaise et internationale également : 5 000 robots de soin sont à l’œuvre dans plus de 30 pays. Elle est basée comme Pepper, sur des comportements enfantins, quelque peu naïfs.

Son apparence de phoque (en peluche) plutôt que celle d’un chat ou d’un chien, y contribue, souligne son créateur S. Takanori le 30 juin 2016 lors d’un interview avec AJ. Wright117 : l’utilisateur, moins familier avec cet animal, aura moins d’attentes quant à son apparence ou son comportement. Sa mécanique produit de la chaleur, des sons, du mouvement, en réponse à un contact verbal et tactile. Paro pèse 2,5 kg et mesure 57 cm.

Milo est un robot humanoïde crée par Robokind pour communiquer avec les enfants autistes. Il aide l’enfant à ajuster son comportement et à interagir en disséquant explicitement les situations sociales de base et les expressions des visages. Les mimiques sont modélisées selon une palette d’émotion par un automate à l’apparence d’un enfant de 4 ans assez réaliste123. Sa peau de synthèse ressemble à une peau humaine (le lecteur pourra le constater sur la photo ci-dessous) et sa diction est plus lente.

Leka (sur la photo ci-dessous) est une boule qui schématise des expressions faciales humaines selon les particularités visuelles des enfants. Ses couleurs relaxantes, ses mouvements autonomes (elle se déplace et roule sur elle-même) et vibrations apaisantes se commandent depuis l’iPad et peuvent être activées par le toucher ou le souffle. Sa plateforme interactive (nommée Indiegogo) permet de mettre en relation les familles et professionnels qui utilisent le dispositif avec leur enfant, élève ou patient.

Dans le cas de Milo et Leka, l’environnement immédiat puisqu’il est schématisé, devient plus compréhensible pour le sujet avec TSA119.

123  GOUZIEN-DESBIENS A « L’enfant autiste, le robot et l’ordinateur : intérêts et limites comme remédiation, soutien à l’appren-tissage et à l’accessibilité », ANAE, 157 ; 001-008, 2018

1.2 LE MOI- ROBOT AGISSANT : PROGRAMMER LES GESTES ET LA PAROLE (NAO, ROB’AUTISME_TSA ; BUDDY_ TSA, PERSONNES ÂGÉES EN SITUATION DE DÉGÉNÉRESCENCE COGNITIVE AUX PROBLÈMES DE MOTRICITÉ FINE)

Robot de 58 cm de haut et de 5 kg développé par Aldebaran Robotics, Nao est présent dans tous les EPHAD selon S. Tisseron interviewé dans le cadre de ce travail. Pour amuser le patient autiste dont il propose de suivre les progrès (sur sa plateforme en ligne Ask Nao), le profil clinique de l’enfant doit être paramétré sur le dispositif par un expert humain (Rolland-Joubert, 2015, p. 133) et les besoins de l’échange par un adulte médiateur (durée et nature d’un exercice, d’une session, mode verbal ou non, niveau de difficulté).

Le temps nécessaire au paramétrage de ces robots de loisir, est mis à profit par Rob’autisme. Projet présidé et fondé par S. Sakka, enseignante à Centrale Nantes et chercheuse au Laboratoire des Sciences du Numérique de Nantes (LS2N), l’association « Robots ! » déploie des programmes de médiation robotique appliqués à l’accompagnement thérapeutique. Nao est le seul robot en open source partiel et à l’origine d’autres programmes similaires proposant aux patients présentant un TSA de le configurer pour canaliser leur prise de parole et mobilité : nous citerons celui mené par le psychiatre T. Chaltiel124 . Ces programmes sont d’ailleurs alignés avec la mission de son créateur, le français B. Massonier, fondateur d’Aldebaran Robotics en 2005, qui proposait des robots androïdes à des développeurs, des universités et des sociétés. Le temps d’attention à accorder au robot devient une étape clé pour le patient : le robot social ne fait rien tant que l’utilisateur ne l’anime pas. L’automate devient ainsi extension agissante du patient autiste : son mouvement est à guider, son langage à inventer (voir la photo ci-dessous) et le robot lui donne corps.

De même, le robot Buddy permet à cette catégorie de patients de s’exprimer de manière encadrée, et de développer des interactions avec un tiers humain en apprenant à programmer.

124  TISSERON Serge, TORDO Fréderic, « Robots, de nouveaux partenaires de soins psychiques. Avancées et limites », Erès, Toulouse, 2018

1.3 LE MOI-TACTILE

1.3.1 Créer son propre langage au toucher

(Amikeo apps_handicap cognitif et mental ; Tactilaptic systems_personnes âgées, dépendantes ou polyhandicapées)

Dédiée aux patients souffrant de TSA, l’application « I Feel »117 sur tablette, guide à l’aide de mascottes per-sonnalisables, l’expression d’un sentiment, d’un besoin voire d’une douleur ; l’application « Sequences » du même fabriquant Auticiel, simplifie la compréhension des consignes en divisant en étape simples et visuelles, des tâches de la vie quotidienne. De la même série d’application « Amikeo » adaptée au handicap cognitif et mental, « Voice™ » permet de créer et prononcer des bandes-phrases en voix de synthèse, à partir de milliers de pictogrammes, photos ou images personnalisables, toujours sur le même support 10 pouces, qui s’em-porte facilement (voir photo ci-dessous)125.

Il existe d’autres dispositifs créatifs sur lesquels le patient peut s’appuyer pour s’exprimer subjectivement. Le dispositif de peau augmentée de TACTILAPTIC system126, fait appel au toucher pour permettre au patient de s’exprimer et partager une émotion. Le langage produit par la start-up est néanmoins un peu différent : c’est au travers de la musique digitale que le langage du patient résonne, quand la surface de sa peau entre en contact avec celle du soignant ou de l’accompagnant. Le système crée par P. Royer, ralenti quand le toucher diminue, s’arrête quand il n’y a plus de contact, laissant aussi libre cours à l’expression des personnes âgées, dépendantes ou polyhandicapées. Son expérimentation aujourd’hui en cours, est le fruit d’une collaboration avec l’ICM, le cLLAPS Living Lab, l’iPEPS incubateur et le Silver Valley. 700 heures de recherche appliquées aux utilisateurs depuis quatre ans ont abouti à une preuve de concept (ou POC) qui a apporté les preuves de sa faisabilité thérapeutique, selon le fabriquant.

1.3.2 Ressentir l’empathie

(Paro_Alzheimer, troubles du comportement, démence sévère)

Paro vibre pour le patient, remue la tête et les membres lorsqu’on le cajole, boude et grogne quand on l’ignore. L’émotion du patient est stimulée par des signaux sonores ou tactiles. Il dit les choses qu’il apprécie

125  https://auticiel.com/applications/

126  https://www.youtube.com/watch?v=ls5WB6re1AE

ou n’apprécie pas127. « Paro absorbe toutes ces émotions comme un réceptacle », analyse C. Dolbeau-Bandin, enseignante à l’IUT de Caen (UNICAEN) et chercheure au CERReV (Centre d’Étude et de Recherche sur les Risques et les Vulnérabilités). L’empathie émotionnelle de Paro fonctionne pour des émotions basiques, que son système peut détecter. La guérison est ici envisagée par l’attachement à l’objet, faisant de lui le robot socio pédagogique et compagnon robotique thérapeutique le plus connu selon la FDA.

OCADAM IQU est un autre robot stimulant l’empathie présenté par S. Tisseron, psychiatre, docteur en psychologie et membre de l’Académie des Technologies dans son ouvrage « L’emprise insidieuse des machines parlantes »128.

1.4 LE MOI-VIBRANT : DES ÉTATS DE CONSCIENCES EXPLORÉS PAR LES ONDES ÉLECTRIQUES OU SONORES

(SOUNDS2TREAT, SOUNDS4COMA_ PATIENTS DANS LE COMA ; HYPERSCAN_AUTISME) 1.4.1 Explorer et moduler le ressenti des patients par le son, est au cœur du projet de Sounds4Coma

L’équipe du CR-IRCAM (Institut de recherche et coordination acoustique/musique), se dédie à la recherche clinique et informatique en technologies du son, selon la page d’actualité du GHT Paris Psychiatrie &

Neurosciences129. Elle s’est jointe aux chercheurs hospitaliers en Neurologie de Sainte-Anne pour accueillir et évaluer par les ondes sonores, l’état de conscience des patients, au moyen d’un IRM fonctionnel. L’enjeu est de détecter puis mobiliser des circuits neuronaux « de façon ciblée, non-intrusive et non-pharmacolo-gique », selon le CNRS qui brosse le portrait de JJ. Couturier. Chercheur au sein du laboratoire Sciences et Technologies de la Musique et du Son, il a fabriqué des stimuli musicaux capables d’activer ou d’inhiber cer-tains des circuits corticaux choisis, impliqués dans le traitement émotionnel130. Le défi est donc de créer des sons (ou appareils sonores, comme le montre la photo ci-dessous) à la fois significatifs sur le plan émotionnel et éventuellement personnalisés pour le patient. Ce projet est extrêmement novateur en matière de commu-nication car il repose sur le son lui-même (voix et musique), devenant une technologie cognitive.

127  https://www.youtube.com/watch?v=aKenB33KTvE#action=share

128  TISSERON Serge, « L’emprise insidieuse des machines parlantes », Les Liens Qui Libèrent, 2020.

129  http://www.ght-paris.com/fr/toutes-nos-actualites/

130  https://ins2i.cnrs.fr/fr/cnrsinfo/jean-julien-aucouturier-erc-starting-grant-2013

1.4.2 Sounds4Coma projette de spatialiser les textures musicales

Dans le document NTIC et santé mentale : état de l'art (Page 33-36)