• Aucun résultat trouvé

Système de rééducation motrice post-AVC

3.4.1 Choix du matériel

Figure 3.2 – Dispositif

Parmi les différentes technologies disponibles (Kinect©, Gants de données, Wiimotes), nous avons sélectionné le Leap Motion©. Celui-ci est peu coûteux (environ 80e en 2019), non invasif et permet de capter les mains de l’utilisateur dans l’espace. Comme les objectifs demandés sont orientés sur une tâche, la main est l’effecteur privilégié et il n’est donc pas nécessaire de capter le bras dans son entièreté. De plus, la qualité du mouvement global peut se déduire à partir de la trajectoire de la main et de divers indicateurs comme la fluidité et la précision.

Figure 3.3 – À gauche, vue de l’espace de captation du Leap Motion©, à droite, le repère en 3 dimensions (main droite) dans lequel les données sont exprimées extrait respectivement du bloga et des archives développeursb de Leap Motion©

a

blog.leapmotion.com/hardware-to-software-how-does-the-leap-motion-controller-work/

b

Le Leap Motion© est un petit appareil composé de deux caméras infrarouges avec des lentilles grand angle (type fish-eye) ainsi que 3 diodes infrarouges (d’une longueur d’onde de 850 nanomètres, en dehors du spectre visible). Toutes les données qui seront extraites seront dans des coordonnées main droite (voir fig3.3) dont l’origine est le centre du Leap Motion©. L’espace d’interaction correspond à une pyramide inversée de 23cm3. Il peut détecter des mains jusqu’à 80cm de distance.

Figure 3.4 – À gauche, une image capturée par une caméra infrarouge du Leap Mo-tion© dont la distorsion est apparente via la grille de points, à droite, une image dont la distorsion a été corrigée extrait des archives développeursa de Leap Motion©

a developer-archive.leapmotion.com/documentation/v2/csharp/devguide/Leap_Images.html

Les images capturées par le Leap Motion© possèdent une forte distorsion des perspectives (voir fig3.4) qui peut être corrigée avec une carte de calibration (calibration map) fournie par l’interface de programmation (API ).

Figure 3.5 – Images illustrant différents éléments de la main suivie par le Leap Motion© (position et orientation de la paume ainsi que la position et orientation de l’extrémité des doigts) extrait des archives développeursa de Leap Motion©

a developer-archive.leapmotion.com/documentation/csharp/devguide/Leap_Overview.html

De plus, l’interface de programmation (API ) fournie dans le kit de développement du Leap Motion© permet de traiter les images stéréoscopiques issues des deux caméras afin d’en extraire des informations sur les mains visibles (voir fig3.5). Notamment, la position et l’orientation de la paume, des différentes articulations entre les phalanges et l’extrémité des doigts.

Même si le Leap Motion© n’est pas considéré comme très précis [Tung et al.,2015; Pla-cidi et al., 2018] (erreur de distance, interpolations des doigts, interprétations des mains incorrectes), cette précision n’est pas nécessaire pour permettre la pratique d’exercices de rééducation. Elle serait néanmoins éventuellement nécessaire dans le cadre d’évaluations rigoureuses des capacités du patient. Dans le cadre d’exercices, il suffit que la captation

du mouvement soit suffisamment robuste (peu de perte de tracking) et cohérente (peu de mauvaises interprétations) pour être utilisable et ne pas déclencher de frustration chez l’utilisateur (liée au sentiment de ne pas vraiment contrôler le dispositif). Le Leap Mo-tion© semble être une technologie viable pour cet usage [Khademi et al.,2014;Iosa et al.,

2015; Sourial et al., 2016; Wang et al., 2017], cependant, il est nécessaire d’évaluer son utilisabilité actuelle, car si le matériel n’a pas changé depuis son apparition sur le marché, la partie logicielle qui permet d’analyser les images et d’en extraire des informations spa-tiales sur les mains a quant à elle, beaucoup évolué. Au commencement (2012-2013), le Leap Motion© avait pour vocation d’être posé sur une table et permettre une interaction directe avec un écran. Depuis 2014-2015, une version logicielle nommée Orion dédiée à l’utilisation du Leap Motion© couplé à un casque de réalité virtuelle est apparue.

Figure 3.6 – Support réalisé par impression 3D permettant de fixer le Leap Motion© à une lampe

Pour permettre aux patients ayant le moins de mobilité/force de pouvoir poser leur membre parétique sur la table afin de ne pas avoir à lutter contre la pesanteur, nous avons mis le Leap Motion© à l’envers au-dessus du bras du patient. Pour cela, nous utilisons comme trépied une lampe dans laquelle l’ampoule est remplacée par un support de fixation du Leap Motion©, réalisé par impression 3D (Figure 3.6). Du fait de son inversion, la qualité de captation du Leap Motion© se dégrade à cause des reflets infrarouges émis par la table. Il a donc été nécessaire de trouver une surface infra-absorbante pour obtenir des résultats satisfaisants. A l’origine, nous nous étions orientés vers une surface initialement utilisée pour des semelles orthopédiques à base de caoutchouc. Par la suite, compte tenu des frottements peu agréables de la peau sur cette surface légèremment rugueuse, nous avons opté pour le sous-main RISSLA d’Ikea. La matière principalement composée de caoutchouc est opaque et permet de limiter suffisamment les reflets infrarouges.

Comme nous souhaitons proposer une solution utilisable à domicile et bas-coût, nous n’utilisons pour l’instant aucune technologie immersive de visualisation (casque de réa-lité virtuelle). Nous utilisons simplement un écran standard pour le retour visuel. Nous réduisons donc le champ des possibles dans un premier temps, notamment les notions

relatives à l’incarnation (embodiment) qui pourrait éventuellement renforcer la réorgani-sation corticale. Cependant, ce choix est fait pour faciliter l’utilisabilité en autonomie du dispositif.