Gallagher et Frasch ont d´evelopp´e TACIS (figure 32), un syst`eme utilisant l’haptique et le son
pour explorer des sch´emas [61]. Le syst`eme utilise une base de donn´ees pour g´en´erer un graphique
imprim´e sur du papier en relief. La feuille est plac´ee sur un touchpad de grande taille pour permettre
au syst`eme de donner un retour sonore correspondant `a l’exploration de l’utilisateur en plus du
retour tactile r´ealis´e par le papier en relief. Les auteurs pr´esentent trois exemples. Le premier est un
piano : le syst`eme joue la note correspondant `a la touche sur laquelle l’utilisateur a pos´e le doigt. Si
l’utilisateur presse plus fort, le syst`eme prononce le nom de la note. Le deuxi`eme exemple est une
carte de la ville de Dublin. Les rues et la forme des bˆatiments sont imprim´ees sur la feuille. Un son
diff´erent est jou´e selon que l’utilisateur a le doigt sur la rue ou sur un arrˆet de bus par exemple. En
pressant plus fort, l’utilisateur peut recevoir plus d’informations sur l’endroit qu’il explore. Sur une
rue le syst`eme prononcera son nom, sur un arrˆet de bus le syst`eme prononcera les horaires et les
lignes circulant. Enfin le troisi`eme exemple permet de traduire une image : les couleurs sont rendues
sous forme de notes. Un utilisateur voyant peut ajouter des annotations qui seront prononc´ees par
une synth`ese vocale si l’utilisateur presse `a cet endroit l`a. Les informations haptiques donn´ees par ce
syst`eme sont donn´ees par le sch´ema sur papier en relief, ce qui fait qu’il en h´erite les inconv´enients
(aspect statique, co ˆut, etc.).
Figure 32– Le syst`eme Tacis
Le syst`eme TeDub propose une autre approche [75]. Le but de ce syst`eme est de permettre `a
un utilisateur aveugle d’explorer un document essentiellement graphique : sch´ema ´electrique,
di-agramme UML, plans, etc. Le syst`eme est constitu´e de deux outils. Le premier, appel´e
diagramInter-preter, permet d’interpr´eter les diagrammes pour en extraire les informations `a afficher. Il prend en
entr´ee un fichier XML, un dessin vectoriel ou une image bitmap pour la transformer dans un
for-mat g´en´erique. Cet outil utilise des hypoth`eses pour extraire les inforfor-mations. Ainsi il est possible
d’extraire des informations d´ependant du domaine li´e au contenu du document. Par exemple les
´el´ements des diagrammes UML poss`edent une certaine g´eom´etrie, et les liens entre les objets sont
normalis´es. Par ailleurs un utilisateur voyant peut utiliser cet outil pour annoter le sch´ema avec
des informations suppl´ementaires afin d’aider les utilisateurs mal voyants qui vont parcourir ces
diagrammes. Le deuxi`eme outil (diagramNavigator) est un navigateur permettant d’explorer les
di-agrammes g´en´eriques g´en´er´es par le premier outil. L’utilisateur peut parcourir les didi-agrammes de
mani`ere hi´erarchique avec un clavier. Des earcons sont utilis´es pour donner des informations sur la
position dans la hi´erarchie (feuille, fin de liste, etc.). Il peut aussi revenir en arri`ere dans sa navigation,
`a la mani`ere d’un navigateur web. L’´el´ement courant peut ˆetre explor´e `a l’aide d’un joystick `a retour
de force. Quand l’utilisateur passe `a proximit´e d’un ´el´ement voisin son nom est prononc´e. Le son 3D
est aussi utilis´e pour suppl´eer le rendu haptique et textuel. Le retour de force du Joystick est utilis´e
pour ressentir les objets de la sc`ene, comme les murs sur un plan architectural. L’interface elle mˆeme
est conc¸ue de mani`ere g´en´erique et avec des outils standards, de telle mani`ere que les utilisateurs
peuvent se servir de leur syst`emes de synth`ese vocale et d’affichage Braille usuels.
4.2.3. Interfaces
Ramsteinet al.ont d´evelopp´ePC-Access[145], un syst`eme utilisant le retour sonore et le retour de
force afin d’aider les utilisateurs non-voyants `a explorer les interfaces graphiques. La navigation se
fait soit avec une tablette graphique, soit avec un pantographe. L’avantage par rapport `a une souris
est que la position est absolue, et donc l’utilisateur peut la connaˆıtre par proprioception. Tous les
objets et actions sont accompagn´es d’un rendu sonore, ainsi l’utilisateur est toujours averti de ce qui
se passe.
Figure 33– Le Moose
O’Modhrain et Gillepsie [130] ont d´evelopp´e un autre syst`eme appel´e le Moose (figure 33),
perme-ttant d’explorer une interface avec une souris et d’en ressentir les ´el´ements grˆace `a un retour de force.
Le p´eriph´erique est un carr´e de33cmde c ˆote sur lequel l’utilisateur d´eplace une souris. Dans un coin
l’utilisateur dispose d’un palet `a2DOF pouvant se d´eplacer sur carr´e de3cmde c ˆot´e, et disposant
d’un retour de force de6N maximum grˆace `a des moteurs `a courant continu. Les auteurs ont cr´e´e
des ic ˆones haptiques de mani`ere empiriques afin de repr´esenter les ic ˆones sur le bureau, les cases
`a cocher, les boutons, etc. Ils mentionnent de potentiels travaux futurs dans ce domaine, cependant
aucune ´etude de la sorte n’a ´et´e publi´ee par la suite.
4.2.4. Sc`enes 3D
Lecuyeret al.[93] ont cr´e´e un environnement de r´ealit´e appel´e HOMERE (figure 34) destin´e `a des
utilisateurs aveugles pour les aider `a apprendre `a explorer un environnement inconnu. Le syst`eme
pr´esent´e permet d’explorer virtuellement la Cit´e des Sciences de La Vilette `a Paris. Le syst`eme
est consitu´e d’une partie de canne blanche attach´ee `a un Virtuose 3D, permettant de ressentir une
repr´esentation haptique de l’environnement `a explorer. Deux autres retours ont ´et´e ajout´es : un
re-tour thermal avec un soleil virtuel jouant un r ˆole de boussole lorsque l’utilisateur est `a l’ext´erieur des
bˆatiments dans l’environnement virtuel. Le retour sonore fournit plusieurs informations : un univers
ambiant, les bruits de pas du guide que l’utilisateur suit passivement, et enfin les commentaires du
guide. L’utilisateur utilise la canne `a la fois pour explorer son entourage, et pour ˆetre guid´e sur un
chemin pr´ed´efini. Il s’est av´er´e que cette double facette active/passive sur la mˆeme modalit´e a
per-turb´e certains utilisateurs.
Figure 34– Le syst`eme Homere
Crossan et Brewster [44] reprennent l’id´ee d’interaction bi-manuelle utilis´ee dans certaines ´etudes
ci-dessus. Le but est de parcourir un labyrinthe avec des informations haptiques. L’utilisateur
par-court le labyrinthe, dans lequel il est contraint, avec un PHANToM OMNI. Afin de l’aider aux
inter-sections, l’utilisateur rec¸oit une transcription de la zone autour du curseur sur les matrices tactiles
d’une souris VTPlayer. Apr`es quelques pr´eliminaires avec4utilisateurs aveugles [45], cette solution
a ´et´e abandonn´ee. En effet selon les utilisateurs la charge cognitive est trop importante, et
l’utili-sation de cette technique demande trop d’efforts. Cette aide tactile a ´et´e remplac´ee par des tactons
directionnels, que nous d´ecrivons en d´etails dans le chapitre II. Deux jeux de tactons repr´esentant
quatre directions ont ´et´e d´evelopp´es : des tactons statiques (le motif ne change pas), et des tactons
dynamiques (le motif se d´eplace au cours du temps). Durant l’exploration, le syst`eme affiche sur la
souris VTPlayer un tacton repr´esentant la direction `a suivre pour aller vers la sortie. Dix utilisateurs
avaient pour but de sortir de8labyrinthes avec des indications statiques, et de sortir de8autres avec
des indications dynamiques. Chaque tentative devait se faire le plus rapidement possible, et en moins
de50s, sans quoi la tentative ´etait consid´er´ee comme un ´echec. Les r´esultats permettent de conclure
que les utilisateurs arrivent `a terminer plus de labyrinthes, et parcourent plus vite les labyrinthes
avec des indications statiques qu’avec des indications dynamiques. On peut aussi souligner que les
utilisateurs avouent pr´ef´erer les tactons statiques aux tactons dynamiques.
4.3. Syst`emes haptiques pour l’enseignement
D’ordinaire la vision est un ´el´ement crucial dans l’´education. Les cours sont ´ecrits sur un tableau,
que les ´el`eves recopient sur un cahier. Ils sont accompagn´es de nombreux graphiques, sch´emas,
di-agrammes et cartes sur papier. Il a fallu trouver des substituts pour les enfants qui ne peuvent pas
s’appuyer sur leur vision. Ainsi l’alphabet Braille (figure 35) a ´et´e invent´e en 1929 par Louis Braille
pour repr´esenter les caract`eres alphanum´eriques, ainsi que certains signes de ponctuation. Ainsi les
documents textuels sont facilement traduisible en une forme lisible par une personne non voyante.
`
A titre de comparaison, un voyant lit du texte `a une vitesse moyenne de300mots par minutes alors
qu’un expert en lecture braille n’atteint que100mots par minute en moyenne [97]. Le passage de la
version imprim´ee `a la version Braille induit donc un co ˆut en terme d’efficacit´e. Des extensions ont
´et´e invent´ees pour repr´esenter les expressions math´ematiques, cependant il n’existe pas de standard
unanimement admis et chaque constructeur de mat´eriel tente d’imposer son alphabet.
A ou 1 B ou 2 C ou 3 D ou 4 E ou 5 F ou 6 G ou 7 H ou 8 I ou 9 J ou 0
K L M N O P Q R S T
U V W X Y Z
Picot levé
Dans le document
Contributions à la dissémination d'informations haptiques dans un environnement multimodal
(Page 64-68)