• Aucun résultat trouvé

Evolution des « interfaces de communication Humain-Machine »

Présentation du plan

CHAPITRE 1. TRAITEMENT AUTOMATIQUE ET TRANSMISSION D’INFORMATION

2. Evolution des « interfaces de communication Humain-Machine »

Depuis l’informatique moderne, on distingue parmi les interfaces matérielles celles d’entrée, de sortie ou mixte (interface d’acquisition, interface de restitution, interface combinée) et qui fondent le type d’interactions que pourra entreprendre un humain avec la machine : une souris, une caméra, un écran, tactile ou non. Par exemple, un clavier est une interface d’entrée. Un écran est une interface de sortie. Un écran tactile est une interface mixte. Le concept d’interaction Humain-Machine traduit le moment où l’humain réalise une action pour produire

du sens. L’interaction Humain-Machine passe par quatre types d’interfaçages dont la typologie suit le développement de l’informatique moderne dès la mécanographie :

De 1890 au milieu des années 1970, les interfaces sont monodirectionnelles et asynchrones, et dont les cartes perforées et le traitement par lot sont les ancêtres ; l’interface est

monodirectionnelle car le dispositif de traitement de l’information recueille des instructions en entrée, l’information est traitée par la machine, qui génère un rapport en sortie.

A partir de 1944 et la naissance de l’informatique, le deuxième type d’interface est dit textuelle. Les sciences de l’ingénieur note ce type d’interface (Keyboard User Interface – KUI). Le traitement n’est plus par lot mais interactif et en temps partagé. L’interface d’entrée est le clavier et la souris, l’interface de sortie est l’écran. Le langage de commande est textuel, la communication est bidirectionnelle et synchrone.

A partir de 1980, le troisième type d’interface est dit graphique (Graphical User Interface – GUI) ce type d’interface est également appelée « look and feel » ou WIMP (Windows, Icons, Menus, Pointer) ; il correspond au début des interfaces Humain-Machine logicielle qui permettront de rendre accessibles certains services de l’informatique au grand public à avec la commercialisation des premiers micro-ordinateurs ou ordinateurs personnels et des premiers logiciels grand public, comme le traitement de texte, les tableurs.

A partir de 1990, le quatrième type d’interface est dit multimodale. « Multimodal » signifie que plusieurs modalités sensorielles ou motrices sont mises en jeux comme les modalités visuelles, auditives, gestuelles. L’ordinateur n’est plus seulement conçu comme un système de calcul mais comme un système perceptif. Ce type d’interface multimodale trouve encore ses origines dès les années 1960 avec les premiers travaux de Joseph Licklieder, Ivan Sutherland ou encore Douglas Carl Engelbart, mais dont la plupart des travaux resteront bridés par les technologies matérielles et logicielles encore peu matures de l’époque.

Depuis l’invention de l’ordinateur certains scientifiques ont toujours spéculé sur la relation symbiotique que pourraient entretenir l’humain avec son environnement via des ordinateurs. Ce domaine, baptisé « intelligence artificielle » suscita une appétence scientifique aussi forte qu’était encore limitée la puissance des ordinateurs de l’époque.

Dès le début des années 1960, de nombreux chercheurs issus des sciences de l’ingénieur ont supposé que les signaux électriques émanant du cerveau humain sous la forme d’électroencéphalographie (EEG) pourraient être utilisés comme indicateurs d’événements spécifiques dans le traitement cognitif que fait l’homme de son environnement. A peine quarante ans plus tard, de nombreuses machines entretiennent cette relation symbiotique entre l’individu et son environnement. Par exemple, il est possible de voir dans l’évolution du jeu vidéo depuis 2008 ce passage des interfaces graphiques aux interfaces multimodales : le joueur ne contrôle plus la machine avec une manette reliée à la console de jeu assis devant un écran mais avec une manette sans fil (Wii) debout et en mouvement face à l’écran, puis, sans plus de manette où c’est le corps qui devient l’interface (Kinect) ; le procédé passe par une caméra fixée face au joueur et se rattache aux dispositifs de réalité mixte (Milgram, 1994) ou de réalité augmentée (Azuma, 1997).

C’est ainsi qu’en 1960, Jospeh Licklider, directeur de l’IPTO (Information Processing Techniques Office) à l’ARPA (Advanced Research Projects Agency) du département américain de la Défense écrivait dans un article sur la symbiose « homme-machine » - Man-

Computer Symbiosis68 « the hope is that, in not too many years, human brains and computing

machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today ».

Son papier sur la symbiose Humain-Machine (Man-Computer Symbiosis) préfigure l’informatique interactive et il continua de financer les premiers efforts sur le temps partagé et le développement d’application, le plus notable étant le travail de Douglas Engelbart qui fonda le Augmentation Research Center au Stanford Research Institute et créa le NLS pour « oN-Line System69 », un système hypertexte bien plus évolué que celui actuellement utilisé.

Le concept d’interaction humain-environnement provient tout à la fois des premiers travaux portant sur l’interfaçage Humain-Machine et ceux portant sur l’intelligence artificielle. A partir des années 1960, le concept de « cognition augmentée » (Augmented Cognition) et de « réalité virtuelle » (virtual reality) apparaît au carrefour de plusieurs disciplines scientifiques

68 LICKLIDER Joseph Carl Robnett Man-Computer Symbiosis. IRE Transactions on Human Factors in

Electronics, volume HFE-1, pages 4-11, March 1960

à la croisée des sciences cognitives et des sciences de l’ingénieur travaillant à l’interaction Humain-Machine et à l’ergonomie des interfaces.

Il ne s’agit pas tant de créer une machine avec laquelle l’homme peut programmer des instructions et traiter des données visualisées sur un écran devant lequel il est assis mais lui faire revêtir un casque sur la tête (head mounted device), projetant des images qui s’adaptent à ses mouvements, et avec lesquels il peut interagir et accomplir des tâches.

En quelque sorte, l’ordiphone est actuellement l’héritier grand public de plus de soixante ans de recherche et développement dans le domaine des communications humain-machine. A ce type de communication s’ajoute dorénavant les communications dites « machine à machine ».

Documents relatifs