Interactions humain-machine — Wikipédia

Personne plongée dans la réalité virtuelle grâce à un visiocasque et un gant électronique.
L'interface humain-machine d'un des ordinateurs de bord des missions Apollo.
Le tunnel sous l’Atlantique et l'installation interactive en réalité virtuelle de Maurice Benayoun en 1995.

L'interaction humain-machine (ou interaction homme-machine), appelée IHM, s’intéresse à la conception et au développement de systèmes interactifs en prenant en compte ses impacts sociétaux et éthiques[1]. Les humains interagissent avec les ordinateurs qui les entourent et cette interaction nécessite des interfaces qui facilitent la communication entre l'humain et la machine. La facilitation de l'utilisation de dispositifs devient de plus en plus importante avec le nombre croissant d'interfaces numériques dans la vie quotidienne[2]. L'IHM a pour but de trouver les moyens les plus efficaces, les plus accessibles et les plus intuitifs pour les utilisateurs d'accomplir une tâche le plus rapidement et le plus précisément possible. L'IHM s'appuie notamment sur la linguistique, sur la vision par ordinateur et sur l'humain.

L'interaction humain-machine est un domaine pluridisciplinaire entre ingénierie (informatique, électronique, mécanique…), science de la nature (sciences cognitives, psychologie, sociologie…) et art et design (design de produit, design interactif, ergonomie…).

Éditeur d'hypertexte à l'université Brown (1969).

L'histoire de l'interaction humain-machine est aussi vieille que l'histoire de l'informatique. En , Vannevar Bush décrit un système électronique imaginaire qui permet la recherche d'information et qui invente les concepts de navigation, d'indexation et d'annotation[3]. En , Ivan Sutherland a créé Sketchpad qui est considéré comme l’ancêtre des interfaces graphiques modernes. En , Douglas Engelbart invente la souris pour facilement désigner des objets sur son écran[4]. Dans les années 1970 et 80, les laboratoires de Xerox ont révolutionné les systèmes interactifs avec la sortie de Xerox Star et la présentation de What you see is what you get[Note 1]. Au début des années 1990, Robert Cailliau et Tim Berners-Lee inventent un système hypertexte qui entourera la planète, le Web. En , Mark Weiser présente sa vision de l'Informatique ubiquitaire qui envisage des écrans et des ordinateurs multiples capables de communiquer entre eux pour permettre l'utilisateur à accéder à l'information en toute circonstance[5]. Cette vision préfigure l'avènement des assistants personnels, des Tablet PC et des téléphones intelligents d'aujourd'hui[4].

Les différentes techniques

[modifier | modifier le code]

Il existe de nombreuses manières pour qu'un humain puisse interagir avec les machines qui l'entourent. Ces manières sont très dépendantes des dispositifs d'interactions et des forces ou compétences que l'être humain ne peut étendre qu’extérieurement.

Informatique

[modifier | modifier le code]

L'informatique a évolué très rapidement de ses débuts dans les années 1940 à aujourd'hui.

Organes d'entrée

[modifier | modifier le code]

Les premiers ordinateurs étaient utilisés sous forme de traitement par lots et toutes les entrées (programmes et données) étaient alimentées en entrée par des cartes perforées, des rubans perforés ou des bandes magnétiques. Il y avait un clavier pour interagir avec le système (console système).

Avec l'arrivée de la micro-informatique, on a commencé à utiliser des cassettes audio et des claviers, puis des disquettes et des souris informatiques avant de passer aux écrans tactiles. Un système de pointage tel que la souris permet d'utiliser un ordinateur avec le paradigme WIMP qui s'appuie sur les interfaces graphiques pour organiser la présentation d'informations à l'utilisateur.

Enfin, avec les assistants personnels intelligents, puis les robots (humanoïdes notamment, de type Ameca par exemple), la voix devient un organe d'entrée intéressant en raison du taux potentiel de mots par minute qu'elle permet. Deux micros permettent au robot de déterminer la direction de provenance d'un son (« estimation de la direction d’arrivée binaurale »), permettant, le cas échéant, à l'intelligence artificielle de mieux comprendre son environnement acoustique et d'améliorer l'interaction homme-robot (gestuelle, mouvements de tête et des yeux plus « naturels », c'est-à-dire imitant mieux ceux d'un humain, en quasi-temps réel (plus ou moins selon la latence et les performances)[6].

Organes de sortie

[modifier | modifier le code]

Les premiers organes de sorties ont été les imprimantes, les perforateurs de cartes et les perforateurs de ruban secondés ensuite par bandes magnétiques. La console système était équipée d'une imprimante, remplacée par la suite par un écran.

Avec l'arrivée de la micro-informatique, on a utilisé d'abord des cassettes audio, puis des disquettes avant d'utiliser des CD puis des DVD.

Organes interactifs

[modifier | modifier le code]

Certaines techniques tentent de rendre l'interaction plus naturelle :

Automatisme

[modifier | modifier le code]

Dans le domaine de l'automatisation, les écrans tactiles sont des IHMs très populaires afin de centraliser le contrôle d'un procédé sur un seul écran. Ainsi, il est possible d'afficher plusieurs informations et de mettre à la disposition de l'opérateur des commandes qui affecteront le procédé. Les IHMs permettent aussi de remplacer des stations de boutons. Ils sont surtout utilisés en complément avec un API (automate programmable industriel) pour avoir un affichage des états des entrées/sorties et des alarmes du système.

En informatique industrielle, les automates sont encore très souvent pilotés par des baies équipées de boutons-poussoirs et de voyants. Les systèmes autonomes de type véhicules automatiques et drones tendent à peu à peu à intégrer une « interface adaptative »[7], voire une intelligence artificielle embarquée.

Dans l'automobile, l'être humain a, d'abord, interagi avec de simples moyens mécaniques. L'évolution de l'informatique et de la robotique fait que de plus en plus de capteurs et d'informations sont disponibles pour le conducteur qui doit choisir l'action à effectuer par l'intermédiaire :

Paradigmes d'interfaces

[modifier | modifier le code]
L'ancêtre de nos souris

On peut observer que les IHM sont de plus en plus déconnectées de l'implémentation réelle des mécanismes contrôlés. Dans son article de 1995, The Myth of Metaphor[8], Alan Cooper distingue trois grands paradigmes d'interface :

  1. Le paradigme technologique : l'interface reflète la manière dont le mécanisme contrôlé est construit. Cela conduit à des outils très puissants, mais destinés à des spécialistes qui savent comment fonctionne la machine à piloter.
  2. Le paradigme de la métaphore qui permet de mimer le comportement de l'interface sur celui d'un objet de la vie courante et donc déjà maîtrisé par l'utilisateur. Exemple : la notion de document.
  3. Le paradigme idiomatique qui utilise des éléments d'interface au comportement stéréotypé, cohérent et donc simple à apprendre, mais pas nécessairement calqué sur des objets de la vie réelle.

Modes d'interaction

[modifier | modifier le code]
Un gant de données
Un gant de données

L'interaction est dite multimodale si elle met en jeu plusieurs modalités sensorielles et motrices[9]. Un système interactif peut contenir un ou plusieurs de ces modes d'interaction :

  • Mode parlé : commandes vocales, guides vocaux…
  • Mode écrit : entrées par le clavier et la tablette graphique, affichage du texte sur l'écran…
  • Mode gestuel : désignation 2D ou 3D (souris, gants de données, écran tactile), retour d'effort
  • Mode visuel : graphiques, images, animations…

Les périphériques IHM

[modifier | modifier le code]
Un moniteur graphique

D'un point de vue organique, on peut distinguer trois types d'IHM :

Prospective : un maillon d'une situation plus vaste

[modifier | modifier le code]

Ce domaine évolue vers une interface plus large et persuasive de type « humain-environnement ».

« Il serait sot de nier l'importance de la communication efficace entre l'homme et la machine, aussi bien que l'inverse. Ma prévision est toutefois que la vraie révolution des prochaines décennies viendra davantage encore de ce que les hommes ont à se dire par l'intermédiaire des machines. »

— James Cannavino, The Next Generation of Interactive Technologies (Juillet 1989)

L'immersion dans les mondes virtuels devrait également être rendue plus « réaliste ».

Des jeux comme Le Deuxième Monde, Everquest ou Wolfenstein: Enemy Territory, où plusieurs joueurs évoluent en immersion globale dans un paysage commun, donnent une idée des nouvelles relations que peuvent mettre en place des interfaces réalistes.

Associations et conférences Scientifiques

[modifier | modifier le code]

La plus grande association d'IHM est le pôle d'intérêt commun SIGCHI de l'Association for Computing Machinery (ACM). SIGCHI organise les conférences Conference on Human Factors in Computing Systems (CHI), MobileHCI, TEI et plusieurs autres.

En France, l'association francophone d'Interaction humain-machine (AFIHM[10]) organise la Conférence francophone IHM tous les ans. L'AFIHM parraine diverses manifestations et en particulier des Écoles d'été et les Rencontres Jeunes Chercheurs en Interaction (RJC-IHM).

Notes et références

[modifier | modifier le code]
  1. Beaudouin-Lafon, Michel, « Interaction homme-machine », CNRS-Cahiers IMABIO,‎ (lire en ligne)
  2. (en) Kim, Jin Woo, « Human Computer Interaction », Ahn graphics,‎
  3. (en) Vannevar Bush, « As We May Think », The Atlantic Monthly,‎
  4. a et b Michel Beaudouin-Lafon, « 40 ans d'interaction homme-machine : points de repère et perspectives », Interstices,‎
  5. (en) Mark Weiser, « Ubiquitous Computing », Computer,‎
  6. (en) Pranav Barot, Katja Mombaur et Ewen N. MacDonald, « Estimating speaker direction on a humanoid robot with binaural acoustic signals », PLOS ONE, vol. 19, no 1,‎ , e0296452 (ISSN 1932-6203, PMID 38165991, PMCID PMC10760655, DOI 10.1371/journal.pone.0296452, lire en ligne, consulté le ).
  7. Magnaudet, M. (2014, February). Qu'est-ce que programmer une interface adaptative? Le cas du prototype de station sol pour drones du projet D3CoS. Journée de la Recherche ENAC 2014 (résumé).
  8. (en) Alan Cooper, « The Myth of Metaphor », Visual Basic Programmer's Journal,‎
  9. Jean Caelen, « Interaction et multimodalité », Troisième colloque Hypermédias et Apprentissages,‎
  10. « Association Francophone d'Interaction Humain-Machine », sur afihm.org (consulté le ).

Sur les autres projets Wikimedia :

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]