Homme et machine : partenaires pour le meilleur à l’INRIA

6f1af1a75bcf7b697dbc898544eb84b009f62ff2.jpg
ébergement de sites internet de la société OVH à Roubaix, dans le nord de la France (Photo : Philippe Huguen)

[27/01/2014 11:21:07] Paris (AFP) “On capte, on stocke, on diffuse: les données produites doublent chaque année”, constate Jean-Daniel Fekete, responsable de l’équipe Aviz au Centre de recherche INRIA de Saclay. “Le challenge est comment comprendre cette quantité de données”.

Face à un ordinateur, ce que veulent les hommes ce n’est pas “communiquer” avec lui, renchérit Wendy Mackay, autre chercheur de l’Institut de recherche en sciences du numérique (INRIA), qui travaille depuis 25 ans sur l’interaction homme-machine.

Et pourtant il faut bien trouver un terrain d’entente -les spécialistes appellent ça des “interfaces” – pour exploiter au mieux les fabuleuses capacités des outils technologiques et l’augmentation exponentielle des informations mises à disposition.

Car notre cerveau, lui, n’a pas évolué au rythme du Big Data. Déléguer à l’ordinateur? Les progrès réalisés en Intelligence Artificielle sont “colossaux”, mais ils ont des limites, relève Jean-Daniel Fekete.

Son équipe table en revanche sur les capacités visuelles de l’homme, “extrêmement performantes”, pour rendre les grands volumes de données non pas seulement accessibles, mais surtout compréhensibles.

L’idée générale est d’utiliser des représentations visuelles “très faciles à comprendre”, voire ludiques, pour faire passer la masse des informations.

Jean-Daniel Fekete fait par exemple la démonstration qu’en quelques “coups de dé”, ScatterDice, un outil de visualisation de données sur écran développé par l’équipe Aviz, permet de choisir un appareil-photo parmi 1.000 références et en tenant compte de 12 critères de sélection différents (prix, résolution, zoom…).

Un tableau à double entrée, sur une face d’un cube, “se rejoue” autant de fois que nécessaire pour appréhender toutes les données.

ScatterDice a notamment été mis en oeuvre pour créer un outil d’exploration des zones d’emploi en France (300 zones d?emploi définies par 18 paramètres).

Interfaces personnalisées

“Il est impossible pour un système de comprendre tout ce qu’un individu a dans la tête”, assure de son côté Wendy Mackay, responsable de l’équipe INRIA In-Situ.

d195e262469bf97f224a728f621f8c9835746551.jpg
ées de Facebook à Lulea, en Suède (Photo : Jonathan Nackstrand)

Américaine d’origine, elle s’efforce donc de jouer les médiatrices, avec l’objectif de créer des interfaces beaucoup moins rigides, “personnalisées”.

Le fondement de ses travaux: concilier la compréhension de l’être humain, de ses besoins et de ses compétences, et la technologie interactive.

Wendy Mackay, qui a fait des études en psychologie expérimentale, est une spécialiste du papier interactif, ou papier augmenté, “parce que l’être humain a les capacités d’écrire, de dessiner”, et qu’il peut avoir besoin à la fois du papier et de l’ordinateur.

Plutôt que de remplacer purement et simplement le support papier traditionnel, la démarche vise à lui substituer un support papier connecté, capable d’interagir avec des supports numériques.

Le défi est d’établir le dialogue entre les deux, basé sur un “partenariat entre l’être humain et le système”, un “va-et-vient”, pour construire un outil fiable et “vraiment utile”. Son astuce: “la conception participative” qui associe l’utilisateur à l’élaboration du produit.

Elle a en particulier travaillé avec des contrôleurs aériens, des biologistes ou encore des musiciens.

“Les hommes ne veulent pas communiquer avec l’ordinateur, ils veulent s’en servir comme outil d’expressivité, de créativité”, résume-t-elle.

Son équipe travaille également sur “les gestes bi-manuels”, qui combinent les deux mains, dans l’utilisation des tablettes. Il s’agit d’abord de comprendre les aspects moteurs du bras, de la main, le rôle de la “main dominante”.

Le plus souvent, une main tient la tablette, tandis que l’autre interagit sur l’écran. En repérant comment on tient une tablette, les chercheurs ont identifié des zones sur les bordures de l’écran qui peuvent simultanément être utilisées pour le support et l’interaction, permettant des gestes des deux mains à la fois.