Touche moi et je saurais qui appuie

Une start-up nous amène à imaginer de nouvelles interactions avec  l’écran tactile.

Grâce à l’accéléromètre embarqué et des mini-capteurs, la technologie FingerSense mise au point par QEEXO permet de distinguer finement les vibrations émises lors du contact avec l’écran (reconnaissance de la signature acoustique des objets au toucher). Ainsi, il est possible de différencier les touchers suivants :

  • doigt,
  • ongle,
  • articulation d’un doigt,
  • pointe de stylet.

Voilà de quoi ré-inventer des interactions avec son smartphone… on peut imaginer des interactions contextuelles en fonction du toucher, cela augmente considérablement les contrôles de l’utilisateur.

Nous verrions le scope des interactions s’élargir : 1 doigt, 2 doigts, 3 doigts… appui simple, appui long, effleurement (S pen, survol de l’écran avec son stylet) comme c’est déjà présent chez différents constructeurs. Ces avancées semblent prometteuses et ouvrent un champ de possibles pour le monde du handicap.

voir la vidéo des interactions sur viméo

source : Wired juin 2014

Pour finir sur une scène qui revient à ma mémoire, j’ai vu un enfant jouer avec un téléphone qui savait très bien appuyer, swiper… interagir avec le téléphone mais qui néanmoins a essayé d’interagir avec sa langue et son nez…

Publié dans Billets d'humeur