Visualisation et Interaction sur dispositifs mobiles

Transcription

Visualisation et Interaction sur dispositifs mobiles
Visualisation et Interaction sur dispositifs mobiles
Anne Roudaut
Eric Lecolinet
TELECOM ParisTech - CNRS LTCI UMR 5141
46, rue Barrault75013, Paris, France
[email protected]
RESUME
Le foisonnement des dispositifs mobiles dans nos vies
soulève de nombreux défis : Petits écrans, mode d’entrée
différents et limités, et utilisation en condition de mobilité sont les nouveaux challenges de la conception sur mobiles. Les règles d’interaction classiques doivent donc
s’adapter et se renouveler pour d’autres contextes
d’usage. Ce travail de thèse vise à définir les règles sousjacentes à la création et au développement de techniques
d’interaction sur dispositifs mobiles. Cet article en présente la démarche en trois volets : Caractérisation de
l’état de l’art, création de nouvelles techniques et réalisation.
MOTS
CLES
:
Dispositifs
mobiles,
techniques
d’interaction.
ABSTRACT
Mobile devices are omnipresent in our everyday lives,
and their forms raise new challenges for the designers:
Small screens, different and limited set of input devices,
and the use in mobility conditions. The traditional rules
of interaction must therefore be adapted for other contexts. This PhD work intends to define the rules for the
creation and development of interaction techniques on
mobile devices. This article presents the three steps of
my research: the characterization of the state of the art,
the creation of new interaction techniques and their development.
CATEGORIES AND SUBJECT DESCRIPTORS: H.5.2.
User Interfaces: Input Devices and Strategies, Interaction
Styles, Screen Design; D.2.2 User Interfaces
INTRODUCTION
Les dispositifs mobiles sont aujourd’hui omniprésents
dans nos vies quotidiennes. Petits, transportables et avec
des capacités (de puissance et de stockage) qui rejoignent de plus en plus celles des ordinateurs de bureau,
les dispositifs mobiles sont souvent assimilés à des ordinateurs miniaturisés. Cependant leur utilisation est soumise à des contraintes différentes : petits écrans tactiles,
et modes d'entrée différents et limités (stylet, clavier réduit ou inexistant). De plus ils s’utilisent en conditions
de mobilité (lorsque l’utilisateur se déplace, par exemple). Ainsi, un dispositif mobile se tient généralement à
une main, en interagissant au pouce [4, 6]. Dès lors, les
interfaces qui reposaient sur l’utilisation du clavier et de
la souris, ne correspondent plus à ce nouveau contexte
d’usage et doivent être repensées pour s’adapter au cas
des dispositifs mobiles.
Plusieurs travaux ont été proposés récemment. Certains
ciblent la visualisation d’information sur petits écran [1,
3], alors que d’autres traitent de l’interaction sur écrans
tactiles [5, 10], en particulier pour l’entrée de texte [9].
Cependant de telles techniques sont créées au cas par cas
et il n’existe pas de réel guide de style régissant le développement de ces techniques. En particulier de nombreuses applications sont, aujourd’hui encore, construites sur
les styles d’interaction des ordinateurs de bureau. Quelles sont les capacités interactives des dispositifs mobiles,
et comment interagir avec de telles ressources ? Ce sont
les questions soulevées dans ce travail de thèse.
Cet article présente trois volets complémentaires qui
s’articulent autour de ce sujet. Le premier volet consiste
à caractériser l’état de l’art et à mettre en évidence les
problématiques. De cette caractérisation nous proposons
de nouvelles techniques d’interaction. Enfin, un ensemble d’outils sera proposé pour aider à la création et à la
conception de nouvelles techniques d’interaction.
CARACTERISATION DE LʼETAT DE LʼART
Afin de mettre en évidence les principaux problèmes
rencontrés lors de l’utilisation d’un mobile, ce travail a
suivi une approche descendante. J’ai tout d’abord proposé une taxonomie [7] basée sur la définition de modalité
en entrée et en sortie. Cette taxonomie a permis de classer les techniques d’interaction et de visualisation existantes, mais surtout de mettre à jour des problématiques
intéressantes. En particulier, étant donné le nombre
d’informations à présenter à l’utilisateur, les interfaces se
composent majoritairement de petits objets graphiques.
Or, peu d’études traitent de la manipulation de petites cibles en condition de mobilité (en particulier aucune ne
reflète vraiment la réalité d’utilisation des mobiles, qui
s’utilisent préférentiellement à une main). Je me suis
donc penché sur le problème du pointage au pouce sur
écrans tactiles, qui à ce jour n’est pas totalement résolu.
Nous distinguons trois contraintes lors de l’interaction au
pouce :
•
•
•
L’occlusion : le pouce cache une partie de
l’interface et des cibles
L’accès au bords : les bords sont difficilement accessibles à cause de la morphologie de la main. De
plus les bords de l’écran peuvent être épais et gêner
le positionnement du pouce sur les bords
La précision : Le pouce étant plus large et plus instable qu’un stylet il est plus difficile de pointer précisément. De plus, il est difficile pour l’utilisateur de
prédire la position du pointeur sous son doigt
De ces travaux [8], deux constats apparaissent : Les solutions existantes sont basées sur le principe du « tap-draglift » qui permet de manipuler un curseur avec le pouce
pour améliorer la précision de la sélection (la sélection
par tap direct étant trop imprécise). Deuxièmement, ces
techniques ne solutionnent pas simultanément les trois
contraintes que nous avons décrites. Ceci nous a conduit
à proposer deux nouvelles techniques, TapTap et MagStick pour répondre complètement à cette problématique.
interfaces multi échelles, il n’y a pas de control interactif
du zoom. Ainsi TapTap est très efficace, et l’utilisateur
peut le voir comme un double clic avec un rapide ajustement du pouce entre les deux clics. Ce design a aussi
d’autres avantages : il n’y a pas d’occlusion, l’accès au
bord est résolu (le taille de la zone d’intérêt étant suffisamment large), et la sélection est précise.
MagStick
MagStick (Figure 2) est basée sur le principe du « tapdrag-lift ». L’utilisateur appuie sur l’écran pour définir
un point de référence. En bougeant son pouce, un bâton
(« stick ») télescopique apparaît. Ce « stick » a un mouvement inversé, ainsi lorsque le pouce s’éloigne de la cible, le curseur s’en approche. Enfin le curseur est magnétique pour améliorer la précision et éviter les erreurs
de sélection au relâchement du pouce.
ELABORATION DE TECHNIQUES DʼINTERACTION
En se basant sur notre espace de classification, nous
avons proposé deux approches pour le pointage de cibles
sur écrans tactiles [8] : TapTap qui est une approche par
tap direct, et MagStick qui est une stratégie de « tapdrag-lift ». Ces deux techniques ont l’avantage de pouvoir sélectionner précisément et rapidement des cibles de
3mm de largeur (au-delà de ce seuil les cibles seraient
difficilement visualisables).
TapTap
TapTap est basée sur un idée simple : Si un tap n’est pas
assez précis, un second tap peut servir a préciser la sélection d’une cible. Comme le montre la figure 1,
l’utilisateur appuie sur la cible, ce qui permet de définir
une zone d’intérêt. Cette zone est ensuite zoomée et placée au centre de l’écran. Les cibles étant plus larges,
l’utilisateur peut les sélectionner facilement.
a)
b)
c)
Figure 1. TapTap : a) le premier tap défini une zone
d’intérêt ; b) la zone d’intérêt est agrandie et placée au centre ; c) le second tap permet une sélection précise.
TapTap utilise une stratégie de multiplexage temporel :
Le premier tap sert a définir une zone d’intérêt sur la vue
originale, et le second tap permet la sélection à un niveau
de zoom augmentant la précision. TapTap est aussi basée
sur une stratégie de zoom. Cependant, contrairement aux
a)
b)
c)
Figure 2. MagStick : a) l’utilisateur appuie sur l’écran pour
définir un point de référence ; b) en déplaçant le pouce un
bâton (« stick ») télescopique apparaît. Le stick a un mouvement inversé ; c) le curseur est magnétisé par les cibles
pour éviter les erreurs lors du relâchement du pouce.
MagStick a plusieurs atouts : Le mouvement symétrique
du stick permet à l’utilisateur de prédire rapidement le
geste à effectuer pour atteindre la cible. De plus il n’y a
pas d’occlusion puisque le pouce s’éloigne de la cible au
lieu de s’en rapprocher. Cette propriété est complétée par
l’effet magnétique qui arête le curseur sur une cible et
permet une sélection rapide en augmentant la précision.
Enfin MagStick résout le problème des bords de l’écran
puisqu’il est possible d’interagir seulement au centre de
l’écran. Une expérimentation contrôlée a permis de
prouver ce constat. Nous avons observé que l’ensemble
des gestes de nos participants était concentré au centre
de l’écran.
L’expérimentation contrôlée qui a été menée avait deux
buts : Prouver l’efficacité de nos techniques mais aussi
évaluer les techniques existantes pour cerner leur couverture des contraintes d’interaction au pouce. Cette expérimentation a permis de révéler que nos techniques
étaient plus efficaces que l’état de l’art : Elles sont plus
rapides, causent moins d’erreurs et couvrent simultanément les trois contraintes de l’interaction au pouce.
CONCLUSION ET TRAVAUX FUTURS
Mon travail de thèse a commencé par une approche descendante : caractériser l’état de l’art en matière de techniques de visualisation et d’interaction m’a permis de
mettre en évidence plusieurs problématiques. Mes premiers travaux ont cerné le pointage de cible au pouce sur
écran tactile. Sur ce sujet, une taxonomie a été proposée
ainsi que deux nouvelles techniques d’interaction. Désormais, plusieurs pistes de recherche sont à envisager :
•
•
•
Tout d’abord, l’étude sur le pointage a permis de
mettre en évidence de nouveaux problèmes: Les
techniques basées sur le « tap-drag-lift » ne permettent pas les opérations de Drag and Drop. En effet
elles consomment les opérations de drag pour le déplacement du curseur à l’écran. Cette lacune n’est
d’ailleurs pas traitée dans les travaux existants, ni
sur les dispositifs mis sur le marché. Par exemple,
sur un iPhone il n’y a pas de Drag and Drop, excepté sur l’écran d’accueil ou l’utilisateur doit faire un
appui long sur une cible pour passer en mode Drag.
Or ce délai est aussi utilisé pour l’activation des menus contextuels. Ce recouvrement d’opérations nous
intéresse particulièrement. Nous souhaitons donc affiner notre espace de caractérisation pour prendre et
compte cette nouvelle contrainte du manque de ressources interactives. Ce travail aura aussi pour but
de trouver des alternatives pour combler ce manque
de ressources.
Nous souhaitons aussi nous pencher sur d’autres
pistes de recherche révélées dans notre état de l’art.
En particulier, l’absence de clavier (et ainsi de mode
expert dans les techniques de menus), nous a
conduit à proposer une nouvelle technique de menu.
Le Leaf menu est un menu linéaire augmenté de
gestes inspirés du Flower Menu [1] pour la sélection
en mode expert. Nous élaborons aussi un logiciel
permettant d’analyser les mouvements du pouce sur
l’écran tactile. Etant donné la morphologie de la
main et la largeur du pouce, les points récupérés par
l’écran peuvent varier selon la position du pouce sur
l’écran. Nous avons notamment utilisé cet outil pour
l’évaluation du Leaf Menu. Ceci a permis de révéler
des variabilités importantes dans les gestes effectués
par nos utilisateurs. Nous envisageons d’enrichir cet
outil et de l’utiliser pour étudier les traces formées
par le pouce lors de diverses interactions.
Finalement, nous souhaitons aussi proposer des outils d’aide à la conception de techniques
d’interaction. En particulier une librairie graphique
est en court de réalisation. En effet même si les évolutions rapides des outils de développent (SDK de
l’iPhone ou Android par exemple), permettent maintenant de prendre en compte plusieurs doigts, ou les
mouvements du dispositif dans l’espace, aucun outil
n’intègre le développement de techniques
d’interaction avancées.
Ces travaux de thèses ont pour finalité de proposer des
outils pour aider les concepteurs à la création de techniques d’interaction adaptées aux dispositifs mobiles. Sur
un plan plus large, ils apportent aussi un cadre de réflexion sur l’utilisation des dispositifs mobiles : les services proposés sur ordinateur de bureau sont ils réellement transposables sur dispositifs mobiles ? Notamment,
une application de bureautique ne sera peut être pas utilisée sur un mobile alors que d’autres applications, qui
proposent des services « en contexte », le seront.
BIBLIOGRAPHIE
1.
Bailly, G., Lecolinet, E. and Nigay, L. (2008)
Flower Menus: A New Type of Marking Menus
with Large Menu Breadth, within Groups and
Efficient Expert Mode Memorization. ACM
AVI'08, to appear.
2.
Bederson, B., Czerwinski, M.P., Robertson,
G.G. (2002), A Fisheye Calendar Interface for
PDAs: Providing Overviews for Small Displays, CHI 2002.
3.
Huot, S., Lecolinet, E., (2007) Focus+Context
Visualization Techniques for Displaying Large
Lists with Multiple Points of Interest on Small
Tactile Screens, Interact07.
4.
Karlson, A., Bederson, B., Contreras-Vidal, J.
(2007) Understanding on User Interface Design
and Evaluation for Mobile Technology, Idea
Group, 2007.
5.
Karlson, A. K. and Bederson, B. B. (2008) Onehanded touchscreen input for legacy applications. In Proceeding of Human Factors in Computing Systems, ACM Press, 1399-1408.
6.
Pascoe, J., Ryan, N., Morse, D. (2000) Using
while moving: HCI issues in fieldwork environments. ACM Trans. Comput.-Hum. Interact.
7(3):417-437. 2000.
7.
Roudaut A. et Lecolinet E. (2007). Un espace
de classification pour l'interaction sur dispositifs mobiles. IHM'07.
8.
Roudaut A., Huot, S. et Lecolinet E. (2008).
TapTap and MagStick: Improving One-Handed
Target Acquisition on Small Touch-screens.
ACM AVI'08, to appear.
9.
Uguen G., Poirier F. (2005), Saisie de données
pour interfaces réduites avec Glyph : principes,
niveaux de saisie et évaluations théoriques.
IHM’05.
10. Vogel, D. and Baudisch, P. (2007). Shift: a
technique for operating pen-based interfaces
using touch. Proc. CHI'07. 657-666. 2007.