Modèles d’interaction
Mixed Reality Toolkit vous permet de consommer des entrées de diverses sources d’entrée comme les contrôleurs 6DoF (Six degrees of freedom), les mains articulées ou la parole. Si vous voulez déterminer le meilleur modèle d’interaction pour votre application, réfléchissez aux objectifs de vos utilisateurs et tenez compte des facteurs environnementaux pouvant impacter leur expérience.
Il existe trois modèles d’interaction principaux adaptés à la majorité des expériences de réalité mixte. Vous pouvez combiner des parties de différents modèles d’interaction dans votre application, toutefois, réfléchissez bien avant de le faire. Vous risquez alors d’avoir des entrées utilisateur simultanées, comme des rayons émanant de la main simultanés et un curseur manipulable avec le regard ou la tête, ce qui peut surcharger et embrouiller les utilisateurs.
Modèle Mains et contrôleurs de mouvement
Le modèle Mains et contrôleurs de mouvement exige des utilisateurs qu’ils utilisent une ou deux mains pour interagir avec le monde holographique. Ce modèle supprime la limite entre le monde virtuel et le monde physique.
Voici quelques scénarios spécifiques :
- Fournir aux travailleurs de l’information des écrans virtuels 2D avec affordances d’UI pour afficher et contrôler le contenu
- Fournir des tutoriels pour les travailleurs de première ligne et des guides pour les lignes d’assemblage en usine
- Développer des outils professionnels pour assister et former des professionnels de la santé
- Utiliser des objets virtuels 3D pour décorer le monde réel ou créer un autre monde
- Créer des services et des jeux basés sur l’emplacement en utilisant le monde naturel comme arrière-plan
Il existe trois modes dans le modèle Mains et contrôleurs de mouvement :
- Manipulation directe avec les mains
- Pointage et validation avec les mains
- Contrôleurs de mouvement
Modèle Mains libres
Comme son nom l’indique, le modèle Mains libres permet aux utilisateurs d’interagir avec le contenu holographique sans utiliser leurs mains. À la place, ils peuvent utiliser l’entrée vocale ou le pointage du regard.
Voici quelques scénarios spécifiques :
- Guidage pour effectuer une tâche pendant que les mains de l’utilisateur sont occupées
- Référencement de matériaux lorsque les mains de l’utilisateur sont occupées
- Fatigue de la main
- Gants qui ne peuvent pas être suivis
- Transport d’objet avec les mains
- Sentiment de gène pour effectuer de grands mouvements de la main en société
- Espaces étroits
Pointer du regard et valider
Il vaut mieux utiliser le pointage du regard en cas d’interaction avec du contenu holographique hors de portée. L’utilisateur pointe du regard un objet ou un élément d’interface utilisateur, puis le sélectionne (« valide ») en utilisant une entrée secondaire. Les méthodes de validation incluent des commandes vocales, une pression sur un bouton ou un mouvement de la main.
Il existe deux types de pointage du regard, avec l’œil et avec la tête, qui ont des actions de validation différentes.