Modelos de interação
O Kit de Ferramentas de Realidade Mista permite consumir entradas de uma variedade de fontes de entrada, como controladores, mãos articuladas ou fala. Escolher o modelo de interação mais adequado para sua experiência de realidade mista exige que você identifique seu usuário e seus objetivos e considere quaisquer fatores situacionais ou ambientais que possam afetar sua experiência. Aqui, você aprenderá sobre os três principais modelos de interação para experiências de realidade mista e como simular a entrada no Unity.
Modelos de interação
Existem três modelos de interação principais que se adequam à maioria das experiências de realidade mista.
Modelo | Cenários de exemplo | Ajuste |
---|---|---|
Ponteiros e controladores de movimento | Experiências espaciais 3D, como layout e design espacial, manipulação de conteúdo ou simulação. | Ótimo para novos utilizadores em conjunto com voz, rastreamento ocular ou movimento da cabeça. Baixa curva de aprendizagem. UX consistente em rastreio manual e controladores 6DoF. |
Sem as mãos | Experiências contextuais em que as mãos de um utilizador estão ocupadas, tais como aprendizagem e manutenção no trabalho. | Alguma aprendizagem é necessária. Se as mãos não estiverem disponíveis, o dispositivo emparelha bem com a voz e a linguagem natural. |
Olhar e comprometer-se | Experiências de navegação por clique; por exemplo, apresentações 3D ou demonstrações. | Requer treinamento em dispositivos montados na cabeça, mas não em dispositivos móveis. Ideal para controladores acessíveis. |
Embora seja possível combinar partes de vários modelos de interação na experiência de realidade mista, importa ter em conta que isso acarreta o risco de entradas de utilizador concorrentes, como raios de mão simultâneos e um cursor de direção com a cabeça. Isso pode sobrecarregar e confundir os usuários.
Se sua experiência exigir vários modelos de interação, lembre-se de que muitos usuários podem encontrar dificuldades ao fazer a transição de um modelo para outro, especialmente usuários que são novos na realidade mista.
Modelo de mãos e controladores de movimento
O modelo de mãos e controladores de movimento requer que os usuários usem uma ou duas mãos para interagir com o mundo holográfico. Este modelo remove a fronteira entre virtual e físico.
Alguns cenários específicos incluem:
- Fornecendo aos operadores de informações telas virtuais 2D com recursos de interface do usuário para exibir e controlar o conteúdo
- Fornecendo tutoriais e guias para os trabalhadores da linha de frente para as linhas de montagem da fábrica
- Desenvolver ferramentas profissionais para assistir e educar profissionais médicos
- Usando objetos virtuais 3D para decorar o mundo real ou para criar outro mundo
- Criação de serviços e jogos baseados em localização usando o mundo real como plano de fundo
Existem três modalidades: mãos e controladores de movimento.
- Manipulação direta com as mãos
- Aponte e interaja com as mãos
- Controladores de movimento
Modelo mãos-livres
O modelo mãos-livres permite que os usuários interajam com conteúdo holográfico sem usar as mãos. Essa abordagem é melhor para usar se o usuário precisar usar as mãos para atingir seus objetivos do mundo real e tiver dificuldade em interagir com uma interface baseada em mãos e controladores.
Alguns cenários específicos incluem:
- Ser guiado através de uma tarefa enquanto as mãos do usuário estão ocupadas
- Referenciar materiais enquanto as mãos do utilizador estão ocupadas
- Fadiga das mãos
- Luvas que não podem ser rastreadas
- Carregando algo nas mãos
- Estranheza social de fazer grandes gestos com as mãos
- Espaços apertados
Existem duas modalidades de mãos-livres:
- Entrada de voz
- Olhar e Demorar-se
Olhar e comprometer-se
Olhar e confirmar é um modelo de entrada que está intimamente relacionado com a forma como interagimos com computadores usando o mouse para apontar e clicar. Focar e comprometer-se é considerado um modelo de entrada remota com manipulação indireta. Portanto, é melhor usar o olhar e o comprometimento ao interagir com conteúdo holográfico que está fora de alcance. Existem dois tipos de entrada visual (movimento da cabeça e movimento dos olhos) e diferentes ações de confirmação.
Depois que o usuário usa o olhar para direcionar um objeto ou elemento da interface do usuário, o usuário pode interagir ou selecioná-lo usando uma entrada secundária. Isso é conhecido como a etapa de confirmação do modelo de entrada. Os métodos de confirmação incluem comandos de voz, pressionar um botão ou um gesto com a mão.
Simulação de entrada no editor Unity
A simulação de entrada no editor Unity permite testar o comportamento de objetos holográficos ao usar a interação com as mãos ou os olhos.
Como se movimentar na cena:
- Use as teclas W/A/S/D para mover a câmera para a frente/esquerda/trás/direita.
- Use as teclas Q/E para mover a câmera verticalmente.
- Mantenha pressionado o botão direito do mouse para girar a câmera.
Como simular a entrada manual:
- Prima sem soltar a barra de espaço para ativar a mão direita.
- Enquanto segura a barra de espaço, mova o mouse para mover a mão.
- Use a roda de rolagem do mouse para ajustar a profundidade da mão.
- Clique no botão esquerdo do mouse para simular um gesto de pinçar.
- Use as teclas T/Y para tornar a mão persistente na visualização.
- Segure a tecla CTRL e mova o mouse para girar a mão.
- Prima sem soltar a tecla de deslocamento para a esquerda para ativar a mão esquerda.