Modelos de interação

Concluído

O Kit de Ferramentas de Realidade Mista permite consumir entradas de uma variedade de fontes de entrada, como controladores, mãos articuladas ou fala. Escolher o modelo de interação mais adequado para sua experiência de realidade mista exige que você identifique seu usuário e seus objetivos e considere quaisquer fatores situacionais ou ambientais que possam afetar sua experiência. Aqui, você aprenderá sobre os três principais modelos de interação para experiências de realidade mista e como simular a entrada no Unity.

Modelos de interação

Existem três modelos de interação principais que se adequam à maioria das experiências de realidade mista.

Modelo Cenários de exemplo Ajuste
Ponteiros e controladores de movimento Experiências espaciais 3D, como layout e design espacial, manipulação de conteúdo ou simulação. Ótimo para novos utilizadores em conjunto com voz, rastreamento ocular ou movimento da cabeça. Baixa curva de aprendizagem. UX consistente em rastreio manual e controladores 6DoF.
Sem as mãos Experiências contextuais em que as mãos de um utilizador estão ocupadas, tais como aprendizagem e manutenção no trabalho. Alguma aprendizagem é necessária. Se as mãos não estiverem disponíveis, o dispositivo emparelha bem com a voz e a linguagem natural.
Olhar e comprometer-se Experiências de navegação por clique; por exemplo, apresentações 3D ou demonstrações. Requer treinamento em dispositivos montados na cabeça, mas não em dispositivos móveis. Ideal para controladores acessíveis.

Embora seja possível combinar partes de vários modelos de interação na experiência de realidade mista, importa ter em conta que isso acarreta o risco de entradas de utilizador concorrentes, como raios de mão simultâneos e um cursor de direção com a cabeça. Isso pode sobrecarregar e confundir os usuários.

Se sua experiência exigir vários modelos de interação, lembre-se de que muitos usuários podem encontrar dificuldades ao fazer a transição de um modelo para outro, especialmente usuários que são novos na realidade mista.

Modelo de mãos e controladores de movimento

O modelo de mãos e controladores de movimento requer que os usuários usem uma ou duas mãos para interagir com o mundo holográfico. Este modelo remove a fronteira entre virtual e físico.

Alguns cenários específicos incluem:

  • Fornecendo aos operadores de informações telas virtuais 2D com recursos de interface do usuário para exibir e controlar o conteúdo
  • Fornecendo tutoriais e guias para os trabalhadores da linha de frente para as linhas de montagem da fábrica
  • Desenvolver ferramentas profissionais para assistir e educar profissionais médicos
  • Usando objetos virtuais 3D para decorar o mundo real ou para criar outro mundo
  • Criação de serviços e jogos baseados em localização usando o mundo real como plano de fundo

Existem três modalidades: mãos e controladores de movimento.

  • Manipulação direta com as mãos
  • Aponte e interaja com as mãos
  • Controladores de movimento

Modelo mãos-livres

O modelo mãos-livres permite que os usuários interajam com conteúdo holográfico sem usar as mãos. Essa abordagem é melhor para usar se o usuário precisar usar as mãos para atingir seus objetivos do mundo real e tiver dificuldade em interagir com uma interface baseada em mãos e controladores.

Alguns cenários específicos incluem:

  • Ser guiado através de uma tarefa enquanto as mãos do usuário estão ocupadas
  • Referenciar materiais enquanto as mãos do utilizador estão ocupadas
  • Fadiga das mãos
  • Luvas que não podem ser rastreadas
  • Carregando algo nas mãos
  • Estranheza social de fazer grandes gestos com as mãos
  • Espaços apertados

Existem duas modalidades de mãos-livres:

  • Entrada de voz
  • Olhar e Demorar-se

Olhar e comprometer-se

Olhar e confirmar é um modelo de entrada que está intimamente relacionado com a forma como interagimos com computadores usando o mouse para apontar e clicar. Focar e comprometer-se é considerado um modelo de entrada remota com manipulação indireta. Portanto, é melhor usar o olhar e o comprometimento ao interagir com conteúdo holográfico que está fora de alcance. Existem dois tipos de entrada visual (movimento da cabeça e movimento dos olhos) e diferentes ações de confirmação.

Depois que o usuário usa o olhar para direcionar um objeto ou elemento da interface do usuário, o usuário pode interagir ou selecioná-lo usando uma entrada secundária. Isso é conhecido como a etapa de confirmação do modelo de entrada. Os métodos de confirmação incluem comandos de voz, pressionar um botão ou um gesto com a mão.

Simulação de entrada no editor Unity

A simulação de entrada no editor Unity permite testar o comportamento de objetos holográficos ao usar a interação com as mãos ou os olhos.

Como se movimentar na cena:

  • Use as teclas W/A/S/D para mover a câmera para a frente/esquerda/trás/direita.
  • Use as teclas Q/E para mover a câmera verticalmente.
  • Mantenha pressionado o botão direito do mouse para girar a câmera.

Como simular a entrada manual:

  • Prima sem soltar a barra de espaço para ativar a mão direita.
  • Enquanto segura a barra de espaço, mova o mouse para mover a mão.
  • Use a roda de rolagem do mouse para ajustar a profundidade da mão.
  • Clique no botão esquerdo do mouse para simular um gesto de pinçar.
  • Use as teclas T/Y para tornar a mão persistente na visualização.
  • Segure a tecla CTRL e mova o mouse para girar a mão.
  • Prima sem soltar a tecla de deslocamento para a esquerda para ativar a mão esquerda.