Modele interakcji

Ukończone

Zestaw narzędzi Mixed Reality Toolkit umożliwia korzystanie z danych wejściowych z różnych źródeł danych wejściowych, takich jak kontrolery, przegubowe ręce lub mowa. Wybór modelu interakcji, który najlepiej nadaje się do środowiska rzeczywistości mieszanej, wymaga zidentyfikowania użytkownika i ich celów oraz rozważenia wszelkich czynników sytuacyjnych lub środowiskowych, które mogą mieć wpływ na ich środowisko. W tym miejscu poznasz trzy podstawowe modele interakcji dla środowisk rzeczywistości mieszanej oraz sposób symulowania danych wejściowych w a także aparatu Unity.

Modele interakcji

Istnieją trzy podstawowe modele interakcji, które odpowiadają większości środowisk rzeczywistości mieszanej.

Model Przykładowe scenariusze Fit
Kontrolery rąk i ruchu Środowiska przestrzenne 3D, takie jak projekt i układ przestrzenny, manipulowanie zawartością lub symulacja. Doskonałe rozwiązanie dla nowych użytkowników w połączeniu z głosem, śledzeniem oczu lub spojrzeniem obejmującym użycie głowy. Mała szybkość nauki. Spójne środowisko użytkownika w ramach śledzenia dłoni i kontrolerów 6DoF.
Bez użycia rąk Kontekstowe środowiska, w którym ręce użytkownika są zajęte, takie jak nauka w trakcie wykonywania zadania i obsługa tego zadania. Wymagany jest pewien zakres nauki. Jeśli ręce są niedostępne, urządzenie dobrze współdziała z głosem i językiem naturalnym.
Spojrzenie i zatwierdzenie Środowiska kliknięć; na przykład prezentacje 3D lub pokazy. Wymaga trenowania na urządzeniach zainstalowanych przez głowę, ale nie na urządzeniach przenośnych. Najlepsze rozwiązanie w przypadku kontrolerów z ułatwieniami dostępu.

Chociaż można połączyć części wielu modeli interakcji w środowisku rzeczywistości mieszanej, należy pamiętać, że powoduje to ryzyko konkurencyjnych danych wejściowych użytkownika, takich jak jednoczesne promienie dłoni i kursor wzroku głowy. Może to spowodować przeciążenie systemu i zdezorientować użytkowników.

Jeśli środowisko wymaga wielu modeli interakcji, należy pamiętać, że wielu użytkowników może napotkać trudności podczas przechodzenia z jednego modelu do drugiego. Może to w szczególności dotyczyć nowych użytkowników rzeczywistości mieszanej.

Model z kontrolerami rąk i ruchu

Model z kontrolerami rąk i ruchu wymaga od użytkowników użycia jednej lub dwóch rąk w celu interakcji ze światem holograficznym. Ten model usuwa granicę między środowiskiem wirtualnym i fizycznym.

Oto przykłady konkretnych scenariuszy:

  • Udostępnianie pracownikom przetwarzającym informacje ekranów wirtualnych 2D z elementami działania interfejsu użytkownika w celu wyświetlania i kontrolowania zawartości
  • Zapewnianie pracownikom pierwszej linii samouczków i przewodników dla linii montażowych fabryki
  • Opracowywanie profesjonalnych narzędzi do wspomagania i szkolenia pracowników służby zdrowia
  • Używanie obiektów wirtualnych 3D do dekorowania świata rzeczywistego lub tworzenia innego świata
  • Tworzenie usług i gier opartych na lokalizacji przy użyciu świata rzeczywistego jako tła

Istnieją trzy rodzaje modalności dotyczące kontrolerów rąk i ruchu:

  • Bezpośrednie manipulowanie przy użyciu rąk
  • Wskazywanie i zatwierdzanie przy użyciu rąk
  • Kontrolery ruchu

Model bez użycia rąk

Model bez użycia rąk umożliwia użytkownikom interakcję z zawartością holograficzną bez korzystania z rąk. Takie podejście najlepiej użyć, jeśli użytkownik może użyć rąk do osiągnięcia rzeczywistych celów i będzie miał trudności z interakcją z interfejsem opartym na rękach i kontrolerach.

Oto przykłady konkretnych scenariuszy:

  • Przechodzenie przez zadanie, gdy ręce użytkownika są zajęte
  • Odwoływanie się do materiałów, gdy ręce użytkownika są zajęte
  • Zmęczenie rąk
  • Rękawiczki, których nie można śledzić
  • Niesienie czegoś w rękach
  • Społeczna niezręczność wykonywania dużych gestów dłoni
  • Ciasne przestrzenie

Istnieją dwie modalności pracy bez użycia rąk:

  • Wprowadzanie danych przy użyciu głosu
  • Spojrzenie i zatrzymanie

Spojrzenie i zatwierdzenie

Spojrzenie i zatwierdzenie to model wejściowy, który jest ściśle powiązany ze sposobem interakcji z komputerami przy użyciu myszy, aby wskazać i kliknąć. Spojrzenie i zatwierdzenie to model wejściowy obsługujący większe odległości i pośrednie manipulowanie. W związku z tym najlepiej używać spojrzenia i zatwierdzania podczas interakcji z zawartością holograficzną, która jest poza zasięgiem. Istnieją dwa typy danych wejściowych spojrzenia (spojrzenie głowy i wzrok) i różne akcje zatwierdzania.

Gdy użytkownik użyje spojrzenia w celu kierowania obiektu lub elementu interfejsu użytkownika, użytkownik może wchodzić z nim w interakcje lub wybierać go przy użyciu danych wejściowych pomocniczych. Jest to tzw. krok zatwierdzenia w modelu wejściowym. Metody zatwierdzania obejmują polecenia głosowe, naciśnięcie przycisku lub gest dłonią.

Symulacja danych wejściowych w edytorze aparatu Unity

Symulacja danych wejściowych w edytorze aparatu Unity umożliwia testowanie zachowań obiektów holograficznych podczas interakcji obejmującej ruch ręki lub oczu.

Jak poruszać się w obrębie sceny:

  • Użyj klawiszy W/A/S/D , aby przenieść aparat do przodu/lewej/tylnej/prawej.
  • Użyj klawiszy Q/E , aby przenieść aparat w pionie.
  • Naciśnij i przytrzymaj prawy przycisk myszy, aby obrócić kamerę.

Jak symulować wprowadzanie danych za pomocą rąk:

  • Naciśnij i przytrzymaj spację, aby włączyć prawą rękę.
  • Trzymając naciśniętą spację, przesuń wskaźnik myszy, aby poruszyć ręką.
  • Użyj kółka przewijania myszy, aby dostosować głębokość dłoni.
  • Kliknij lewy przycisk myszy, aby zasymulować gest szczypta.
  • Użyj kluczy T/Y, aby ręcznie utrwalć w widoku.
  • Przytrzymaj klawisz CTRL i przesuń mysz, aby obrócić rękę.
  • Naciśnij i przytrzymaj lewy klawisz Shift, aby włączyć lewą rękę.