Interaktionsmodeller

Slutförd

Med Mixed Reality Toolkit kan du använda indata från en mängd olika indatakällor, till exempel styrenheter, ledade händer eller tal. Om du väljer den interaktionsmodell som passar bäst för din mixade verklighetsupplevelse måste du identifiera din användare och deras mål och överväga eventuella situationella eller miljömässiga faktorer som kan påverka deras upplevelse. Här får du lära dig mer om de tre primära interaktionsmodellerna för upplevelser med mixad verklighet och hur du simulerar indata i Unity.

Interaktionsmodeller

Det finns tre primära interaktionsmodeller som passar de flesta upplevelser med mixad verklighet.

Modell Exempelscenarier Anpassa
Hand- och rörelsekontroller Tredimensionella upplevelser, till exempel rumslayout och design, innehållsmanipulation eller simulering. Perfekt för nya användare tillsammans med röst, ögonspårning och huvudriktning. Lätt att lära sig. Konsekvent UX för handspårning och 6DoF-kontroller.
Hands-free Kontextuella upplevelser där en användares händer används, till exempel utbildning och underhåll på jobbet. Viss utbildning krävs. Om händerna inte är tillgängliga kan enheten styras med röst och naturligt språk.
Blick och genomför Klickupplevelser; till exempel 3D-presentationer eller demonstrationer. Kräver träning på huvudmonterade enheter, men inte på mobila enheter. Bäst för tillgängliga styrenheter.

Även om du kan kombinera delar av flera interaktionsmodeller i din mixade verklighetsupplevelse, bör du vara medveten om att detta skapar risken för konkurrerande användarindata, till exempel samtidiga handstrålar och en markör för huvud-blick. Detta kan överbelasta och förvirra användare.

Om din upplevelse kräver flera interaktionsmodeller bör du tänka på att många användare kan stöta på problem vid övergången från en modell till en annan, särskilt användare som är nybörjare på mixad verklighet.

Modell för hand- och rörelsekontroller

Modellen för hand- och rörelsekontrollerna kräver att användare använder en eller två händer för att interagera med den holografiska världen. Den här modellen tar bort gränserna mellan den virtuella och den fysiska världen.

Några olika scenarier är:

  • Tillhandahålla virtuella 2D-skärmar till informationsanställda med funktionselement för användargränssnitt för att visa och kontrollera innehåll
  • Tillhandahålla självstudier och guider för arbetare i frontlinjen för fabriksmonteringslinjer
  • Utveckla professionella verktyg för att hjälpa och utbilda medicinska experter
  • Använda virtuella 3D-objekt för att dekorera den verkliga världen eller för att skapa en annan värld
  • Skapa platsbaserade tjänster och spel med den verkliga världen som bakgrund

Det finns tre hand- och rörelsekontrollmetoder:

  • Direktmodifiering med händerna
  • Peka och genomför med händerna
  • Rörelsekontroller

Handsfree-modell

Med den handsfree-modellen kan användarna interagera med holografiskt innehåll utan att använda händerna. Den här metoden är bäst att använda om användaren kan behöva använda händerna för att uppnå sina verkliga mål och har svårt att interagera med ett hands-and-controllers-baserat gränssnitt.

Några olika scenarier är:

  • Vägleds genom en uppgift medan användarens händer är upptagna
  • Referensmaterial när användarens händer är upptagna
  • Handtrötthet
  • Handskar som inte kan spåras
  • Bär något i händerna
  • Social besvärlighet att göra stora handgester
  • Trånga utrymmen

Det finns två praktiska metoder:

  • Röstinspelning
  • Blick och tryck

Blick och genomför

Blick och incheckning är en indatamodell som är nära relaterad till hur vi interagerar med datorer med hjälp av en mus för att peka och klicka. Blick och genomför betraktas som en ingångsmodell med indirekt manipulering. Därför är det bäst att använda blick och incheckning när du interagerar med holografiskt innehåll som är utom räckhåll. Det finns två typer av blickindata (huvudöga och blick) och olika incheckningsåtgärder.

När användaren använder blick för att rikta in sig på ett objekt eller användargränssnittselement kan användaren interagera med eller välja det med hjälp av en sekundär indata. Detta kallas för indatamodellens genomföringssteg. Genomföringsmetoder är röstkommandon, en knapptryckning eller en handgest.

Unity-redigeraren för indatasimulering

Med hjälp av Unity-redigeraren för indatasimulering kan du testa holografiska objekts beteende när du använder hand- eller ögoninteraktion.

Så här flyttar du runt i scenen:

  • Använd W/A/S/D-tangenterna för att flytta kameran framåt/vänster/bakåt/höger.
  • Använd Q/E-tangenterna för att flytta kameran lodrätt.
  • Tryck på och håll ner höger musknapp för att rotera kameran.

Så här simulerar du handinmatning:

  • Tryck och håll ner blanksteget för att aktivera höger hand.
  • När du håller ner blanksteget flyttar du musen för att flytta handen.
  • Använd mushjulet för att justera djupet för handen.
  • Klicka på den vänstra musknappen för att simulera en nypgest.
  • Använd T/Y-nycklarna för att göra handen beständiga i vyn.
  • Håll ned CTRL-tangenten och flytta musen för att rotera handen.
  • Tryck på och håll ner vänster Skift-tangent för att aktivera vänster hand.