Einführung

Abgeschlossen

Mithilfe des Mixed Reality-Toolkits können Sie Eingaben aus verschiedenen Eingabequellen konsumieren, wie etwa Controller, artikulierte Hände oder Sprache. Damit Sie das optimal geeignete Interaktionsmodell für Ihre Mixed Reality-Umgebung auswählen können, müssen Sie Ihre Benutzer*innen und deren Ziele identifizieren und alle situations- oder umgebungsbedingten Faktoren berücksichtigen, die sich auf ihr Erlebnis auswirken können.

Nehmen wir an, Sie entwerfen ein Spiel, das viele Interaktionen erfordert. Die Benutzer*innen machen sich etwas Sorgen über die Interaktionsmethode, da es anstrengend sein wird, die Controller über einen längeren Zeitraum zu nutzen. Daher müssen Sie sich alternative Eingabemethoden für den Erfolg Ihrer Anwendung einfallen lassen.

Dieses Modul zeigt Ihnen, wie Sie Augennachverfolgung und Sprachbefehle mit MRTK anhand des Hologramm-Modells des Mars Curiosity Rover der NASA einbinden können. Hier lernen Sie Folgendes:

  • Aktivieren der Augennachverfolgung für HoloLens 2.
  • Erfahren Sie, wie Sie die Augennachverfolgung verwenden, um Aktionen auszulösen.
  • Erstellen von Sprachbefehlen.
  • Erfahren Sie, wie Sie Sprachbefehle global und lokal steuern.

Am Ende des Moduls können Sie Ihrem Projekt mit MRTK Augennachverfolgung und Sprachbefehle hinzufügen.

Ein vollständiges Beispiel für dieses Tutorial finden Sie hier.