Övning – Integrera och använda taligenkänning och transkription
I den här modulen skapar du ett Mixed Reality-program som utforskar användningen av Azure Speech Services med HoloLens 2. När du har slutfört den här serien kan du använda enhetens mikrofon för att transkribera tal till text i realtid, översätta ditt tal till andra språk och använda funktionen Avsiktsigenkänning för att förstå röstkommandon med artificiell intelligens.
Skapa och förbereda Unity-projektet
I det här avsnittet ska du skapa ett nytt Unity-projekt och förbereda det för MRTK-utveckling.
Som en förutsättning kontrollerar du att du har slutfört stegen nedan för att initiera projektet och programmet:
- Skapa Unity-projektet och ge det ett lämpligt namn, till exempel MRTK-självstudier
- Byta byggplattform
- Importerar nödvändiga TextMeshPro-resurser
- Importera Mixed Reality Toolkit
- Konfigurera Unity-projektet
- Skapa och konfigurera scenen och ge den ett lämpligt namn; Till exempel AzureSpeechServices
Kommentar
Du kan lära dig hur du konfigurerar ditt mixed reality-projekt i modulen Introduktion till Mixed Reality Toolkit .
Konfigurera funktionerna
I Unity-menyn väljer du Redigera>projekt Inställningar... för att öppna fönstret Player Inställningar och letar sedan upp avsnittet Player>Publishing Inställningar:
I publicerings-Inställningar rullar du ned till avsnittet Funktioner och dubbelkollar att funktionerna InternetClient, Microphone och SpatialPerception (som du aktiverade när du skapade projektet i början av självstudien) fortfarande är aktiverade. Aktivera sedan funktionerna InternetClientServer och PrivateNetworkClientServer.
Importera självstudietillgångarna
Ladda ned och importera följande anpassade Unity-paket i den ordning de visas:
När du har importerat självstudietillgångarna bör projektfönstret se ut så här:
Förbereda scenen
I det här avsnittet förbereder du scenen genom att lägga till självstudiekursen prefab och konfigurera komponenten Lunarcom Controller (Script) för att styra din scen.
I fönstret Projekt navigerar du till MRTK för tillgångar>. Tutorials.AzureSpeechServices>Prefabs-mappen och dra Lunarcom-prefab till hierarkifönstret för att lägga till den i din scen.
När Lunarcom-objektet fortfarande är markerat i hierarkifönstret går du till fönstret Inspector och använder knappen Lägg till komponent för att lägga till komponenten Lunarcom Controller (Skript) i Lunarcom-objektet.
När Lunarcom-objektet fortfarande är markerat expanderar du det för att visa dess underordnade objekt och drar sedan terminalobjektet till komponenten Lunarcom Controller (Skript) terminalfält.
När Lunarcom-objektet fortfarande är markerat expanderar du terminalobjektet för att visa dess underordnade objekt och drar sedan objektet Anslut ionLight till Komponenten Lunarcom Controller (Skript) Anslut ion Light och OutputText-objektet till fältet Utdatatext.
När Lunarcom-objektet fortfarande är markerat expanderar du objektet Knappar för att visa dess underordnade objekt och expanderar sedan listan Knappar i fönstret Inspector, anger fältet Knappar till 3 och drar objekten MicButton, SatelliteButton och RocketButton till fälten Element 0, 1 respektive 2.
Anslut Unity-projektet till Azure-resursen
Om du vill använda Azure Speech Services måste du skapa en Azure-resurs och hämta en API-nyckel för Speech Service. Följ snabbstartsinstruktionerna och anteckna tjänstregionen (även kallat Plats) och API-nyckeln (kallas även Key1 eller Key2).
I hierarkifönstret väljer du Lunarcom-objektet och i fönstret Inspector letar du upp komponenten Lunarcom Controller (Script) i avsnittet Speech SDK Credentials (Speech SDK-autentiseringsuppgifter) och konfigurerar det på följande sätt:
- I fältet API-nyckel för Speech Service anger du din API-nyckel (Key1 eller Key2).
- I fältet Speech Service Region anger du din tjänstregion (plats) med gemener och blanksteg borttagna.
Använda taligenkänning för att transkribera tal
I hierarkifönstret väljer du Lunarcom-objektet och i fönstret Inspector använder du knappen Lägg till komponent för att lägga till komponenten Lunarcom Speech Recognizer (Skript) i Lunarcom-objektet.
Om du nu anger Spelläge och väljer knappen Spela upp kan du testa taligenkänningen genom att först trycka på mikrofonknappen:
Sedan, förutsatt att datorn har en mikrofon, kommer ditt tal att transkriberas på terminalpanelen när du säger något:
Varning
Programmet måste ansluta till Azure, så se till att datorn/enheten är ansluten till Internet.