Exercício - Integrar e utilizar o reconhecimento e transcrição de fala
Neste módulo, você criará um aplicativo de Realidade Mista que explora o uso dos Serviços de Fala do Azure com o HoloLens 2. Ao concluir esta série, você poderá usar o microfone do seu dispositivo para transcrever fala para texto em tempo real, traduzir sua fala para outros idiomas e usar o recurso de reconhecimento de intenção para entender comandos de voz usando inteligência artificial.
Criar e preparar o projeto Unity
Nesta seção, você criará um novo projeto Unity e o preparará para o desenvolvimento do MRTK.
Como pré-requisito, certifique-se de ter concluído as etapas abaixo para inicializar seu projeto e aplicativo:
- Criar o projeto Unity e dar-lhe um nome adequado, por exemplo, MRTK Tutorials
- Mudar a plataforma de compilação
- Importando os recursos essenciais do TextMeshPro
- Importando o Kit de Ferramentas de Realidade Mista
- Configurando o projeto Unity
- Criar e configurar a cena e dar-lhe um nome adequado; por exemplo, AzureSpeechServices
Nota
Você pode aprender como configurar seu projeto de realidade mista no módulo Introdução ao Kit de Ferramentas de Realidade Mista .
Configurar os recursos
No menu Unity, selecione Editar>Definições do Projeto... para abrir a janela Definições do Media Player e, em seguida, localize a secção Definições de Publicação do Media Player:>
Nas Configurações de Publicação, role para baixo até a seção Recursos e verifique se os recursos InternetClient, Microfone e Perceção Espacial (que você habilitou quando criou o projeto no início do tutorial) ainda estão habilitados. Em seguida, habilite os recursos InternetClientServer e PrivateNetworkClientServer.
Importar os ativos do tutorial
Baixe e importe os seguintes pacotes personalizados Unity na ordem em que estão listados:
Depois de importar os ativos do tutorial, a janela Project deve ter esta aparência:
Preparar a cena
Nesta seção, você preparará a cena adicionando o tutorial pré-fabricado e configurará o componente Lunarcom Controller (Script) para controlar sua cena.
Na janela Projeto, navegue até o MRTK de ativos>. Tutorials.AzureSpeechServices>Prefabs pasta e arraste o Lunarcom pré-fabricado para a janela Hierarquia para adicioná-lo à sua cena.
Com o objeto Lunarcom ainda selecionado na janela Hierarchy, na janela Inspetor, use o botão Add Component para adicionar o componente Lunarcom Controller (Script) ao objeto Lunarcom.
Com o objeto Lunarcom ainda selecionado, expanda-o para revelar seus objetos filho e, em seguida, arraste o objeto Terminal para o campo Terminal do componente Controlador Lunarcom (Script).
Com o objeto Lunarcom ainda selecionado, expanda o objeto Terminal para revelar seus objetos filho e, em seguida, arraste o objeto ConnectionLight para o campo Connection Light do componente Lunarcom Controller (Script) e o objeto OutputText para o campo Output Text.
Com o objeto Lunarcom ainda selecionado, expanda o objeto Buttons para revelar seus objetos filho e, na janela Inspetor, expanda a lista Botões, defina o campo Buttons como 3 e arraste os objetos MicButton, SatelliteButton e RocketButton para os campos Element 0, 1 e 2, respectivamente.
Conectar o projeto Unity ao recurso do Azure
Para usar os Serviços de Fala do Azure, você precisa criar um recurso do Azure e obter uma chave de API para o Serviço de Fala. Siga as instruções de início rápido e anote sua região de serviço (também conhecida como Local) e a chave da API (também conhecida como Key1 ou Key2).
Na janela Hierarquia, selecione o objeto Lunarcom e, em seguida, na janela Inspetor, localize a seção Credenciais do SDK de Fala do componente Controlador Lunarcom (Script) e configure-a da seguinte maneira:
- No campo Chave da API do Serviço de Fala, insira sua chave de API (Key1 ou Key2).
- No campo Região do Serviço de Fala, insira sua região de serviço (Local) usando letras minúsculas e espaços removidos.
Usar o reconhecimento de fala para transcrever a fala
Na janela Hierarquia, selecione o objeto Lunarcom e, em seguida, na janela Inspetor, use o botão Adicionar componente para adicionar o componente Lunarcom Speech Recognizer (Script) ao objeto Lunarcom.
Se agora entrar no modo de jogo e selecionar o botão Reproduzir, pode testar o reconhecimento de voz premindo primeiro o botão do microfone:
Então, supondo que seu computador tenha um microfone, quando você disser algo, sua fala será transcrita no painel do terminal:
Atenção
O aplicativo precisa se conectar ao Azure, portanto, verifique se seu computador/dispositivo está conectado à Internet.