RenderExclusiveEventDriven
Este aplicativo de exemplo usa as APIs de Áudio Principal para renderizar dados de áudio em um dispositivo de saída especificado pelo usuário. Este exemplo demonstra o buffer controlado por eventos para um cliente de renderização no modo exclusivo. Para um fluxo de modo exclusivo, o cliente compartilha o buffer de ponto de extremidade com o dispositivo de áudio.
Este tópico contém as seções a seguir.
- descrição
- requisitos de
- baixar o de exemplo
- compilar o de exemplo
- executando o de exemplo
- tópicos relacionados
Descrição
Este exemplo demonstra os seguintes recursos.
- da API MMDevice para enumeração e seleção de dispositivo multimídia.
- WASAPI para operações de gerenciamento de fluxo.
Requisitos
Produto | Versão |
---|---|
do SDK do Windows | Windows 7 |
Visual Studio | 2008 |
Baixando o exemplo
Este exemplo está disponível nos seguintes locais.
Localização | Caminho/URL |
---|---|
Windows SDK | \Arquivos de Programas\Microsoft SDKs\Windows\v7.0\Samples\Multimedia\Audio\RenderExclusiveEventDriven\... |
Compilando o exemplo
Para criar o exemplo RenderExclusiveEventDriven, use as seguintes etapas:
- Abra o shell do CMD para o SDK do Windows e altere para o diretório de exemplo RenderExclusiveEventDriven.
- Execute o comando
start WASAPIRenderExclusiveEventDriven.sln
no diretório RenderExclusiveEventDriven para abrir o projeto WASAPIRenderExclusiveEventDriven na janela do Visual Studio. - Na janela, selecione o de Depuração ou a configuração da solução de Versão, selecione o menu Criar na barra de menus e selecione a opção Criar. Se você não abrir o Visual Studio do shell do CMD para o SDK, o Visual Studio não terá acesso ao ambiente de build do SDK. Nesse caso, o exemplo não será compilado a menos que você defina explicitamente a variável de ambiente MSSdk, que é usada no arquivo de projeto, WASAPIRenderExclusiveEventDriven.vcproj.
Executando o exemplo
Se você criar o aplicativo de demonstração com êxito, um arquivo executável, WASAPIRenderExclusiveEventDriven.exe, será gerado. Para executá-lo, digite WASAPIRenderExclusiveEventDriven
em uma janela de comando seguida por argumentos obrigatórios ou opcionais. O exemplo a seguir mostra como executar o exemplo especificando a duração da reprodução no dispositivo multimídia padrão.
WASAPIRenderExclusiveEventDriven.exe -d 20 -multimedia
A tabela a seguir mostra os argumentos.
Argumento | Descrição |
---|---|
-? | Mostra ajuda. |
-h | Mostra ajuda. |
-f | Frequência de onda de seno no Hz. |
-l | Latência de renderização de áudio em milissegundos. |
-d | Duração da onda do seno em segundos. |
-m | Desabilita o uso do MMCSS. |
-consolar | Use o dispositivo de console padrão. |
-Comunicações | Use o dispositivo de comunicação padrão. |
-multimédia | Use o dispositivo multimídia padrão. |
-Extremidade | Use o identificador de ponto de extremidade especificado no valor da opção. |
Se o aplicativo for executado sem argumentos, ele enumera os dispositivos disponíveis e solicita que o usuário selecione um dispositivo para a sessão de renderização. Depois que o usuário especifica um dispositivo, o aplicativo renderiza uma onda de seno a 440 Hz por 10 segundos. Esses valores podem ser modificados especificando -f e -d valores de alternância.
O exemplo RenderExclusiveEventDriven demonstra o buffer controlado por eventos. O exemplo mostra como:
- Instancie um cliente de áudio, configure-o para ser executado no modo exclusivo e habilite o buffer controlado por eventos definindo o sinalizador AUDCLNT_STREAMFLAGS_EVENTCALLBACK na chamada para IAudioClient::Initialize.
- Associe o cliente aos exemplos que estão prontos para serem renderizados fornecendo um identificador de evento ao sistema chamando o método IAudioClient::SetEventHandle.
- Crie um thread de renderização para processar exemplos do mecanismo de áudio.
- Alinhe os buffers corretamente em um limite de 128 bytes antes de enviá-los para o dispositivo. Isso é feito ajustando a periodicidade do mecanismo.
- Verifique o formato de combinação do ponto de extremidade do dispositivo para determinar se os exemplos podem ser renderizados. Se o dispositivo não der suporte ao formato de combinação, os dados serão convertidos em PCM.
- Manipule a alternância de fluxo.
Depois que a sessão de renderização começa e o fluxo é iniciado, o mecanismo de áudio sinaliza o identificador de evento fornecido para notificar o cliente sempre que um buffer estiver pronto para o cliente processar. Os dados de áudio também podem ser processados em um loop controlado por temporizador. Esse modo é demonstrado no exemplo de RenderExclusiveTimerDriven.
Para obter mais informações sobre como renderizar um fluxo, consulte Renderizando um stream.
Tópicos relacionados