Flussi in modalità esclusiva
Come spiegato in precedenza, se un'applicazione apre un flusso in modalità esclusiva, l'applicazione usa esclusivamente il dispositivo endpoint audio che riproduce o registra il flusso. Al contrario, diverse applicazioni possono condividere un dispositivo endpoint audio aprendo flussi in modalità condivisa nel dispositivo.
L'accesso in modalità esclusiva a un dispositivo audio può bloccare i suoni cruciali del sistema, impedire l'interoperabilità con altre applicazioni e compromettere altrimenti l'esperienza utente. Per attenuare questi problemi, un'applicazione con un flusso in modalità esclusiva in genere rinuncia al controllo del dispositivo audio quando l'applicazione non è il processo in primo piano o non è attivamente in streaming.
La latenza di flusso è il ritardo intrinseco nel percorso dati che connette il buffer dell'endpoint di un'applicazione a un dispositivo endpoint audio. Per un flusso di rendering, la latenza è il ritardo massimo dal momento in cui un'applicazione scrive un esempio in un buffer dell'endpoint al momento in cui l'esempio viene sentito tramite gli altoparlanti. Per un flusso di acquisizione, la latenza è il ritardo massimo dal momento in cui un suono entra nel microfono al momento in cui un'applicazione può leggere l'esempio per tale suono dal buffer dell'endpoint.
Le applicazioni che usano flussi in modalità esclusiva spesso lo fanno perché richiedono latenze basse nei percorsi di dati tra i dispositivi endpoint audio e i thread dell'applicazione che accedono ai buffer degli endpoint. In genere, questi thread vengono eseguiti con priorità relativamente alta e pianificano se stessi per l'esecuzione a intervalli periodici vicini o uguali all'intervallo periodico che separa i passaggi di elaborazione successivi dall'hardware audio. Durante ogni passaggio, l'hardware audio elabora i nuovi dati nei buffer dell'endpoint.
Per ottenere le latenze di flusso più piccole, un'applicazione potrebbe richiedere sia hardware audio speciale che un sistema di computer caricato in modo leggero. Guidare l'hardware audio oltre i limiti di tempo o caricare il sistema con attività ad alta priorità concorrenti potrebbe causare un errore in un flusso audio a bassa latenza. Ad esempio, per un flusso di rendering, può verificarsi un errore se l'applicazione non riesce a scrivere in un buffer di endpoint prima che l'hardware audio legga il buffer o se l'hardware non riesce a leggere il buffer prima del momento in cui il buffer è pianificato per la riproduzione. In genere, un'applicazione progettata per l'esecuzione su un'ampia gamma di hardware audio e in un'ampia gamma di sistemi dovrebbe ridurre i requisiti di temporizzazione sufficienti per evitare errori in tutti gli ambienti di destinazione.
Windows Vista offre diverse funzionalità per supportare applicazioni che richiedono flussi audio a bassa latenza. Come descritto in Componenti audio in modalità utente, le applicazioni che eseguono operazioni critiche possono chiamare le funzioni MMCSS (Multimedia Class Scheduler Service) per aumentare la priorità del thread senza negare le risorse DELLA CPU alle applicazioni con priorità inferiore. Inoltre, il metodo IAudioClient::Initialize supporta un flag AUDCLNT_STREAMFLAGS_EVENTCALLBACK che consente al thread di manutenzione del buffer di un'applicazione di pianificarne l'esecuzione quando un nuovo buffer diventa disponibile dal dispositivo audio. Usando queste funzionalità, un thread di applicazione può ridurre l'incertezza su quando verrà eseguito, riducendo così il rischio di glitch in un flusso audio a bassa latenza.
È probabile che i driver per le schede audio meno recenti usino l'interfaccia DDI (WaveCyclic o WavePci), mentre i driver per le schede audio più recenti sono più propensi a supportare waveRT DDI. Per le applicazioni in modalità esclusiva, i driver WaveRT possono offrire prestazioni migliori rispetto ai driver WaveCyclic o WavePci, ma i driver WaveRT richiedono funzionalità hardware aggiuntive. Queste funzionalità includono la possibilità di condividere i buffer hardware direttamente con le applicazioni. Con la condivisione diretta, non è necessario alcun intervento di sistema per trasferire i dati tra un'applicazione in modalità esclusiva e l'hardware audio. Al contrario, i driver WaveCyclic e WavePci sono adatti per schede audio meno recenti e meno idonee. Questi adattatori si basano sul software di sistema per il trasporto di blocchi di dati (collegati ai pacchetti di richiesta di I/O di sistema o IRP) tra buffer dell'applicazione e buffer hardware. Inoltre, i dispositivi audio USB si basano sul software di sistema per trasportare i dati tra buffer dell'applicazione e buffer hardware. Per migliorare le prestazioni delle applicazioni in modalità esclusiva che si connettono ai dispositivi audio che si basano sul sistema per il trasporto dati, WASAPI aumenta automaticamente la priorità dei thread di sistema che trasferisce i dati tra le applicazioni e l'hardware. WASAPI usa MMCSS per aumentare la priorità del thread. In Windows Vista, se un thread di sistema gestisce il trasporto dati per un flusso di riproduzione audio in modalità esclusiva con un formato PCM e un periodo di dispositivo inferiore a 10 millisecondi, WASAPI assegna il nome dell'attività MMCSS "Pro Audio" al thread. Se il periodo del dispositivo del flusso è maggiore o uguale a 10 millisecondi, WASAPI assegna il nome dell'attività MMCSS "Audio" al thread. Per altre informazioni sulle DDI WaveCyclic, WavePci e WaveRT, vedere la documentazione di Windows DDK. Per informazioni sulla selezione di un periodo di dispositivo appropriato, vedere IAudioClient::GetDevicePeriod.
Come descritto in Controlli volume di sessione, WASAPI fornisce le interfacce ISimpleAudioVolume, IChannelAudioVolume e IAudioStreamVolume per controllare i livelli di volume dei flussi audio in modalità condivisa. Tuttavia, i controlli in queste interfacce non hanno alcun effetto sui flussi in modalità esclusiva. Le applicazioni che gestiscono flussi in modalità esclusiva usano invece l'interfaccia IAudioEndpointVolume nell'API EndpointVolume per controllare i livelli di volume di tali flussi. Per informazioni su questa interfaccia, vedere Controlli del volume degli endpoint.
Per ogni dispositivo di riproduzione e dispositivo di acquisizione nel sistema, l'utente può controllare se il dispositivo può essere usato in modalità esclusiva. Se l'utente disabilita l'uso in modalità esclusiva del dispositivo, il dispositivo può essere usato per riprodurre o registrare solo flussi in modalità condivisa.
Se l'utente abilita l'uso esclusivo del dispositivo, l'utente può anche controllare se una richiesta da un'applicazione per l'uso del dispositivo in modalità esclusiva presentirà l'uso del dispositivo da parte delle applicazioni che potrebbero attualmente riprodurre o registrare flussi in modalità condivisa attraverso il dispositivo. Se la precedenza è abilitata, una richiesta da parte di un'applicazione di assumere il controllo esclusivo del dispositivo ha esito positivo se il dispositivo non è attualmente in uso o se il dispositivo viene usato in modalità condivisa, ma la richiesta ha esito negativo se un'altra applicazione ha già il controllo esclusivo del dispositivo. Se la precedenza è disabilitata, una richiesta da parte di un'applicazione di assumere il controllo esclusivo del dispositivo ha esito positivo se il dispositivo non è attualmente in uso, ma la richiesta ha esito negativo se il dispositivo è già in uso in modalità condivisa o in modalità esclusiva.
In Windows Vista le impostazioni predefinite per un dispositivo endpoint audio sono le seguenti:
- Il dispositivo può essere usato per riprodurre o registrare flussi in modalità esclusiva.
- Una richiesta di usare un dispositivo per riprodurre o registrare un flusso in modalità esclusiva annulla qualsiasi flusso in modalità condivisa attualmente riprodotto o registrato tramite il dispositivo.
Per modificare le impostazioni in modalità esclusiva di un dispositivo di riproduzione o registrazione
- Fare clic con il pulsante destro del mouse sull'icona dell'altoparlante nell'area di notifica, che si trova sul lato destro della barra delle applicazioni e selezionare Dispositivi di riproduzione o dispositivi di registrazione. In alternativa, eseguire il pannello di controllo multimediale di Windows, Mmsys.cpl, da una finestra del prompt dei comandi. Per altre informazioni, vedere Osservazioni in costanti DEVICE_STATE_XXX.
- Dopo aver visualizzato la finestra Audio , selezionare Riproduzione o Registrazione. Selezionare quindi una voce nell'elenco dei nomi dei dispositivi e fare clic su Proprietà.
- Dopo aver visualizzato la finestra Proprietà , fare clic su Avanzate.
- Per consentire alle applicazioni di usare il dispositivo in modalità esclusiva, selezionare la casella Consenti alle applicazioni di assumere il controllo esclusivo di questo dispositivo. Per disabilitare l'uso in modalità esclusiva del dispositivo, deselezionare la casella di controllo.
- Se l'uso in modalità esclusiva del dispositivo è abilitato, è possibile specificare se una richiesta di controllo esclusivo del dispositivo avrà esito positivo se il dispositivo sta attualmente riproducendo o registrando flussi in modalità condivisa. Per assegnare priorità alle applicazioni in modalità esclusiva rispetto alle applicazioni in modalità condivisa, selezionare la casella Assegna priorità alle applicazioni in modalità esclusiva. Per negare la priorità delle applicazioni in modalità esclusiva rispetto alle applicazioni in modalità condivisa, deselezionare la casella di controllo.
L'esempio di codice seguente illustra come riprodurre un flusso audio a bassa latenza in un dispositivo di rendering audio configurato per l'uso in modalità esclusiva:
//-----------------------------------------------------------
// Play an exclusive-mode stream on the default audio
// rendering device. The PlayExclusiveStream function uses
// event-driven buffering and MMCSS to play the stream at
// the minimum latency supported by the device.
//-----------------------------------------------------------
// REFERENCE_TIME time units per second and per millisecond
#define REFTIMES_PER_SEC 10000000
#define REFTIMES_PER_MILLISEC 10000
#define EXIT_ON_ERROR(hres) \
if (FAILED(hres)) { goto Exit; }
#define SAFE_RELEASE(punk) \
if ((punk) != NULL) \
{ (punk)->Release(); (punk) = NULL; }
const CLSID CLSID_MMDeviceEnumerator = __uuidof(MMDeviceEnumerator);
const IID IID_IMMDeviceEnumerator = __uuidof(IMMDeviceEnumerator);
const IID IID_IAudioClient = __uuidof(IAudioClient);
const IID IID_IAudioRenderClient = __uuidof(IAudioRenderClient);
HRESULT PlayExclusiveStream(MyAudioSource *pMySource)
{
HRESULT hr;
REFERENCE_TIME hnsRequestedDuration = 0;
IMMDeviceEnumerator *pEnumerator = NULL;
IMMDevice *pDevice = NULL;
IAudioClient *pAudioClient = NULL;
IAudioRenderClient *pRenderClient = NULL;
WAVEFORMATEX *pwfx = NULL;
HANDLE hEvent = NULL;
HANDLE hTask = NULL;
UINT32 bufferFrameCount;
BYTE *pData;
DWORD flags = 0;
DWORD taskIndex = 0;
hr = CoCreateInstance(
CLSID_MMDeviceEnumerator, NULL,
CLSCTX_ALL, IID_IMMDeviceEnumerator,
(void**)&pEnumerator);
EXIT_ON_ERROR(hr)
hr = pEnumerator->GetDefaultAudioEndpoint(
eRender, eConsole, &pDevice);
EXIT_ON_ERROR(hr)
hr = pDevice->Activate(
IID_IAudioClient, CLSCTX_ALL,
NULL, (void**)&pAudioClient);
EXIT_ON_ERROR(hr)
// Call a helper function to negotiate with the audio
// device for an exclusive-mode stream format.
hr = GetStreamFormat(pAudioClient, &pwfx);
EXIT_ON_ERROR(hr)
// Initialize the stream to play at the minimum latency.
hr = pAudioClient->GetDevicePeriod(NULL, &hnsRequestedDuration);
EXIT_ON_ERROR(hr)
hr = pAudioClient->Initialize(
AUDCLNT_SHAREMODE_EXCLUSIVE,
AUDCLNT_STREAMFLAGS_EVENTCALLBACK,
hnsRequestedDuration,
hnsRequestedDuration,
pwfx,
NULL);
if (hr == AUDCLNT_E_BUFFER_SIZE_NOT_ALIGNED) {
// Align the buffer if needed, see IAudioClient::Initialize() documentation
UINT32 nFrames = 0;
hr = pAudioClient->GetBufferSize(&nFrames);
EXIT_ON_ERROR(hr)
hnsRequestedDuration = (REFERENCE_TIME)((double)REFTIMES_PER_SEC / pwfx->nSamplesPerSec * nFrames + 0.5);
hr = pAudioClient->Initialize(
AUDCLNT_SHAREMODE_EXCLUSIVE,
AUDCLNT_STREAMFLAGS_EVENTCALLBACK,
hnsRequestedDuration,
hnsRequestedDuration,
pwfx,
NULL);
}
EXIT_ON_ERROR(hr)
// Tell the audio source which format to use.
hr = pMySource->SetFormat(pwfx);
EXIT_ON_ERROR(hr)
// Create an event handle and register it for
// buffer-event notifications.
hEvent = CreateEvent(NULL, FALSE, FALSE, NULL);
if (hEvent == NULL)
{
hr = E_FAIL;
goto Exit;
}
hr = pAudioClient->SetEventHandle(hEvent);
EXIT_ON_ERROR(hr);
// Get the actual size of the two allocated buffers.
hr = pAudioClient->GetBufferSize(&bufferFrameCount);
EXIT_ON_ERROR(hr)
hr = pAudioClient->GetService(
IID_IAudioRenderClient,
(void**)&pRenderClient);
EXIT_ON_ERROR(hr)
// To reduce latency, load the first buffer with data
// from the audio source before starting the stream.
hr = pRenderClient->GetBuffer(bufferFrameCount, &pData);
EXIT_ON_ERROR(hr)
hr = pMySource->LoadData(bufferFrameCount, pData, &flags);
EXIT_ON_ERROR(hr)
hr = pRenderClient->ReleaseBuffer(bufferFrameCount, flags);
EXIT_ON_ERROR(hr)
// Ask MMCSS to temporarily boost the thread priority
// to reduce glitches while the low-latency stream plays.
hTask = AvSetMmThreadCharacteristics(TEXT("Pro Audio"), &taskIndex);
if (hTask == NULL)
{
hr = E_FAIL;
EXIT_ON_ERROR(hr)
}
hr = pAudioClient->Start(); // Start playing.
EXIT_ON_ERROR(hr)
// Each loop fills one of the two buffers.
while (flags != AUDCLNT_BUFFERFLAGS_SILENT)
{
// Wait for next buffer event to be signaled.
DWORD retval = WaitForSingleObject(hEvent, 2000);
if (retval != WAIT_OBJECT_0)
{
// Event handle timed out after a 2-second wait.
pAudioClient->Stop();
hr = ERROR_TIMEOUT;
goto Exit;
}
// Grab the next empty buffer from the audio device.
hr = pRenderClient->GetBuffer(bufferFrameCount, &pData);
EXIT_ON_ERROR(hr)
// Load the buffer with data from the audio source.
hr = pMySource->LoadData(bufferFrameCount, pData, &flags);
EXIT_ON_ERROR(hr)
hr = pRenderClient->ReleaseBuffer(bufferFrameCount, flags);
EXIT_ON_ERROR(hr)
}
// Wait for the last buffer to play before stopping.
Sleep((DWORD)(hnsRequestedDuration/REFTIMES_PER_MILLISEC));
hr = pAudioClient->Stop(); // Stop playing.
EXIT_ON_ERROR(hr)
Exit:
if (hEvent != NULL)
{
CloseHandle(hEvent);
}
if (hTask != NULL)
{
AvRevertMmThreadCharacteristics(hTask);
}
CoTaskMemFree(pwfx);
SAFE_RELEASE(pEnumerator)
SAFE_RELEASE(pDevice)
SAFE_RELEASE(pAudioClient)
SAFE_RELEASE(pRenderClient)
return hr;
}
Nell'esempio di codice precedente, la funzione PlayExclusiveStream viene eseguita nel thread dell'applicazione che gestisce i buffer dell'endpoint durante la riproduzione di un flusso di rendering. La funzione accetta un singolo parametro, pMySource, che è un puntatore a un oggetto che appartiene a una classe definita dal client, MyAudioSource. Questa classe ha due funzioni membro, LoadData e SetFormat, chiamate nell'esempio di codice. MyAudioSource è descritto in Rendering di un flusso.
La funzione PlayExclusiveStream chiama una funzione helper, GetStreamFormat, che negozia con il dispositivo di rendering predefinito per determinare se il dispositivo supporta un formato di flusso in modalità esclusiva adatto per l'uso da parte dell'applicazione. Il codice per la funzione GetStreamFormat non viene visualizzato nell'esempio di codice; ciò è dovuto al fatto che i dettagli dell'implementazione dipendono interamente dai requisiti dell'applicazione. Tuttavia, l'operazione della funzione GetStreamFormat può essere descritta semplicemente: chiama il metodo IAudioClient::IsFormatSupported una o più volte per determinare se il dispositivo supporta un formato appropriato. I requisiti dell'applicazione determinano quali formati GetStreamFormat presenta al metodo IsFormatSupported e all'ordine in cui li presenta. Per altre informazioni su IsFormatSupported, vedere Formati di dispositivo.
Dopo la chiamata a GetStreamFormat, la funzione PlayExclusiveStream chiama il metodo IAudioClient::GetDevicePeriod per ottenere il periodo minimo di dispositivo supportato dall'hardware audio. Successivamente, la funzione chiama il metodo IAudioClient::Initialize per richiedere una durata del buffer uguale al periodo minimo. Se la chiamata ha esito positivo, il metodo Initialize alloca due buffer di endpoint, ognuno dei quali è uguale alla durata del periodo minimo. Successivamente, quando il flusso audio inizia l'esecuzione, l'applicazione e l'hardware audio condivideranno i due buffer in modalità "ping-pong", ovvero mentre l'applicazione scrive in un buffer, l'hardware legge dall'altro buffer.
Prima di avviare il flusso, la funzione PlayExclusiveStream esegue le operazioni seguenti:
- Crea e registra l'handle dell'evento tramite il quale riceverà notifiche quando i buffer diventano pronti per il riempimento.
- Riempie il primo buffer con i dati dell'origine audio per ridurre il ritardo da quando il flusso inizia a essere eseguito quando viene sentito il suono iniziale.
- Chiama la funzione AvSetMmThreadCharacteristics per richiedere che MMCSS aumenti la priorità del thread in cui viene eseguito PlayExclusiveStream. Quando il flusso smette di funzionare, La chiamata di funzione AvRevertMmThreadCharacteristics ripristina la priorità del thread originale.
Per altre informazioni su AvSetMmThreadCharacteristics e AvRevertMmThreadCharacteristics, vedere la documentazione di Windows SDK.
Mentre il flusso è in esecuzione, ogni iterazione del ciclo while nell'esempio di codice precedente riempie un buffer di endpoint. Tra iterazioni, la chiamata di funzione WaitForSingleObject attende che l'handle dell'evento venga segnalato. Quando l'handle viene segnalato, il corpo del ciclo esegue le operazioni seguenti:
- Chiama il metodo IAudioRenderClient::GetBuffer per ottenere il buffer successivo.
- Riempie il buffer.
- Chiama il metodo IAudioRenderClient::ReleaseBuffer per rilasciare il buffer.
Per altre informazioni su WaitForSingleObject, vedere la documentazione di Windows SDK.
Se l'adattatore audio è controllato da un driver WaveRT, la segnalazione dell'handle di eventi è associata alle notifiche di trasferimento DMA dall'hardware audio. Per un dispositivo audio USB o per un dispositivo audio controllato da un driver WaveCyclic o WavePci, la segnalazione dell'handle di evento è associata ai completamenti dei runtime di integrazione che trasferisce i dati dal buffer dell'applicazione al buffer hardware.
L'esempio di codice precedente esegue il push dell'hardware audio e del sistema informatico ai relativi limiti di prestazioni. Prima di tutto, per ridurre la latenza del flusso, l'applicazione pianifica il thread di manutenzione del buffer per usare il periodo minimo del dispositivo supportato dall'hardware audio. In secondo luogo, per garantire che il thread venga eseguito in modo affidabile all'interno di ogni periodo del dispositivo, la chiamata di funzione AvSetMmThreadCharacteristics imposta il parametro TaskName su "Pro Audio", ovvero in Windows Vista, il nome dell'attività predefinito con la priorità più alta. Valutare se i requisiti di temporizzazione dell'applicazione potrebbero essere rilassati senza compromettere la sua utilità. Ad esempio, l'applicazione potrebbe pianificare il thread di manutenzione del buffer in modo da usare un periodo più lungo del minimo. Un periodo più lungo potrebbe consentire in modo sicuro l'uso di una priorità di thread inferiore.
Argomenti correlati