SpeechServiceConnection_Key |
Chiave di sottoscrizione del Servizio di riconoscimento vocale di Servizi cognitivi. Se si usa un sistema di riconoscimento finalità, è necessario specificare la chiave dell'endpoint LUIS per la specifica app LUIS. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
Endpoint del servizio Voce di Servizi cognitivi (URL). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromEndpoint. NOTA: questo endpoint non corrisponde all'endpoint usato per ottenere un token di accesso. |
SpeechServiceConnection_Region |
Area del Servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Token di autorizzazione del Servizio di riconoscimento vocale di Servizi cognitivi (noto anche come token di accesso). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Tipo di autorizzazione del Servizio di riconoscimento vocale di Servizi cognitivi. Attualmente inutilizzato. |
SpeechServiceConnection_EndpointId |
ID endpoint servizio vocale personalizzato o riconoscimento vocale personalizzato di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetEndpointId. NOTA: l'ID endpoint è disponibile nel portale di riconoscimento vocale personalizzato, elencato in Dettagli endpoint. |
SpeechServiceConnection_Host |
Host del Servizio di riconoscimento vocale di Servizi cognitivi (URL). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nome host del server proxy usato per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_ProxyPort |
Porta del server proxy usata per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nome utente del server proxy usato per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Password del server proxy usato per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_Url |
Stringa url creata dalla configurazione del riconoscimento vocale. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. NOTA: aggiunta nella versione 1.5.0. |
SpeechServiceConnection_ProxyHostBypass |
Specifica l'elenco di host per i quali non usare i proxy. Questa impostazione esegue l'override di tutte le altre configurazioni. I nomi host sono separati da virgole e corrispondono in modo senza distinzione tra maiuscole e minuscole. I caratteri jolly non sono supportati. |
SpeechServiceConnection_TranslationToLanguages |
Elenco di lingue separate da virgole usate come lingue di traduzione di destinazione. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nome della voce Del servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig::SetVoiceName. NOTA: i nomi di voce validi sono disponibili qui. |
SpeechServiceConnection_TranslationFeatures |
Funzionalità di traduzione. Per uso interno. |
SpeechServiceConnection_IntentRegion |
Area del servizio Language Understanding. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Modalità di riconoscimento del servizio voce di Servizi cognitivi. Può essere "INTERACTIVE", "CONVERSATION", "DICTATION". Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. |
SpeechServiceConnection_RecoLanguage |
Lingua parlata da riconoscere (in formato BCP-47). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
ID sessione. Questo ID è un identificatore univoco universale (noto anche come UUID) che rappresenta un'associazione specifica di un flusso di input audio e l'istanza di riconoscimento vocale sottostante a cui è associata. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Parametri di query forniti dagli utenti. Verranno passati al servizio come parametri di query URL. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_RecoBackend |
Stringa per specificare il back-end da usare per il riconoscimento vocale; le opzioni consentite sono online e offline. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente l'opzione offline è valida solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nome del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente questa opzione è valida solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Questa proprietà è deprecata. |
SpeechServiceConnection_RecoModelIniFile |
Percorso del file ini del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente questa opzione è valida solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthLanguage |
Lingua parlata da sintetizzare (ad esempio, en-US) Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nome della voce TTS da usare per la sintesi vocale Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Stringa per specificare il formato audio di output TTS Aggiunto nella versione 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indica se usa il formato audio compresso per la trasmissione audio di sintesi vocale. Questa proprietà influisce solo quando SpeechServiceConnection_SynthOutputFormat è impostato su un formato pcm. Se questa proprietà non è impostata e GStreamer è disponibile, SDK userà il formato compresso per la trasmissione audio sintetizzata e decodificarlo. È possibile impostare questa proprietà su "false" per utilizzare il formato pcm non elaborato per la trasmissione in rete. Aggiunta nella versione 1.16.0. |
SpeechServiceConnection_SynthBackend |
Stringa per specificare il back-end TTS; le opzioni valide sono online e offline. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths per impostare il back-end di sintesi su offline. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
I percorsi dei file di dati per il motore di sintesi offline; valido solo quando il back-end di sintesi è offline. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
Nome della voce TTS offline da usare per la sintesi vocale In circostanze normali, non è consigliabile usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Questa proprietà è deprecata. |
SpeechServiceConnection_VoicesListEndpoint |
L'endpoint api (URL) dell'elenco voci del servizio Voce di Servizi cognitivi. In circostanze normali, non è necessario specificare questa proprietà, l'SDK lo creerà in base all'area/host/endpoint di SpeechConfig. Aggiunta nella versione 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valore di timeout del silenzio iniziale (in millisecondi) usato dal servizio. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valore di timeout del silenzio finale (in millisecondi) usato dal servizio. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Valore booleano che specifica se la registrazione audio è abilitata o meno nel servizio. I log audio e del contenuto vengono archiviati nella risorsa di archiviazione di proprietà di Microsoft o nel proprio account di archiviazione collegato alla sottoscrizione di Servizi cognitivi (risorsa byos bring your own storage (BYOS) abilitata per il riconoscimento vocale. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Modalità identificatore lingua di connessione del servizio voce. Può essere "AtStart" (impostazione predefinita) o "Continuous". Vedere documento di identificazione della lingua. Aggiunta nella versione 1.25.0. |
SpeechServiceConnection_TranslationCategoryId |
Categoria di conversione della connessione del servizio di riconoscimento vocaleId. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Le lingue di origine del rilevamento automatico aggiunte nella versione 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Il risultato del rilevamento automatico della lingua di origine è stato aggiunto nella versione 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Formato di output della risposta del servizio voce di Servizi cognitivi richiesto (semplice o dettagliato). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Livello di contenuto volgare dell'output della risposta del Servizio di riconoscimento vocale di Servizi cognitivi richiesto. Attualmente inutilizzato. |
SpeechServiceResponse_ProfanityOption |
Impostazione di contenuto volgare dell'output della risposta di Servizi cognitivi richiesti. I valori consentiti sono "masked", "removed" e "raw". Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Valore stringa che specifica quale opzione di post-elaborazione deve essere usata dal servizio. I valori consentiti sono "TrueText". Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valore booleano che specifica se includere timestamp a livello di parola nel risultato della risposta. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Numero di volte in cui una parola deve essere restituita in risultati parziali. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Valore stringa che specifica l'opzione di formato di output nel risultato della risposta. Solo uso interno. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_RequestSnr |
Valore booleano che specifica se includere SNR (rapporto segnale/rumore) nel risultato della risposta. Aggiunta nella versione 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valore booleano da richiedere la stabilizzazione dei risultati parziali della traduzione omettendo parole alla fine. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Valore booleano che specifica se richiedere eventi WordBoundary. Aggiunta nella versione 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valore booleano che specifica se richiedere il limite di punteggiatura negli eventi wordboundary. Il valore predefinito è true. Aggiunta nella versione 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Valore booleano che specifica se richiedere il limite della frase in Eventi wordBoundary. Il valore predefinito è false. Aggiunta nella versione 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valore booleano che specifica se l'SDK deve sincronizzare gli eventi dei metadati di sintesi, ad esempio il limite delle parole, viseme e così via, alla riproduzione audio. Questa operazione ha effetto solo quando l'audio viene riprodotto tramite l'SDK. Il valore predefinito è true. Se impostato su false, l'SDK attiverà gli eventi man mano che provengono dal servizio, che potrebbero non essere sincronizzati con la riproduzione audio. Aggiunta nella versione 1.31.0. |
SpeechServiceResponse_JsonResult |
Output della risposta del servizio voce di Servizi cognitivi (in formato JSON). Questa proprietà è disponibile solo per gli oggetti risultato di riconoscimento. |
SpeechServiceResponse_JsonErrorDetails |
Dettagli dell'errore del Servizio di riconoscimento vocale di Servizi cognitivi (in formato JSON). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Latenza di riconoscimento in millisecondi. Sola lettura, disponibile nei risultati finali di riconoscimento vocale/traduzione/finalità. Questa misura la latenza tra quando un input audio viene ricevuto dall'SDK e il momento in cui il risultato finale viene ricevuto dal servizio. L'SDK calcola la differenza di tempo tra l'ultimo frammento audio dell'input audio che contribuisce al risultato finale e l'ora in cui il risultato finale viene ricevuto dal servizio di riconoscimento vocale. Aggiunta nella versione 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Back-end di riconoscimento. Sola lettura, disponibile nei risultati del riconoscimento vocale. Indica se il riconoscimento cloud (online) o incorporato (offline) è stato usato per produrre il risultato. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
La latenza di primo byte della sintesi vocale in millisecondi. Sola lettura, disponibile nei risultati finali della sintesi vocale. In questo modo viene misurata la latenza tra l'elaborazione della sintesi e il momento in cui è disponibile il primo audio di byte. Aggiunta nella versione 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
La latenza di tutti i byte di sintesi vocale in millisecondi. Sola lettura, disponibile nei risultati finali della sintesi vocale. In questo modo viene misurata la latenza tra l'elaborazione della sintesi e il momento in cui viene sintetizzato l'intero audio. Aggiunta nella versione 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Tempo di sottorun per la sintesi vocale in millisecondi. Proprietà di sola lettura, disponibile nei risultati negli eventi SynthesisCompleted. Questo misura il tempo totale di sottorun da PropertyId::AudioConfig_PlaybackBufferLengthInMs viene compilato per la sintesi completata. Aggiunta nella versione 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latenza della connessione di sintesi vocale in millisecondi. Sola lettura, disponibile nei risultati finali della sintesi vocale. In questo modo viene misurata la latenza tra l'avvio dell'elaborazione della sintesi e il momento in cui viene stabilita la connessione HTTP/WebSocket. Aggiunta nella versione 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latenza della rete di sintesi vocale in millisecondi. Sola lettura, disponibile nei risultati finali della sintesi vocale. Questo misura il tempo di andata e ritorno della rete. Aggiunta nella versione 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latenza del servizio di sintesi vocale in millisecondi. Sola lettura, disponibile nei risultati finali della sintesi vocale. In questo modo viene misurato il tempo di elaborazione del servizio per sintetizzare il primo byte di audio. Aggiunta nella versione 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indica il back-end in cui viene completata la sintesi. Sola lettura, disponibile nei risultati della sintesi vocale, ad eccezione del risultato dell'evento SynthesisStarted Aggiunto nella versione 1.17.0. |
SpeechServiceResponse_DiarizeIntermediateResults |
Determina se i risultati intermedi contengono l'identificazione della voce. |
CancellationDetails_Reason |
Motivo dell'annullamento. Attualmente inutilizzato. |
CancellationDetails_ReasonText |
Testo di annullamento. Attualmente inutilizzato. |
CancellationDetails_ReasonDetailedText |
Testo dettagliato dell'annullamento. Attualmente inutilizzato. |
LanguageUnderstandingServiceResponse_JsonResult |
Output della risposta del servizio Language Understanding (in formato JSON). Disponibile tramite IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nome del dispositivo per l'acquisizione audio. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece AudioConfig::FromMicrophoneInput. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Numero di canali per l'acquisizione audio. Solo uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_SampleRateForCapture |
Frequenza di campionamento (in Hz) per l'acquisizione audio. Solo uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Numero di bit di ogni campione per l'acquisizione audio. Solo uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_AudioSource |
Origine audio. I valori consentiti sono "Microfoni", "File" e "Stream". Aggiunta nella versione 1.3.0. |
AudioConfig_DeviceNameForRender |
Nome del dispositivo per il rendering audio. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece AudioConfig::FromSpeakerOutput. Aggiunta nella versione 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
La lunghezza del buffer di riproduzione in millisecondi, il valore predefinito è 50 millisecondi. |
AudioConfig_AudioProcessingOptions |
Opzioni di elaborazione audio in formato JSON. |
Speech_LogFilename |
Nome del file da scrivere i log. Aggiunta nella versione 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Durata del silenzio rilevato, misurata in millisecondi, dopo la quale la sintesi vocale determinerà la fine di una frase pronunciata e genererà un risultato riconosciuto finale. La configurazione di questo timeout può essere utile nelle situazioni in cui l'input parlato è notevolmente più veloce o più lento del solito e il comportamento di segmentazione predefinito produce risultati troppo lunghi o troppo brevi. I valori di timeout della segmentazione che sono inappropriati o bassi possono influire negativamente sull'accuratezza della sintesi vocale; questa proprietà deve essere configurata attentamente e il comportamento risultante deve essere convalidato accuratamente come previsto. |
Speech_SegmentationMaximumTimeMs |
Lunghezza massima di una frase pronunciata quando si usa la strategia di segmentazione "Time". Man mano che la lunghezza di una frase pronunciata si avvicina a questo valore, il Speech_SegmentationSilenceTimeoutMs inizierà a essere ridotto fino a quando non viene raggiunto il timeout del silenzio della frase o la frase raggiunge la lunghezza massima. |
Speech_SegmentationStrategy |
La strategia usata per determinare quando una frase pronunciata è terminata e deve essere generato un risultato riconosciuto finale. I valori consentiti sono "Default", "Time" e "Semantic". |
Conversation_ApplicationId |
Identificatore usato per connettersi al servizio back-end. Aggiunta nella versione 1.5.0. |
Conversation_DialogType |
Tipo di back-end della finestra di dialogo a cui connettersi. Aggiunta nella versione 1.7.0. |
Conversation_Initial_Silence_Timeout |
Timeout di silenzio per l'ascolto Aggiunto nella versione 1.5.0. |
Conversation_From_Id |
Da ID da usare nelle attività di riconoscimento vocale Aggiunte nella versione 1.5.0. |
Conversation_Conversation_Id |
ConversationId per la sessione. Aggiunta nella versione 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Elenco delimitato da virgole di ID distribuzione vocale personalizzati. Aggiunta nella versione 1.8.0. |
Conversation_Speech_Activity_Template |
Modello di attività voce, proprietà stamp nel modello sull'attività generata dal servizio per la voce. Aggiunta nella versione 1.10.0. |
Conversation_ParticipantId |
Identificatore del partecipante nella conversazione corrente. Aggiunta nella versione 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Timestamp associato al buffer di dati scritto dal client quando si usano flussi di input audio pull/push. Il timestamp è un valore a 64 bit con una risoluzione di 90 kHz. È uguale al timestamp della presentazione in un flusso di trasporto MPEG. Vedere https://en.wikipedia.org/wiki/Presentation_timestamp Aggiunta nella versione 1.5.0. |
DataBuffer_UserId |
ID utente associato al buffer di dati scritto dal client quando si usano flussi di input audio pull/push. Aggiunta nella versione 1.5.0. |
PronunciationAssessment_ReferenceText |
Testo di riferimento dell'audio per la valutazione della pronuncia. Per questo e i parametri di valutazione della pronuncia seguenti, vedere la tabella parametri di valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create o PronunciationAssessmentConfig::SetReferenceText. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_GradingSystem |
Sistema di punti per la calibrazione del punteggio di pronuncia (FivePoint o HundredMark). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_Granularity |
Granularità della valutazione della pronuncia (Phoneme, Word o FullText). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_EnableMiscue |
Definisce se abilitare il calcolo errato. Con questa opzione abilitata, le parole pronunciate verranno confrontate con il testo di riferimento e verranno contrassegnate con omissione/inserimento in base al confronto. L'impostazione predefinita è False. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alfabeto phoneme di valutazione della pronuncia. I valori validi sono "SAPI" (impostazione predefinita) e "IPA" In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::SetPhonemeAlphabet. Aggiunta nella versione 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Numero di fonemi di valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::SetNBestPhonemeCount. Aggiunta nella versione 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Se abilitare la valutazione prosodia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::EnableProsodyAssessment. Aggiunta nella versione 1.33.0. |
PronunciationAssessment_Json |
Stringa json dei parametri di valutazione della pronuncia In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_Params |
Parametri di valutazione della pronuncia. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_ContentTopic |
Argomento del contenuto della valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Aggiunta nella versione 1.33.0. |
SpeakerRecognition_Api_Version |
Versione dell'API back-end riconoscimento del parlante. Questa proprietà viene aggiunta per consentire il test e l'uso delle versioni precedenti delle API riconoscimento del parlante, se applicabile. Aggiunta nella versione 1.18.0. |
SpeechTranslation_ModelName |
Nome di un modello da usare per la traduzione vocale. Non utilizzare direttamente questa proprietà. Attualmente questa opzione è valida solo quando viene usato EmbeddedSpeechConfig. |
SpeechTranslation_ModelKey |
Questa proprietà è deprecata. |
KeywordRecognition_ModelName |
Nome di un modello da usare per il riconoscimento delle parole chiave. Non utilizzare direttamente questa proprietà. Attualmente questa opzione è valida solo quando viene usato EmbeddedSpeechConfig. |
KeywordRecognition_ModelKey |
Questa proprietà è deprecata. |
EmbeddedSpeech_EnablePerformanceMetrics |
Abilitare la raccolta di metriche delle prestazioni vocali incorporate che possono essere usate per valutare la funzionalità di un dispositivo per l'uso del riconoscimento vocale incorporato. I dati raccolti sono inclusi nei risultati di scenari specifici, ad esempio il riconoscimento vocale. L'impostazione predefinita è "false". Si noti che le metriche potrebbero non essere disponibili in tutti gli scenari di riconoscimento vocale incorporato. |
SpeechSynthesisRequest_Pitch |
Passo del parlato sintetizzato. |
SpeechSynthesisRequest_Rate |
Frequenza del parlato sintetizzato. |
SpeechSynthesisRequest_Volume |
Volume del parlato sintetizzato. |