SpeechServiceConnection_Key |
A chave de subscrição do Serviço de Voz dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade LUIS para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
O ponto de extremidade (url) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromEndpoint. NOTA: Este ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso. |
SpeechServiceConnection_Region |
A região do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromAuthorizationToken SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
O tipo de autorização do Serviço de Fala dos Serviços Cognitivos. Atualmente não utilizado. |
SpeechServiceConnection_EndpointId |
A ID do ponto de extremidade Fala Personalizada dos Serviços Cognitivos ou do Serviço de Voz Personalizado. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetEndpointId. NOTA: O ID do ponto de extremidade está disponível no Portal de Fala Personalizado, listado em Detalhes do Ponto de Extremidade. |
SpeechServiceConnection_Host |
O host do Serviço de Fala dos Serviços Cognitivos (url). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_ProxyPort |
A porta do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_ProxyUserName |
O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_ProxyPassword |
A senha do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0. |
SpeechServiceConnection_Url |
A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. NOTA: Adicionado na versão 1.5.0. |
SpeechServiceConnection_ProxyHostBypass |
Especifica a lista de hosts para os quais proxies não devem ser usados. Essa configuração substitui todas as outras configurações. Os nomes de host são separados por vírgulas e são correspondidos de maneira que não diferencia maiúsculas de minúsculas. Não há suporte para curingas. |
SpeechServiceConnection_TranslationToLanguages |
A lista de idiomas separados por vírgulas usados como idiomas de tradução de destino. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
O nome da voz do Serviço Cognitivo de Texto para Fala. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::SetVoiceName. NOTA: Nomes de voz válidos podem ser encontrados aqui. |
SpeechServiceConnection_TranslationFeatures |
Recursos de tradução. Para uso interno. |
SpeechServiceConnection_IntentRegion |
A região do Serviço de Compreensão de Idiomas. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
O modo de reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. |
SpeechServiceConnection_RecoLanguage |
A língua falada a ser reconhecida (no formato BCP-47). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
O id da sessão. Este id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma ligação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ele está vinculado. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Os parâmetros de consulta fornecidos pelos usuários. Eles serão passados para o serviço como parâmetros de consulta de URL. Adicionado na versão 1.5.0. |
SpeechServiceConnection_RecoBackend |
A cadeia de caracteres para especificar o back-end a ser usado para reconhecimento de fala; As opções permitidas são online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, a opção offline só é válida quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelName |
O nome do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Esta propriedade foi preterida. |
SpeechServiceConnection_RecoModelIniFile |
O caminho para o arquivo ini do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthLanguage |
O idioma falado a ser sintetizado (por exemplo, en-US) Adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthVoice |
O nome da voz TTS a ser usada para síntese de fala Adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
A cadeia de caracteres para especificar o formato de áudio de saída TTS Adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indica se o formato de áudio comprimido é usado para transmissão de áudio de síntese de fala. Esta propriedade só afeta quando SpeechServiceConnection_SynthOutputFormat é definido como um formato pcm. Se essa propriedade não estiver definida e o GStreamer estiver disponível, o SDK usará o formato compactado para transmissão de áudio sintetizada e o decodificará. Você pode definir essa propriedade como "false" para usar o formato pcm bruto para transmissão em fio. Adicionado na versão 1.16.0. |
SpeechServiceConnection_SynthBackend |
A cadeia de caracteres para especificar o back-end TTS; As opções válidas são online e offline. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths para definir o back-end de síntese como offline. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
O(s) caminho(s) do(s) arquivo(s) de dados para o mecanismo de síntese offline; válido apenas quando o back-end de síntese está offline. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
O nome da voz TTS offline a ser usada para síntese de fala Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Esta propriedade foi preterida. |
SpeechServiceConnection_VoicesListEndpoint |
As vozes do Serviço de Fala dos Serviços Cognitivos listam o ponto de extremidade da api (url). Em circunstâncias normais, você não precisa especificar essa propriedade, o SDK irá construí-la com base na região/host/endpoint de SpeechConfig. Adicionado na versão 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
O valor de tempo limite de silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Um valor booleano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura de Serviços Cognitivos (recurso de fala habilitado para Bring Your Own Storage (BYOS)). Adicionado na versão 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
O modo de identificador de idioma de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Consulte documento de de identificação linguística. Acrescentado no ponto 1.25.0. |
SpeechServiceConnection_TranslationCategoryId |
A categoria de tradução de conexão do serviço de falaId. |
SpeechServiceConnection_AutoDetectSourceLanguages |
A deteção automática de idiomas de origem Adicionado na versão 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
O resultado da deteção automática do idioma de origem Adicionado na versão 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
A resposta solicitada do Serviço de Fala dos Serviços Cognitivos produz o nível de palavrões. Atualmente não utilizado. |
SpeechServiceResponse_ProfanityOption |
A resposta solicitada do Serviço de Fala dos Serviços Cognitivos produz uma configuração de palavrões. Os valores permitidos são "mascarado", "removido" e "bruto". Adicionado na versão 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Um valor de cadeia de caracteres especificando qual opção de pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Um valor booleano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
O número de vezes que uma palavra tem de estar em resultados parciais para ser devolvida. Adicionado na versão 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Um valor de cadeia de caracteres especificando a opção de formato de saída no resultado da resposta. Apenas para uso interno. Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestSnr |
Um valor booleano que especifica se deve ser incluído SNR (relação sinal/ruído) no resultado da resposta. Adicionado na versão 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Um valor booleano para solicitar a estabilização dos resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Um valor booleano que especifica se os eventos WordBoundary devem ser solicitados. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Um valor booleano que especifica se o limite de pontuação deve ser solicitado em eventos WordBoundary . O padrão é true. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Um valor booleano que especifica se a solicitação de limite de frase deve ser solicitada em eventos WordBoundary . O padrão é false. Adicionado na versão 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Um valor booleano especificando se o SDK deve sincronizar eventos de metadados de síntese (por exemplo, limite de palavras, viseme, etc.) com a reprodução de áudio. Isso só entra em vigor quando o áudio é reproduzido através do SDK. O padrão é true. Se definido como false, o SDK disparará os eventos conforme eles vêm do serviço, o que pode estar fora de sincronia com a reprodução de áudio. Adicionado na versão 1.31.0. |
SpeechServiceResponse_JsonResult |
A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Esta propriedade está disponível apenas em objetos de resultado de reconhecimento. |
SpeechServiceResponse_JsonErrorDetails |
Os detalhes do erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
A latência de reconhecimento em milissegundos. Somente leitura, disponível nos resultados finais da fala/tradução/intenção. Isso mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está contribuindo para o resultado final e a hora em que o resultado final é recebido do serviço de fala. Adicionado na versão 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
O backend de reconhecimento. Somente leitura, disponível em resultados de reconhecimento de fala. Isso indica se o reconhecimento na nuvem (online) ou incorporado (offline) foi usado para produzir o resultado. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
A latência do primeiro byte da síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que o primeiro byte de áudio está disponível. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
A síntese de fala todos os bytes de latência em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
O tempo de execução inferior para a síntese da fala em milissegundos. Somente leitura, disponível nos resultados em eventos SynthesisCompleted. Isso mede o tempo total de execução inferior de PropertyId::AudioConfig_PlaybackBufferLengthInMs é preenchido até a síntese concluída. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
A latência da conexão de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que a conexão HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
A latência da rede de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
A latência do serviço de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indica por qual backend a síntese é concluída. Somente leitura, disponível em resultados de síntese de fala, exceto para o resultado no evento SynthesisStarted adicionado na versão 1.17.0. |
SpeechServiceResponse_DiarizeIntermediateResults |
Determina se os resultados intermediários contêm a identificação do alto-falante. |
CancellationDetails_Reason |
O motivo do cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonText |
O texto de cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonDetailedText |
O texto detalhado do cancelamento. Atualmente não utilizado. |
LanguageUnderstandingServiceResponse_JsonResult |
A saída de resposta do Language Understanding Service (no formato JSON). Disponível via IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
O nome do dispositivo para captura de áudio. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromMicrophoneInput. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
O número de canais para captura de áudio. Apenas para uso interno. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_SampleRateForCapture |
A taxa de amostragem (em Hz) para captura de áudio. Apenas para uso interno. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
O número de bits de cada amostra para captura de áudio. Apenas para uso interno. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0. |
AudioConfig_AudioSource |
A fonte de áudio. Os valores permitidos são "Microfones", "Arquivo" e "Fluxo". Adicionado na versão 1.3.0. |
AudioConfig_DeviceNameForRender |
O nome do dispositivo para renderização de áudio. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromSpeakerOutput. Adicionado na versão 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
Comprimento do buffer de reprodução em milissegundos, o padrão é 50 milissegundos. |
AudioConfig_AudioProcessingOptions |
Opções de processamento de áudio em formato JSON. |
Speech_LogFilename |
O nome do arquivo para gravar logs. Adicionado na versão 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Uma duração de silêncio detetado, medida em milissegundos, após a qual a fala para o texto determinará que uma frase falada terminou e gerará um resultado final Reconhecido. A configuração desse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou lenta do que o habitual e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou curtos. Valores de tempo limite de segmentação que são inadequadamente altos ou baixos podem afetar negativamente a precisão de fala para texto; Essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser completamente validado conforme pretendido. |
Speech_SegmentationMaximumTimeMs |
O comprimento máximo de uma frase falada ao usar a estratégia de segmentação "Tempo". À medida que o comprimento de uma frase falada se aproxima desse valor, o Speech_SegmentationSilenceTimeoutMs começará a ser reduzido até que o tempo limite de silêncio da frase seja atingido ou a frase atinja o comprimento máximo. |
Speech_SegmentationStrategy |
A estratégia usada para determinar quando uma frase falada terminou e um resultado final reconhecido deve ser gerado. Os valores permitidos são "Default", "Time" e "Semantic". |
Conversation_ApplicationId |
Identificador usado para se conectar ao serviço de back-end. Adicionado na versão 1.5.0. |
Conversation_DialogType |
Tipo de back-end de diálogo ao qual se conectar. Adicionado na versão 1.7.0. |
Conversation_Initial_Silence_Timeout |
Tempo limite de silêncio para ouvir Adicionado na versão 1.5.0. |
Conversation_From_Id |
De id para ser usado em atividades de reconhecimento de fala Adicionado na versão 1.5.0. |
Conversation_Conversation_Id |
ConversationId para a sessão. Adicionado na versão 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Lista separada por vírgulas de ids de implantação de voz personalizadas. Adicionado na versão 1.8.0. |
Conversation_Speech_Activity_Template |
Modelo de atividade de fala, carimbo de propriedades no modelo na atividade gerada pelo serviço para fala. Adicionado na versão 1.10.0. |
Conversation_ParticipantId |
Seu identificador de participante na conversa atual. Adicionado na versão 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
O carimbo de data/hora associado ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio Pull/Push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. É o mesmo que o carimbo de data/hora da apresentação em um fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp Adicionado na versão 1.5.0. |
DataBuffer_UserId |
O ID de usuário associado ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio Pull/Push. Adicionado na versão 1.5.0. |
PronunciationAssessment_ReferenceText |
O texto de referência do áudio para avaliação da pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte a tabela Parâmetros de avaliação de pronúncia. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create ou PronunciationAssessmentConfig::SetReferenceText. Adicionado na versão 1.14.0. |
PronunciationAssessment_GradingSystem |
O sistema de pontos para calibração da pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_Granularity |
A granularidade da avaliação da pronúncia (Fonema, Word ou Texto Completo). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_EnableMiscue |
Define se habilitar o cálculo incorreto. Com isso habilitado, as palavras pronunciadas serão comparadas com o texto de referência, e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é False. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
A avaliação da pronúncia do alfabeto fonema. Os valores válidos são "SAPI" (padrão) e "IPA" Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::SetPhonemeAlphabet. Adicionado na versão 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
A avaliação de pronúncia nbest contagem de fonemas. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::SetNBestPhonemeCount. Adicionado na versão 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Se se deve permitir a avaliação da prosódia. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::EnableProsodyAssessment. Adicionado na versão 1.33.0. |
PronunciationAssessment_Json |
A cadeia de caracteres json dos parâmetros de avaliação de pronúncia Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0. |
PronunciationAssessment_Params |
Parâmetros de avaliação da pronúncia. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.14.0. |
PronunciationAssessment_ContentTopic |
O tópico de conteúdo da avaliação de pronúncia. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Adicionado na versão 1.33.0. |
SpeakerRecognition_Api_Version |
Versão da API de back-end de reconhecimento de alto-falante. Esta propriedade é adicionada para permitir o teste e o uso de versões anteriores das APIs de reconhecimento de alto-falante, quando aplicável. Adicionado na versão 1.18.0. |
SpeechTranslation_ModelName |
O nome de um modelo a ser usado para tradução de fala. Não use esta propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. |
SpeechTranslation_ModelKey |
Esta propriedade foi preterida. |
KeywordRecognition_ModelName |
O nome de um modelo a ser usado para reconhecimento de palavras-chave. Não use esta propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. |
KeywordRecognition_ModelKey |
Esta propriedade foi preterida. |
EmbeddedSpeech_EnablePerformanceMetrics |
Habilite a coleta de métricas de desempenho de fala incorporadas que podem ser usadas para avaliar a capacidade de um dispositivo de usar fala incorporada. Os dados recolhidos são incluídos nos resultados de cenários específicos, como o reconhecimento de voz. A configuração padrão é "false". Observe que as métricas podem não estar disponíveis em todos os cenários de fala incorporados. |
SpeechSynthesisRequest_Pitch |
O tom do discurso sintetizado. |
SpeechSynthesisRequest_Rate |
A taxa da fala sintetizada. |
SpeechSynthesisRequest_Volume |
O volume da fala sintetizada. |