SpeechServiceConnection_Key |
A chave de assinatura do Serviço de Fala dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade do LUIS para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
O ponto de extremidade do Serviço de Fala dos Serviços Cognitivos (URL). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromEndpoint. OBSERVAÇÃO: esse ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso. |
SpeechServiceConnection_Region |
A região do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
O tipo de autorização do Serviço de Fala dos Serviços Cognitivos. Atualmente não utilizado. |
SpeechServiceConnection_EndpointId |
A ID do ponto de extremidade do Serviço de Voz Personalizado ou de Fala Personalizada dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetEndpointId. OBSERVAÇÃO: a ID do ponto de extremidade está disponível no Portal de Fala Personalizada, listado em Detalhes do Ponto de Extremidade. |
SpeechServiceConnection_Host |
O host (URL) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0. |
SpeechServiceConnection_ProxyPort |
A porta do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0. |
SpeechServiceConnection_ProxyUserName |
O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0. |
SpeechServiceConnection_ProxyPassword |
A senha do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0. |
SpeechServiceConnection_Url |
A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. OBSERVAÇÃO: adicionado na versão 1.5.0. |
SpeechServiceConnection_ProxyHostBypass |
Especifica a lista de hosts para os quais os proxies não devem ser usados. Essa configuração substitui todas as outras configurações. Os nomes de host são separados por vírgulas e são correspondidos de maneira que não diferencia maiúsculas de minúsculas. Não há suporte para curingas. |
SpeechServiceConnection_TranslationToLanguages |
A lista de idiomas separados por vírgulas usados como idiomas de tradução de destino. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
O nome da voz do Serviço Cognitivo de Texto em Fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::SetVoiceName. OBSERVAÇÃO: Nomes de voz válidos podem ser encontrados aqui. |
SpeechServiceConnection_TranslationFeatures |
Recursos de tradução. Para uso interno. |
SpeechServiceConnection_IntentRegion |
A região do Serviço de Reconhecimento Vocal. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
O modo de reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. |
SpeechServiceConnection_RecoLanguage |
O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
A ID da sessão. Essa ID é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma associação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ela está associada. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Os parâmetros de consulta fornecidos pelos usuários. Eles serão passados para o serviço como parâmetros de consulta de URL. Adicionado na versão 1.5.0. |
SpeechServiceConnection_RecoBackend |
A cadeia de caracteres para especificar o back-end a ser usado para reconhecimento de fala; as opções permitidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, a opção offline só é válida quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelName |
O nome do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Essa propriedade foi preterida. |
SpeechServiceConnection_RecoModelIniFile |
O caminho para o arquivo ini do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthLanguage |
O idioma falado a ser sintetizado (por exemplo, en-US) adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthVoice |
O nome da voz TTS a ser usada para síntese de fala adicionada na versão 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
A cadeia de caracteres para especificar o formato de áudio de saída do TTS adicionado na versão 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indica se usar o formato de áudio compactado para transmissão de áudio de síntese de fala. Essa propriedade afeta somente quando SpeechServiceConnection_SynthOutputFormat é definido como um formato pcm. Se essa propriedade não estiver definida e o GStreamer estiver disponível, o SDK usará o formato compactado para transmissão de áudio sintetizada e a decodificará. Você pode definir essa propriedade como "false" para usar o formato pcm bruto para transmissão na transmissão. Adicionado na versão 1.16.0. |
SpeechServiceConnection_SynthBackend |
A cadeia de caracteres para especificar o back-end do TTS; as opções válidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths para definir o back-end de síntese como offline. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Os caminhos do arquivo de dados para o mecanismo de síntese offline; válido somente quando o back-end de síntese está offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
O nome da voz TTS offline a ser usada para síntese de fala em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Adicionado na versão 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Essa propriedade foi preterida. |
SpeechServiceConnection_VoicesListEndpoint |
O ponto de extremidade de API (URL) da lista de vozes do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não precisa especificar essa propriedade, o SDK a construirá com base na região/host/ponto de extremidade de SpeechConfig. Adicionado na versão 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
O valor do tempo limite do silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Um valor booliano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada ao recurso de Fala habilitado para ByOS (Traga Seu Próprio Armazenamento). Adicionado na versão 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
O modo de identificador de linguagem de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Consulte documento de Identificação de Idioma. Adicionado em 1.25.0. |
SpeechServiceConnection_TranslationCategoryId |
A categoryId de conversão de conexão do serviço de fala. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Os idiomas de origem de detecção automática adicionados na versão 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
O resultado do idioma de origem de detecção automática adicionado na versão 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
O nível de profanidade de saída da resposta do Serviço de Fala dos Serviços Cognitivos solicitado. Atualmente não utilizado. |
SpeechServiceResponse_ProfanityOption |
A configuração de profanidade de saída da resposta do Serviço de Fala dos Serviços Cognitivos solicitada. Os valores permitidos são "mascarados", "removidos" e "brutos". Adicionado na versão 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Um valor de cadeia de caracteres que especifica qual opção de pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Um valor booliano que especifica se os carimbos de data/hora de nível de palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
O número de vezes que uma palavra precisa estar em resultados parciais a serem retornados. Adicionado na versão 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Um valor de cadeia de caracteres que especifica a opção de formato de saída no resultado da resposta. Somente uso interno. Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestSnr |
Um valor booliano que especifica se o SNR (taxa de sinal para ruído) deve ser incluído no resultado da resposta. Adicionado na versão 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Um valor booliano a ser solicitado para estabilizar os resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Um valor booliano que especifica se os eventos WordBoundary devem ser solicitados. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Um valor booliano que especifica se o limite de pontuação deve ser solicitado em Eventos WordBoundary. O padrão é verdadeiro. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Um valor booliano que especifica se o limite de sentença deve ser solicitado em Eventos WordBoundary. O padrão é false. Adicionado na versão 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Um valor booliano que especifica se o SDK deve sincronizar eventos de metadados de síntese (por exemplo, limite de palavra, viseme etc.) com a reprodução de áudio. Isso só entra em vigor quando o áudio é reproduzido por meio do SDK. O padrão é verdadeiro. Se definido como false, o SDK disparará os eventos conforme eles vêm do serviço, o que pode estar fora de sincronia com a reprodução de áudio. Adicionado na versão 1.31.0. |
SpeechServiceResponse_JsonResult |
A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Essa propriedade está disponível somente em objetos de resultado de reconhecimento. |
SpeechServiceResponse_JsonErrorDetails |
Os detalhes de erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
A latência de reconhecimento em milissegundos. Somente leitura, disponível nos resultados finais de fala/tradução/intenção. Isso mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está contribuindo para o resultado final e a hora em que o resultado final é recebido do serviço de fala. Adicionado na versão 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
O back-end de reconhecimento. Somente leitura, disponível nos resultados do reconhecimento de fala. Isso indica se o reconhecimento de nuvem (online) ou incorporado (offline) foi usado para produzir o resultado. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
A síntese de fala primeiro byte latência em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que o primeiro áudio de byte está disponível. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
A síntese de fala sintetiza a latência de todos os bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
O tempo de execução inferior da síntese de fala em milissegundos. Somente leitura, disponível em resultados em eventos SynthesisCompleted. Isso mede o tempo total de subexecução de PropertyId::AudioConfig_PlaybackBufferLengthInMs é preenchido para a síntese concluída. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
A latência de conexão de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que a conexão HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
A latência de rede de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
A latência do serviço de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indica por qual back-end a síntese foi concluída. Somente leitura, disponível nos resultados da síntese de fala, exceto pelo resultado no evento SynthesisStarted adicionado na versão 1.17.0. |
SpeechServiceResponse_DiarizeIntermediateResults |
Determina se os resultados intermediários contêm identificação do locutor. |
CancellationDetails_Reason |
O motivo do cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonText |
O texto de cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonDetailedText |
O texto detalhado do cancelamento. Atualmente não utilizado. |
LanguageUnderstandingServiceResponse_JsonResult |
A saída de resposta do Serviço de Reconhecimento Vocal (no formato JSON). Disponível por meio de IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
O nome do dispositivo para captura de áudio. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromMicrophoneInput. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
O número de canais para captura de áudio. Somente uso interno. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0. |
AudioConfig_SampleRateForCapture |
A taxa de exemplo (em Hz) para captura de áudio. Somente uso interno. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
O número de bits de cada exemplo para captura de áudio. Somente uso interno. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0. |
AudioConfig_AudioSource |
A fonte de áudio. Os valores permitidos são "Microfones", "Arquivo" e "Fluxo". Adicionado na versão 1.3.0. |
AudioConfig_DeviceNameForRender |
O nome do dispositivo para renderização de áudio. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromSpeakerOutput. Adicionado na versão 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
Comprimento do buffer de reprodução em milissegundos, o padrão é 50 milissegundos. |
AudioConfig_AudioProcessingOptions |
Opções de processamento de áudio no formato JSON. |
Speech_LogFilename |
O nome do arquivo para gravar logs. Adicionado na versão 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Uma duração do silêncio detectado, medida em milissegundos, após a qual a conversão de fala em texto determinará que uma frase falada terminou e gerará um resultado reconhecido final. Configurar esse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o normal e o comportamento de segmentação padrão produz consistentemente resultados que são muito longos ou muito curtos. Valores de tempo limite de segmentação inadequadamente altos ou baixos podem afetar negativamente a precisão de fala em texto; essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser validado minuciosamente conforme o esperado. |
Speech_SegmentationMaximumTimeMs |
O comprimento máximo de uma frase falada ao usar a estratégia de segmentação "Time". À medida que o comprimento de uma frase falada se aproxima desse valor, o Speech_SegmentationSilenceTimeoutMs começará a ser reduzido até que o tempo limite do silêncio da frase seja atingido ou a frase atinja o comprimento máximo. |
Speech_SegmentationStrategy |
A estratégia usada para determinar quando uma frase falada terminou e um resultado reconhecido final deve ser gerado. Os valores permitidos são "Padrão", "Tempo" e "Semântico". |
Conversation_ApplicationId |
Identificador usado para se conectar ao serviço de back-end. Adicionado na versão 1.5.0. |
Conversation_DialogType |
Tipo de back-end de caixa de diálogo ao qual se conectar. Adicionado na versão 1.7.0. |
Conversation_Initial_Silence_Timeout |
Tempo limite de silêncio para ouvir Adicionado na versão 1.5.0. |
Conversation_From_Id |
Da ID a ser usada nas atividades de reconhecimento de fala adicionadas na versão 1.5.0. |
Conversation_Conversation_Id |
ConversationId para a sessão. Adicionado na versão 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Lista separada por vírgulas de IDs de implantação de voz personalizada. Adicionado na versão 1.8.0. |
Conversation_Speech_Activity_Template |
Modelo de atividade de fala, propriedades de carimbo no modelo na atividade gerada pelo serviço de fala. Adicionado na versão 1.10.0. |
Conversation_ParticipantId |
O identificador do participante na conversa atual. Adicionado na versão 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
O carimbo de data/hora associado ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio pull/push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. É o mesmo que o carimbo de data/hora da apresentação em um fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp Adicionado na versão 1.5.0. |
DataBuffer_UserId |
A ID do usuário associada ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio pull/push. Adicionado na versão 1.5.0. |
PronunciationAssessment_ReferenceText |
O texto de referência do áudio para avaliação de pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte a tabela parâmetros de avaliação de pronúncia. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::Create ou PronúnciaAssessmentConfig::SetReferenceText. Adicionado na versão 1.14.0. |
PronunciationAssessment_GradingSystem |
O sistema de pontos para calibragem de pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::Criar. Adicionado na versão 1.14.0. |
PronunciationAssessment_Granularity |
A granularidade da avaliação de pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::Criar. Adicionado na versão 1.14.0. |
PronunciationAssessment_EnableMiscue |
Define se habilitar o cálculo de erro. Com isso habilitado, as palavras pronunciadas serão comparadas ao texto de referência e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é False. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::Criar. Adicionado na versão 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
O alfabeto phoneme de avaliação de pronúncia. Os valores válidos são "SAPI" (padrão) e "IPA" Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::SetPhonemeAlphabet. Adicionado na versão 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
A avaliação de pronúncia nbest phoneme count. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::SetNBestPhonemeCount. Adicionado na versão 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Se deseja habilitar a avaliação prosody. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::EnableProsodyAssessment. Adicionado na versão 1.33.0. |
PronunciationAssessment_Json |
A cadeia de caracteres json dos parâmetros de avaliação de pronúncia em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::Criar. Adicionado na versão 1.14.0. |
PronunciationAssessment_Params |
Parâmetros de avaliação de pronúncia. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.14.0. |
PronunciationAssessment_ContentTopic |
O tópico de conteúdo da avaliação de pronúncia. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronúnciaAssessmentConfig::EnableContentAssessmentWithTopic. Adicionado na versão 1.33.0. |
SpeakerRecognition_Api_Version |
Versão da API de back-end do Reconhecimento do Locutor. Essa propriedade é adicionada para permitir o teste e o uso de versões anteriores das APIs de Reconhecimento do Locutor, quando aplicável. Adicionado na versão 1.18.0. |
SpeechTranslation_ModelName |
O nome de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. |
SpeechTranslation_ModelKey |
Essa propriedade foi preterida. |
KeywordRecognition_ModelName |
O nome de um modelo a ser usado para o reconhecimento de palavra-chave. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. |
KeywordRecognition_ModelKey |
Essa propriedade foi preterida. |
EmbeddedSpeech_EnablePerformanceMetrics |
Habilite a coleção de métricas de desempenho de fala inseridas que podem ser usadas para avaliar a capacidade de um dispositivo usar fala inserida. Os dados coletados são incluídos nos resultados de cenários específicos, como o reconhecimento de fala. A configuração padrão é "false". Observe que as métricas podem não estar disponíveis em todos os cenários de fala inseridos. |
SpeechSynthesisRequest_Pitch |
O tom da fala sintetizada. |
SpeechSynthesisRequest_Rate |
A taxa da fala sintetizada. |
SpeechSynthesisRequest_Volume |
O volume da fala sintetizada. |