Partilhar via


Namespace Microsoft::CognitiveServices::Speech

Resumo

Membros Descrições
enum PropertyId Define ids de propriedade de fala. Alterado na versão 1.4.0.
enum OutputFormat Formato de saída.
enum ProfanityOption Remove palavrões (palavrões) ou substitui letras de palavras profanas por estrelas. Adicionado na versão 1.5.0.
enum ResultReason Especifica os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado.
enum CancelamentoRazão Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.
enum CancellationErrorCode Define o código de erro no caso de CancellationReason ser Error. Adicionado na versão 1.1.0.
enum NoMatchReason Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.
enum ActivityJSONTipe Define os tipos possíveis para um valor json de atividade. Adicionado na versão 1.5.0.
enum SpeechSynthesisOutputFormat Define os possíveis formatos de saída de saída de síntese de fala. Atualizado na versão 1.19.0.
enum StreamStatus Define o possível status do fluxo de dados de áudio. Adicionado na versão 1.4.0.
enum ServicePropertyChannel Define os canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.5.0.
enum VoiceProfileType Define tipos de perfil de voz.
enum RecognitionFactorScope Define o escopo ao qual um Fator de Reconhecimento é aplicado.
enum PronunciationAssessmentGradingSystem Define o sistema de pontos para calibração da pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.14.0.
enum PronúnciaAvaliaçãoGranularidade Define a granularidade da avaliação da pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.14.0.
enum SynthesisVoiceType Define o tipo de vozes de síntese adicionadas na versão 1.16.0.
enum SynthesisVoiceGender Define o gênero das vozes de síntese Adicionado na versão 1.17.0.
enum SpeechSynthesisBoundaryType Define o tipo de limite do evento limite de síntese de fala Adicionado na versão 1.21.0.
enum SegmentaçãoEstratégia A estratégia usada para determinar quando uma frase falada terminou e um resultado final reconhecido deve ser gerado. Os valores permitidos são "Default", "Time" e "Semantic".
classe AsyncRecognizer Classe base abstrata AsyncRecognizer.
classe AudioDataStream Representa o fluxo de dados de áudio usado para operar dados de áudio como um fluxo. Adicionado na versão 1.4.0.
classe AutoDetectSourceLanguageConfig Classe que define a configuração da fonte de deteção automática Atualizado em 1.13.0.
classe AutoDetectSourceLanguageResult Contém o resultado do idioma de origem detetado automaticamente Adicionado na versão 1.8.0.
classe BaseAsyncRecognizer BaseAsyncRecognizer classe.
classe CancelamentoDetalhes Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado.
classe ClassLanguageModel Representa uma lista de gramáticas para cenários de gramática dinâmica. Adicionado na versão 1.7.0.
classe Connection Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Recognizer especificado. Por padrão, um Recognizer gerencia de forma autônoma a conexão com o serviço quando necessário. A classe Connection fornece métodos adicionais para que os usuários abram ou fechem explicitamente uma conexão e assinem as alterações de status da conexão. O uso de Conexão é opcional. Destina-se a cenários em que é necessário ajustar o comportamento do aplicativo com base no status da conexão. Opcionalmente, os usuários podem chamar Open() para iniciar manualmente uma conexão de serviço antes de iniciar o reconhecimento no Recognizer associado a essa conexão. Depois de iniciar um reconhecimento, chamar Open() ou Close() pode falhar. Isso não afetará o Reconhecedor ou o reconhecimento contínuo. A conexão pode cair por vários motivos, o Recognizer sempre tentará reinstituir a conexão conforme necessário para garantir operações contínuas. Em todos esses casos, os eventos Conectado/Desconectado indicarão a alteração do status da conexão. Atualizado na versão 1.17.0.
classe ConnectionEventArgs Fornece dados para o ConnectionEvent. Adicionado na versão 1.2.0.
classe ConnectionMessage ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de fala. Essas mensagens são fornecidas para fins de depuração e não devem ser usadas para casos de uso de produção com o Serviço de Fala dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Fala estão sujeitas a alterações sem aviso prévio. Isso inclui conteúdo de mensagens, cabeçalhos, cargas úteis, pedidos, etc. Adicionado na versão 1.10.0.
classe ConnectionMessageEventArgs Fornece dados para o ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe que define a configuração de fala incorporada (offline).
classe EventArgs Classe base para argumentos de evento.
classe EventSignal Os clientes podem se conectar ao sinal de evento para receber eventos ou se desconectar do sinal de evento para parar de receber eventos.
classe EventSignalBase Os clientes podem se conectar ao sinal de evento para receber eventos ou se desconectar do sinal de evento para parar de receber eventos.
classe Gramática Representa a gramática de classe base para personalizar o reconhecimento de fala. Adicionado na versão 1.5.0.
classe GrammarList Representa uma lista de gramáticas para cenários de gramática dinâmica. Adicionado na versão 1.7.0.
classe GrammarPhrase Representa uma frase que pode ser dita pelo usuário. Adicionado na versão 1.5.0.
classe HybridSpeechConfig Classe que define configurações híbridas (nuvem e incorporadas) para reconhecimento de fala ou síntese de fala.
classe KeywordRecognitionEventArgs Classe para os eventos emitidos pelo KeywordRecognizer.
classe KeywordRecognitionModel Representa o modelo de reconhecimento de palavra-chave usado com os métodos StartKeywordRecognitionAsync.
classe KeywordRecognitionResult Classe que define os resultados emitidos pelo KeywordRecognizer.
classe KeywordRecognizer Tipo de reconhecedor especializado para lidar apenas com a ativação de palavras-chave.
classe NoMatchDetails Contém informações detalhadas sobre os resultados do reconhecimento NoMatch.
classe PersonalVoiceSynthesisRequest Aula que define o pedido de síntese de fala para voz pessoal (aka.ms/azureai/personal-voice). Esta classe está em pré-visualização e está sujeita a alterações. Adicionado na versão 1.39.0.
classe PhraseListGrammar Representa uma gramática de lista de frases para cenários de gramática dinâmica. Adicionado na versão 1.5.0.
classe PronunciationAssessmentConfig Classe que define a configuração de avaliação de pronúncia Adicionada em 1.14.0.
classe PronunciationAssessmentResult Aula para resultados de avaliação de pronúncia.
classe PronunciationContentAssessmentResult Aula para resultados de avaliação de conteúdo.
classe PropertyCollection Classe para recuperar ou definir um valor de propriedade de uma coleção de propriedades.
classe RecognitionEventArgs Fornece dados para o RecognitionEvent.
classe RecognitionResult Contém informações detalhadas sobre o resultado de uma operação de reconhecimento.
classe Recognizer Classe base do reconhecedor.
classe SessionEventArgs Classe base para argumentos de evento de sessão.
classe SmartHandle Classe de alça inteligente.
classe SourceLanguageConfig Classe que define a configuração do idioma de origem, adicionada na versão 1.8.0.
classe SourceLanguageRecognizer Classe para reconhecedores de idioma de origem. Você pode usar essa classe para deteção de idioma autônomo. Adicionado na versão 1.17.0.
classe SpeechConfig Classe que define configurações para reconhecimento de fala/intenção ou síntese de fala.
classe SpeechRecognitionCanceledEventArgs Classe para reconhecimento de fala cancelou argumentos de evento.
classe SpeechRecognitionEventArgs Classe para argumentos de eventos de reconhecimento de fala.
classe SpeechRecognitionModel Informações do modelo de reconhecimento de fala.
classe SpeechRecognitionResult Classe base para resultados de reconhecimento de fala.
classe SpeechRecognizer Classe para reconhecedores de fala.
classe SpeechSynthesisBookmarkEventArgs Classe para síntese de fala marcar argumentos de evento de marcação. Adicionado na versão 1.16.0.
classe SpeechSynthesisCancellationDetails Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado. Adicionado na versão 1.4.0.
aula SpeechSynthesisEventArgs Classe para argumentos de eventos de síntese de fala. Adicionado na versão 1.4.0.
classe SpeechSynthesisRequest Classe que define a solicitação de síntese de fala. Esta classe está em pré-visualização e está sujeita a alterações. Adicionado na versão 1.37.0.
classe SpeechSynthesisResult Contém informações sobre o resultado da síntese de conversão de texto em fala. Adicionado na versão 1.4.0.
aula SpeechSynthesisVisemeEventArgs Aula para síntese de fala viseme argumentos de eventos. Adicionado na versão 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe para argumentos de evento de limite de palavra de síntese de fala. Adicionado na versão 1.7.0.
classe SpeechSynthesizer Classe para sintetizador de voz. Atualizado na versão 1.14.0.
classe SpeechTranslationModel Informações do modelo de tradução de fala.
classe SynthesisVoicesResult Contém informações sobre o resultado da lista de vozes de sintetizadores de voz. Adicionado na versão 1.16.0.
classe VoiceInfo Contém informações sobre informações de voz de síntese Atualizado na versão 1.17.0.

Membros

enum PropertyId |

Valores Descrições
SpeechServiceConnection_Key A chave de subscrição do Serviço de Voz dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade LUIS para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint O ponto de extremidade (url) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromEndpoint. NOTA: Este ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso.
SpeechServiceConnection_Region A região do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromAuthorizationToken SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type O tipo de autorização do Serviço de Fala dos Serviços Cognitivos. Atualmente não utilizado.
SpeechServiceConnection_EndpointId A ID do ponto de extremidade Fala Personalizada dos Serviços Cognitivos ou do Serviço de Voz Personalizado. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetEndpointId. NOTA: O ID do ponto de extremidade está disponível no Portal de Fala Personalizado, listado em Detalhes do Ponto de Extremidade.
SpeechServiceConnection_Host O host do Serviço de Fala dos Serviços Cognitivos (url). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_ProxyPort A porta do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_ProxyUserName O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_ProxyPassword A senha do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. NOTA: Este ID de propriedade foi adicionado na versão 1.1.0.
SpeechServiceConnection_Url A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. NOTA: Adicionado na versão 1.5.0.
SpeechServiceConnection_ProxyHostBypass Especifica a lista de hosts para os quais proxies não devem ser usados. Essa configuração substitui todas as outras configurações. Os nomes de host são separados por vírgulas e são correspondidos de maneira que não diferencia maiúsculas de minúsculas. Não há suporte para curingas.
SpeechServiceConnection_TranslationToLanguages A lista de idiomas separados por vírgulas usados como idiomas de tradução de destino. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice O nome da voz do Serviço Cognitivo de Texto para Fala. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::SetVoiceName. NOTA: Nomes de voz válidos podem ser encontrados aqui.
SpeechServiceConnection_TranslationFeatures Recursos de tradução. Para uso interno.
SpeechServiceConnection_IntentRegion A região do Serviço de Compreensão de Idiomas. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode O modo de reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente.
SpeechServiceConnection_RecoLanguage A língua falada a ser reconhecida (no formato BCP-47). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId O id da sessão. Este id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma ligação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ele está vinculado. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Os parâmetros de consulta fornecidos pelos usuários. Eles serão passados para o serviço como parâmetros de consulta de URL. Adicionado na versão 1.5.0.
SpeechServiceConnection_RecoBackend A cadeia de caracteres para especificar o back-end a ser usado para reconhecimento de fala; As opções permitidas são online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, a opção offline só é válida quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelName O nome do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelKey Esta propriedade foi preterida.
SpeechServiceConnection_RecoModelIniFile O caminho para o arquivo ini do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthLanguage O idioma falado a ser sintetizado (por exemplo, en-US) Adicionado na versão 1.4.0.
SpeechServiceConnection_SynthVoice O nome da voz TTS a ser usada para síntese de fala Adicionado na versão 1.4.0.
SpeechServiceConnection_SynthOutputFormat A cadeia de caracteres para especificar o formato de áudio de saída TTS Adicionado na versão 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indica se o formato de áudio comprimido é usado para transmissão de áudio de síntese de fala. Esta propriedade só afeta quando SpeechServiceConnection_SynthOutputFormat é definido como um formato pcm. Se essa propriedade não estiver definida e o GStreamer estiver disponível, o SDK usará o formato compactado para transmissão de áudio sintetizada e o decodificará. Você pode definir essa propriedade como "false" para usar o formato pcm bruto para transmissão em fio. Adicionado na versão 1.16.0.
SpeechServiceConnection_SynthBackend A cadeia de caracteres para especificar o back-end TTS; As opções válidas são online e offline. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths para definir o back-end de síntese como offline. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath O(s) caminho(s) do(s) arquivo(s) de dados para o mecanismo de síntese offline; válido apenas quando o back-end de síntese está offline. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthOfflineVoice O nome da voz TTS offline a ser usada para síntese de fala Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthModelKey Esta propriedade foi preterida.
SpeechServiceConnection_VoicesListEndpoint As vozes do Serviço de Fala dos Serviços Cognitivos listam o ponto de extremidade da api (url). Em circunstâncias normais, você não precisa especificar essa propriedade, o SDK irá construí-la com base na região/host/endpoint de SpeechConfig. Adicionado na versão 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs O valor de tempo limite de silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0.
SpeechServiceConnection_EnableAudioLogging Um valor booleano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura de Serviços Cognitivos (recurso de fala habilitado para Bring Your Own Storage (BYOS)). Adicionado na versão 1.5.0.
SpeechServiceConnection_LanguageIdMode O modo de identificador de idioma de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Consulte documento de de identificação linguística. Acrescentado no ponto 1.25.0.
SpeechServiceConnection_TranslationCategoryId A categoria de tradução de conexão do serviço de falaId.
SpeechServiceConnection_AutoDetectSourceLanguages A deteção automática de idiomas de origem Adicionado na versão 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult O resultado da deteção automática do idioma de origem Adicionado na versão 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse A resposta solicitada do Serviço de Fala dos Serviços Cognitivos produz o nível de palavrões. Atualmente não utilizado.
SpeechServiceResponse_ProfanityOption A resposta solicitada do Serviço de Fala dos Serviços Cognitivos produz uma configuração de palavrões. Os valores permitidos são "mascarado", "removido" e "bruto". Adicionado na versão 1.5.0.
SpeechServiceResponse_PostProcessingOption Um valor de cadeia de caracteres especificando qual opção de pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Um valor booleano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold O número de vezes que uma palavra tem de estar em resultados parciais para ser devolvida. Adicionado na versão 1.5.0.
SpeechServiceResponse_OutputFormatOption Um valor de cadeia de caracteres especificando a opção de formato de saída no resultado da resposta. Apenas para uso interno. Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestSnr Um valor booleano que especifica se deve ser incluído SNR (relação sinal/ruído) no resultado da resposta. Adicionado na versão 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Um valor booleano para solicitar a estabilização dos resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestWordBoundary Um valor booleano que especifica se os eventos WordBoundary devem ser solicitados. Adicionado na versão 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Um valor booleano que especifica se o limite de pontuação deve ser solicitado em eventos WordBoundary . O padrão é true. Adicionado na versão 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Um valor booleano que especifica se a solicitação de limite de frase deve ser solicitada em eventos WordBoundary . O padrão é false. Adicionado na versão 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Um valor booleano especificando se o SDK deve sincronizar eventos de metadados de síntese (por exemplo, limite de palavras, viseme, etc.) com a reprodução de áudio. Isso só entra em vigor quando o áudio é reproduzido através do SDK. O padrão é true. Se definido como false, o SDK disparará os eventos conforme eles vêm do serviço, o que pode estar fora de sincronia com a reprodução de áudio. Adicionado na versão 1.31.0.
SpeechServiceResponse_JsonResult A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Esta propriedade está disponível apenas em objetos de resultado de reconhecimento.
SpeechServiceResponse_JsonErrorDetails Os detalhes do erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs A latência de reconhecimento em milissegundos. Somente leitura, disponível nos resultados finais da fala/tradução/intenção. Isso mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está contribuindo para o resultado final e a hora em que o resultado final é recebido do serviço de fala. Adicionado na versão 1.3.0.
SpeechServiceResponse_RecognitionBackend O backend de reconhecimento. Somente leitura, disponível em resultados de reconhecimento de fala. Isso indica se o reconhecimento na nuvem (online) ou incorporado (offline) foi usado para produzir o resultado.
SpeechServiceResponse_SynthesisFirstByteLatencyMs A latência do primeiro byte da síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que o primeiro byte de áudio está disponível. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs A síntese de fala todos os bytes de latência em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs O tempo de execução inferior para a síntese da fala em milissegundos. Somente leitura, disponível nos resultados em eventos SynthesisCompleted. Isso mede o tempo total de execução inferior de PropertyId::AudioConfig_PlaybackBufferLengthInMs é preenchido até a síntese concluída. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs A latência da conexão de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada a ser processada e o momento em que a conexão HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs A latência da rede de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs A latência do serviço de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisBackend Indica por qual backend a síntese é concluída. Somente leitura, disponível em resultados de síntese de fala, exceto para o resultado no evento SynthesisStarted adicionado na versão 1.17.0.
SpeechServiceResponse_DiarizeIntermediateResults Determina se os resultados intermediários contêm a identificação do alto-falante.
CancellationDetails_Reason O motivo do cancelamento. Atualmente não utilizado.
CancellationDetails_ReasonText O texto de cancelamento. Atualmente não utilizado.
CancellationDetails_ReasonDetailedText O texto detalhado do cancelamento. Atualmente não utilizado.
LanguageUnderstandingServiceResponse_JsonResult A saída de resposta do Language Understanding Service (no formato JSON). Disponível via IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture O nome do dispositivo para captura de áudio. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromMicrophoneInput. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_NumberOfChannelsForCapture O número de canais para captura de áudio. Apenas para uso interno. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_SampleRateForCapture A taxa de amostragem (em Hz) para captura de áudio. Apenas para uso interno. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_BitsPerSampleForCapture O número de bits de cada amostra para captura de áudio. Apenas para uso interno. NOTA: Este ID de propriedade foi adicionado na versão 1.3.0.
AudioConfig_AudioSource A fonte de áudio. Os valores permitidos são "Microfones", "Arquivo" e "Fluxo". Adicionado na versão 1.3.0.
AudioConfig_DeviceNameForRender O nome do dispositivo para renderização de áudio. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromSpeakerOutput. Adicionado na versão 1.14.0.
AudioConfig_PlaybackBufferLengthInMs Comprimento do buffer de reprodução em milissegundos, o padrão é 50 milissegundos.
AudioConfig_AudioProcessingOptions Opções de processamento de áudio em formato JSON.
Speech_LogFilename O nome do arquivo para gravar logs. Adicionado na versão 1.4.0.
Speech_SegmentationSilenceTimeoutMs Uma duração de silêncio detetado, medida em milissegundos, após a qual a fala para o texto determinará que uma frase falada terminou e gerará um resultado final Reconhecido. A configuração desse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou lenta do que o habitual e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou curtos. Valores de tempo limite de segmentação que são inadequadamente altos ou baixos podem afetar negativamente a precisão de fala para texto; Essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser completamente validado conforme pretendido.
Speech_SegmentationMaximumTimeMs O comprimento máximo de uma frase falada ao usar a estratégia de segmentação "Tempo". À medida que o comprimento de uma frase falada se aproxima desse valor, o Speech_SegmentationSilenceTimeoutMs começará a ser reduzido até que o tempo limite de silêncio da frase seja atingido ou a frase atinja o comprimento máximo.
Speech_SegmentationStrategy A estratégia usada para determinar quando uma frase falada terminou e um resultado final reconhecido deve ser gerado. Os valores permitidos são "Default", "Time" e "Semantic".
Conversation_ApplicationId Identificador usado para se conectar ao serviço de back-end. Adicionado na versão 1.5.0.
Conversation_DialogType Tipo de back-end de diálogo ao qual se conectar. Adicionado na versão 1.7.0.
Conversation_Initial_Silence_Timeout Tempo limite de silêncio para ouvir Adicionado na versão 1.5.0.
Conversation_From_Id De id para ser usado em atividades de reconhecimento de fala Adicionado na versão 1.5.0.
Conversation_Conversation_Id ConversationId para a sessão. Adicionado na versão 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Lista separada por vírgulas de ids de implantação de voz personalizadas. Adicionado na versão 1.8.0.
Conversation_Speech_Activity_Template Modelo de atividade de fala, carimbo de propriedades no modelo na atividade gerada pelo serviço para fala. Adicionado na versão 1.10.0.
Conversation_ParticipantId Seu identificador de participante na conversa atual. Adicionado na versão 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp O carimbo de data/hora associado ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio Pull/Push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. É o mesmo que o carimbo de data/hora da apresentação em um fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp Adicionado na versão 1.5.0.
DataBuffer_UserId O ID de usuário associado ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio Pull/Push. Adicionado na versão 1.5.0.
PronunciationAssessment_ReferenceText O texto de referência do áudio para avaliação da pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte a tabela Parâmetros de avaliação de pronúncia. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create ou PronunciationAssessmentConfig::SetReferenceText. Adicionado na versão 1.14.0.
PronunciationAssessment_GradingSystem O sistema de pontos para calibração da pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_Granularity A granularidade da avaliação da pronúncia (Fonema, Word ou Texto Completo). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_EnableMiscue Define se habilitar o cálculo incorreto. Com isso habilitado, as palavras pronunciadas serão comparadas com o texto de referência, e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é False. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_PhonemeAlphabet A avaliação da pronúncia do alfabeto fonema. Os valores válidos são "SAPI" (padrão) e "IPA" Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::SetPhonemeAlphabet. Adicionado na versão 1.20.0.
PronunciationAssessment_NBestPhonemeCount A avaliação de pronúncia nbest contagem de fonemas. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::SetNBestPhonemeCount. Adicionado na versão 1.20.0.
PronunciationAssessment_EnableProsodyAssessment Se se deve permitir a avaliação da prosódia. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::EnableProsodyAssessment. Adicionado na versão 1.33.0.
PronunciationAssessment_Json A cadeia de caracteres json dos parâmetros de avaliação de pronúncia Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_Params Parâmetros de avaliação da pronúncia. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.14.0.
PronunciationAssessment_ContentTopic O tópico de conteúdo da avaliação de pronúncia. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Adicionado na versão 1.33.0.
SpeakerRecognition_Api_Version Versão da API de back-end de reconhecimento de alto-falante. Esta propriedade é adicionada para permitir o teste e o uso de versões anteriores das APIs de reconhecimento de alto-falante, quando aplicável. Adicionado na versão 1.18.0.
SpeechTranslation_ModelName O nome de um modelo a ser usado para tradução de fala. Não use esta propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.
SpeechTranslation_ModelKey Esta propriedade foi preterida.
KeywordRecognition_ModelName O nome de um modelo a ser usado para reconhecimento de palavras-chave. Não use esta propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.
KeywordRecognition_ModelKey Esta propriedade foi preterida.
EmbeddedSpeech_EnablePerformanceMetrics Habilite a coleta de métricas de desempenho de fala incorporadas que podem ser usadas para avaliar a capacidade de um dispositivo de usar fala incorporada. Os dados recolhidos são incluídos nos resultados de cenários específicos, como o reconhecimento de voz. A configuração padrão é "false". Observe que as métricas podem não estar disponíveis em todos os cenários de fala incorporados.
SpeechSynthesisRequest_Pitch O tom do discurso sintetizado.
SpeechSynthesisRequest_Rate A taxa da fala sintetizada.
SpeechSynthesisRequest_Volume O volume da fala sintetizada.

Define ids de propriedade de fala. Alterado na versão 1.4.0.

enum OutputFormat

Valores Descrições
Simples
Detalhado

Formato de saída.

enum ProfanityOption

Valores Descrições
Mascarado Substitui letras em palavras profanas por caracteres estrelados.
Removido Remove palavras profanas.
Cru Não faz nada para profanar palavras.

Remove palavrões (palavrões) ou substitui letras de palavras profanas por estrelas. Adicionado na versão 1.5.0.

enum ResultReason

Valores Descrições
NoMatch Indica que a fala não pôde ser reconhecida. Mais detalhes podem ser encontrados no objeto NoMatchDetails.
Cancelado Indica que o reconhecimento foi cancelado. Mais detalhes podem ser encontrados usando o objeto CancellationDetails.
ReconhecendoFala Indica que o resultado da fala contém texto de hipótese.
RecognizedSpeech Indica que o resultado da fala contém o texto final que foi reconhecido. O Reconhecimento de Fala está agora completo para esta frase.
Reconhecendo a intenção Indica que o resultado da intenção contém texto da hipótese e intenção.
Intenção reconhecida Indica que o resultado da intenção contém o texto final e a intenção. O Reconhecimento de Fala e a determinação da Intenção estão agora completos para esta frase.
TraduzindoFala Indica que o resultado da tradução contém texto de hipótese e sua(s) tradução(ões).
Discurso Traduzido Indica que o resultado da tradução contém o texto final e a(s) tradução(ões) correspondente(s). O Reconhecimento de Fala e a Tradução estão agora completos para esta frase.
SintetizandoÁudio Indica que o resultado de áudio sintetizado contém uma quantidade diferente de zero de dados de áudio.
SynthesizingAudioCompleted Indica que o áudio sintetizado está agora completo para esta frase.
RecognizingKeyword Indica que o resultado da fala contém texto de palavra-chave (não verificado). Adicionado na versão 1.3.0.
RecognizedKeyword Indica que o reconhecimento de palavra-chave foi concluído reconhecendo a palavra-chave fornecida. Adicionado na versão 1.3.0.
SynthesizingAudioStarted Indica que a síntese de fala foi iniciada Adicionado na versão 1.4.0.
TraduzindoParticipanteDiscurso Indica que o resultado da transcrição contém texto de hipótese e sua(s) tradução(ões) para outros participantes da conversa. Adicionado na versão 1.8.0.
TraduzidoParticipanteDiscurso Indica que o resultado da transcrição contém o texto final e a(s) tradução(ões) correspondente(s) para outros participantes na conversa. O Reconhecimento de Fala e a Tradução estão agora completos para esta frase. Adicionado na versão 1.8.0.
TranslatedInstantMessage Indica que o resultado da transcrição contém a mensagem instantânea e a(s) tradução(ões) correspondente(s). Adicionado na versão 1.8.0.
TranslatedParticipantInstantMessage Indica que o resultado da transcrição contém a mensagem instantânea para outros participantes da conversa e a(s) tradução(ões) correspondente(s). Adicionado na versão 1.8.0.
Inscrever-seVoiceProfile Indica que o perfil de voz está sendo registrado e os clientes precisam enviar mais áudio para criar um perfil de voz. Adicionado na versão 1.12.0.
EnroladoVoiceProfile O perfil de voz foi inscrito. Adicionado na versão 1.12.0.
RecognizedSpeakers Indica a identificação bem-sucedida de alguns oradores. Adicionado na versão 1.12.0.
RecognizedSpeaker Indica um alto-falante verificado com sucesso. Adicionado na versão 1.12.0.
ResetVoiceProfile Indica que um perfil de voz foi redefinido com êxito. Adicionado na versão 1.12.0.
DeletedVoiceProfile Indica que um perfil de voz foi excluído com êxito. Adicionado na versão 1.12.0.
VoicesListRecuperado Indica que a lista de vozes foi recuperada com êxito. Adicionado na versão 1.16.0.

Especifica os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado.

enum CancelamentoMotivo

Valores Descrições
Erro Indica que ocorreu um erro durante o reconhecimento de fala.
EndOfStream Indica que o fim do fluxo de áudio foi atingido.
CancelledByUser Indica que a solicitação foi cancelada pelo usuário. Adicionado na versão 1.14.0.

Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.

enum CancellationErrorCode

Valores Descrições
NãoErro Sem erro. Se CancellationReason for EndOfStream, CancellationErrorCode será definido como NoError.
AuthenticationFailure Indica um erro de autenticação. Um erro de autenticação ocorre se a chave de assinatura ou o token de autorização for inválido, expirado ou não corresponder à região que está sendo usada.
BadRequest Indica que um ou mais parâmetros de reconhecimento são inválidos ou que o formato de áudio não é suportado.
MuitosPedidos Indica que o número de solicitações paralelas excedeu o número de transcrições simultâneas permitidas para a assinatura.
Proibido Indica que a assinatura gratuita usada pela solicitação ficou sem cota.
Falha de conexão Indica um erro de conexão.
ServiceTimeout Indica um erro de tempo limite ao aguardar resposta do serviço.
Erro de serviço Indica que um erro é retornado pelo serviço.
ServiçoIndisponível Indica que o serviço está indisponível no momento.
RuntimeError Indica um erro de tempo de execução inesperado.
ServiceRedirectTemporary Indica que o Serviço de Fala está solicitando temporariamente uma reconexão com um ponto de extremidade diferente.
ServiceRedirectPermanent Indica que o Serviço de Fala está solicitando permanentemente uma reconexão com um ponto de extremidade diferente.
EmbeddedModelError Indica que o modelo de fala incorporado (SR ou TTS) não está disponível ou corrompido.

Define o código de erro no caso de CancellationReason ser Error. Adicionado na versão 1.1.0.

enum NoMatchReason

Valores Descrições
Não reconhecido Indica que a fala foi detetada, mas não reconhecida.
InitialSilenceTimeout Indica que o início do fluxo de áudio continha apenas silêncio e que o serviço atingiu o tempo limite de espera pela fala.
InitialBabbleTimeout Indica que o início do fluxo de áudio continha apenas ruído e que o serviço atingiu o tempo limite de espera pela fala.
Palavra-chaveNotRecognized Indica que a palavra-chave identificada foi rejeitada pelo serviço de verificação de palavra-chave. Adicionado na versão 1.5.0.
EndSilenceTimeout Indica que o fluxo de áudio continha apenas silêncio após a última frase reconhecida.

Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.

enum AtividadeJSONTipe

Valores Descrições
Nulo
Objeto
Matriz
String
Duplo
UInt
Int
Booleano

Define os tipos possíveis para um valor json de atividade. Adicionado na versão 1.5.0.

enum SpeechSynthesisOutputFormat

Valores Descrições
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-sirene Não suportado pelo serviço. Não utilize este valor.
Áudio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-sirene Não suportado pelo serviço. Não utilize este valor.
Áudio16Khz32KBitRateMonoMp3 áudio-16kHz-32Kbitrate-mono-mp3
Áudio16Khz128KBitRateMonoMp3 áudio-16khz-128kbitrate-mono-mp3
Áudio16Khz64KBitRateMonoMp3 áudio-16khz-64kbitrate-mono-mp3
Áudio24Khz48KBitRateMonoMp3 áudio-24khz-48kbitrate-mono-mp3
Áudio24Khz96KBitRateMonoMp3 áudio-24khz-96kbitrate-mono-mp3
Áudio24Khz160KBitRateMonoMp3 áudio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm RAW-24KHZ-16bit-mono-PCM
Raw8Khz16BitMonoPcm RAW-8KHz-16bit-mono-PCM
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Áudio48Khz96KBitRateMonoMp3 áudio-48khz-96kbitrate-mono-mp3
Áudio48Khz192KBitRateMonoMp3 áudio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Adicionado na versão 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Adicionado na versão 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Adicionado na versão 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Adicionado na versão 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Adicionado na versão 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Adicionado na versão 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Áudio comprimido pelo codec OPUS num contentor WebM, com taxa de bits de 24kbps, otimizado para o cenário IoT. (Acrescentado ao ponto 1.19.0.)
Áudio16Khz16Bit32KbpsMonoOpus áudio-16khz-16bit-32kbps-mono-opus Áudio comprimido por codec OPUS sem recipiente, com bitrate de 32kbps. (Acrescentado no ponto 1.20.0)
Áudio24Khz16Bit48KbpsMonoOpus áudio-24khz-16bit-48kbps-mono-opus Áudio comprimido por codec OPUS sem recipiente, com bitrate de 48kbps. (Acrescentado no ponto 1.20.0)
Áudio24Khz16Bit24KbpsMonoOpus áudio-24khz-16bit-24kbps-mono-opus Áudio comprimido por codec OPUS sem recipiente, com bitrate de 24kbps. (Acrescentado no ponto 1.20.0)
Raw22050Hz16BitMonoPcm RAW-22050HZ-16bit-mono-pcm Áudio PCM bruto a uma taxa de amostragem de 22050Hz e profundidade de 16 bits. (Acrescentado ao ponto 1.22.0.)
Riff22050Hz16BitMonoPcm Áudio PCM riff-22050hz-16bit-mono-pcm a uma taxa de amostragem de 22050Hz e profundidade de 16 bits, com conector RIFF. (Acrescentado ao ponto 1.22.0.)
Raw44100Hz16BitMonoPcm RAW-44100HZ-16bit-mono-pcm Áudio PCM bruto a uma taxa de amostragem de 44100Hz e profundidade de 16 bits. (Acrescentado ao ponto 1.22.0.)
Riff44100Hz16BitMonoPcm Áudio PCM riff-44100hz-16bit-mono-pcm a uma taxa de amostragem de 44100Hz e profundidade de 16 bits, com conector RIFF. (Acrescentado ao ponto 1.22.0.)
AmrWb16000Hz amr-wb-16000hz AMR-WB áudio a uma taxa de amostragem de 16kHz. (Acrescentado no ponto 1.24.0)
G72216Khz64Kbps Áudio G.722-16khz-64kbps G.722 a uma taxa de amostragem de 16kHz e bitrate de 64kbps. (Acrescentado no ponto 1.38.0)

Define os possíveis formatos de saída de saída de síntese de fala. Atualizado na versão 1.19.0.

enum StreamStatus

Valores Descrições
Desconhecido O status do fluxo de dados de áudio é desconhecido.
NoData O fluxo de dados de áudio não contém dados.
Dados parciais O fluxo de dados de áudio contém dados parciais de uma solicitação de fala.
Todos os dados O fluxo de dados de áudio contém todos os dados de um pedido de fala.
Cancelado O fluxo de dados de áudio foi cancelado.

Define o possível status do fluxo de dados de áudio. Adicionado na versão 1.4.0.

enum ServicePropertyChannel

Valores Descrições
UriQueryParameter Usa o parâmetro de consulta URI para passar as configurações de propriedade para o serviço.
Cabeçalho Http Usa HttpHeader para definir uma chave/valor em um cabeçalho HTTP.

Define os canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.5.0.

enum VoiceProfileType

Valores Descrições
TextIndependentIdentification Identificação do orador independente do texto.
TextDependentVerification Verificação do orador dependente do texto.
TextIndependentVerification Verificação independente de texto.

Define tipos de perfil de voz.

enum RecognitionFactorScope

Valores Descrições
FraseParcial Um Fator de Reconhecimento será aplicado a gramáticas que podem ser referenciadas como frases parciais individuais.

Define o escopo ao qual um Fator de Reconhecimento é aplicado.

enum PronúnciaAvaliaçãoClassificaçãoSistema

Valores Descrições
Cinco Pontos Calibração de cinco pontos.
Cem Marcos Cem marcas.

Define o sistema de pontos para calibração da pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.14.0.

pronúncia de enumAvaliaçãoGranularidade

Valores Descrições
Fonema Mostra a pontuação no nível de texto completo, palavra e fonema.
Palavra Mostra a pontuação no nível de texto completo e palavra.
Texto Integral Mostra a pontuação apenas no nível de texto completo.

Define a granularidade da avaliação da pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.14.0.

enum SynthesisVoiceType

Valores Descrições
OnlineNeural Voz neural online.
OnlineStandard Voz padrão online.
OfflineNeural Voz neural offline.
OfflineStandard Voz padrão offline.

Define o tipo de vozes de síntese adicionadas na versão 1.16.0.

enum SínteseVozGénero

Valores Descrições
Desconhecido Sexo desconhecido.
Feminino Voz feminina.
Masculino Voz masculina.

Define o gênero das vozes de síntese Adicionado na versão 1.17.0.

enum SpeechSynthesisBoundaryType

Valores Descrições
Palavra Limite de palavras.
Pontuação Limite de pontuação.
Sentença Limite da sentença.

Define o tipo de limite do evento limite de síntese de fala Adicionado na versão 1.21.0.

enum SegmentaçãoEstratégia

Valores Descrições
Inadimplência Use a estratégia e as configurações padrão conforme determinado pelo Serviço de Fala. Use na maioria das situações.
Hora Usa uma estratégia baseada no tempo onde a quantidade de silêncio entre a fala é usada para determinar quando gerar um resultado final.
Semântica Usa um modelo de IA para dissuadir o final de uma frase falada com base no conteúdo da frase.

A estratégia usada para determinar quando uma frase falada terminou e um resultado final reconhecido deve ser gerado. Os valores permitidos são "Default", "Time" e "Semantic".