Partilhar via


PropertyId enum

Define ids de propriedade de fala.

Campos

SpeechServiceConnection_Key = 0

A chave de subscrição do Serviço de Voz dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade LUIS para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

O ponto de extremidade (url) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromEndpoint. NOTA: Este ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso.

SpeechServiceConnection_Region = 2

A região do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromSubscription, SpeechConfig.fromEndpointSpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromAuthorizationToken , SpeechRecognizer.authorizationToken , IntentRecognizer.authorizationToken , TranslationRecognizer.authorizationTokenSpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

O tipo de autorização do Serviço de Fala dos Serviços Cognitivos. Atualmente não utilizado.

SpeechServiceConnection_EndpointId = 5

O ID do ponto de extremidade do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.endpointId. NOTA: O ID do ponto de extremidade está disponível no Portal de Fala, listado em Detalhes do Ponto de Extremidade.

SpeechServiceConnection_TranslationToLanguages = 6

A lista de línguas separadas por vírgulas (formato BCP-47) utilizadas como línguas de tradução de destino. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig.addTargetLanguage SpeechTranslationConfig.targetLanguages TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

O nome do Serviço Cognitivo Text to Speech Service Voice. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig.voiceName. NOTA: Nomes de voz válidos podem ser encontrados aqui.

SpeechServiceConnection_TranslationFeatures = 8

Recursos de tradução.

SpeechServiceConnection_IntentRegion = 9

A Região do Serviço de Compreensão de Idiomas. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Apenas relevante em ambientes Node.js. Você não deve ter que usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0.

SpeechServiceConnection_ProxyPort = 11

A porta do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Apenas relevante em ambientes Node.js. Você não deve ter que usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0.

SpeechServiceConnection_ProxyUserName = 12

O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Apenas relevante em ambientes Node.js. Você não deve ter que usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0.

SpeechServiceConnection_ProxyPassword = 13

A senha do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Apenas relevante em ambientes Node.js. Você não deve ter que usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0.

SpeechServiceConnection_RecoMode = 14

O Modo de Reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente.

SpeechServiceConnection_RecoLanguage = 15

A língua falada a ser reconhecida (no formato BCP-47). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

O id da sessão. Este id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma ligação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ele está vinculado. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

A língua falada a ser sintetizada (por exemplo, en-US)

SpeechServiceConnection_SynthVoice = 18

O nome da voz TTS a ser usada para síntese de fala

SpeechServiceConnection_SynthOutputFormat = 19

A cadeia de caracteres para especificar o formato de áudio de saída TTS

SpeechServiceConnection_AutoDetectSourceLanguages = 20

A lista de idiomas separados por vírgulas usados como possíveis idiomas de origem Adicionado na versão 1.13.0

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

A resposta solicitada do Serviço de Fala dos Serviços Cognitivos produz o nível de palavrões. Atualmente não utilizado.

SpeechServiceResponse_JsonResult = 23

A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Esta propriedade está disponível apenas em objetos de resultado de reconhecimento.

SpeechServiceResponse_JsonErrorDetails = 24

Os detalhes do erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

O motivo do cancelamento. Atualmente não utilizado.

CancellationDetails_ReasonText = 26

O texto de cancelamento. Atualmente não utilizado.

CancellationDetails_ReasonDetailedText = 27

O texto detalhado do cancelamento. Atualmente não utilizado.

LanguageUnderstandingServiceResponse_JsonResult = 28

A saída de resposta do Language Understanding Service (no formato JSON). Disponível via IntentRecognitionResult

SpeechServiceConnection_Url = 29

A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. NOTA: Adicionado na versão 1.7.0.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

O valor de tempo limite de silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Uma duração de silêncio detetado, medida em milissegundos, após a qual a fala para o texto determinará que uma frase falada terminou e gerará um resultado final Reconhecido. A configuração desse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou lenta do que o habitual e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou curtos. Valores de tempo limite de segmentação que são inadequadamente altos ou baixos podem afetar negativamente a precisão de fala para texto; Essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser completamente validado conforme pretendido.

Para obter mais informações sobre a configuração de tempo limite que inclui discussão sobre comportamentos padrão, visite https://aka.ms/csspeech/timeouts.

Adicionado na versão 1.21.0.

Speech_SegmentationMaximumTimeMs = 33

SegmentationMaximumTimeMs representa o comprimento máximo de uma frase falada ao usar a estratégia de segmentação de tempo. À medida que o comprimento de uma frase falada se aproxima deste valor, o

Speech_SegmentationStrategy = 34

SegmentationStrategy define a estratégia usada para determinar quando uma frase falada terminou e um resultado final reconhecido deve ser gerado. Os valores permitidos são "Default", "Time" e "Semantic".

Valores válidos:

  • "Padrão": usa a estratégia e as configurações padrão conforme determinado pelo Serviço de Fala. Adequado para a maioria das situações.
  • "Tempo": Usa uma estratégia baseada no tempo onde a quantidade de silêncio entre a fala determina quando gerar um resultado final.
  • "Semântica": Usa um modelo de IA para determinar o final de uma frase falada com base no conteúdo da frase.

Notas adicionais:

  • Ao usar a estratégia Time,
SpeechServiceConnection_EnableAudioLogging = 35

Um valor booleano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura de Serviços Cognitivos (recurso de fala habilitado para Bring Your Own Storage (BYOS)). Os logs serão removidos após 30 dias. Adicionado na versão 1.7.0

SpeechServiceConnection_LanguageIdMode = 36

O modo de identificador de idioma de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Consulte o documento de identificação de idioma https://aka.ms/speech/lid?pivots=programming-language-javascript para obter mais detalhes. Adicionado em 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 37

Um valor de cadeia de caracteres que representa a versão de ponto de extremidade desejada para o Reconhecimento de Fala. Adicionado na versão 1.21.0

SpeechServiceConnection_SpeakerIdMode = 38

/**

  • Um valor de cadeia de caracteres o cenário/modo de reconhecimento de alto-falante atual (TextIndependentIdentification, etc.).
  • Adicionado na versão 1.23.0
SpeechServiceResponse_ProfanityOption = 39

A resposta solicitada do Serviço de Fala dos Serviços Cognitivos produz uma configuração de palavrões. Os valores permitidos são "mascarado", "removido" e "bruto". Adicionado na versão 1.7.0.

SpeechServiceResponse_PostProcessingOption = 40

Um valor de cadeia de caracteres especificando qual opção de pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 41

Um valor booleano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 42

O número de vezes que uma palavra tem de estar em resultados parciais para ser devolvida. Adicionado na versão 1.7.0

SpeechServiceResponse_OutputFormatOption = 43

Um valor de cadeia de caracteres especificando a opção de formato de saída no resultado da resposta. Apenas para uso interno. Adicionado na versão 1.7.0.

SpeechServiceResponse_TranslationRequestStablePartialResult = 44

Um valor booleano para solicitar a estabilização dos resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.7.0.

SpeechServiceResponse_RequestWordBoundary = 45

Um valor booleano que especifica se os eventos WordBoundary devem ser solicitados.

SpeechServiceResponse_RequestPunctuationBoundary = 46

Um valor booleano que especifica se o limite de pontuação deve ser solicitado em eventos WordBoundary . O padrão é true.

SpeechServiceResponse_RequestSentenceBoundary = 47

Um valor booleano que especifica se a solicitação de limite de frase deve ser solicitada em eventos WordBoundary . O padrão é false.

SpeechServiceResponse_DiarizeIntermediateResults = 48

Determina se os resultados intermediários contêm a identificação do alto-falante. Os valores permitidos são "true" ou "false". Se definido como "true", os resultados intermediários conterão a identificação do alto-falante. O valor padrão se unset ou definido como um valor inválido é "false". Atualmente, isso só é suportado para cenários que usam o ConversationTranscriber".

Conversation_ApplicationId = 49

Identificador usado para se conectar ao serviço de back-end.

Conversation_DialogType = 50

Tipo de back-end de diálogo ao qual se conectar.

Conversation_Initial_Silence_Timeout = 51

Tempo limite de silêncio para ouvir

Conversation_From_Id = 52

De Id para adicionar às atividades de reconhecimento de fala.

Conversation_Conversation_Id = 53

ConversationId para a sessão.

Conversation_Custom_Voice_Deployment_Ids = 54

Lista separada por vírgulas de ids de implantação de voz personalizadas.

Conversation_Speech_Activity_Template = 55

Modelo de atividade de fala, carimbar propriedades do modelo na atividade gerada pelo serviço para fala.

Conversation_Request_Bot_Status_Messages = 56

Habilita ou desabilita o recebimento de mensagens de status de turno conforme obtido no evento turnStatusReceived.

Conversation_Agent_Connection_Id = 57

Especifica o ID de conexão a ser fornecido na mensagem de configuração do Agente, por exemplo, um token de Linha Direta para autenticação de canal. Adicionado na versão 1.15.1.

SpeechServiceConnection_Host = 58

O host do Serviço de Fala dos Serviços Cognitivos (url). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromHost.

ConversationTranslator_Host = 59

Defina o host para chamadas de serviço para o gerenciamento REST do Conversador de Conversação e chamadas websocket.

ConversationTranslator_Name = 60

Opcionalmente, defina o nome de exibição do host. Usado ao participar de uma conversa.

ConversationTranslator_CorrelationId = 61

Opcionalmente, defina um valor para o cabeçalho da solicitação X-CorrelationId. Usado para solucionar erros nos logs do servidor. Deve ser um guid válido.

ConversationTranslator_Token = 62

Defina o token de conversação a ser enviado para o serviço de voz. Isso permite que o serviço atenda chamadas do serviço de fala para o serviço Conversador de Conversação para retransmitir reconhecimentos. Para uso interno.

PronunciationAssessment_ReferenceText = 63

O texto de referência do áudio para avaliação da pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters para obter detalhes. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Adicionado na versão 1.15.0

PronunciationAssessment_GradingSystem = 64

O sistema de pontos para calibração da pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Adicionado na versão 1.15.0

PronunciationAssessment_Granularity = 65

A granularidade da avaliação da pronúncia (Fonema, Word ou Texto Completo). Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Adicionado na versão 1.15.0

PronunciationAssessment_EnableMiscue = 66

Define se habilitar o cálculo incorreto. Com isso habilitado, as palavras pronunciadas serão comparadas com o texto de referência, e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é False. Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Adicionado na versão 1.15.0

PronunciationAssessment_Json = 67

A cadeia de caracteres json dos parâmetros de avaliação de pronúncia Em circunstâncias normais, você não deve ter que usar essa propriedade diretamente. Adicionado na versão 1.15.0

PronunciationAssessment_Params = 68

Parâmetros de avaliação da pronúncia. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.15.0

SpeakerRecognition_Api_Version = 69

Versão da API de reconhecimento de alto-falante a ser usada. Adicionado na versão 1.18.0

WebWorkerLoadType = 70

Especifica se deve permitir o carregamento de dados URL para web worker Os valores permitidos são "off" e "on". O padrão é "on". Adicionado na versão 1.32.0

TalkingAvatarService_WebRTC_SDP = 71

Protocolo de descrição de sessão WebRTC do serviço de avatar falante. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.33.0