PropertyId enum
Define ids de propriedade de fala.
Campos
SpeechServiceConnection_Key = 0 | A chave de assinatura do Serviço de Fala dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade do LUIS para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromSubscription. |
SpeechServiceConnection_Endpoint = 1 | O ponto de extremidade do Serviço de Fala dos Serviços Cognitivos (URL). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromEndpoint. OBSERVAÇÃO: esse ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso. |
SpeechServiceConnection_Region = 2 | A região do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken. |
SpeechServiceAuthorization_Token = 3 | O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken. |
SpeechServiceAuthorization_Type = 4 | O tipo de autorização do Serviço de Fala dos Serviços Cognitivos. Atualmente não utilizado. |
SpeechServiceConnection_EndpointId = 5 | A ID do ponto de extremidade do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.endpointId. OBSERVAÇÃO: a ID do ponto de extremidade está disponível no Portal de Fala, listado em Detalhes do Ponto de Extremidade. |
SpeechServiceConnection_TranslationToLanguages = 6 | A lista de idiomas separados por vírgulas (formato BCP-47) usada como idiomas de tradução de destino. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages. |
SpeechServiceConnection_TranslationVoice = 7 | O nome do Texto do Serviço Cognitivo para a Voz do Serviço de Fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig.voiceName. OBSERVAÇÃO: Nomes de voz válidos podem ser encontrados aqui. |
SpeechServiceConnection_TranslationFeatures = 8 | Recursos de tradução. |
SpeechServiceConnection_IntentRegion = 9 | A região do Serviço de Reconhecimento Vocal. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel. |
SpeechServiceConnection_ProxyHostName = 10 | O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Somente relevante em ambientes Node.js. Você não deve usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_ProxyPort = 11 | A porta do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Somente relevante em ambientes Node.js. Você não deve usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_ProxyUserName = 12 | O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Somente relevante em ambientes Node.js. Você não deve usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_ProxyPassword = 13 | A senha do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Somente relevante em ambientes Node.js. Você não deve usar essa propriedade diretamente. Em vez disso, use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_RecoMode = 14 | O modo de reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. |
SpeechServiceConnection_RecoLanguage = 15 | O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.speechRecognitionLanguage. |
Speech_SessionId = 16 | A ID da sessão. Essa ID é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma associação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ela está associada. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SessionEventArgs.sessionId. |
SpeechServiceConnection_SynthLanguage = 17 | A linguagem falada a ser sintetizada (por exemplo, en-US) |
SpeechServiceConnection_SynthVoice = 18 | O nome da voz TTS a ser usada para síntese de fala |
SpeechServiceConnection_SynthOutputFormat = 19 | A cadeia de caracteres para especificar o formato de áudio de saída do TTS |
SpeechServiceConnection_AutoDetectSourceLanguages = 20 | A lista de idiomas separados por vírgulas usados como possíveis idiomas de origem adicionados na versão 1.13.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse = 21 | O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.outputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22 | O nível de profanidade de saída da resposta do Serviço de Fala dos Serviços Cognitivos solicitado. Atualmente não utilizado. |
SpeechServiceResponse_JsonResult = 23 | A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Essa propriedade está disponível somente em objetos de resultado de reconhecimento. |
SpeechServiceResponse_JsonErrorDetails = 24 | Os detalhes de erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use CancellationDetails.errorDetails. |
CancellationDetails_Reason = 25 | O motivo do cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonText = 26 | O texto de cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonDetailedText = 27 | O texto detalhado do cancelamento. Atualmente não utilizado. |
LanguageUnderstandingServiceResponse_JsonResult = 28 | A saída de resposta do Serviço de Reconhecimento Vocal (no formato JSON). Disponível via IntentRecognitionResult |
SpeechServiceConnection_Url = 29 | A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. OBSERVAÇÃO: adicionado na versão 1.7.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs = 30 | O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.7.0 |
SpeechServiceConnection_EndSilenceTimeoutMs = 31 | O valor do tempo limite do silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.7.0 |
Speech_SegmentationSilenceTimeoutMs = 32 | Uma duração do silêncio detectado, medida em milissegundos, após a qual a conversão de fala em texto determinará que uma frase falada terminou e gerará um resultado reconhecido final. Configurar esse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o normal e o comportamento de segmentação padrão produz consistentemente resultados que são muito longos ou muito curtos. Valores de tempo limite de segmentação inadequadamente altos ou baixos podem afetar negativamente a precisão de fala em texto; essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser validado minuciosamente conforme o esperado. Para obter mais informações sobre a configuração de tempo limite que inclui discussão sobre comportamentos padrão, visite https://aka.ms/csspeech/timeouts. Adicionado na versão 1.21.0. |
SpeechServiceConnection_EnableAudioLogging = 33 | Um valor booliano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada ao recurso de Fala habilitado para ByOS (Traga Seu Próprio Armazenamento). Os logs serão removidos após 30 dias. Adicionado na versão 1.7.0 |
SpeechServiceConnection_LanguageIdMode = 34 | O modo de identificador de linguagem de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Consulte o documento de Identificação de Idioma https://aka.ms/speech/lid?pivots=programming-language-javascript para obter mais detalhes. Adicionado em 1.25.0 |
SpeechServiceConnection_RecognitionEndpointVersion = 35 | Um valor de cadeia de caracteres que representa a versão de ponto de extremidade desejada a ser direcionada para o Reconhecimento de Fala. Adicionado na versão 1.21.0 |
SpeechServiceConnection_SpeakerIdMode = 36 | /**
|
SpeechServiceResponse_ProfanityOption = 37 | A configuração de profanidade de saída da resposta do Serviço de Fala dos Serviços Cognitivos solicitada. Os valores permitidos são "mascarados", "removidos" e "brutos". Adicionado na versão 1.7.0. |
SpeechServiceResponse_PostProcessingOption = 38 | Um valor de cadeia de caracteres que especifica qual opção de pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.7.0 |
SpeechServiceResponse_RequestWordLevelTimestamps = 39 | Um valor booliano que especifica se os carimbos de data/hora de nível de palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.7.0 |
SpeechServiceResponse_StablePartialResultThreshold = 40 | O número de vezes que uma palavra precisa estar em resultados parciais a serem retornados. Adicionado na versão 1.7.0 |
SpeechServiceResponse_OutputFormatOption = 41 | Um valor de cadeia de caracteres que especifica a opção de formato de saída no resultado da resposta. Somente uso interno. Adicionado na versão 1.7.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult = 42 | Um valor booliano a ser solicitado para estabilizar os resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.7.0. |
SpeechServiceResponse_RequestWordBoundary = 43 | Um valor booliano que especifica se os eventos WordBoundary devem ser solicitados. |
SpeechServiceResponse_RequestPunctuationBoundary = 44 | Um valor booliano que especifica se o limite de pontuação deve ser solicitado em Eventos WordBoundary. O padrão é verdadeiro. |
SpeechServiceResponse_RequestSentenceBoundary = 45 | Um valor booliano que especifica se o limite de sentença deve ser solicitado em Eventos WordBoundary. O padrão é false. |
SpeechServiceResponse_DiarizeIntermediateResults = 46 | Determina se os resultados intermediários contêm identificação do locutor. Os valores permitidos são "true" ou "false". Se definido como "true", os resultados intermediários conterão a identificação do locutor. O valor padrão se não definido ou definido como um valor inválido for "false". Atualmente, só há suporte para cenários usando o ConversationTranscriber". |
Conversation_ApplicationId = 47 | Identificador usado para se conectar ao serviço de back-end. |
Conversation_DialogType = 48 | Tipo de back-end de caixa de diálogo ao qual se conectar. |
Conversation_Initial_Silence_Timeout = 49 | Tempo limite do silêncio para ouvir |
Conversation_From_Id = 50 | Da ID para adicionar às atividades de reconhecimento de fala. |
Conversation_Conversation_Id = 51 | ConversationId para a sessão. |
Conversation_Custom_Voice_Deployment_Ids = 52 | Lista separada por vírgulas de IDs de implantação de voz personalizada. |
Conversation_Speech_Activity_Template = 53 | Modelo de atividade de fala, propriedades de carimbo do modelo na atividade gerada pelo serviço de fala. |
Conversation_Request_Bot_Status_Messages = 54 | Habilita ou desabilita o recebimento de mensagens de status de turno conforme obtido no evento turnStatusReceived. |
Conversation_Agent_Connection_Id = 55 | Especifica a ID de conexão a ser fornecida na mensagem de configuração do Agente, por exemplo, um token de Linha Direta para autenticação de canal. Adicionado na versão 1.15.1. |
SpeechServiceConnection_Host = 56 | O host (URL) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromHost. |
ConversationTranslator_Host = 57 | Defina o host para chamadas de serviço para o gerenciamento REST do Tradutor de Conversa e chamadas websocket. |
ConversationTranslator_Name = 58 | Opcionalmente, defina o nome de exibição do host. Usado ao ingressar em uma conversa. |
ConversationTranslator_CorrelationId = 59 | Opcionalmente, defina um valor para o cabeçalho de solicitação X-CorrelationId. Usado para solucionar problemas de erros nos logs do servidor. Deve ser um guid válido. |
ConversationTranslator_Token = 60 | Defina o token de conversa a ser enviado para o serviço de fala. Isso permite que o serviço atende a chamada do serviço de fala para o serviço tradutor de conversa para retransmissão de reconhecimentos. Para uso interno. |
PronunciationAssessment_ReferenceText = 61 | O texto de referência do áudio para avaliação de pronúncia. Para obter esse e os seguintes parâmetros de avaliação de pronúncia, consulte https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters para obter detalhes. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_GradingSystem = 62 | O sistema de pontos para calibragem de pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_Granularity = 63 | A granularidade da avaliação de pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_EnableMiscue = 64 | Define se habilitar o cálculo de erro. Com isso habilitado, as palavras pronunciadas serão comparadas ao texto de referência e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é False. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_Json = 65 | A cadeia de caracteres json dos parâmetros de avaliação de pronúncia em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_Params = 66 | Parâmetros de avaliação de pronúncia. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.15.0 |
SpeakerRecognition_Api_Version = 67 | Versão da API de Reconhecimento do Locutor a ser usada. Adicionado na versão 1.18.0 |
WebWorkerLoadType = 68 | Especifica se a carga de URL de dados para o trabalho Web de valores permitidos está "desativada" e "ativada". O padrão é "ativado". Adicionado na versão 1.32.0 |
TalkingAvatarService_WebRTC_SDP = 69 | Protocolo de descrição da sessão WebRTC do serviço de avatar falante. Esta propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.33.0 |