PropertyId enum
Definisce gli ID proprietà voce.
Campi
SpeechServiceConnection_Key = 0 | Chiave di sottoscrizione del servizio Di riconoscimento vocale di Servizi cognitivi. Se si usa un sistema di riconoscimento finalità, è necessario specificare la chiave dell'endpoint LUIS per la specifica app LUIS. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.fromSubscription. |
SpeechServiceConnection_Endpoint = 1 | Endpoint del servizio Voce di Servizi cognitivi (URL). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.fromEndpoint. NOTA: questo endpoint non corrisponde all'endpoint usato per ottenere un token di accesso. |
SpeechServiceConnection_Region = 2 | Area del Servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken. |
SpeechServiceAuthorization_Token = 3 | Token di autorizzazione del Servizio di riconoscimento vocale di Servizi cognitivi (noto anche come token di accesso). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken. |
SpeechServiceAuthorization_Type = 4 | Tipo di autorizzazione del Servizio di riconoscimento vocale di Servizi cognitivi. Attualmente inutilizzato. |
SpeechServiceConnection_EndpointId = 5 | ID endpoint servizio Voce di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.endpointId. NOTA: l'ID endpoint è disponibile nel portale voce, elencato in Dettagli endpoint. |
SpeechServiceConnection_TranslationToLanguages = 6 | Elenco di lingue separate da virgole (formato BCP-47) usate come lingue di traduzione di destinazione. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages. |
SpeechServiceConnection_TranslationVoice = 7 | Nome del servizio cognitivo Text to Speech Service Voice. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig.voiceName. NOTA: i nomi di voce validi sono disponibili qui. |
SpeechServiceConnection_TranslationFeatures = 8 | Funzionalità di traduzione. |
SpeechServiceConnection_IntentRegion = 9 | Area del servizio Language Understanding. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece LanguageUnderstandingModel. |
SpeechServiceConnection_ProxyHostName = 10 | Nome host del server proxy usato per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. È rilevante solo negli ambienti Node.js. Non è necessario usare direttamente questa proprietà. Usare invece . Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_ProxyPort = 11 | Porta del server proxy usata per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. È rilevante solo negli ambienti Node.js. Non è necessario usare direttamente questa proprietà. Usare invece . Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_ProxyUserName = 12 | Nome utente del server proxy usato per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. È rilevante solo negli ambienti Node.js. Non è necessario usare direttamente questa proprietà. Usare invece . Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_ProxyPassword = 13 | Password del server proxy usato per connettersi al Servizio di riconoscimento vocale di Servizi cognitivi. È rilevante solo negli ambienti Node.js. Non è necessario usare direttamente questa proprietà. Usare invece . Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_RecoMode = 14 | Modalità di riconoscimento del servizio voce di Servizi cognitivi. Può essere "INTERACTIVE", "CONVERSATION", "DICTATION". Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. |
SpeechServiceConnection_RecoLanguage = 15 | Lingua parlata da riconoscere (in formato BCP-47). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.speechRecognitionLanguage. |
Speech_SessionId = 16 | ID sessione. Questo ID è un identificatore univoco universale (noto anche come UUID) che rappresenta un'associazione specifica di un flusso di input audio e l'istanza di riconoscimento vocale sottostante a cui è associata. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SessionEventArgs.sessionId. |
SpeechServiceConnection_SynthLanguage = 17 | Lingua parlata da sintetizzare (ad esempio, en-US) |
SpeechServiceConnection_SynthVoice = 18 | Nome della voce TTS da usare per la sintesi vocale |
SpeechServiceConnection_SynthOutputFormat = 19 | Stringa per specificare il formato audio di output TTS |
SpeechServiceConnection_AutoDetectSourceLanguages = 20 | Elenco delle lingue separate da virgole usate come possibili lingue di origine aggiunte nella versione 1.13.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse = 21 | Formato di output della risposta del servizio voce di Servizi cognitivi richiesto (semplice o dettagliato). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.outputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22 | Livello di contenuto volgare dell'output della risposta del Servizio di riconoscimento vocale di Servizi cognitivi richiesto. Attualmente inutilizzato. |
SpeechServiceResponse_JsonResult = 23 | Output della risposta del servizio voce di Servizi cognitivi (in formato JSON). Questa proprietà è disponibile solo per gli oggetti risultato di riconoscimento. |
SpeechServiceResponse_JsonErrorDetails = 24 | Dettagli dell'errore del Servizio di riconoscimento vocale di Servizi cognitivi (in formato JSON). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece CancellationDetails.errorDetails. |
CancellationDetails_Reason = 25 | Motivo dell'annullamento. Attualmente inutilizzato. |
CancellationDetails_ReasonText = 26 | Testo di annullamento. Attualmente inutilizzato. |
CancellationDetails_ReasonDetailedText = 27 | Testo dettagliato annullamento. Attualmente inutilizzato. |
LanguageUnderstandingServiceResponse_JsonResult = 28 | Output della risposta del servizio Language Understanding (in formato JSON). Disponibile tramite IntentRecognitionResult |
SpeechServiceConnection_Url = 29 | Stringa url creata dalla configurazione del riconoscimento vocale. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. NOTA: aggiunta nella versione 1.7.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs = 30 | Valore di timeout del silenzio iniziale (in millisecondi) usato dal servizio. Aggiunta nella versione 1.7.0 |
SpeechServiceConnection_EndSilenceTimeoutMs = 31 | Valore di timeout del silenzio finale (in millisecondi) usato dal servizio. Aggiunta nella versione 1.7.0 |
Speech_SegmentationSilenceTimeoutMs = 32 | Durata del silenzio rilevato, misurata in millisecondi, dopo la quale la sintesi vocale determinerà la fine di una frase pronunciata e genererà un risultato riconosciuto finale. La configurazione di questo timeout può essere utile nelle situazioni in cui l'input parlato è notevolmente più veloce o più lento del solito e il comportamento di segmentazione predefinito produce risultati troppo lunghi o troppo brevi. I valori di timeout della segmentazione che sono inappropriati o bassi possono influire negativamente sull'accuratezza della sintesi vocale; questa proprietà deve essere configurata attentamente e il comportamento risultante deve essere convalidato accuratamente come previsto. Per altre informazioni sulla configurazione del timeout che include la discussione sui comportamenti predefiniti, vedere https://aka.ms/csspeech/timeouts. Aggiunta nella versione 1.21.0. |
SpeechServiceConnection_EnableAudioLogging = 33 | Valore booleano che specifica se la registrazione audio è abilitata o meno nel servizio. I log audio e del contenuto vengono archiviati nella risorsa di archiviazione di proprietà di Microsoft o nel proprio account di archiviazione collegato alla sottoscrizione di Servizi cognitivi (risorsa byos bring your own storage (BYOS) abilitata per il riconoscimento vocale. I log verranno rimossi dopo 30 giorni. Aggiunta nella versione 1.7.0 |
SpeechServiceConnection_LanguageIdMode = 34 | Modalità identificatore lingua di connessione del servizio voce. Può essere "AtStart" (impostazione predefinita) o "Continuous". Per altri dettagli, vedere il documento di identificazione della lingua https://aka.ms/speech/lid?pivots=programming-language-javascript. Aggiunta nella versione 1.25.0 |
SpeechServiceConnection_RecognitionEndpointVersion = 35 | Valore stringa che rappresenta la versione dell'endpoint desiderata di destinazione per il riconoscimento vocale. Aggiunta nella versione 1.21.0 |
SpeechServiceConnection_SpeakerIdMode = 36 | /**
|
SpeechServiceResponse_ProfanityOption = 37 | Impostazione di contenuto volgare dell'output della risposta di Servizi cognitivi richiesti. I valori consentiti sono "masked", "removed" e "raw". Aggiunta nella versione 1.7.0. |
SpeechServiceResponse_PostProcessingOption = 38 | Valore stringa che specifica quale opzione di post-elaborazione deve essere usata dal servizio. I valori consentiti sono "TrueText". Aggiunta nella versione 1.7.0 |
SpeechServiceResponse_RequestWordLevelTimestamps = 39 | Valore booleano che specifica se includere timestamp a livello di parola nel risultato della risposta. Aggiunta nella versione 1.7.0 |
SpeechServiceResponse_StablePartialResultThreshold = 40 | Numero di volte in cui una parola deve essere restituita in risultati parziali. Aggiunta nella versione 1.7.0 |
SpeechServiceResponse_OutputFormatOption = 41 | Valore stringa che specifica l'opzione di formato di output nel risultato della risposta. Solo uso interno. Aggiunta nella versione 1.7.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult = 42 | Valore booleano da richiedere la stabilizzazione dei risultati parziali della traduzione omettendo parole alla fine. Aggiunta nella versione 1.7.0. |
SpeechServiceResponse_RequestWordBoundary = 43 | Valore booleano che specifica se richiedere eventi WordBoundary. |
SpeechServiceResponse_RequestPunctuationBoundary = 44 | Valore booleano che specifica se richiedere il limite di punteggiatura negli eventi wordboundary. Il valore predefinito è true. |
SpeechServiceResponse_RequestSentenceBoundary = 45 | Valore booleano che specifica se richiedere il limite della frase in Eventi wordBoundary. Il valore predefinito è false. |
SpeechServiceResponse_DiarizeIntermediateResults = 46 | Determina se i risultati intermedi contengono l'identificazione della voce. I valori consentiti sono "true" o "false". Se impostato su "true", i risultati intermedi conterranno l'identificazione della voce. Il valore predefinito se unset o impostato su un valore non valido è "false". Questa opzione è attualmente supportata solo per gli scenari che usano ConversationTranscriber". |
Conversation_ApplicationId = 47 | Identificatore usato per connettersi al servizio back-end. |
Conversation_DialogType = 48 | Tipo di back-end della finestra di dialogo a cui connettersi. |
Conversation_Initial_Silence_Timeout = 49 | Timeout del silenzio per l'ascolto |
Conversation_From_Id = 50 | Da ID per aggiungere attività di riconoscimento vocale. |
Conversation_Conversation_Id = 51 | ConversationId per la sessione. |
Conversation_Custom_Voice_Deployment_Ids = 52 | Elenco delimitato da virgole di ID distribuzione vocale personalizzati. |
Conversation_Speech_Activity_Template = 53 | Modello di attività voce, proprietà stamp del modello sull'attività generata dal servizio per la voce. |
Conversation_Request_Bot_Status_Messages = 54 | Abilita o disabilita la ricezione dei messaggi di stato dei turni ottenuti sull'evento turnStatusReceived. |
Conversation_Agent_Connection_Id = 55 | Specifica l'ID di connessione da specificare nel messaggio di configurazione dell'agente, ad esempio un token Direct Line per l'autenticazione del canale. Aggiunta nella versione 1.15.1. |
SpeechServiceConnection_Host = 56 | Host del Servizio di riconoscimento vocale di Servizi cognitivi (URL). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig.fromHost. |
ConversationTranslator_Host = 57 | Impostare l'host per le chiamate di servizio alla gestione REST di Conversation Translator e alle chiamate Websocket. |
ConversationTranslator_Name = 58 | Facoltativamente, impostare il nome visualizzato dell'host. Utilizzato durante l'aggiunta a una conversazione. |
ConversationTranslator_CorrelationId = 59 | Facoltativamente, impostare un valore per l'intestazione della richiesta X-CorrelationId. Usato per la risoluzione degli errori nei log del server. Deve essere un GUID valido. |
ConversationTranslator_Token = 60 | Impostare il token di conversazione da inviare al servizio di riconoscimento vocale. Ciò consente al servizio di chiamare dal servizio di riconoscimento vocale al servizio Conversation Translator per l'inoltro dei riconoscimenti. Per uso interno. |
PronunciationAssessment_ReferenceText = 61 | Testo di riferimento dell'audio per la valutazione della pronuncia. Per questo e i seguenti parametri di valutazione della pronuncia, vedere https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters per informazioni dettagliate. In circostanze normali, non è necessario usare direttamente questa proprietà. Aggiunta nella versione 1.15.0 |
PronunciationAssessment_GradingSystem = 62 | Sistema di punti per la calibrazione del punteggio di pronuncia (FivePoint o HundredMark). In circostanze normali, non è necessario usare direttamente questa proprietà. Aggiunta nella versione 1.15.0 |
PronunciationAssessment_Granularity = 63 | Granularità della valutazione della pronuncia (Phoneme, Word o FullText). In circostanze normali, non è necessario usare direttamente questa proprietà. Aggiunta nella versione 1.15.0 |
PronunciationAssessment_EnableMiscue = 64 | Definisce se abilitare il calcolo errato. Con questa opzione abilitata, le parole pronunciate verranno confrontate con il testo di riferimento e verranno contrassegnate con omissione/inserimento in base al confronto. L'impostazione predefinita è False. In circostanze normali, non è necessario usare direttamente questa proprietà. Aggiunta nella versione 1.15.0 |
PronunciationAssessment_Json = 65 | Stringa json dei parametri di valutazione della pronuncia In circostanze normali, non è necessario usare direttamente questa proprietà. Aggiunta nella versione 1.15.0 |
PronunciationAssessment_Params = 66 | Parametri di valutazione della pronuncia. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. Aggiunta nella versione 1.15.0 |
SpeakerRecognition_Api_Version = 67 | Versione dell'API Riconoscimento del parlante da usare. Aggiunta nella versione 1.18.0 |
WebWorkerLoadType = 68 | Specifica se consentire il caricamento dell'URL dei dati per i valori consentiti del web worker sono "disattivati" e "on". Il valore predefinito è "on". Aggiunta nella versione 1.32.0 |
TalkingAvatarService_WebRTC_SDP = 69 | Protocollo di descrizione della sessione WebRTC del servizio avatar. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. Aggiunta nella versione 1.33.0 |