PropertyId enum
Définit les ID de propriété speech.
Champs
SpeechServiceConnection_Key = 0 | Clé d’abonnement du service Speech Cognitive Services. Si vous utilisez un module de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromSubscription. |
SpeechServiceConnection_Endpoint = 1 | Point de terminaison du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromEndpoint. REMARQUE : ce point de terminaison n’est pas identique au point de terminaison utilisé pour obtenir un jeton d’accès. |
SpeechServiceConnection_Region = 2 | Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken. |
SpeechServiceAuthorization_Token = 3 | Jeton d’autorisation du service Speech Cognitive Services (jeton d’accès). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken. |
SpeechServiceAuthorization_Type = 4 | Type d’autorisation du service Speech Cognitive Services. Actuellement inutilisé. |
SpeechServiceConnection_EndpointId = 5 | ID de point de terminaison du service Speech Cognitive Services. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.endpointId. REMARQUE : L’ID de point de terminaison est disponible dans le portail Speech, répertorié sous Détails du point de terminaison. |
SpeechServiceConnection_TranslationToLanguages = 6 | Liste des langues séparées par des virgules (format BCP-47) utilisées comme langues de traduction cible. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages. |
SpeechServiceConnection_TranslationVoice = 7 | Nom de la voix du service de synthèse vocale du service cognitif. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig.voiceName. REMARQUE : Les noms vocaux valides sont disponibles ici. |
SpeechServiceConnection_TranslationFeatures = 8 | Fonctionnalités de traduction. |
SpeechServiceConnection_IntentRegion = 9 | Région du service Language Understanding. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel. |
SpeechServiceConnection_ProxyHostName = 10 | Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Uniquement pertinent dans les environnements Node.js. Vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt . Ajouté dans la version 1.4.0. |
SpeechServiceConnection_ProxyPort = 11 | Port du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Uniquement pertinent dans les environnements Node.js. Vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt . Ajouté dans la version 1.4.0. |
SpeechServiceConnection_ProxyUserName = 12 | Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Uniquement pertinent dans les environnements Node.js. Vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt . Ajouté dans la version 1.4.0. |
SpeechServiceConnection_ProxyPassword = 13 | Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Uniquement pertinent dans les environnements Node.js. Vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt . Ajouté dans la version 1.4.0. |
SpeechServiceConnection_RecoMode = 14 | Mode de reconnaissance du service speech Cognitive Services. Peut être « INTERACTIVE », « CONVERSATION », « DICTATION ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. |
SpeechServiceConnection_RecoLanguage = 15 | Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.speechRecognitionLanguage. |
Speech_SessionId = 16 | ID de session. Cet ID est un identificateur universellement unique (aka UUID) représentant une liaison spécifique d’un flux d’entrée audio et l’instance de reconnaissance vocale sous-jacente à laquelle elle est liée. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs.sessionId. |
SpeechServiceConnection_SynthLanguage = 17 | Langue parlée à synthétiser (par exemple, en-US) |
SpeechServiceConnection_SynthVoice = 18 | Nom de la voix TTS à utiliser pour la synthèse vocale |
SpeechServiceConnection_SynthOutputFormat = 19 | Chaîne permettant de spécifier le format audio de sortie TTS |
SpeechServiceConnection_AutoDetectSourceLanguages = 20 | Liste des langues séparées par des virgules utilisées comme langues sources possibles ajoutées dans la version 1.13.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse = 21 | Format de sortie de réponse cognitive Services Speech Service demandé (simple ou détaillé). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.outputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22 | Niveau de profanité de sortie de réponse cognitive Services Speech Service demandé. Actuellement inutilisé. |
SpeechServiceResponse_JsonResult = 23 | Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance. |
SpeechServiceResponse_JsonErrorDetails = 24 | Détails de l’erreur Cognitive Services Speech Service (au format JSON). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails.errorDetails. |
CancellationDetails_Reason = 25 | Raison de l’annulation. Actuellement inutilisé. |
CancellationDetails_ReasonText = 26 | Texte d’annulation. Actuellement inutilisé. |
CancellationDetails_ReasonDetailedText = 27 | Texte détaillé de l’annulation. Actuellement inutilisé. |
LanguageUnderstandingServiceResponse_JsonResult = 28 | Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult |
SpeechServiceConnection_Url = 29 | Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : ajouté dans la version 1.7.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs = 30 | Valeur du délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.7.0 |
SpeechServiceConnection_EndSilenceTimeoutMs = 31 | Valeur du délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.7.0 |
Speech_SegmentationSilenceTimeoutMs = 32 | Durée du silence détecté, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée s’est terminée et génère un résultat final reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée parlée est beaucoup plus rapide ou plus lente que d’habitude et que le comportement de segmentation par défaut génère constamment des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être soigneusement configurée et le comportement résultant doit être soigneusement validé comme prévu. Pour plus d’informations sur la configuration du délai d’expiration qui inclut une discussion sur les comportements par défaut, consultez https://aka.ms/csspeech/timeouts. Ajouté dans la version 1.21.0. |
Speech_SegmentationMaximumTimeMs = 33 | SegmentationMaximumTimeMs représente la longueur maximale d’une expression parlée lors de l’utilisation de la stratégie de segmentation temporelle. Comme la longueur d’une expression parlée approche de cette valeur, le |
Speech_SegmentationStrategy = 34 | SegmentationStrategy définit la stratégie utilisée pour déterminer quand une expression parlée a pris fin et qu’un résultat final reconnu doit être généré. Les valeurs autorisées sont « Default », « Time » et « Semantic ». Valeurs valides :
Remarques supplémentaires :
|
SpeechServiceConnection_EnableAudioLogging = 35 | Valeur booléenne spécifiant si la journalisation audio est activée dans le service ou non. Les journaux audio et de contenu sont stockés dans le stockage appartenant à Microsoft ou dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ByOS) avec la ressource Speech compatible avec Votre propre stockage( BYOS). Les journaux seront supprimés après 30 jours. Ajouté dans la version 1.7.0 |
SpeechServiceConnection_LanguageIdMode = 36 | Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Pour plus d’informations, consultez le document d’identification linguistique https://aka.ms/speech/lid?pivots=programming-language-javascript. Ajouté dans la version 1.25.0 |
SpeechServiceConnection_RecognitionEndpointVersion = 37 | Valeur de chaîne représentant la version de point de terminaison souhaitée à cibler pour la reconnaissance vocale. Ajouté dans la version 1.21.0 |
SpeechServiceConnection_SpeakerIdMode = 38 | /**
|
SpeechServiceResponse_ProfanityOption = 39 | Paramètre de profanité de sortie de réponse cognitive Services Speech Service demandé. Les valeurs autorisées sont « masquées », « supprimées » et « brutes ». Ajouté dans la version 1.7.0. |
SpeechServiceResponse_PostProcessingOption = 40 | Valeur de chaîne spécifiant l’option de post-traitement à utiliser par le service. Les valeurs autorisées sont « TrueText ». Ajouté dans la version 1.7.0 |
SpeechServiceResponse_RequestWordLevelTimestamps = 41 | Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.7.0 |
SpeechServiceResponse_StablePartialResultThreshold = 42 | Nombre de fois où un mot doit être dans des résultats partiels à renvoyer. Ajouté dans la version 1.7.0 |
SpeechServiceResponse_OutputFormatOption = 43 | Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. Utilisation interne uniquement. Ajouté dans la version 1.7.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult = 44 | Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.7.0. |
SpeechServiceResponse_RequestWordBoundary = 45 | Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. |
SpeechServiceResponse_RequestPunctuationBoundary = 46 | Valeur booléenne spécifiant s’il faut demander la limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. |
SpeechServiceResponse_RequestSentenceBoundary = 47 | Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. |
SpeechServiceResponse_DiarizeIntermediateResults = 48 | Détermine si les résultats intermédiaires contiennent l’identification de l’orateur. Les valeurs autorisées sont « true » ou « false ». Si la valeur est « true », les résultats intermédiaires contiennent l’identification de l’orateur. La valeur par défaut si un ensemble ou défini sur une valeur non valide est « false ». Cela n’est actuellement pris en charge que pour les scénarios utilisant ConversationTranscriber. |
Conversation_ApplicationId = 49 | Identificateur utilisé pour se connecter au service principal. |
Conversation_DialogType = 50 | Type de serveur principal de boîte de dialogue auquel se connecter. |
Conversation_Initial_Silence_Timeout = 51 | Délai d’expiration du silence pour l’écoute |
Conversation_From_Id = 52 | De l’ID à ajouter aux activités de reconnaissance vocale. |
Conversation_Conversation_Id = 53 | ConversationId pour la session. |
Conversation_Custom_Voice_Deployment_Ids = 54 | Liste séparée par des virgules d’ID de déploiement vocaux personnalisés. |
Conversation_Speech_Activity_Template = 55 | Modèle d’activité Speech, horodatage des propriétés du modèle sur l’activité générée par le service pour la reconnaissance vocale. |
Conversation_Request_Bot_Status_Messages = 56 | Active ou désactive la réception des messages d’état de tour comme obtenu sur l’événement turnStatusReceived. |
Conversation_Agent_Connection_Id = 57 | Spécifie l’ID de connexion à fournir dans le message de configuration de l’agent, par exemple un jeton Direct Line pour l’authentification par canal. Ajouté dans la version 1.15.1. |
SpeechServiceConnection_Host = 58 | Hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig.fromHost. |
ConversationTranslator_Host = 59 | Définissez l’hôte pour les appels de service à la gestion REST conversation Translator et aux appels websocket. |
ConversationTranslator_Name = 60 | Si vous le souhaitez, définissez le nom d’affichage de l’hôte. Utilisé lors de la participation à une conversation. |
ConversationTranslator_CorrelationId = 61 | Définissez éventuellement une valeur pour l’en-tête de requête X-CorrelationId. Utilisé pour résoudre les erreurs dans les journaux du serveur. Il doit s’agir d’un guid valide. |
ConversationTranslator_Token = 62 | Définissez le jeton de conversation à envoyer au service speech. Cela permet au service de traiter l’appel du service speech vers le service Conversation Translator pour relayer les reconnaissances. Pour une utilisation interne. |
PronunciationAssessment_ReferenceText = 63 | Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters pour plus d’informations. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0 |
PronunciationAssessment_GradingSystem = 64 | Système de point pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0 |
PronunciationAssessment_Granularity = 65 | Granularité de l’évaluation de la prononciation (Phoneme, Word ou FullText). Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0 |
PronunciationAssessment_EnableMiscue = 66 | Définit si vous activez le calcul incorrect. Avec cette option activée, les mots prononcés seront comparés au texte de référence et seront marqués avec omission/insertion en fonction de la comparaison. Le paramètre par défaut est False. Dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0 |
PronunciationAssessment_Json = 67 | Chaîne json des paramètres d’évaluation de prononciation dans des circonstances normales, vous ne devez pas avoir à utiliser cette propriété directement. Ajouté dans la version 1.15.0 |
PronunciationAssessment_Params = 68 | Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.15.0 |
SpeakerRecognition_Api_Version = 69 | Version de l’API Reconnaissance de l’orateur à utiliser. Ajouté dans la version 1.18.0 |
WebWorkerLoadType = 70 | Spécifie s’il faut autoriser la charge de l’URL de données pour les valeurs autorisées du travail web sont « désactivées » et « activé ». La valeur par défaut est « on ». Ajouté dans la version 1.32.0 |
TalkingAvatarService_WebRTC_SDP = 71 | Protocole de description de session WebRTC du service d’avatar de conversation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.33.0 |