PropertyId Énumération
- java.
lang. Object - java.
lang. Enum - com.
microsoft. cognitiveservices. speech. PropertyId
- com.
- java.
public enum PropertyId
extends java.lang.Enum<PropertyId>
Définit les ID de propriété. Modification dans la version 1.8.0.
Champs
AudioConfig_AudioProcessingOptions |
Options de traitement audio au format JSON. |
AudioConfig_DeviceNameForRender |
Nom de l’appareil pour le rendu audio. |
AudioConfig_PlaybackBufferLengthInMs |
Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes. |
CancellationDetails_Reason |
Motif de l’annulation. |
CancellationDetails_ReasonDetailedText |
Texte détaillé de l’annulation. |
CancellationDetails_ReasonText |
Texte d’annulation. |
Conversation_ApplicationId |
Identificateur utilisé pour se connecter au service principal. |
Conversation_Connection_Id |
Informations d’identification supplémentaires, telles qu’un jeton Direct Line, utilisées pour l’authentification auprès du service principal. |
Conversation_Conversation_Id |
ID de conversation |
Conversation_Custom_Voice_Deployment_Ids |
Liste séparée par des virgules des ID de déploiement de la voix personnalisée. |
Conversation_DialogType |
Type de back-end de dialogue auquel se connecter. |
Conversation_From_Id |
À partir de l’ID à utiliser sur les activités de reconnaissance vocale Ajouté dans la version 1.5.0. |
Conversation_Initial_Silence_Timeout |
Délai d’expiration du silence pour l’écoute Ajouté dans la version 1.5.0. |
Conversation_Request_Bot_Status_Messages |
Valeur booléenne qui spécifie si le client doit recevoir des messages status et générer les événements d’état |
Conversation_Speech_Activity_Template |
Modèle d’activité Speech, propriétés d’empreinte dans le modèle sur l’activité générée par le service de reconnaissance vocale. |
DataBuffer_TimeStamp |
Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. |
DataBuffer_UserId |
ID d’utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push. |
LanguageUnderstandingServiceResponse_JsonResult |
Sortie de réponse du service Language Understanding (au format JSON). |
PronunciationAssessment_EnableMiscue |
Définit si activer le calcul incorrect. |
PronunciationAssessment_GradingSystem |
Système de points pour l’étalonnage du score de prononciation (Five |
PronunciationAssessment_Granularity |
Granularité de l’évaluation de la prononciation (Phonème, Word ou Texte intégral |
PronunciationAssessment_Json |
Chaîne json des paramètres d’évaluation de prononciation Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. |
PronunciationAssessment_NBestPhonemeCount |
Évaluation de la prononciation nbest phonème count. |
PronunciationAssessment_Params |
Paramètres d’évaluation de la prononciation. |
PronunciationAssessment_PhonemeAlphabet |
Alphabet du phonème d’évaluation de la prononciation. |
PronunciationAssessment_ReferenceText |
Texte de référence de l’audio pour l’évaluation de la prononciation. |
SpeakerRecognition_Api_Version |
Version de reconnaissance de l’orateur à utiliser. |
SpeechServiceAuthorization_Token |
Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès). |
SpeechServiceAuthorization_Type |
Type d’autorisation Du service Speech Cognitive Services. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Le résultat de la détection automatique de la langue source a été ajouté dans la version 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Détection automatique des langues sources ajoutées dans la version 1.8.0. |
SpeechServiceConnection_EnableAudioLogging |
Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. |
SpeechServiceConnection_Endpoint |
Le point de terminaison du service Speech Cognitive Services (URL). |
SpeechServiceConnection_EndpointId |
L’ID de point de terminaison Custom Speech ou Custom Voice Service de Cognitive Services. |
SpeechServiceConnection_Host |
Hôte du service Speech Cognitive Services (URL). |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service. |
SpeechServiceConnection_IntentRegion |
Région de service Language Understanding. |
SpeechServiceConnection_Key |
Clé d’abonnement au service Speech Cognitive Services. |
SpeechServiceConnection_LanguageIdMode |
Mode d’identificateur de langue de connexion du service speech. |
SpeechServiceConnection_ProxyHostName |
Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_ProxyPassword |
Mot de passe du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_ProxyPort |
Port du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_ProxyUserName |
Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services. |
SpeechServiceConnection_RecoBackend |
Chaîne à spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. |
SpeechServiceConnection_RecoLanguage |
Langue parlée à reconnaître (au format BCP-47). |
SpeechServiceConnection_RecoMode |
Mode de reconnaissance du service Speech Cognitive Services. |
SpeechServiceConnection_RecoModelKey |
Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. |
SpeechServiceConnection_RecoModelName |
Nom du modèle à utiliser pour la reconnaissance vocale. |
SpeechServiceConnection_Region |
Région du service Speech Cognitive Services. |
SpeechServiceConnection_SynthBackend |
Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indique si le format audio compressé est utilisé pour la transmission audio de synthèse vocale. |
SpeechServiceConnection_SynthLanguage |
Langue parlée à synthétiser (par exemple |
SpeechServiceConnection_SynthModelKey |
Clé de déchiffrement du modèle à utiliser pour la synthèse vocale. |
SpeechServiceConnection_SynthOfflineDataPath |
Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion. |
SpeechServiceConnection_SynthOfflineVoice |
Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale. |
SpeechServiceConnection_SynthOutputFormat |
Chaîne pour spécifier le format audio de sortie TTS (par exemple |
SpeechServiceConnection_SynthVoice |
Nom de la voix TTS à utiliser pour la synthèse vocale Ajouté dans la version 1.7.0 |
SpeechServiceConnection_TranslationFeatures |
Fonctionnalités de traduction. |
SpeechServiceConnection_TranslationToLanguages |
Liste des langues séparées par des virgules (format BCP-47) utilisées comme langues de traduction cibles. |
SpeechServiceConnection_TranslationVoice |
Nom de la voix du service de synthèse vocale Cognitive Service. |
SpeechServiceConnection_Url |
Chaîne d’URL générée à partir de la configuration vocale. |
SpeechServiceConnection_VoicesListEndpoint |
Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services. |
SpeechServiceResponse_JsonErrorDetails |
Détails de l’erreur du service Speech Cognitive Services (au format JSON). |
SpeechServiceResponse_JsonResult |
Sortie de réponse du service Speech Cognitive Services (au format JSON). |
SpeechServiceResponse_OutputFormatOption |
Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. |
SpeechServiceResponse_PostProcessingOption |
Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. |
SpeechServiceResponse_ProfanityOption |
Paramètre de sortie de réponse du service Speech de Cognitive Services demandé. |
SpeechServiceResponse_RecognitionBackend |
Back-end de reconnaissance. |
SpeechServiceResponse_RecognitionLatencyMs |
Latence de reconnaissance en millisecondes. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Format de sortie de réponse du service Speech Cognitive Services demandé (simple ou détaillé). |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Niveau de grossièreté de la réponse du service Speech de Cognitive Services demandé. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans Word événements |
SpeechServiceResponse_RequestSentenceBoundary |
Valeur booléenne spécifiant s’il faut demander une limite de phrase dans Word événements |
SpeechServiceResponse_RequestSnr |
Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. |
SpeechServiceResponse_RequestWordBoundary |
Valeur booléenne spécifiant s’il faut demander des événements Word |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. |
SpeechServiceResponse_StablePartialResultThreshold |
Nombre de fois où un mot doit être dans des résultats partiels à retourner. |
SpeechServiceResponse_SynthesisBackend |
Indique le back-end par lequel la synthèse est terminée. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latence de connexion de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse ( |
SpeechServiceResponse_SynthesisFinishLatencyMs |
La synthèse vocale est la latence de tous les octets en millisecondes. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Latence du premier octet de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latence du réseau de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latence du service de synthèse vocale en millisecondes. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Durée de sous-exécution de la synthèse vocale en millisecondes. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. |
SpeechTranslation_ModelKey |
Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. |
SpeechTranslation_ModelName |
Nom d’un modèle à utiliser pour la traduction vocale. |
Speech_LogFilename |
Nom de fichier pour écrire les journaux. |
Speech_SegmentationSilenceTimeoutMs |
Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu. |
Speech_SessionId |
ID de session. |
Méthodes héritées de java.lang.Enum
Méthodes héritées de java.lang.Object
Méthodes
getValue()
public int getValue()
Retourne l’ID de propriété de valeur interne
Retours
valueOf(String name)
values()
S’applique à
Azure SDK for Java