Freigeben über


PropertyId enum

Definiert Spracheigenschaften-IDs.

Felder

SpeechServiceConnection_Key = 0

Der Cognitive Services Speech Service-Abonnementschlüssel. Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

Der Endpunkt des Cognitive Services Speech Service (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird.

SpeechServiceConnection_Region = 2

Die Region Cognitive Services Speech Service. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

Der Autorisierungstyp "Cognitive Services Speech Service". Derzeit nicht verwendet.

SpeechServiceConnection_EndpointId = 5

Die Endpunkt-ID des Cognitive Services Speech Service. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.endpointId. HINWEIS: Die Endpunkt-ID ist im Sprachportal verfügbar, aufgeführt unter Endpunktdetails.

SpeechServiceConnection_TranslationToLanguages = 6

Die Liste der durch Kommas getrennten Sprachen (BCP-47-Format), die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

Der Name des Cognitive Service Text to Speech Service Voice. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig.voiceName. HINWEIS: Gültige Sprachnamen finden Sie hier.

SpeechServiceConnection_TranslationFeatures = 8

Übersetzungsfeatures.

SpeechServiceConnection_IntentRegion = 9

Die Region "Sprachverständnisdienst". Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt.

SpeechServiceConnection_ProxyPort = 11

Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt.

SpeechServiceConnection_ProxyUserName = 12

Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt.

SpeechServiceConnection_ProxyPassword = 13

Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt.

SpeechServiceConnection_RecoMode = 14

Der Erkennungsmodus des Cognitive Services-Sprachdiensts. Kann "INTERACTIVE", "CONVERSATION", "DICTATION" lauten. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern.

SpeechServiceConnection_RecoLanguage = 15

Die gesprochene Sprache, die erkannt werden soll (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

Die Sitzungs-ID. Diese ID ist ein universal eindeutiger Bezeichner (auch UUID genannt), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennungsinstanz darstellt, an die sie gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

Die gesprochene Sprache, die synthetisiert werden soll (z. B. en-US)

SpeechServiceConnection_SynthVoice = 18

Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll

SpeechServiceConnection_SynthOutputFormat = 19

Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats

SpeechServiceConnection_AutoDetectSourceLanguages = 20

Die Liste der kommagetrennten Sprachen, die als mögliche Quellsprachen verwendet werden, die in Version 1.13.0 hinzugefügt wurden

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

Das angeforderte Ausgabeformat für Cognitive Services Speech Service (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

Die angeforderte Cognitive Services Speech Service Antwort-Ausgabe-Profanitätsstufe. Derzeit nicht verwendet.

SpeechServiceResponse_JsonResult = 23

Die Antwortausgabe des Cognitive Services Speech Service (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar.

SpeechServiceResponse_JsonErrorDetails = 24

Fehlerdetails des Cognitive Services Speech Service (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

Der Grund für die Kündigung. Derzeit nicht verwendet.

CancellationDetails_ReasonText = 26

Der Abbruchtext. Derzeit nicht verwendet.

CancellationDetails_ReasonDetailedText = 27

Der detaillierte Text "Abbruch". Derzeit nicht verwendet.

LanguageUnderstandingServiceResponse_JsonResult = 28

Die Antwortausgabe des Sprachverständnisdiensts (im JSON-Format). Verfügbar über IntentRecognitionResult

SpeechServiceConnection_Url = 29

Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. HINWEIS: In Version 1.7.0 hinzugefügt.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

Der anfängliche Stilletimeoutwert (in Millisekunden), der vom Dienst verwendet wird. Hinzugefügt in Version 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

Der End-Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. Hinzugefügt in Version 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Eine Dauer der erkannten Stille, gemessen in Millisekunden, nach der Sprach-zu-Text bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert. Die Konfiguration dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent Ergebnisse liefert, die zu lang oder zu kurz sind. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Sprach-zu-Text-Genauigkeit auswirken; Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte sorgfältig überprüft werden, wie beabsichtigt.

Weitere Informationen zur Timeoutkonfiguration, die Erläuterungen zu Standardverhalten enthält, finden Sie unter https://aka.ms/csspeech/timeouts.

In Version 1.21.0 hinzugefügt.

SpeechServiceConnection_EnableAudioLogging = 33

Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement verknüpft ist (Bring Your Own Storage (BYOS) aktivierte Sprachressource). Die Protokolle werden nach 30 Tagen entfernt. Hinzugefügt in Version 1.7.0

SpeechServiceConnection_LanguageIdMode = 34

Der Sprachbezeichnermodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Fortlaufend" sein. Weitere Informationen finden Sie im Sprachidentifikationsdokument https://aka.ms/speech/lid?pivots=programming-language-javascript. Hinzugefügt in 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 35

Ein Zeichenfolgenwert, der die gewünschte Endpunktversion für die Spracherkennung darstellt. Hinzugefügt in Version 1.21.0

SpeechServiceConnection_SpeakerIdMode = 36

/**

  • Ein Zeichenfolgenwert des aktuellen Lautsprechererkennungsszenarios/-modus (TextIndependentIdentification usw.).
  • Hinzugefügt in Version 1.23.0
SpeechServiceResponse_ProfanityOption = 37

Die angeforderte Einstellung für cognitive Services Speech Service-Antwort-Profanität. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.7.0 hinzugefügt.

SpeechServiceResponse_PostProcessingOption = 38

Ein Zeichenfolgenwert, der angibt, welche Nachbearbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". Hinzugefügt in Version 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 39

Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. Hinzugefügt in Version 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 40

Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. Hinzugefügt in Version 1.7.0

SpeechServiceResponse_OutputFormatOption = 41

Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur interne Verwendung. In Version 1.7.0 hinzugefügt.

SpeechServiceResponse_TranslationRequestStablePartialResult = 42

Ein boolescher Wert, der zur Stabilisierung von Übersetzungsteilergebnissen anfordert, indem Wörter am Ende weggelassen werden. In Version 1.7.0 hinzugefügt.

SpeechServiceResponse_RequestWordBoundary = 43

Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse angefordert werden sollen.

SpeechServiceResponse_RequestPunctuationBoundary = 44

Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist true.

SpeechServiceResponse_RequestSentenceBoundary = 45

Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist "false".

SpeechServiceResponse_DiarizeIntermediateResults = 46

Bestimmt, ob Zwischenergebnisse Sprecheridentifikation enthalten. Zulässige Werte sind "true" oder "false". Wenn dieser Wert auf "true" festgelegt ist, enthalten die Zwischenergebnisse die Sprecheridentifikation. Der Standardwert, wenn der Wert nicht festgelegt oder auf einen ungültigen Wert festgelegt ist, lautet "false". Dies wird derzeit nur für Szenarien unterstützt, die die ConversationTranscriber verwenden".

Conversation_ApplicationId = 47

Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird.

Conversation_DialogType = 48

Typ des Dialog-Back-End zum Herstellen einer Verbindung mit.

Conversation_Initial_Silence_Timeout = 49

Stille Timeout zum Zuhören

Conversation_From_Id = 50

Von der ID zum Hinzufügen zu Spracherkennungsaktivitäten.

Conversation_Conversation_Id = 51

ConversationId für die Sitzung.

Conversation_Custom_Voice_Deployment_Ids = 52

Kommagetrennte Liste der benutzerdefinierten VoIP-Bereitstellungs-IDs.

Conversation_Speech_Activity_Template = 53

Sprachaktivitätsvorlage, Stempeleigenschaften aus der Vorlage für die vom Dienst für Sprache generierte Aktivität.

Conversation_Request_Bot_Status_Messages = 54

Aktiviert oder deaktiviert den Empfang von Turnstatus-Meldungen, wie für das turnStatusReceived-Ereignis abgerufen.

Conversation_Agent_Connection_Id = 55

Gibt die Verbindungs-ID an, die in der Agent-Konfigurationsnachricht angegeben werden soll, z. B. ein Direct Line-Token für die Kanalauthentifizierung. In Version 1.15.1 hinzugefügt.

SpeechServiceConnection_Host = 56

Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromHost-.

ConversationTranslator_Host = 57

Legen Sie den Host für Dienstaufrufe auf die REST-Verwaltung von Unterhaltungen und Websocket-Aufrufe fest.

ConversationTranslator_Name = 58

Legen Sie optional den Anzeigenamen des Hosts fest. Wird beim Beitreten zu einer Unterhaltung verwendet.

ConversationTranslator_CorrelationId = 59

Legen Sie optional einen Wert für den X-CorrelationId-Anforderungsheader fest. Wird für die Problembehandlung in den Serverprotokollen verwendet. Es sollte eine gültige GUID sein.

ConversationTranslator_Token = 60

Legen Sie das Unterhaltungstoken fest, das an den Sprachdienst gesendet werden soll. Dadurch kann der Dienst dienstaufrufe vom Sprachdienst an den Unterhaltungsübersetzerdienst zum Weiterleiten von Erkennungen senden. Für die interne Verwendung.

PronunciationAssessment_ReferenceText = 61

Der Referenztext des Audiosignals zur Ausspracheauswertung. Einzelheiten hierzu und die folgenden Parameter für die Aussprachebewertung finden Sie unter https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Hinzugefügt in Version 1.15.0

PronunciationAssessment_GradingSystem = 62

Das Punktsystem für die Aussprachebewertungsbewertung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Hinzugefügt in Version 1.15.0

PronunciationAssessment_Granularity = 63

Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Hinzugefügt in Version 1.15.0

PronunciationAssessment_EnableMiscue = 64

Definiert, ob die Fehlberechnung aktiviert wird. Damit werden die ausgesprochenen Wörter mit dem Bezugstext verglichen und basierend auf dem Vergleich mit Auslassung/Einfügung markiert. Die Standardeinstellung ist False. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Hinzugefügt in Version 1.15.0

PronunciationAssessment_Json = 65

Die JSON-Zeichenfolge der Parameter für die Aussprachebewertung unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Hinzugefügt in Version 1.15.0

PronunciationAssessment_Params = 66

Bewertungsparameter für die Aussprache. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. Hinzugefügt in Version 1.15.0

SpeakerRecognition_Api_Version = 67

Version der zu verwendenden Sprechererkennungs-API. Hinzugefügt in Version 1.18.0

WebWorkerLoadType = 68

Gibt an, ob das Laden der Daten-URL für zulässige Web worker-Werte "off" und "on" zulässig ist. Der Standardwert ist "ein". Hinzugefügt in Version 1.32.0

TalkingAvatarService_WebRTC_SDP = 69

Sprechende Avatardienst-WebRTC-Sitzungsbeschreibungsprotokoll. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. Hinzugefügt in Version 1.33.0