SpeechServiceConnection_Key |
Der Abonnementschlüssel "Cognitive Services Speech Service". Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
Der Endpunkt des Cognitive Services Speech Service (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird. |
SpeechServiceConnection_Region |
Die Region Cognitive Services Speech Service. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Der Autorisierungstyp "Cognitive Services Speech Service". Derzeit nicht verwendet. |
SpeechServiceConnection_EndpointId |
Die Id des Benutzerdefinierten Spracherkennungs- oder benutzerdefinierten VoIP-Diensts. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetEndpointId. HINWEIS: Die Endpunkt-ID ist im benutzerdefinierten Sprachportal verfügbar, das unter "Endpunktdetails" aufgeführt ist. |
SpeechServiceConnection_Host |
Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyPort |
Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyUserName |
Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyPassword |
Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_Url |
Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. HINWEIS: In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_ProxyHostBypass |
Gibt die Liste der Hosts an, für die Proxys nicht verwendet werden sollen. Diese Einstellung setzt alle anderen Konfigurationen außer Kraft. Hostnamen werden durch Kommas getrennt und auf eine Groß-/Kleinschreibung abgeglichen. Wildcards werden nicht unterstützt. |
SpeechServiceConnection_TranslationToLanguages |
Die Liste der durch Kommas getrennten Sprachen, die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::AddTargetLanguage und SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Der Name des Cognitive Service Text to Speech Service Voice. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::SetVoiceName. HINWEIS: Gültige Sprachnamen finden Sie hier. |
SpeechServiceConnection_TranslationFeatures |
Übersetzungsfeatures. Für die interne Verwendung. |
SpeechServiceConnection_IntentRegion |
Die Region "Sprachverständnisdienst". Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Der Erkennungsmodus "Cognitive Services Speech Service". Kann "INTERACTIVE", "CONVERSATION", "DICTATION" lauten. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. |
SpeechServiceConnection_RecoLanguage |
Die gesprochene Sprache, die erkannt werden soll (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
Die Sitzungs-ID. Diese ID ist ein universal eindeutiger Bezeichner (auch UUID genannt), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennungsinstanz darstellt, an die sie gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Die Abfrageparameter, die von Benutzern bereitgestellt werden. Sie werden als URL-Abfrageparameter an den Dienst übergeben. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_RecoBackend |
Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelName |
Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelKey |
Diese Eigenschaft ist veraltet. |
SpeechServiceConnection_RecoModelIniFile |
Der Pfad zur Ini-Datei des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthLanguage |
Die gesprochene Sprache, die synthetisiert werden soll (z. B. en-US) In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_SynthVoice |
Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll, die in Version 1.4.0 hinzugefügt wurde. |
SpeechServiceConnection_SynthOutputFormat |
Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats, das in Version 1.4.0 hinzugefügt wurde. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Gibt an, ob komprimiertes Audioformat für die Sprachsynthese-Audioübertragung verwendet wird. Diese Eigenschaft wirkt sich nur aus, wenn SpeechServiceConnection_SynthOutputFormat auf ein PCM-Format festgelegt ist. Wenn diese Eigenschaft nicht festgelegt ist und GStreamer verfügbar ist, verwendet DAS SDK komprimiertes Format für die synthetisierte Audioübertragung und decodiert sie. Sie können diese Eigenschaft auf "false" festlegen, um das rohe PCM-Format für die Übertragung auf Draht zu verwenden. In Version 1.16.0 hinzugefügt. |
SpeechServiceConnection_SynthBackend |
Die Zeichenfolge zum Angeben des TTS-Back-Ends; Gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths, um das Synthese-Back-End offline festzulegen. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthOfflineDataPath |
Die Datendateipfade für das Offlinesynthesemodul; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthOfflineVoice |
Der Name der Offline-TTS-Stimme, die unter normalen Umständen für die Sprachsynthese verwendet werden soll, sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice und EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthModelKey |
Diese Eigenschaft ist veraltet. |
SpeechServiceConnection_VoicesListEndpoint |
Der Api-Endpunkt der Cognitive Services Speech Service-Stimmenliste (URL). Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben, das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In Version 1.16.0 hinzugefügt. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Der anfängliche Stilletimeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Der End-Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_EnableAudioLogging |
Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement verknüpft ist (Bring Your Own Storage (BYOS) aktivierte Sprachressource). In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_LanguageIdMode |
Der Sprachbezeichnermodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Fortlaufend" sein. Siehe Dokument zur Sprachidentifikation. In 1.25.0 hinzugefügt. |
SpeechServiceConnection_TranslationCategoryId |
Die CategoryId für die Übersetzung der Sprachdienstverbindung. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Die automatisch erkannten Quellsprachen, die in Version 1.8.0 hinzugefügt wurden. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Das Ergebnis der automatischen Erkennung der Quellsprache wurde in Version 1.8.0 hinzugefügt. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Das angeforderte Ausgabeformat für Cognitive Services Speech Service (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Die angeforderte Cognitive Services Speech Service Antwort-Ausgabe-Profanitätsstufe. Derzeit nicht verwendet. |
SpeechServiceResponse_ProfanityOption |
Die angeforderte Einstellung für cognitive Services Speech Service-Antwort-Profanität. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_PostProcessingOption |
Ein Zeichenfolgenwert, der angibt, welche Nachbearbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_StablePartialResultThreshold |
Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_OutputFormatOption |
Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur interne Verwendung. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestSnr |
Ein boolescher Wert, der angibt, ob SNR (Signal-zu-Rauschverhältnis) in das Antwortergebnis eingeschlossen werden soll. In Version 1.18.0 hinzugefügt. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Ein boolescher Wert, der zur Stabilisierung von Übersetzungsteilergebnissen anfordert, indem Wörter am Ende weggelassen werden. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestWordBoundary |
Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse angefordert werden sollen. In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestPunctuationBoundary |
Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist true. In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestSentenceBoundary |
Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist true. Wenn dieser Wert auf "false" festgelegt ist, löst das SDK die Ereignisse aus, die vom Dienst stammen, was möglicherweise nicht mehr mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt. |
SpeechServiceResponse_JsonResult |
Die Antwortausgabe des Cognitive Services Speech Service (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar. |
SpeechServiceResponse_JsonErrorDetails |
Fehlerdetails des Cognitive Services Speech Service (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-/Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Moment, in dem das Endergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeitpunkt, zu dem das Endergebnis vom Sprachdienst empfangen wird. In Version 1.3.0 hinzugefügt. |
SpeechServiceResponse_RecognitionBackend |
Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (Online) oder eingebettete (Offline)-Erkennung verwendet wurde, um das Ergebnis zu erzielen. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Die Erste Bytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Moment, in dem das erste Byteaudio verfügbar ist. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Moment, in dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dadurch wird die Gesamtunterlaufzeit von PropertyId::AudioConfig_PlaybackBufferLengthInMs gefüllt, um die Synthese abgeschlossen zu machen. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Zeitpunkt, an dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Die Latenz des Sprachsynthesenetzwerks in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Roundtripzeit des Netzwerks. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisBackend |
Gibt an, mit welchem Back-End die Synthese abgeschlossen ist. Schreibgeschützt, verfügbar bei Sprachsyntheseergebnissen, mit Ausnahme des Ergebnisses im "SynthesisStarted"-Ereignis, das in Version 1.17.0 hinzugefügt wurde. |
SpeechServiceResponse_DiarizeIntermediateResults |
Bestimmt, ob Zwischenergebnisse Sprecheridentifikation enthalten. |
CancellationDetails_Reason |
Der Grund für die Kündigung. Derzeit nicht verwendet. |
CancellationDetails_ReasonText |
Der Abbruchtext. Derzeit nicht verwendet. |
CancellationDetails_ReasonDetailedText |
Der detaillierte Text für den Abbruch. Derzeit nicht verwendet. |
LanguageUnderstandingServiceResponse_JsonResult |
Die Antwortausgabe des Sprachverständnisdiensts (im JSON-Format). Verfügbar über IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Der Gerätename für die Audioaufnahme. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromMicrophoneInput. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_NumberOfChannelsForCapture |
Die Anzahl der Kanäle für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_SampleRateForCapture |
Die Samplingrate (in Hz) für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_BitsPerSampleForCapture |
Die Anzahl der Bits jedes Beispiels für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_AudioSource |
Die Audioquelle. Zulässige Werte sind "Mikrofone", "Datei" und "Stream". In Version 1.3.0 hinzugefügt. |
AudioConfig_DeviceNameForRender |
Der Gerätename für das Audiorenderen. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromSpeakerOutput. In Version 1.14.0 hinzugefügt. |
AudioConfig_PlaybackBufferLengthInMs |
Die Wiedergabepufferlänge in Millisekunden beträgt standardmäßig 50 Millisekunden. |
AudioConfig_AudioProcessingOptions |
Audioverarbeitungsoptionen im JSON-Format. |
Speech_LogFilename |
Der Dateiname zum Schreiben von Protokollen. In Version 1.4.0 hinzugefügt. |
Speech_SegmentationSilenceTimeoutMs |
Eine Dauer der erkannten Stille, gemessen in Millisekunden, nach der Sprach-zu-Text bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert. Die Konfiguration dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent Ergebnisse liefert, die zu lang oder zu kurz sind. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Sprach-zu-Text-Genauigkeit auswirken; Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte sorgfältig überprüft werden, wie beabsichtigt. |
Speech_SegmentationMaximumTimeMs |
Die maximale Länge eines gesprochenen Ausdrucks bei Verwendung der Segmentierungsstrategie "Zeit". Wenn sich die Länge eines gesprochenen Ausdrucks diesem Wert nähert, beginnt die Speech_SegmentationSilenceTimeoutMs zu reduzieren, bis entweder das Timeout für den Ausdruck stumm geschlagen wird oder der Ausdruck die maximale Länge erreicht. |
Speech_SegmentationStrategy |
Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic". |
Conversation_ApplicationId |
Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
Conversation_DialogType |
Typ des Dialog-Back-End zum Herstellen einer Verbindung mit. In Version 1.7.0 hinzugefügt. |
Conversation_Initial_Silence_Timeout |
Stille Timeout für die Überwachung Hinzugefügt in Version 1.5.0. |
Conversation_From_Id |
Von der ID, die für Spracherkennungsaktivitäten verwendet werden soll, die in Version 1.5.0 hinzugefügt wurden. |
Conversation_Conversation_Id |
ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt. |
Conversation_Custom_Voice_Deployment_Ids |
Kommagetrennte Liste der benutzerdefinierten VoIP-Bereitstellungs-IDs. In Version 1.8.0 hinzugefügt. |
Conversation_Speech_Activity_Template |
Sprachaktivitätsvorlage, Stempeleigenschaften in der Vorlage für die vom Dienst für Sprache generierte Aktivität. In Version 1.10.0 hinzugefügt. |
Conversation_ParticipantId |
Ihr Teilnehmerbezeichner in der aktuellen Unterhaltung. In Version 1.13.0 hinzugefügt. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Der Zeitstempel, der dem vom Client geschriebenen Datenpuffer zugeordnet ist, wenn Pull-/Push-Audioeingabedatenströme verwendet werden. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Sie entspricht dem Zeitstempel der Präsentation in einem MPEG-Transportdatenstrom. Siehe https://en.wikipedia.org/wiki/Presentation_timestamp Hinzugefügt in Version 1.5.0. |
DataBuffer_UserId |
Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull-/Push-Audioeingabedatenströmen zugeordnet ist. In Version 1.5.0 hinzugefügt. |
PronunciationAssessment_ReferenceText |
Der Referenztext des Audiosignals zur Ausspracheauswertung. Dies und die folgenden Parameter für die Aussprachebewertung finden Sie in der Tabelle Parameter für die Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create oder PronunciationAssessmentConfig::SetReferenceText. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_GradingSystem |
Das Punktsystem für die Aussprachebewertungsbewertung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_Granularity |
Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_EnableMiscue |
Definiert, ob die Fehlberechnung aktiviert wird. Damit werden die ausgesprochenen Wörter mit dem Bezugstext verglichen und basierend auf dem Vergleich mit Auslassung/Einfügung markiert. Die Standardeinstellung ist False. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_PhonemeAlphabet |
Das Ausspracheauswertungs-Phoneme-Alphabet. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetPhonemeAlphabet. In Version 1.20.0 hinzugefügt. |
PronunciationAssessment_NBestPhonemeCount |
Die Ausspracheauswertung nbest phoneme count. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetNBestPhonemeCount. In Version 1.20.0 hinzugefügt. |
PronunciationAssessment_EnableProsodyAssessment |
Gibt an, ob die Prosodybewertung aktiviert werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AusspracheAssessmentConfig::EnableProsodyAssessment. In Version 1.33.0 hinzugefügt. |
PronunciationAssessment_Json |
Die JSON-Zeichenfolge der Parameter für die Aussprachebewertung unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_Params |
Bewertungsparameter für die Aussprache. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_ContentTopic |
Das Inhaltsthema der Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. In Version 1.33.0 hinzugefügt. |
SpeakerRecognition_Api_Version |
Back-End-API-Version der Lautsprechererkennung. Diese Eigenschaft wird hinzugefügt, um ggf. Tests und Verwendung früherer Versionen von Sprechererkennungs-APIs zu ermöglichen. In Version 1.18.0 hinzugefügt. |
SpeechTranslation_ModelName |
Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
SpeechTranslation_ModelKey |
Diese Eigenschaft ist veraltet. |
KeywordRecognition_ModelName |
Der Name eines Modells, das für die Schlüsselworterkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
KeywordRecognition_ModelKey |
Diese Eigenschaft ist veraltet. |
EmbeddedSpeech_EnablePerformanceMetrics |
Aktivieren Sie die Sammlung eingebetteter Sprachleistungsmetriken, die zum Auswerten der Funktion eines Geräts für die Verwendung eingebetteter Spracherkennung verwendet werden können. Die gesammelten Daten werden in Die Ergebnisse bestimmter Szenarien wie der Spracherkennung einbezogen. Die Standardeinstellung ist "false". Beachten Sie, dass Metriken möglicherweise nicht in allen eingebetteten Sprachszenarien verfügbar sind. |
SpeechSynthesisRequest_Pitch |
Die Neigung der synthetisierten Sprache. |
SpeechSynthesisRequest_Rate |
Die Rate der synthetisierten Sprache. |
SpeechSynthesisRequest_Volume |
Die Lautstärke der synthetisierten Sprache. |