Freigeben über


Namespace Microsoft::CognitiveServices::Speech

Zusammenfassung

Angehörige Beschreibungen
Enumeration PropertyId- Definiert Spracheigenschaften-IDs. Geändert in Version 1.4.0.
Enumeration OutputFormat Ausgabeformat.
Aufzählung ProfanityOption Entfernt Profanität (Schwören) oder ersetzt Buchstaben von profanen Wörtern durch Sterne. In Version 1.5.0 hinzugefügt.
Enumeration ResultReason Gibt die möglichen Gründe an, warum ein Erkennungsergebnis generiert werden kann.
Enumeration CancellationReason Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann.
Enumeration CancellationErrorCode Definiert den Fehlercode, wenn "CancellationReason" "Error" lautet. In Version 1.1.0 hinzugefügt.
Enumeration NoMatchReason Definiert die möglichen Gründe, warum ein Erkennungsergebnis möglicherweise nicht erkannt wird.
Enumeration ActivityJSONType Definiert die möglichen Typen für einen Aktivitäts-JSON-Wert. In Version 1.5.0 hinzugefügt.
Enumeration SpeechSynthesisOutputFormat Definiert die möglichen Audioformate für die Sprachsynthese. Aktualisiert in Version 1.19.0.
StreamStatus- aufzählen Definiert den möglichen Status des Audiodatenstroms. In Version 1.4.0 hinzugefügt.
Enumeration ServicePropertyChannel Definiert Kanäle, die zum Übergeben von Eigenschaftseinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt.
Enumeration VoiceProfileType Definiert VoIP-Profiltypen.
Enumeration RecognitionFactorScope Definiert den Bereich, auf den ein Erkennungsfaktor angewendet wird.
Enumeration PronunciationAssessmentGradingSystem Definiert das Punktsystem für die Aussprachebewertungskalibrierung; Der Standardwert ist FivePoint. In Version 1.14.0 hinzugefügt.
Enumeration PronunciationAssessmentGranularity Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist "Phoneme". In Version 1.14.0 hinzugefügt.
Enumeration SynthesisVoiceType Definiert den Typ der Synthesestimmchen, die in Version 1.16.0 hinzugefügt wurden.
Enumeration SynthesisVoiceGender Definiert das Geschlecht der Synthesestimmungen, die in Version 1.17.0 hinzugefügt wurden.
Enumeration SpeechSynthesisBoundaryType Definiert den Grenztyp des Sprachsynthesebegrenzungsereignisses, das in Version 1.21.0 hinzugefügt wurde.
SegmentationStrategy Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic".
Klasse AsyncRecognizer AsyncRecognizer abstrakte Basisklasse.
Klasse "AudioDataStream"- Stellt den Audiodatenstrom dar, der für das Ausführen von Audiodaten als Datenstrom verwendet wird. In Version 1.4.0 hinzugefügt.
Klasse AutoDetectSourceLanguageConfig Klasse, die die Konfiguration der automatischen Erkennungsquelle definiert, aktualisiert in 1.13.0.
Klasse AutoDetectSourceLanguageResult Enthält das automatisch erkannte Quellsprachenergebnis 1.8.0 hinzugefügt.
Klasse BaseAsyncRecognizer BaseAsyncRecognizer-Klasse.
Klasse CancellationDetails Enthält detaillierte Informationen dazu, warum ein Ergebnis abgebrochen wurde.
Klasse ClassLanguageModel Stellt eine Liste der Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt.
Klasse Connection Die Verbindung ist eine Proxyklasse zum Verwalten der Verbindung mit dem Sprachdienst der angegebenen Erkennung. Standardmäßig verwaltet ein Erkennungsmodul bei Bedarf die Verbindung mit dem Dienst autonom. Die Connection-Klasse bietet zusätzliche Methoden für Benutzer, um eine Verbindung explizit zu öffnen oder zu schließen und Verbindungsstatusänderungen zu abonnieren. Die Verwendung von "Connection" ist optional. Es ist für Szenarien vorgesehen, in denen eine feinabstimmung des Anwendungsverhaltens basierend auf dem Verbindungsstatus erforderlich ist. Benutzer können optional Open() aufrufen, um eine Dienstverbindung manuell zu initiieren, bevor die Erkennung für die erkennung gestartet wird, die dieser Verbindung zugeordnet ist. Nach dem Starten einer Erkennung schlägt möglicherweise ein Fehler beim Aufrufen von Open() oder Close() fehl. Dies wirkt sich nicht auf die Erkennung oder die fortlaufende Erkennung aus. Die Verbindung kann aus verschiedenen Gründen fallen, die Erkennung versucht immer, die Verbindung nach Bedarf erneut zu erstellen, um laufende Vorgänge zu gewährleisten. In all diesen Fällen geben verbundene/getrennte Ereignisse die Änderung des Verbindungsstatus an. Aktualisiert in Version 1.17.0.
Klasse ConnectionEventArgs Stellt Daten für das ConnectionEvent bereit. In Version 1.2.0 hinzugefügt.
Klasse ConnectionMessage ConnectionMessage stellt implementierungsspezifische Nachrichten dar, die an den Sprachdienst gesendet und empfangen werden. Diese Nachrichten werden für Debuggingzwecke bereitgestellt und sollten nicht für Produktionsanwendungsfälle mit dem Azure Cognitive Services Speech Service verwendet werden. Nachrichten, die an den Sprachdienst gesendet und empfangen werden, können ohne Vorherige Ankündigung geändert werden. Dazu gehören Nachrichteninhalte, Kopfzeilen, Nutzlasten, Sortierung usw. In Version 1.10.0 hinzugefügt.
Klasse ConnectionMessageEventArgs Stellt Daten für "ConnectionMessageEvent" bereit.
Klasse EmbeddedSpeechConfig Klasse, die eingebettete (Offline)-Sprachkonfiguration definiert.
Class EventArgs Basisklasse für Ereignisargumente.
-Klasse EventSignal- Clients können eine Verbindung mit dem Ereignissignal herstellen, um Ereignisse zu empfangen, oder die Verbindung mit dem Ereignissignal trennen, um den Empfang von Ereignissen zu beenden.
Klasse EventSignalBase Clients können eine Verbindung mit dem Ereignissignal herstellen, um Ereignisse zu empfangen, oder die Verbindung mit dem Ereignissignal trennen, um den Empfang von Ereignissen zu beenden.
Grammatik Stellt die Grammatik der Basisklasse zum Anpassen der Spracherkennung dar. In Version 1.5.0 hinzugefügt.
der Klasse "GrammarList" Stellt eine Liste der Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt.
Klasse GrammarPhrase Stellt einen Ausdruck dar, der vom Benutzer gesprochen werden kann. In Version 1.5.0 hinzugefügt.
Klasse HybridSpeechConfig Klasse, die Hybridkonfigurationen (Cloud und eingebettete) Konfigurationen für die Spracherkennung oder Sprachsynthese definiert.
Klasse KeywordRecognitionEventArgs Klasse für die Ereignisse, die vom KeywordRecognizeremmitiert werden.
Klasse KeywordRecognitionModel Stellt das Schlüsselworterkennungsmodell dar, das mit StartKeywordRecognitionAsync-Methoden verwendet wird.
Klasse KeywordRecognitionResult Klasse, die die vom KeywordRecognizerausgegebenen Ergebnisse definiert.
Klasse KeywordRecognizer Erkennungstyp, der nur für die Behandlung der Schlüsselwortaktivierung spezialisiert ist.
Klasse NoMatchDetails Enthält detaillierte Informationen zu NoMatch-Erkennungsergebnissen.
Klasse PersonalVoiceSynthesisRequest Klasse, die die Sprachsyntheseanforderung für persönliche Stimme (aka.ms/azureai/personal-voice) definiert. Diese Klasse befindet sich in der Vorschau und kann geändert werden. In Version 1.39.0 hinzugefügt.
Klasse PhraseListGrammar Stellt eine Grammatik der Begriffsliste für dynamische Grammatikszenarien dar. In Version 1.5.0 hinzugefügt.
Klasse PronunciationAssessmentConfig Klasse, die die Konfiguration der Aussprachebewertung definiert, die in 1.14.0 hinzugefügt wurde.
Klasse PronunciationAssessmentResult Klasse für Die Ergebnisse der Aussprachebewertung.
Klasse PronunciationContentAssessmentResult Klasse für Ergebnisse der Inhaltsbewertung.
Class PropertyCollection- Klasse zum Abrufen oder Festlegen eines Eigenschaftswerts aus einer Eigenschaftssammlung.
Class RecognitionEventArgs Stellt Daten für das RecognitionEvent bereit.
Class RecognitionResult- Enthält detaillierte Informationen zum Ergebnis eines Erkennungsvorgangs.
klassenerkennung Erkennungsbasisklasse.
Class SessionEventArgs Basisklasse für Sitzungsereignisargumente.
Klasse SmartHandle- Smart handle class.
Klasse SourceLanguageConfig Klasse, die die Quellsprachenkonfiguration definiert, hinzugefügt in 1.8.0.
Klasse SourceLanguageRecognizer Klasse für Quellspracherkennungen. Sie können diese Klasse für die eigenständige Spracherkennung verwenden. In Version 1.17.0 hinzugefügt.
Klasse SpeechConfig Klasse, die Konfigurationen für die Sprach-/Absichtserkennung oder Die Sprachsynthese definiert.
Klasse SpeechRecognitionCanceledEventArgs Klasse für spracherkennung abgebrochene Ereignisargumente.
Klasse SpeechRecognitionEventArgs Klasse für Spracherkennungsereignisargumente.
Klasse SpeechRecognitionModel Informationen zum Spracherkennungsmodell.
Klasse SpeechRecognitionResult Basisklasse für Spracherkennungsergebnisse.
Klasse SpeechRecognizer Klasse für Spracherkennungen.
Klasse SpeechSynthesisBookmarkEventArgs Klasse für Sprachsynthese-Textmarkenereignisargumente. In Version 1.16.0 hinzugefügt.
Klasse SpeechSynthesisCancellationDetails Enthält detaillierte Informationen dazu, warum ein Ergebnis abgebrochen wurde. In Version 1.4.0 hinzugefügt.
Klasse SpeechSynthesisEventArgs Klasse für Sprachsynthese-Ereignisargumente. In Version 1.4.0 hinzugefügt.
Klasse SpeechSynthesisRequest Klasse, die die Sprachsyntheseanforderung definiert. Diese Klasse befindet sich in der Vorschau und kann geändert werden. In Version 1.37.0 hinzugefügt.
Klasse SpeechSynthesisResult Enthält Informationen zum Ergebnis aus der Text-zu-Sprache-Synthese. In Version 1.4.0 hinzugefügt.
Klasse SpeechSynthesisVisemeEventArgs Klasse für sprachsynthese viseme-Ereignisargumente. In Version 1.16.0 hinzugefügt.
Klasse SpeechSynthesisWordBoundaryEventArgs Klasse für Wortbegrenzungsereignisargumente für die Sprachsynthese. In Version 1.7.0 hinzugefügt.
Klasse SpeechSynthesizer Klasse für Sprachsynthesizer. Aktualisiert in Version 1.14.0.
Klasse SpeechTranslationModel Informationen zum Sprachübersetzungsmodell.
Klasse SynthesisVoicesResult Enthält Informationen zum Ergebnis aus der Stimmenliste von Sprachsynthesizern. In Version 1.16.0 hinzugefügt.
VoiceInfo- Enthält Informationen zu Synthesestimmeinformationen, die in Version 1.17.0 aktualisiert wurden.

Angehörige

Enumeration PropertyId

Werte Beschreibungen
SpeechServiceConnection_Key Der Abonnementschlüssel "Cognitive Services Speech Service". Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint Der Endpunkt des Cognitive Services Speech Service (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird.
SpeechServiceConnection_Region Die Region Cognitive Services Speech Service. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type Der Autorisierungstyp "Cognitive Services Speech Service". Derzeit nicht verwendet.
SpeechServiceConnection_EndpointId Die Id des Benutzerdefinierten Spracherkennungs- oder benutzerdefinierten VoIP-Diensts. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetEndpointId. HINWEIS: Die Endpunkt-ID ist im benutzerdefinierten Sprachportal verfügbar, das unter "Endpunktdetails" aufgeführt ist.
SpeechServiceConnection_Host Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_ProxyPort Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_ProxyUserName Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_ProxyPassword Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_Url Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. HINWEIS: In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_ProxyHostBypass Gibt die Liste der Hosts an, für die Proxys nicht verwendet werden sollen. Diese Einstellung setzt alle anderen Konfigurationen außer Kraft. Hostnamen werden durch Kommas getrennt und auf eine Groß-/Kleinschreibung abgeglichen. Wildcards werden nicht unterstützt.
SpeechServiceConnection_TranslationToLanguages Die Liste der durch Kommas getrennten Sprachen, die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::AddTargetLanguage und SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice Der Name des Cognitive Service Text to Speech Service Voice. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::SetVoiceName. HINWEIS: Gültige Sprachnamen finden Sie hier.
SpeechServiceConnection_TranslationFeatures Übersetzungsfeatures. Für die interne Verwendung.
SpeechServiceConnection_IntentRegion Die Region "Sprachverständnisdienst". Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode Der Erkennungsmodus "Cognitive Services Speech Service". Kann "INTERACTIVE", "CONVERSATION", "DICTATION" lauten. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern.
SpeechServiceConnection_RecoLanguage Die gesprochene Sprache, die erkannt werden soll (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId Die Sitzungs-ID. Diese ID ist ein universal eindeutiger Bezeichner (auch UUID genannt), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennungsinstanz darstellt, an die sie gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Die Abfrageparameter, die von Benutzern bereitgestellt werden. Sie werden als URL-Abfrageparameter an den Dienst übergeben. In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_RecoBackend Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_RecoModelName Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_RecoModelKey Diese Eigenschaft ist veraltet.
SpeechServiceConnection_RecoModelIniFile Der Pfad zur Ini-Datei des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthLanguage Die gesprochene Sprache, die synthetisiert werden soll (z. B. en-US) In Version 1.4.0 hinzugefügt.
SpeechServiceConnection_SynthVoice Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll, die in Version 1.4.0 hinzugefügt wurde.
SpeechServiceConnection_SynthOutputFormat Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats, das in Version 1.4.0 hinzugefügt wurde.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Gibt an, ob komprimiertes Audioformat für die Sprachsynthese-Audioübertragung verwendet wird. Diese Eigenschaft wirkt sich nur aus, wenn SpeechServiceConnection_SynthOutputFormat auf ein PCM-Format festgelegt ist. Wenn diese Eigenschaft nicht festgelegt ist und GStreamer verfügbar ist, verwendet DAS SDK komprimiertes Format für die synthetisierte Audioübertragung und decodiert sie. Sie können diese Eigenschaft auf "false" festlegen, um das rohe PCM-Format für die Übertragung auf Draht zu verwenden. In Version 1.16.0 hinzugefügt.
SpeechServiceConnection_SynthBackend Die Zeichenfolge zum Angeben des TTS-Back-Ends; Gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths, um das Synthese-Back-End offline festzulegen. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthOfflineDataPath Die Datendateipfade für das Offlinesynthesemodul; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthOfflineVoice Der Name der Offline-TTS-Stimme, die unter normalen Umständen für die Sprachsynthese verwendet werden soll, sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice und EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthModelKey Diese Eigenschaft ist veraltet.
SpeechServiceConnection_VoicesListEndpoint Der Api-Endpunkt der Cognitive Services Speech Service-Stimmenliste (URL). Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben, das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In Version 1.16.0 hinzugefügt.
SpeechServiceConnection_InitialSilenceTimeoutMs Der anfängliche Stilletimeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_EndSilenceTimeoutMs Der End-Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_EnableAudioLogging Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement verknüpft ist (Bring Your Own Storage (BYOS) aktivierte Sprachressource). In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_LanguageIdMode Der Sprachbezeichnermodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Fortlaufend" sein. Siehe Dokument zur Sprachidentifikation. In 1.25.0 hinzugefügt.
SpeechServiceConnection_TranslationCategoryId Die CategoryId für die Übersetzung der Sprachdienstverbindung.
SpeechServiceConnection_AutoDetectSourceLanguages Die automatisch erkannten Quellsprachen, die in Version 1.8.0 hinzugefügt wurden.
SpeechServiceConnection_AutoDetectSourceLanguageResult Das Ergebnis der automatischen Erkennung der Quellsprache wurde in Version 1.8.0 hinzugefügt.
SpeechServiceResponse_RequestDetailedResultTrueFalse Das angeforderte Ausgabeformat für Cognitive Services Speech Service (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse Die angeforderte Cognitive Services Speech Service Antwort-Ausgabe-Profanitätsstufe. Derzeit nicht verwendet.
SpeechServiceResponse_ProfanityOption Die angeforderte Einstellung für cognitive Services Speech Service-Antwort-Profanität. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_PostProcessingOption Ein Zeichenfolgenwert, der angibt, welche Nachbearbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_RequestWordLevelTimestamps Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_StablePartialResultThreshold Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_OutputFormatOption Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur interne Verwendung. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_RequestSnr Ein boolescher Wert, der angibt, ob SNR (Signal-zu-Rauschverhältnis) in das Antwortergebnis eingeschlossen werden soll. In Version 1.18.0 hinzugefügt.
SpeechServiceResponse_TranslationRequestStablePartialResult Ein boolescher Wert, der zur Stabilisierung von Übersetzungsteilergebnissen anfordert, indem Wörter am Ende weggelassen werden. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_RequestWordBoundary Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse angefordert werden sollen. In Version 1.21.0 hinzugefügt.
SpeechServiceResponse_RequestPunctuationBoundary Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist true. In Version 1.21.0 hinzugefügt.
SpeechServiceResponse_RequestSentenceBoundary Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen angefordert werden soll. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt.
SpeechServiceResponse_SynthesisEventsSyncToAudio Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist true. Wenn dieser Wert auf "false" festgelegt ist, löst das SDK die Ereignisse aus, die vom Dienst stammen, was möglicherweise nicht mehr mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt.
SpeechServiceResponse_JsonResult Die Antwortausgabe des Cognitive Services Speech Service (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar.
SpeechServiceResponse_JsonErrorDetails Fehlerdetails des Cognitive Services Speech Service (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-/Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Moment, in dem das Endergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeitpunkt, zu dem das Endergebnis vom Sprachdienst empfangen wird. In Version 1.3.0 hinzugefügt.
SpeechServiceResponse_RecognitionBackend Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (Online) oder eingebettete (Offline)-Erkennung verwendet wurde, um das Ergebnis zu erzielen.
SpeechServiceResponse_SynthesisFirstByteLatencyMs Die Erste Bytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Moment, in dem das erste Byteaudio verfügbar ist. In Version 1.17.0 hinzugefügt.
SpeechServiceResponse_SynthesisFinishLatencyMs Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Moment, in dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt.
SpeechServiceResponse_SynthesisUnderrunTimeMs Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dadurch wird die Gesamtunterlaufzeit von PropertyId::AudioConfig_PlaybackBufferLengthInMs gefüllt, um die Synthese abgeschlossen zu machen. In Version 1.17.0 hinzugefügt.
SpeechServiceResponse_SynthesisConnectionLatencyMs Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Latenz zwischen dem Beginn der Verarbeitung der Synthese und dem Zeitpunkt, an dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt.
SpeechServiceResponse_SynthesisNetworkLatencyMs Die Latenz des Sprachsynthesenetzwerks in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Roundtripzeit des Netzwerks. In Version 1.26.0 hinzugefügt.
SpeechServiceResponse_SynthesisServiceLatencyMs Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar bei endgültigen Sprachsyntheseergebnissen. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt.
SpeechServiceResponse_SynthesisBackend Gibt an, mit welchem Back-End die Synthese abgeschlossen ist. Schreibgeschützt, verfügbar bei Sprachsyntheseergebnissen, mit Ausnahme des Ergebnisses im "SynthesisStarted"-Ereignis, das in Version 1.17.0 hinzugefügt wurde.
SpeechServiceResponse_DiarizeIntermediateResults Bestimmt, ob Zwischenergebnisse Sprecheridentifikation enthalten.
CancellationDetails_Reason Der Grund für die Kündigung. Derzeit nicht verwendet.
CancellationDetails_ReasonText Der Abbruchtext. Derzeit nicht verwendet.
CancellationDetails_ReasonDetailedText Der detaillierte Text für den Abbruch. Derzeit nicht verwendet.
LanguageUnderstandingServiceResponse_JsonResult Die Antwortausgabe des Sprachverständnisdiensts (im JSON-Format). Verfügbar über IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture Der Gerätename für die Audioaufnahme. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromMicrophoneInput. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_NumberOfChannelsForCapture Die Anzahl der Kanäle für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_SampleRateForCapture Die Samplingrate (in Hz) für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_BitsPerSampleForCapture Die Anzahl der Bits jedes Beispiels für die Audioaufnahme. Nur interne Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_AudioSource Die Audioquelle. Zulässige Werte sind "Mikrofone", "Datei" und "Stream". In Version 1.3.0 hinzugefügt.
AudioConfig_DeviceNameForRender Der Gerätename für das Audiorenderen. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromSpeakerOutput. In Version 1.14.0 hinzugefügt.
AudioConfig_PlaybackBufferLengthInMs Die Wiedergabepufferlänge in Millisekunden beträgt standardmäßig 50 Millisekunden.
AudioConfig_AudioProcessingOptions Audioverarbeitungsoptionen im JSON-Format.
Speech_LogFilename Der Dateiname zum Schreiben von Protokollen. In Version 1.4.0 hinzugefügt.
Speech_SegmentationSilenceTimeoutMs Eine Dauer der erkannten Stille, gemessen in Millisekunden, nach der Sprach-zu-Text bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert. Die Konfiguration dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent Ergebnisse liefert, die zu lang oder zu kurz sind. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Sprach-zu-Text-Genauigkeit auswirken; Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte sorgfältig überprüft werden, wie beabsichtigt.
Speech_SegmentationMaximumTimeMs Die maximale Länge eines gesprochenen Ausdrucks bei Verwendung der Segmentierungsstrategie "Zeit". Wenn sich die Länge eines gesprochenen Ausdrucks diesem Wert nähert, beginnt die Speech_SegmentationSilenceTimeoutMs zu reduzieren, bis entweder das Timeout für den Ausdruck stumm geschlagen wird oder der Ausdruck die maximale Länge erreicht.
Speech_SegmentationStrategy Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic".
Conversation_ApplicationId Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt.
Conversation_DialogType Typ des Dialog-Back-End zum Herstellen einer Verbindung mit. In Version 1.7.0 hinzugefügt.
Conversation_Initial_Silence_Timeout Stille Timeout für die Überwachung Hinzugefügt in Version 1.5.0.
Conversation_From_Id Von der ID, die für Spracherkennungsaktivitäten verwendet werden soll, die in Version 1.5.0 hinzugefügt wurden.
Conversation_Conversation_Id ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt.
Conversation_Custom_Voice_Deployment_Ids Kommagetrennte Liste der benutzerdefinierten VoIP-Bereitstellungs-IDs. In Version 1.8.0 hinzugefügt.
Conversation_Speech_Activity_Template Sprachaktivitätsvorlage, Stempeleigenschaften in der Vorlage für die vom Dienst für Sprache generierte Aktivität. In Version 1.10.0 hinzugefügt.
Conversation_ParticipantId Ihr Teilnehmerbezeichner in der aktuellen Unterhaltung. In Version 1.13.0 hinzugefügt.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Der Zeitstempel, der dem vom Client geschriebenen Datenpuffer zugeordnet ist, wenn Pull-/Push-Audioeingabedatenströme verwendet werden. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Sie entspricht dem Zeitstempel der Präsentation in einem MPEG-Transportdatenstrom. Siehe https://en.wikipedia.org/wiki/Presentation_timestamp Hinzugefügt in Version 1.5.0.
DataBuffer_UserId Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull-/Push-Audioeingabedatenströmen zugeordnet ist. In Version 1.5.0 hinzugefügt.
PronunciationAssessment_ReferenceText Der Referenztext des Audiosignals zur Ausspracheauswertung. Dies und die folgenden Parameter für die Aussprachebewertung finden Sie in der Tabelle Parameter für die Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create oder PronunciationAssessmentConfig::SetReferenceText. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_GradingSystem Das Punktsystem für die Aussprachebewertungsbewertung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_Granularity Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_EnableMiscue Definiert, ob die Fehlberechnung aktiviert wird. Damit werden die ausgesprochenen Wörter mit dem Bezugstext verglichen und basierend auf dem Vergleich mit Auslassung/Einfügung markiert. Die Standardeinstellung ist False. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_PhonemeAlphabet Das Ausspracheauswertungs-Phoneme-Alphabet. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetPhonemeAlphabet. In Version 1.20.0 hinzugefügt.
PronunciationAssessment_NBestPhonemeCount Die Ausspracheauswertung nbest phoneme count. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetNBestPhonemeCount. In Version 1.20.0 hinzugefügt.
PronunciationAssessment_EnableProsodyAssessment Gibt an, ob die Prosodybewertung aktiviert werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AusspracheAssessmentConfig::EnableProsodyAssessment. In Version 1.33.0 hinzugefügt.
PronunciationAssessment_Json Die JSON-Zeichenfolge der Parameter für die Aussprachebewertung unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_Params Bewertungsparameter für die Aussprache. Diese Eigenschaft ist schreibgeschützt. Das SDK verwendet es intern. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_ContentTopic Das Inhaltsthema der Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. In Version 1.33.0 hinzugefügt.
SpeakerRecognition_Api_Version Back-End-API-Version der Lautsprechererkennung. Diese Eigenschaft wird hinzugefügt, um ggf. Tests und Verwendung früherer Versionen von Sprechererkennungs-APIs zu ermöglichen. In Version 1.18.0 hinzugefügt.
SpeechTranslation_ModelName Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird.
SpeechTranslation_ModelKey Diese Eigenschaft ist veraltet.
KeywordRecognition_ModelName Der Name eines Modells, das für die Schlüsselworterkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Derzeit ist dies nur gültig, wenn EmbeddedSpeechConfig verwendet wird.
KeywordRecognition_ModelKey Diese Eigenschaft ist veraltet.
EmbeddedSpeech_EnablePerformanceMetrics Aktivieren Sie die Sammlung eingebetteter Sprachleistungsmetriken, die zum Auswerten der Funktion eines Geräts für die Verwendung eingebetteter Spracherkennung verwendet werden können. Die gesammelten Daten werden in Die Ergebnisse bestimmter Szenarien wie der Spracherkennung einbezogen. Die Standardeinstellung ist "false". Beachten Sie, dass Metriken möglicherweise nicht in allen eingebetteten Sprachszenarien verfügbar sind.
SpeechSynthesisRequest_Pitch Die Neigung der synthetisierten Sprache.
SpeechSynthesisRequest_Rate Die Rate der synthetisierten Sprache.
SpeechSynthesisRequest_Volume Die Lautstärke der synthetisierten Sprache.

Definiert Spracheigenschaften-IDs. Geändert in Version 1.4.0.

Enumeration OutputFormat

Werte Beschreibungen
Einfach
Detailliert

Ausgabeformat.

Aufzählung ProfanityOption

Werte Beschreibungen
Getarnt Ersetzt Buchstaben in profanen Wörtern durch Sternzeichen.
Entfernt Entfernt profane Wörter.
Roh Macht nichts für profane Wörter.

Entfernt Profanität (Schwören) oder ersetzt Buchstaben von profanen Wörtern durch Sterne. In Version 1.5.0 hinzugefügt.

Enumeration ResultReason

Werte Beschreibungen
NoMatch Gibt an, dass die Spracherkennung nicht erkannt werden konnte. Weitere Details finden Sie im NoMatchDetails-Objekt.
Abgebrochen Gibt an, dass die Erkennung abgebrochen wurde. Weitere Details finden Sie unter Verwendung des CancellationDetails-Objekts.
ErkennenSpeech Gibt an, dass das Sprachergebnis Hypothesentext enthält.
RecognizedSpeech Gibt an, dass das Sprachergebnis den endgültigen Text enthält, der erkannt wurde. Die Spracherkennung ist jetzt für diesen Ausdruck vollständig.
Erkennen vonIntent Gibt an, dass das Absichtsergebnis Hypothesentext und -absicht enthält.
ErkanntIntent Gibt an, dass das Absichtsergebnis den endgültigen Text und die Absicht enthält. Die Erkennung von Spracherkennung und Absicht ist jetzt für diesen Ausdruck vollständig.
ÜbersetzenSpeech Gibt an, dass das Übersetzungsergebnis Hypothesentext und seine Übersetzungen enthält.
TranslatedSpeech Gibt an, dass das Übersetzungsergebnis den endgültigen Text und die entsprechenden Übersetzungen enthält. Spracherkennung und Übersetzung sind jetzt für diesen Ausdruck vollständig.
SynthesizingAudio Gibt an, dass das synthetisierte Audioergebnis eine Nicht-Null-Menge an Audiodaten enthält.
SynthesizingAudioCompleted Gibt an, dass die synthetisierten Audiodaten für diesen Ausdruck jetzt vollständig sind.
Erkennen vonKeyword Gibt an, dass das Sprachergebnis (nicht überprüft) Schlüsselworttext enthält. In Version 1.3.0 hinzugefügt.
RecognizedKeyword Gibt an, dass die Schlüsselworterkennung abgeschlossen wurde, um das angegebene Schlüsselwort zu erkennen. In Version 1.3.0 hinzugefügt.
SynthesizingAudioStarted Gibt an, dass die Sprachsynthese jetzt in Version 1.4.0 hinzugefügt wurde.
ÜbersetzenParticipantSpeech Gibt an, dass das Transkriptionsergebnis Hypothesentext und seine Übersetzungen für andere Teilnehmer in der Unterhaltung enthält. In Version 1.8.0 hinzugefügt.
TranslatedParticipantSpeech Gibt an, dass das Transkriptionsergebnis endgültige Texte und entsprechende Übersetzungen für andere Teilnehmer der Unterhaltung enthält. Spracherkennung und Übersetzung sind jetzt für diesen Ausdruck vollständig. In Version 1.8.0 hinzugefügt.
TranslatedInstantMessage Gibt das Transkriptionsergebnis an, das die Chatnachricht und die entsprechenden Übersetzungen enthält. In Version 1.8.0 hinzugefügt.
TranslatedParticipantInstantMessage Gibt das Transkriptionsergebnis an, das die Chatnachricht für andere Teilnehmer in der Unterhaltung und entsprechende Übersetzungen enthält. In Version 1.8.0 hinzugefügt.
EnrollingVoiceProfile Gibt an, dass das VoIP-Profil registriert wird und Kunden mehr Audio senden müssen, um ein VoIP-Profil zu erstellen. In Version 1.12.0 hinzugefügt.
EnrolledVoiceProfile Das VoIP-Profil wurde registriert. In Version 1.12.0 hinzugefügt.
AnerkannteSpeaker Gibt die erfolgreiche Identifizierung einiger Lautsprecher an. In Version 1.12.0 hinzugefügt.
RecognizedSpeaker Gibt an, dass ein Lautsprecher erfolgreich überprüft wurde. In Version 1.12.0 hinzugefügt.
ResetVoiceProfile Gibt an, dass ein VoIP-Profil erfolgreich zurückgesetzt wurde. In Version 1.12.0 hinzugefügt.
DeletedVoiceProfile Gibt an, dass ein VoIP-Profil erfolgreich gelöscht wurde. In Version 1.12.0 hinzugefügt.
VoicesListRetrieved Gibt an, dass die Stimmenliste erfolgreich abgerufen wurde. In Version 1.16.0 hinzugefügt.

Gibt die möglichen Gründe an, warum ein Erkennungsergebnis generiert werden kann.

Enumeration CancellationReason

Werte Beschreibungen
Fehler Gibt an, dass während der Spracherkennung ein Fehler aufgetreten ist.
EndOfStream Gibt an, dass das Ende des Audiodatenstroms erreicht wurde.
CancelledByUser Gibt an, dass die Anforderung vom Benutzer abgebrochen wurde. In Version 1.14.0 hinzugefügt.

Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann.

Enumeration CancellationErrorCode

Werte Beschreibungen
NoError Kein Fehler. Wenn CancellationReason EndOfStream ist, wird CancellationErrorCode auf NoError festgelegt.
AuthenticationFailure Gibt einen Authentifizierungsfehler an. Ein Authentifizierungsfehler tritt auf, wenn abonnementschlüssel oder Autorisierungstoken ungültig, abgelaufen oder nicht mit der verwendeten Region übereinstimmt.
BadRequest Gibt an, dass mindestens ein Erkennungsparameter ungültig ist oder das Audioformat nicht unterstützt wird.
TooManyRequests Gibt an, dass die Anzahl der parallelen Anforderungen die Anzahl der zulässigen gleichzeitigen Transkriptionen für das Abonnement überschritten hat.
Verboten Gibt an, dass das kostenlose Abonnement, das von der Anforderung verwendet wird, nicht mehr Kontingent hat.
ConnectionFailure Gibt einen Verbindungsfehler an.
ServiceTimeout Gibt einen Timeoutfehler an, wenn auf die Antwort des Diensts gewartet wird.
ServiceError Gibt an, dass ein Fehler vom Dienst zurückgegeben wird.
ServiceUnavailable Gibt an, dass der Dienst zurzeit nicht verfügbar ist.
RuntimeError Gibt einen unerwarteten Laufzeitfehler an.
ServiceRedirectTemporary Gibt an, dass der Sprachdienst vorübergehend eine erneute Verbindung mit einem anderen Endpunkt anfordert.
ServiceRedirectPermanent Gibt an, dass der Spracherkennungsdienst dauerhaft eine erneute Verbindung mit einem anderen Endpunkt anfordert.
EmbeddedModelError Gibt an, dass das eingebettete Spracherkennungsmodell (SR oder TTS) nicht verfügbar oder beschädigt ist.

Definiert den Fehlercode, wenn "CancellationReason" "Error" lautet. In Version 1.1.0 hinzugefügt.

Enumeration NoMatchReason

Werte Beschreibungen
NotRecognized Gibt an, dass die Spracherkennung erkannt, aber nicht erkannt wurde.
InitialSilenceTimeout Gibt an, dass der Start des Audiodatenstroms nur Stille enthielt, und der Dienst hat keine Zeitüberschreitung beim Warten auf die Spracherkennung.
InitialBabbleTimeout Gibt an, dass der Start des Audiodatenstroms nur Rauschen enthielt, und der Dienst hat keine Zeitüberschreitung beim Warten auf die Spracherkennung.
KeywordNotRecognized Gibt an, dass das gefleckte Schlüsselwort vom Schlüsselwortüberprüfungsdienst abgelehnt wurde. In Version 1.5.0 hinzugefügt.
EndSilenceTimeout Gibt an, dass der Audiodatenstrom nach dem letzten erkannten Ausdruck nur Stille enthielt.

Definiert die möglichen Gründe, warum ein Erkennungsergebnis möglicherweise nicht erkannt wird.

Enumeration ActivityJSONType

Werte Beschreibungen
Null
Objekt
Anordnung
Schnur
Doppelt
UInt
Int
Boolesch

Definiert die möglichen Typen für einen Aktivitäts-JSON-Wert. In Version 1.5.0 hinzugefügt.

Enumeration SpeechSynthesisOutputFormat

Werte Beschreibungen
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16 kbps-mono-siren Nicht vom Dienst unterstützt. Verwenden Sie diesen Wert nicht.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Nicht vom Dienst unterstützt. Verwenden Sie diesen Wert nicht.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Hinzugefügt in Version 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Hinzugefügt in Version 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Hinzugefügt in Version 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Hinzugefügt in Version 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Hinzugefügt in Version 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Hinzugefügt in Version 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24 kbps-mono-opus Audio komprimiert von OPUS Codec in einem WebM-Container mit Bitrate von 24 KBps, optimiert für IoT-Szenario. (Hinzugefügt in 1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio komprimiert von OPUS Codec ohne Container, mit Bitrate von 32 KBit/s. (Hinzugefügt in 1.20.0)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio komprimiert von OPUS Codec ohne Container, mit Bitrate von 48 KBps. (Hinzugefügt in 1.20.0)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24 kbps-mono-opus Audio komprimiert von OPUS Codec ohne Container, mit Bitrate von 24 KBps. (Hinzugefügt in 1.20.0)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Raw PCM Audio bei 22050Hz Samplingrate und 16-Bit-Tiefe. (Hinzugefügt in 1.22.0)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm PCM audio bei 22050Hz Samplingrate und 16-Bit-Tiefe, mit RIFF-Header. (Hinzugefügt in 1.22.0)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Raw PCM audio bei 44100Hz Samplingrate und 16-Bit-Tiefe. (Hinzugefügt in 1.22.0)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm PCM audio bei 44100Hz Samplingrate und 16-Bit-Tiefe, mit RIFF-Header. (Hinzugefügt in 1.22.0)
AmrWb16000Hz amr-wb-16000hz AMR-WB Audio mit 16kHz Samplingrate. (Hinzugefügt in 1.24.0)
G72216Khz64Kbps g722-16khz-64 kbps G.722 Audio bei 16kHz Samplingrate und 64 KB Bitrate. (Hinzugefügt in 1.38.0)

Definiert die möglichen Audioformate für die Sprachsynthese. Aktualisiert in Version 1.19.0.

StreamStatus aufzählen

Werte Beschreibungen
Unbekannt Der Status des Audiodatenstroms ist unbekannt.
NoData Der Audiodatenstrom enthält keine Daten.
PartialData Der Audiodatenstrom enthält Teildaten einer Sprachanfrage.
AllData Der Audiodatenstrom enthält alle Daten einer Sprachanfrage.
Abgebrochen Der Audiodatenstrom wurde abgebrochen.

Definiert den möglichen Status des Audiodatenstroms. In Version 1.4.0 hinzugefügt.

Enumeration ServicePropertyChannel

Werte Beschreibungen
UriQueryParameter Verwendet den URI-Abfrageparameter, um Eigenschafteneinstellungen an den Dienst zu übergeben.
HttpHeader Verwendet HttpHeader, um einen Schlüssel/Wert in einem HTTP-Header festzulegen.

Definiert Kanäle, die zum Übergeben von Eigenschaftseinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt.

Enumeration VoiceProfileType

Werte Beschreibungen
TextIndependentIdentification Textunabhängige Sprecheridentifikation.
TextDependentVerification Überprüfung des textabhängigen Sprechers.
TextIndependentVerification Textunabhängige Überprüfung.

Definiert VoIP-Profiltypen.

Enumeration RecognitionFactorScope

Werte Beschreibungen
PartialPhrase Ein Erkennungsfaktor gilt für Grammatiken, auf die als einzelne Teilausdrücke verwiesen werden kann.

Definiert den Bereich, auf den ein Erkennungsfaktor angewendet wird.

Enumeration PronunciationAssessmentGradingSystem

Werte Beschreibungen
FünfPoint Kalibrierung von fünf Punkten.
Hundertmark Hundert Zeichen.

Definiert das Punktsystem für die Aussprachebewertungskalibrierung; Der Standardwert ist FivePoint. In Version 1.14.0 hinzugefügt.

Enumeration PronunciationAssessmentGranularity

Werte Beschreibungen
Phonem Zeigt die Bewertung auf der Volltext-, Wort- und Phoneme-Ebene an.
Wort Zeigt die Bewertung auf der Volltext- und Wortebene an.
FullText Zeigt die Bewertung nur auf der Volltextebene an.

Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist "Phoneme". In Version 1.14.0 hinzugefügt.

Enumeration SynthesisVoiceType

Werte Beschreibungen
OnlineNeural Neurale Onlinestimme.
OnlineStandard Online-Standardstimme.
OfflineNeural Neurale Offlinestimme.
OfflineStandard Offlinestandardstimme.

Definiert den Typ der Synthesestimmchen, die in Version 1.16.0 hinzugefügt wurden.

Enumeration SynthesisVoiceGender

Werte Beschreibungen
Unbekannt Geschlecht unbekannt.
Weiblich Frauenstimme.
Männlich Männerstimme.

Definiert das Geschlecht der Synthesestimmungen, die in Version 1.17.0 hinzugefügt wurden.

Enumeration SpeechSynthesisBoundaryType

Werte Beschreibungen
Wort Word-Grenze.
Interpunktion Interpunktionsgrenze.
Satz Satzgrenze.

Definiert den Grenztyp des Sprachsynthesebegrenzungsereignisses, das in Version 1.21.0 hinzugefügt wurde.

Enumeration SegmentationStrategy

Werte Beschreibungen
Vorgabe Verwenden Sie die Standardstrategie und -einstellungen, wie sie vom Spracherkennungsdienst bestimmt werden. Wird in den meisten Situationen verwendet.
Zeit Verwendet eine zeitbasierte Strategie, bei der die Stille zwischen der Sprache verwendet wird, um zu bestimmen, wann ein Endergebnis generiert werden soll.
Semantisch Verwendet ein KI-Modell, um das Ende eines gesprochenen Ausdrucks basierend auf dem Inhalt des Ausdrucks abzuschrecken.

Die Strategie, die verwendet wird, um zu bestimmen, wann ein gesprochener Ausdruck beendet wurde, und ein endgültiges erkanntes Ergebnis sollte generiert werden. Zulässige Werte sind "Default", "Time" und "Semantic".