Freigeben über


Namespace Microsoft::CognitiveServices::Speech

Zusammenfassung

Member Beschreibungen
enum PropertyId Definiert Spracheigenschaften-IDs. In Version 1.4.0 geändert.
Enumeration OutputFormat Ausgabeformat.
enum ProfanityOption Entfernt Profanität (Fluchen) oder ersetzt Buchstaben profaner Wörter durch Sterne. In Version 1.5.0 hinzugefügt.
Enumeration ResultReason Gibt die möglichen Gründe an, aus dem ein Erkennungsergebnis generiert werden kann.
Enumeration CancellationReason Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann.
enum CancellationErrorCode Definiert Fehlercode für den Fall, dass "CancellationReason" "Error" ist. In Version 1.1.0 hinzugefügt.
enum NoMatchReason Definiert die möglichen Gründe, aus dem ein Erkennungsergebnis möglicherweise nicht erkannt wird.
Enumeration ActivityJSONType Definiert die möglichen Typen für einen Aktivitäts-JSON-Wert. In Version 1.5.0 hinzugefügt.
enum SpeechSynthesisOutputFormat Definiert die möglichen Audioformate der Sprachsyntheseausgabe. Aktualisiert in Version 1.19.0.
Enumeration StreamStatus Definiert die mögliche status des Audiodatenstroms. In Version 1.4.0 hinzugefügt.
Aufzählung ServicePropertyChannel Definiert Kanäle, die zum Übergeben von Eigenschafteneinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt.
enum VoiceProfileType Definiert Sprachprofiltypen.
Enumeration RecognitionFactorScope Definiert den Bereich, auf den ein Erkennungsfaktor angewendet wird.
enum PronunciationAssessmentGradingSystem Definiert das Punktsystem für die Kalibrierung der Aussprachebewertung; Der Standardwert ist FivePoint. In Version 1.14.0 hinzugefügt.
enum PronunciationAssessmentGranularity Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist Phoneme. In Version 1.14.0 hinzugefügt.
enum SynthesisVoiceType Definiert den Typ der synthesen Stimmen, die in Version 1.16.0 hinzugefügt wurden.
enum SynthesisVoiceGender Definiert das Geschlecht von Synthesestimmchen, die in Version 1.17.0 hinzugefügt wurden.
enum SpeechSynthesisBoundaryType Definiert den Begrenzungstyp des In Version 1.21.0 hinzugefügten Ereigniss für die Sprachsynthese.
Klasse AsyncRecognizer Abstrakte AsyncRecognizer-Basisklasse.
AudioDataStream-Klasse Stellt den Audiodatenstrom dar, der zum Betreiben von Audiodaten als Stream verwendet wird. In Version 1.4.0 hinzugefügt.
AutoDetectSourceLanguageConfig-Klasse Klasse, die die Quellkonfiguration der automatischen Erkennung definiert Aktualisiert in Version 1.13.0.
AutoDetectSourceLanguageResult-Klasse Enthält automatisch erkanntes Quellspracheergebnis, das in 1.8.0 hinzugefügt wurde.
BaseAsyncRecognizer-Klasse BaseAsyncRecognizer-Klasse.
Klasse CancellationDetails Enthält ausführliche Informationen dazu, warum ein Ergebnis abgebrochen wurde.
ClassLanguageModel Stellt eine Liste von Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt.
Class Connection Connection ist eine Proxyklasse zum Verwalten der Verbindung mit dem Sprachdienst der angegebenen Erkennung. Standardmäßig verwaltet eine Erkennung die Verbindung mit dem Dienst bei Bedarf autonom. Die Connection-Klasse bietet zusätzliche Methoden für Benutzer, um eine Verbindung explizit zu öffnen oder zu schließen und eine Verbindung status Änderungen zu abonnieren. Die Verwendung von Connection ist optional. Es ist für Szenarien vorgesehen, in denen eine Feinabstimmung des Anwendungsverhaltens basierend auf der Verbindung status erforderlich ist. Benutzer können optional Open() aufrufen, um eine Dienstverbindung manuell zu initiieren, bevor sie mit der Erkennung auf der Erkennung beginnen, die dieser Verbindung zugeordnet ist. Nach dem Starten einer Erkennung schlägt das Aufrufen von Open() oder Close() möglicherweise fehl. Dies wirkt sich nicht auf die Erkennung oder die laufende Erkennung aus. Die Verbindung kann aus verschiedenen Gründen nicht mehr hergestellt werden. Die Erkennung versucht immer, die Verbindung nach Bedarf neu zu erstellen, um den laufenden Betrieb zu gewährleisten. In all diesen Fällen geben Connected/Disconnected-Ereignisse die Änderung der Verbindung status an. Aktualisiert in Version 1.17.0.
ConnectionEventArgs-Klasse Stellt Daten für das ConnectionEvent bereit. In Version 1.2.0 hinzugefügt.
ConnectionMessage-Klasse ConnectionMessage stellt implementierungsspezifische Nachrichten dar, die an den Sprachdienst gesendet und empfangen werden. Diese Nachrichten werden zu Debugzwecken bereitgestellt und sollten nicht für Produktionsanwendungsfälle mit azure Cognitive Services Speech Service verwendet werden. Nachrichten, die an den Speech-Dienst gesendet und empfangen werden, können ohne Vorankündigung geändert werden. Dies umfasst Nachrichteninhalte, Header, Nutzlasten, Reihenfolge usw. In Version 1.10.0 hinzugefügt.
Klasse ConnectionMessageEventArgs Stellt Daten für das ConnectionMessageEvent bereit.
EmbeddedSpeechConfig-Klasse Klasse, die eingebettete Sprachkonfiguration (offline) definiert.
EventArgs-Klasse Basisklasse für Ereignisargumente.
EventSignal-Klasse Clients können eine Verbindung mit dem Ereignissignal herstellen, um Ereignisse zu empfangen, oder die Verbindung mit dem Ereignissignal trennen, um den Empfang von Ereignissen zu beenden.
EventSignalBase-Klasse Clients können eine Verbindung mit dem Ereignissignal herstellen, um Ereignisse zu empfangen, oder die Verbindung mit dem Ereignissignal trennen, um den Empfang von Ereignissen zu beenden.
Grammatikklasse Stellt die Basisklassengrammatik zum Anpassen der Spracherkennung dar. In Version 1.5.0 hinzugefügt.
GrammarList-Klasse Stellt eine Liste von Grammatiken für dynamische Grammatikszenarien dar. In Version 1.7.0 hinzugefügt.
GrammarPhrase-Klasse Stellt einen Ausdruck dar, der vom Benutzer gesprochen werden kann. In Version 1.5.0 hinzugefügt.
HybridSpeechConfig-Klasse Klasse, die Hybridkonfigurationen (Cloud und Eingebettet) für die Spracherkennung oder Sprachsynthese definiert.
KeywordRecognitionEventArgs-Klasse Klasse für die Ereignisse, die vom KeywordRecognizer emmitiert werden.
Klasse KeywordRecognitionModel Stellt Schlüsselwort (keyword) Erkennungsmodell dar, das mit StartKeywordRecognitionAsync-Methoden verwendet wird.
Klasse KeywordRecognitionResult Klasse, die die vom KeywordRecognizer ausgegebenen Ergebnisse definiert.
Klasse KeywordRecognizer Erkennungstyp, der darauf spezialisiert ist, nur Schlüsselwort (keyword) Aktivierung zu verarbeiten.
Klasse NoMatchDetails Enthält ausführliche Informationen zu NoMatch-Erkennungsergebnissen.
PhraseListGrammar-Klasse Stellt eine Ausdruckslistengrammatik für dynamische Grammatikszenarien dar. In Version 1.5.0 hinzugefügt.
Klasse PronunciationAssessmentConfig Klasse, die die Konfiguration der Aussprachebewertung definiert In Version 1.14.0 hinzugefügt.
Klasse PronunciationAssessmentResult Klasse für Aussprachebewertungsergebnisse.
Klasse PronunciationContentAssessmentResult Klasse für Ergebnisse der Inhaltsbewertung.
PropertyCollection-Klasse Klasse zum Abrufen oder Festlegen eines Eigenschaftswerts aus einer Eigenschaftsauflistung.
RecognitionEventArgs-Klasse Stellt Daten für recognitionEvent bereit.
Klasse RecognitionResult Enthält ausführliche Informationen zum Ergebnis eines Erkennungsvorgangs.
Klassenerkennung Recognizer-Basisklasse.
SessionEventArgs-Klasse Basisklasse für Sitzungsereignisargumente.
SmartHandle-Klasse Smart Handle-Klasse.
SourceLanguageConfig-Klasse Klasse, die die Konfiguration der Quellsprache definiert, hinzugefügt in Version 1.8.0.
SourceLanguageRecognizer-Klasse Klasse für Quellspracherkennungen. Sie können diese Klasse für die eigenständige Spracherkennung verwenden. In Version 1.17.0 hinzugefügt.
SpeechConfig-Klasse Klasse, die Konfigurationen für die Sprach-/ Absichtserkennung oder Sprachsynthese definiert.
Klasse SpeechRecognitionCanceledEventArgs Klasse für abgebrochene Ereignisargumente bei der Spracherkennung.
SpeechRecognitionEventArgs-Klasse Klasse für Spracherkennungsereignisargumente.
SpeechRecognitionModel-Klasse Informationen zum Spracherkennungsmodell.
SpeechRecognitionResult-Klasse Basisklasse für Spracherkennungsergebnisse.
SpeechRecognizer-Klasse Klasse für Spracherkennungen.
SpeechSynthesisBookmarkEventArgs-Klasse Klasse für Textmarkenereignisargumente der Sprachsynthese. In Version 1.16.0 hinzugefügt.
SpeechSynthesisCancellationDetails-Klasse Enthält ausführliche Informationen dazu, warum ein Ergebnis abgebrochen wurde. In Version 1.4.0 hinzugefügt.
SpeechSynthesisEventArgs-Klasse Klasse für Sprachsyntheseereignisargumente. In Version 1.4.0 hinzugefügt.
SpeechSynthesisResult-Klasse Enthält Informationen zum Ergebnis der Text-zu-Sprache-Synthese. In Version 1.4.0 hinzugefügt.
SpeechSynthesisVisemeEventArgs-Klasse Klasse für Sprachsynthese-Visemereignisargumente. In Version 1.16.0 hinzugefügt.
SpeechSynthesisWordBoundaryEventArgs-Klasse -Klasse für Wortbegrenzungsereignisargumente für die Sprachsynthese. In Version 1.7.0 hinzugefügt.
SpeechSynthesizer-Klasse Klasse für Sprachsynthesizer. Aktualisiert in Version 1.14.0.
SpeechTranslationModel-Klasse Informationen zum Sprachübersetzungsmodell.
SynthesisVoicesResult-Klasse Enthält Informationen zum Ergebnis aus der Stimmenliste von Sprachsynthesizern. In Version 1.16.0 hinzugefügt.
VoiceInfo-Klasse Enthält Informationen zur Sprachsynthese Aktualisiert in Version 1.17.0.

Member

enum PropertyId

Werte Beschreibungen
SpeechServiceConnection_Key Der Cognitive Services Speech Service-Abonnementschlüssel. Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint Der Cognitive Services Speech Service-Endpunkt (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird.
SpeechServiceConnection_Region Die Cognitive Services Speech Service-Region. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type Der Cognitive Services Speech Service-Autorisierungstyp. Derzeit nicht verwendet.
SpeechServiceConnection_EndpointId Die Cognitive Services Custom Speech- oder Custom Voice Service-Endpunkt-ID. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetEndpointId. HINWEIS: Die Endpunkt-ID ist im Custom Speech-Portal verfügbar, das unter Endpunktdetails aufgeführt ist.
SpeechServiceConnection_Host Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_ProxyPort Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_ProxyUserName Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_ProxyPassword Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt.
SpeechServiceConnection_Url Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. HINWEIS: In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_TranslationToLanguages Die Liste der durch Kommas getrennten Sprachen, die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::AddTargetLanguage und SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice Der Name der Cognitive Service-Sprachausgabe für Text zu Spracherkennung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::SetVoiceName. HINWEIS: Gültige Sprachnamen finden Sie hier.
SpeechServiceConnection_TranslationFeatures Übersetzungsfeatures. Für die interne Verwendung.
SpeechServiceConnection_IntentRegion Die Language Understanding-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode Der Cognitive Services Speech Service-Erkennungsmodus. Kann "INTERAKTIV", "UNTERHALTUNG", "DIKTATION" sein. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern.
SpeechServiceConnection_RecoLanguage Die zu erkennende Gesprochene Sprache (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId Die Sitzungs-ID. Diese ID ist ein universell eindeutiger Bezeichner (auch als UUID bezeichnet), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennung instance darstellt, an die er gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Die von Benutzern bereitgestellten Abfrageparameter. Sie werden als URL-Abfrageparameter an den Dienst übergeben. In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_RecoBackend Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_RecoModelName Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_RecoModelKey Der Entschlüsselungsschlüssel des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_RecoModelIniFile Der Pfad zur ini-Datei des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthLanguage Die zu synthetisierende Sprache (z. B. en-US) In Version 1.4.0 hinzugefügt.
SpeechServiceConnection_SynthVoice Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll, wurde in Version 1.4.0 hinzugefügt.
SpeechServiceConnection_SynthOutputFormat Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats, das in Version 1.4.0 hinzugefügt wurde.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Gibt an, ob das komprimierte Audioformat für die Sprachsynthese-Audioübertragung verwendet wird. Diese Eigenschaft wirkt sich nur aus, wenn SpeechServiceConnection_SynthOutputFormat auf ein pcm-Format festgelegt ist. Wenn diese Eigenschaft nicht festgelegt ist und GStreamer verfügbar ist, verwendet das SDK ein komprimiertes Format für die synthetisierte Audioübertragung und decodiert es. Sie können diese Eigenschaft auf "false" festlegen, um das rohe pcm-Format für die Übertragung über Kabel zu verwenden. In Version 1.16.0 hinzugefügt.
SpeechServiceConnection_SynthBackend Die Zeichenfolge zum Angeben des TTS-Back-Ends; gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths , um das Synthese-Back-End auf offline festzulegen. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthOfflineDataPath Die Datendateipfade für die Offlinesynthese-Engine; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthOfflineVoice Der Name der Offline-TTS-Stimme, die für die Sprachsynthese verwendet werden soll Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice und EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_SynthModelKey Der Entschlüsselungsschlüssel der Stimme, die für die Sprachsynthese verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice. In Version 1.19.0 hinzugefügt.
SpeechServiceConnection_VoicesListEndpoint Der Api-Endpunkt (URL) der Cognitive Services Speech Service-Stimmenliste. Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben. Das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In Version 1.16.0 hinzugefügt.
SpeechServiceConnection_InitialSilenceTimeoutMs Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_EndSilenceTimeoutMs Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden). In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_EnableAudioLogging Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im Microsoft-eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement (Bring Your Own Storage, BYOS) verknüpft ist. In Version 1.5.0 hinzugefügt.
SpeechServiceConnection_LanguageIdMode Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Continuous" sein. Weitere Informationen finden Sie unter Spracherkennungsdokument . In 1.25.0 hinzugefügt.
SpeechServiceConnection_AutoDetectSourceLanguages Die in Version 1.8.0 hinzugefügten Quellsprachen zur automatischen Erkennung.
SpeechServiceConnection_AutoDetectSourceLanguageResult Das Ergebnis der Automatischen Erkennung der Quellsprache wurde in Version 1.8.0 hinzugefügt.
SpeechServiceResponse_RequestDetailedResultTrueFalse Das angeforderte Cognitive Services Speech Service-Antwortausgabeformat (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse Die angeforderte Ausgabestufe der Cognitive Services Speech Service-Antwort. Derzeit nicht verwendet.
SpeechServiceResponse_ProfanityOption Die angeforderte Einstellung für die Ausgabe der Cognitive Services Speech Service-Antwort. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_PostProcessingOption Ein Zeichenfolgenwert, der angibt, welche Nachverarbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_RequestWordLevelTimestamps Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_StablePartialResultThreshold Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_OutputFormatOption Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur zur internen Verwendung. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_RequestSnr Ein boolescher Wert, der angibt, ob SNR (Signal-Rausch-Verhältnis) in das Antwortergebnis einbezogen werden soll. In Version 1.18.0 hinzugefügt.
SpeechServiceResponse_TranslationRequestStablePartialResult Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen anfordern soll, indem wörter am Ende weggelassen werden. In Version 1.5.0 hinzugefügt.
SpeechServiceResponse_RequestWordBoundary Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse anzufordern sind. In Version 1.21.0 hinzugefügt.
SpeechServiceResponse_RequestPunctuationBoundary Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "true". In Version 1.21.0 hinzugefügt.
SpeechServiceResponse_RequestSentenceBoundary Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt.
SpeechServiceResponse_SynthesisEventsSyncToAudio Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist "true". Wenn auf false festgelegt ist, löst das SDK die Ereignisse aus, wenn sie vom Dienst stammen, was möglicherweise nicht mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt.
SpeechServiceResponse_JsonResult Die Cognitive Services Speech Service-Antwortausgabe (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar.
SpeechServiceResponse_JsonErrorDetails Die Cognitive Services Speech Service-Fehlerdetails (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-,Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Zeitpunkt, zu dem das endgültige Ergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeit, zu der das Endergebnis vom Sprachdienst empfangen wird. In Version 1.3.0 hinzugefügt.
SpeechServiceResponse_RecognitionBackend Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (online) oder eingebettete (offline) Erkennung verwendet wurde, um das Ergebnis zu erzeugen.
SpeechServiceResponse_SynthesisFirstByteLatencyMs Die Erstbytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, zu dem das erste Byte-Audio verfügbar ist. In Version 1.17.0 hinzugefügt.
SpeechServiceResponse_SynthesisFinishLatencyMs Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, an dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt.
SpeechServiceResponse_SynthesisUnderrunTimeMs Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dies misst die Gesamtdauer der Unterlaufdauer von PropertyId::AudioConfig_PlaybackBufferLengthInMs bis zum Abschluss der Synthese gefüllt wird. In Version 1.17.0 hinzugefügt.
SpeechServiceResponse_SynthesisConnectionLatencyMs Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Zeitpunkt, zu dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt.
SpeechServiceResponse_SynthesisNetworkLatencyMs Die Netzwerklatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Netzwerk-Rundreisezeit. In Version 1.26.0 hinzugefügt.
SpeechServiceResponse_SynthesisServiceLatencyMs Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt.
SpeechServiceResponse_SynthesisBackend Gibt an, von welchem Back-End die Synthese abgeschlossen wird. Schreibgeschützt, verfügbar für Sprachsyntheseergebnisse, mit Ausnahme des Ergebnisses im SynthesisStarted-Ereignis Hinzugefügt in Version 1.17.0.
CancellationDetails_Reason Der Kündigungsgrund. Derzeit nicht verwendet.
CancellationDetails_ReasonText Der Abbruchtext. Derzeit nicht verwendet.
CancellationDetails_ReasonDetailedText Der detaillierte Text der Abbruchabbruch. Derzeit nicht verwendet.
LanguageUnderstandingServiceResponse_JsonResult Die Language Understanding-Dienstantwortausgabe (im JSON-Format). Verfügbar über IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture Der Gerätename für die Audioaufnahme. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromMicrophoneInput. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_NumberOfChannelsForCapture Die Anzahl der Kanäle für die Audioaufnahme. Nur zur internen Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_SampleRateForCapture Die Abtastrate (in Hz) für die Audioaufnahme. Nur zur internen Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_BitsPerSampleForCapture Die Anzahl der Bits jedes Beispiels für die Audioaufnahme. Nur zur internen Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt.
AudioConfig_AudioSource Die Audioquelle. Zulässige Werte sind "Mikrofone", "Datei" und "Stream". In Version 1.3.0 hinzugefügt.
AudioConfig_DeviceNameForRender Der Gerätename für das Audiorendern. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromSpeakerOutput. In Version 1.14.0 hinzugefügt.
AudioConfig_PlaybackBufferLengthInMs Wiedergabepufferlänge in Millisekunden, Standardwert 50 Millisekunden.
AudioConfig_AudioProcessingOptions Audioverarbeitungsoptionen im JSON-Format.
Speech_LogFilename Der Dateiname zum Schreiben von Protokollen. In Version 1.4.0 hinzugefügt.
Speech_SegmentationSilenceTimeoutMs Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert wird. Das Konfigurieren dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent zu zu langen oder zu kurzen Ergebnissen führt. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Spracherkennungsgenauigkeit auswirken. Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte wie vorgesehen gründlich überprüft werden.
Conversation_ApplicationId Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt.
Conversation_DialogType Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll. In Version 1.7.0 hinzugefügt.
Conversation_Initial_Silence_Timeout Stille Timeout für Das Lauschen wurde in Version 1.5.0 hinzugefügt.
Conversation_From_Id From ID to be used on speech recognition activities In Version 1.5.0 hinzugefügt.
Conversation_Conversation_Id ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt.
Conversation_Custom_Voice_Deployment_Ids Durch Trennzeichen getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs. In Version 1.8.0 hinzugefügt.
Conversation_Speech_Activity_Template Vorlage für Sprachaktivität, Stempeleigenschaften in der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde. In Version 1.10.0 hinzugefügt.
Conversation_ParticipantId Ihr Teilnehmerbezeichner in der aktuellen Unterhaltung. In Version 1.13.0 hinzugefügt.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Der Zeitstempel, der dem datenpuffer zugeordnet ist, der vom Client bei Verwendung von Pull/Push-Audioeingabestreams geschrieben wird. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Er entspricht dem Zeitstempel der Präsentation in einem MPEG-Transportstream. Weitere Informationen finden Sie https://en.wikipedia.org/wiki/Presentation_timestamp unter Hinzugefügt in Version 1.5.0.
DataBuffer_UserId Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull/Push-Audioeingabestreams zugeordnet ist. In Version 1.5.0 hinzugefügt.
PronunciationAssessment_ReferenceText Der Referenztext des Audiosignals für die Ausspracheauswertung. Dies und die folgenden Aussprachebewertungsparameter finden Sie in der Tabelle Aussprachebewertungsparameter. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create oder PronunciationAssessmentConfig::SetReferenceText. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_GradingSystem Das Punktsystem für die Aussprachebewertungskalibrierung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_Granularity Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_EnableMiscue Definiert, ob fehlgeleitete Berechnung aktiviert wird. Wenn diese Option aktiviert ist, werden die ausgesprochenen Wörter mit dem Referenztext verglichen und auf der Grundlage des Vergleichs mit Auslassung/Einfügung gekennzeichnet. Die Standardeinstellung lautet Falsch. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_PhonemeAlphabet Das Phonemalal für die Ausspracheauswertung. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetPhonemeAlphabet. In Version 1.20.0 hinzugefügt.
PronunciationAssessment_NBestPhonemeCount Die Anzahl der Phoneme der Ausspracheauswertung nbest. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetNBestPhonemeCount. In Version 1.20.0 hinzugefügt.
PronunciationAssessment_EnableProsodyAssessment Gibt an, ob die Prosodiebewertung aktiviert werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableProsodyAssessment. In Version 1.33.0 hinzugefügt.
PronunciationAssessment_Json Die JSON-Zeichenfolge der Aussprachebewertungsparameter Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_Params Aussprachebewertungsparameter. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. In Version 1.14.0 hinzugefügt.
PronunciationAssessment_ContentTopic Das Inhaltsthema der Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. In Version 1.33.0 hinzugefügt.
SpeakerRecognition_Api_Version Version der Sprechererkennungs-Back-End-API. Diese Eigenschaft wird hinzugefügt, um ggf. das Testen und Verwenden früherer Versionen von Sprechererkennungs-APIs zu ermöglichen. In Version 1.18.0 hinzugefügt.
SpeechTranslation_ModelName Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird.
SpeechTranslation_ModelKey Der Entschlüsselungsschlüssel eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird.
KeywordRecognition_ModelName Der Name eines Modells, das für Schlüsselwort (keyword) Erkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird.
KeywordRecognition_ModelKey Der Entschlüsselungsschlüssel eines Modells, das für Schlüsselwort (keyword) Erkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird.
EmbeddedSpeech_EnablePerformanceMetrics Aktivieren Sie die Sammlung eingebetteter Sprachleistungsmetriken, die verwendet werden können, um die Fähigkeit eines Geräts zur Verwendung eingebetteter Sprache auszuwerten. Die gesammelten Daten werden in Die Ergebnisse bestimmter Szenarien wie der Spracherkennung einbezogen. Die Standardeinstellung ist „false“. Beachten Sie, dass Metriken möglicherweise nicht in allen eingebetteten Sprachszenarien verfügbar sind.

Definiert Spracheigenschaften-IDs. In Version 1.4.0 geändert.

Enumeration OutputFormat

Werte Beschreibungen
Einfach
Detailliert

Ausgabeformat.

enum ProfanityOption

Werte Beschreibungen
Maskiert Ersetzt Buchstaben in profanen Wörtern durch star Zeichen.
Entfernt Entfernt profane Wörter.
Raw Tut nichts mit profanen Wörtern.

Entfernt Profanität (Fluchen) oder ersetzt Buchstaben profaner Wörter durch Sterne. In Version 1.5.0 hinzugefügt.

Enumeration ResultReason

Werte Beschreibungen
NoMatch Gibt an, dass die Sprache nicht erkannt werden konnte. Weitere Details finden Sie im NoMatchDetails-Objekt.
Canceled Gibt an, dass die Erkennung abgebrochen wurde. Weitere Details finden Sie mithilfe des CancellationDetails-Objekts.
ErkennenSpeech Gibt an, dass das Sprachergebnis Hypothesentext enthält.
RecognizedSpeech Gibt an, dass das Sprachergebnis den endgültigen Text enthält, der erkannt wurde. Die Spracherkennung für diesen Ausdruck ist jetzt abgeschlossen.
ErkennungIntent Gibt an, dass das Absichtsergebnis Hypothesentext und Absicht enthält.
RecognizedIntent Gibt an, dass das Absichtsergebnis den endgültigen Text und die Absicht enthält. Spracherkennung und Absichtsermittlung sind jetzt für diesen Ausdruck abgeschlossen.
ÜbersetzenSpeech Gibt an, dass das Übersetzungsergebnis Hypothesentext und seine Übersetzungen enthält.
ÜbersetztSpeech Gibt an, dass das Übersetzungsergebnis den endgültigen Text und die entsprechenden Übersetzungen enthält. Spracherkennung und Übersetzung sind für diesen Ausdruck jetzt abgeschlossen.
SynthesizingAudio Gibt an, dass das synthetisierte Audioergebnis eine Menge von Audiodaten ungleich 0 enthält.
SynthesizingAudioCompleted Gibt an, dass das synthetisierte Audio für diesen Ausdruck jetzt abgeschlossen ist.
RecognizingKeyword Gibt an, dass das Sprachergebnis Schlüsselwort (keyword) Text enthält (nicht überprüft). In Version 1.3.0 hinzugefügt.
RecognizedKeyword Gibt an, dass Schlüsselwort (keyword) Erkennung der angegebenen Schlüsselwort (keyword) abgeschlossen ist. In Version 1.3.0 hinzugefügt.
SynthesizingAudioStarted Gibt an, dass die Sprachsynthese jetzt gestartet wurde Hinzugefügt in Version 1.4.0.
ÜbersetzenParticipantSpeech Gibt an, dass das Transkriptionsergebnis Hypothesentext und dessen Übersetzung(en) für andere Teilnehmer an der Unterhaltung enthält. In Version 1.8.0 hinzugefügt.
TranslatedParticipantSpeech Gibt an, dass das Transkriptionsergebnis den endgültigen Text und die entsprechenden Übersetzungen für andere Teilnehmer an der Unterhaltung enthält. Spracherkennung und Übersetzung sind für diesen Ausdruck jetzt abgeschlossen. In Version 1.8.0 hinzugefügt.
TranslatedInstantMessage Gibt an, dass das Transkriptionsergebnis die Sofortnachricht und die entsprechenden Übersetzungen enthält. In Version 1.8.0 hinzugefügt.
TranslatedParticipantInstantMessage Gibt an, dass das Transkriptionsergebnis die Chatnachricht für andere Teilnehmer an der Unterhaltung und die entsprechenden Übersetzungen enthält. In Version 1.8.0 hinzugefügt.
RegistrierenVoiceProfile Gibt an, dass das Sprachprofil registriert wird und Kunden mehr Audio senden müssen, um ein Sprachprofil zu erstellen. In Version 1.12.0 hinzugefügt.
EnrolledVoiceProfile Das Sprachprofil wurde registriert. In Version 1.12.0 hinzugefügt.
RecognizedSpeaker Gibt an, dass einige Sprecher erfolgreich identifiziert wurden. In Version 1.12.0 hinzugefügt.
RecognizedSpeaker Gibt an, dass ein Lautsprecher erfolgreich überprüft wurde. In Version 1.12.0 hinzugefügt.
ResetVoiceProfile Gibt an, dass ein Sprachprofil erfolgreich zurückgesetzt wurde. In Version 1.12.0 hinzugefügt.
DeletedVoiceProfile Gibt an, dass ein Sprachprofil erfolgreich gelöscht wurde. In Version 1.12.0 hinzugefügt.
VoicesListRetrieved Gibt an, dass die Stimmenliste erfolgreich abgerufen wurde. In Version 1.16.0 hinzugefügt.

Gibt die möglichen Gründe an, aus dem ein Erkennungsergebnis generiert werden kann.

Enumeration CancellationReason

Werte Beschreibungen
Fehler Gibt an, dass während der Spracherkennung ein Fehler aufgetreten ist.
EndOfStream Gibt an, dass das Ende des Audiodatenstroms erreicht wurde.
CancelledByUser Gibt an, dass die Anforderung vom Benutzer abgebrochen wurde. In Version 1.14.0 hinzugefügt.

Definiert die möglichen Gründe, warum ein Erkennungsergebnis abgebrochen werden kann.

Enumeration CancellationErrorCode

Werte Beschreibungen
NoError Kein Fehler. Wenn CancellationReason den Wert EndOfStream aufweist, wird CancellationErrorCode auf NoError festgelegt.
AuthenticationFailure Gibt einen Authentifizierungsfehler an. Ein Authentifizierungsfehler tritt auf, wenn der Abonnementschlüssel oder das Autorisierungstoken ungültig, abgelaufen oder nicht mit der verwendeten Region übereinstimmt.
BadRequest Gibt an, dass mindestens ein Erkennungsparameter ungültig ist oder das Audioformat nicht unterstützt wird.
TooManyRequests Gibt an, dass die Anzahl paralleler Anforderungen die Anzahl der zulässigen gleichzeitigen Transkriptionen für das Abonnement überschritten hat.
Verboten Gibt an, dass für das kostenlose Abonnement, das von der Anforderung verwendet wird, das Kontingent überschritten wurde.
ConnectionFailure Gibt einen Verbindungsfehler an.
ServiceTimeout Gibt einen Timeoutfehler an, wenn auf eine Antwort vom Dienst gewartet wird.
ServiceError Gibt an, dass vom Dienst ein Fehler zurückgegeben wird.
ServiceUnavailable Gibt an, dass der Dienst derzeit nicht verfügbar ist.
RuntimeError Gibt einen unerwarteten Laufzeitfehler an.
ServiceRedirectTemporary Gibt an, dass der Speech-Dienst vorübergehend eine erneute Verbindung mit einem anderen Endpunkt anfordert.
ServiceRedirectPermanent Gibt an, dass der Speech-Dienst dauerhaft eine erneute Verbindung mit einem anderen Endpunkt anfordert.
EmbeddedModelError Gibt an, dass das Eingebettete Spracherkennungsmodell (SR oder TTS) nicht verfügbar oder beschädigt ist.

Definiert den Fehlercode für den Fall, dass CancellationReason auf Error festgelegt ist. In Version 1.1.0 hinzugefügt.

Enumeration NoMatchReason

Werte Beschreibungen
NotRecognized Gibt an, dass Sprache erkannt, aber nicht erkannt wurde.
InitialSilenceTimeout Gibt an, dass der Start des Audiodatenstroms nur Stille enthielt, und dass das Zeitlimit des Diensts auf Spracherkennung ausser Betrieb war.
InitialBabbleTimeout Gibt an, dass der Anfang des Audiodatenstroms nur Rauschen enthielt und der Dienst beim Warten auf Sprache ein Timeout ausgeführt hat.
KeywordNotRecognized Gibt an, dass die erkannte Schlüsselwort (keyword) vom Schlüsselwort (keyword)-Überprüfungsdienst abgelehnt wurde. In Version 1.5.0 hinzugefügt.
EndSilenceTimeout Gibt an, dass der Audiodatenstrom nur Stille nach dem letzten erkannten Ausdruck enthielt.

Definiert die möglichen Gründe, warum ein Erkennungsergebnis möglicherweise nicht erkannt wird.

Enumeration ActivityJSONType

Werte Beschreibungen
Null
Object
Array
String
Double
UInt
Int
Boolean

Definiert die möglichen Typen für einen Aktivitäts-JSON-Wert. In Version 1.5.0 hinzugefügt.

enum SpeechSynthesisOutputFormat

Werte Beschreibungen
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Nicht vom Dienst unterstützt. Verwenden Sie diesen Wert nicht.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Nicht vom Dienst unterstützt. Verwenden Sie diesen Wert nicht.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Hinzugefügt in Version 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus In Version 1.16.0 hinzugefügt
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus In Version 1.16.0 hinzugefügt
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk In Version 1.17.0 hinzugefügt
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Hinzugefügt in Version 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Hinzugefügt in Version 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Audio komprimiert durch OPUS-Codec in einem WebM-Container mit einer Bitrate von 24 kbps, optimiert für IoT-Szenario. (In 1.19.0 hinzugefügt)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio komprimiert durch OPUS-Codec ohne Container, mit einer Bitrate von 32 kbps. (In 1.20.0 hinzugefügt)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio komprimiert durch OPUS-Codec ohne Container, mit Bitrate von 48 kbps. (In 1.20.0 hinzugefügt)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus Audio komprimiert durch OPUS-Codec ohne Container, mit Einer Bitrate von 24 kbps. (In 1.20.0 hinzugefügt)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Raw PCM Audio bei 22050Hz Samplingrate und 16-Bit-Tiefe. (In 1.22.0 hinzugefügt)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm PCM-Audio mit 22050Hz Abtastrate und 16-Bit-Tiefe mit RIFF-Header. (In 1.22.0 hinzugefügt)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Raw PCM Audio bei 44100Hz Abtastrate und 16-Bit-Tiefe. (In 1.22.0 hinzugefügt)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm PCM-Audio mit 44100Hz Abtastrate und 16-Bit-Tiefe mit RIFF-Header. (In 1.22.0 hinzugefügt)
AmrWb16000Hz amr-wb-16000hz AMR-WB-Audio bei 16kHz Samplingrate. (In 1.24.0 hinzugefügt)

Definiert die möglichen Audioformate der Sprachsyntheseausgabe. Aktualisiert in Version 1.19.0.

Enumeration StreamStatus

Werte Beschreibungen
Unknown Der audiodatenstrom status ist unbekannt.
Nodata Der Audiodatenstrom enthält keine Daten.
PartialData Der Audiodatenstrom enthält teilweise Daten einer Sprachanforderung.
AllData Der Audiodatenstrom enthält alle Daten einer Sprachanforderung.
Canceled Der Audiodatenstrom wurde abgebrochen.

Definiert die mögliche status des Audiodatenstroms. In Version 1.4.0 hinzugefügt.

Aufzählung ServicePropertyChannel

Werte Beschreibungen
UriQueryParameter Verwendet den URI-Abfrageparameter, um Eigenschafteneinstellungen an den Dienst zu übergeben.
HttpHeader Verwendet HttpHeader, um einen Schlüssel/Wert in einem HTTP-Header festzulegen.

Definiert Kanäle, die zum Übergeben von Eigenschafteneinstellungen an den Dienst verwendet werden. In Version 1.5.0 hinzugefügt.

enum VoiceProfileType

Werte Beschreibungen
TextIndependentIdentification Textunabhängige Sprecheridentifikation.
TextDependentVerification Textabhängige Sprecherüberprüfung.
TextIndependentVerification Textunabhängige Überprüfung.

Definiert Sprachprofiltypen.

Enumeration RecognitionFactorScope

Werte Beschreibungen
PartialPhrase Ein Erkennungsfaktor gilt für Grammatiken, auf die als einzelne Teilphrasen verwiesen werden kann.

Definiert den Bereich, auf den ein Erkennungsfaktor angewendet wird.

enum PronunciationAssessmentGradingSystem

Werte Beschreibungen
FivePoint Fünf-Punkt-Kalibrierung.
Hundert Mark Hundert Mark.

Definiert das Punktsystem für die Kalibrierung der Aussprachebewertung; Der Standardwert ist FivePoint. In Version 1.14.0 hinzugefügt.

enum PronunciationAssessmentGranularity

Werte Beschreibungen
Phonem Zeigt die Bewertung auf der Volltext-, Wort- und Phonemebene an.
Word Zeigt die Bewertung auf der Volltext- und Wortebene an.
FullText Zeigt die Bewertung nur auf der Volltextebene an.

Definiert die Granularität der Ausspracheauswertung; Der Standardwert ist Phoneme. In Version 1.14.0 hinzugefügt.

enum SynthesisVoiceType

Werte Beschreibungen
OnlineNeural Neuronale Onlinestimme.
OnlineStandard Online-Standardstimme.
OfflineNeural Neuronale Offlinestimme.
OfflineStandard Offline-Standardstimme.

Definiert den Typ der synthesen Stimmen, die in Version 1.16.0 hinzugefügt wurden.

enum SynthesisVoiceGender

Werte Beschreibungen
Unknown Geschlecht unbekannt.
Female Weibliche Stimme.
Male Männliche Stimme.

Definiert das Geschlecht von Synthesestimmchen, die in Version 1.17.0 hinzugefügt wurden.

enum SpeechSynthesisBoundaryType

Werte Beschreibungen
Word Word Grenze.
Interpunktion Interpunktionsgrenze.
Satz Satzgrenze.

Definiert den Begrenzungstyp des In Version 1.21.0 hinzugefügten Ereigniss für die Sprachsynthese.