SpeechServiceConnection_Key |
Der Cognitive Services Speech Service-Abonnementschlüssel. Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
Der Cognitive Services Speech Service-Endpunkt (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird. |
SpeechServiceConnection_Region |
Die Cognitive Services Speech Service-Region. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Der Cognitive Services Speech Service-Autorisierungstyp. Derzeit nicht verwendet. |
SpeechServiceConnection_EndpointId |
Die Cognitive Services Custom Speech- oder Custom Voice Service-Endpunkt-ID. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetEndpointId. HINWEIS: Die Endpunkt-ID ist im Custom Speech-Portal verfügbar, das unter Endpunktdetails aufgeführt ist. |
SpeechServiceConnection_Host |
Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyPort |
Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyUserName |
Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_ProxyPassword |
Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetProxy. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.1.0 hinzugefügt. |
SpeechServiceConnection_Url |
Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. HINWEIS: In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_TranslationToLanguages |
Die Liste der durch Kommas getrennten Sprachen, die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::AddTargetLanguage und SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Der Name der Cognitive Service-Sprachausgabe für Text zu Spracherkennung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig::SetVoiceName. HINWEIS: Gültige Sprachnamen finden Sie hier. |
SpeechServiceConnection_TranslationFeatures |
Übersetzungsfeatures. Für die interne Verwendung. |
SpeechServiceConnection_IntentRegion |
Die Language Understanding-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Der Cognitive Services Speech Service-Erkennungsmodus. Kann "INTERAKTIV", "UNTERHALTUNG", "DIKTATION" sein. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. |
SpeechServiceConnection_RecoLanguage |
Die zu erkennende Gesprochene Sprache (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
Die Sitzungs-ID. Diese ID ist ein universell eindeutiger Bezeichner (auch als UUID bezeichnet), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennung instance darstellt, an die er gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Die von Benutzern bereitgestellten Abfrageparameter. Sie werden als URL-Abfrageparameter an den Dienst übergeben. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_RecoBackend |
Die Zeichenfolge, um das Back-End anzugeben, das für die Spracherkennung verwendet werden soll; Zulässige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Derzeit ist die Offlineoption nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelName |
Der Name des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelKey |
Der Entschlüsselungsschlüssel des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_RecoModelIniFile |
Der Pfad zur ini-Datei des Modells, das für die Spracherkennung verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthLanguage |
Die zu synthetisierende Sprache (z. B. en-US) In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_SynthVoice |
Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll, wurde in Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_SynthOutputFormat |
Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats, das in Version 1.4.0 hinzugefügt wurde. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Gibt an, ob das komprimierte Audioformat für die Sprachsynthese-Audioübertragung verwendet wird. Diese Eigenschaft wirkt sich nur aus, wenn SpeechServiceConnection_SynthOutputFormat auf ein pcm-Format festgelegt ist. Wenn diese Eigenschaft nicht festgelegt ist und GStreamer verfügbar ist, verwendet das SDK ein komprimiertes Format für die synthetisierte Audioübertragung und decodiert es. Sie können diese Eigenschaft auf "false" festlegen, um das rohe pcm-Format für die Übertragung über Kabel zu verwenden. In Version 1.16.0 hinzugefügt. |
SpeechServiceConnection_SynthBackend |
Die Zeichenfolge zum Angeben des TTS-Back-Ends; gültige Optionen sind online und offline. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths , um das Synthese-Back-End auf offline festzulegen. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthOfflineDataPath |
Die Datendateipfade für die Offlinesynthese-Engine; nur gültig, wenn das Synthese-Back-End offline ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen EmbeddedSpeechConfig::FromPath oder EmbeddedSpeechConfig::FromPaths. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthOfflineVoice |
Der Name der Offline-TTS-Stimme, die für die Sprachsynthese verwendet werden soll Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice und EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_SynthModelKey |
Der Entschlüsselungsschlüssel der Stimme, die für die Sprachsynthese verwendet werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden. Verwenden Sie stattdessen EmbeddedSpeechConfig::SetSpeechSynthesisVoice. In Version 1.19.0 hinzugefügt. |
SpeechServiceConnection_VoicesListEndpoint |
Der Api-Endpunkt (URL) der Cognitive Services Speech Service-Stimmenliste. Unter normalen Umständen müssen Sie diese Eigenschaft nicht angeben. Das SDK erstellt sie basierend auf der Region/dem Host/Endpunkt von SpeechConfig. In Version 1.16.0 hinzugefügt. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden). In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_EnableAudioLogging |
Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im Microsoft-eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement (Bring Your Own Storage, BYOS) verknüpft ist. In Version 1.5.0 hinzugefügt. |
SpeechServiceConnection_LanguageIdMode |
Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Continuous" sein. Weitere Informationen finden Sie unter Spracherkennungsdokument . In 1.25.0 hinzugefügt. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Die in Version 1.8.0 hinzugefügten Quellsprachen zur automatischen Erkennung. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Das Ergebnis der Automatischen Erkennung der Quellsprache wurde in Version 1.8.0 hinzugefügt. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Das angeforderte Cognitive Services Speech Service-Antwortausgabeformat (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Die angeforderte Ausgabestufe der Cognitive Services Speech Service-Antwort. Derzeit nicht verwendet. |
SpeechServiceResponse_ProfanityOption |
Die angeforderte Einstellung für die Ausgabe der Cognitive Services Speech Service-Antwort. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_PostProcessingOption |
Ein Zeichenfolgenwert, der angibt, welche Nachverarbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_StablePartialResultThreshold |
Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_OutputFormatOption |
Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur zur internen Verwendung. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestSnr |
Ein boolescher Wert, der angibt, ob SNR (Signal-Rausch-Verhältnis) in das Antwortergebnis einbezogen werden soll. In Version 1.18.0 hinzugefügt. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen anfordern soll, indem wörter am Ende weggelassen werden. In Version 1.5.0 hinzugefügt. |
SpeechServiceResponse_RequestWordBoundary |
Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse anzufordern sind. In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestPunctuationBoundary |
Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "true". In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_RequestSentenceBoundary |
Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "false". In Version 1.21.0 hinzugefügt. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Ein boolescher Wert, der angibt, ob das SDK Synthesemetadatenereignisse (z. B. Wortgrenze, Viseme usw.) mit der Audiowiedergabe synchronisieren soll. Dies wird nur wirksam, wenn die Audiowiedergabe über das SDK erfolgt. Der Standardwert ist "true". Wenn auf false festgelegt ist, löst das SDK die Ereignisse aus, wenn sie vom Dienst stammen, was möglicherweise nicht mit der Audiowiedergabe synchronisiert ist. In Version 1.31.0 hinzugefügt. |
SpeechServiceResponse_JsonResult |
Die Cognitive Services Speech Service-Antwortausgabe (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar. |
SpeechServiceResponse_JsonErrorDetails |
Die Cognitive Services Speech Service-Fehlerdetails (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Die Erkennungslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Sprach-,Übersetzungs-/Absichtsergebnisse. Dies misst die Latenz zwischen dem Empfang einer Audioeingabe durch das SDK und dem Zeitpunkt, zu dem das endgültige Ergebnis vom Dienst empfangen wird. Das SDK berechnet den Zeitunterschied zwischen dem letzten Audiofragment aus der Audioeingabe, die zum Endergebnis beiträgt, und der Zeit, zu der das Endergebnis vom Sprachdienst empfangen wird. In Version 1.3.0 hinzugefügt. |
SpeechServiceResponse_RecognitionBackend |
Das Erkennungs-Back-End. Schreibgeschützt, verfügbar für Spracherkennungsergebnisse. Dies gibt an, ob die Clouderkennung (online) oder eingebettete (offline) Erkennung verwendet wurde, um das Ergebnis zu erzeugen. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Die Erstbytelatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, zu dem das erste Byte-Audio verfügbar ist. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
Die Sprachsynthese aller Byteslatenz in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Moment, an dem das gesamte Audio synthetisiert wird. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Die Unterlaufzeit für die Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für Ergebnisse in SynthesisCompleted-Ereignissen. Dies misst die Gesamtdauer der Unterlaufdauer von PropertyId::AudioConfig_PlaybackBufferLengthInMs bis zum Abschluss der Synthese gefüllt wird. In Version 1.17.0 hinzugefügt. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Die Latenz der Sprachsyntheseverbindung in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Latenz zwischen dem Zeitpunkt, an dem die Synthese verarbeitet wird, und dem Zeitpunkt, zu dem die HTTP/WebSocket-Verbindung hergestellt wird. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Die Netzwerklatenz der Sprachsynthese in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Netzwerk-Rundreisezeit. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Die Latenz des Sprachsynthesediensts in Millisekunden. Schreibgeschützt, verfügbar für endgültige Ergebnisse der Sprachsynthese. Dies misst die Dienstverarbeitungszeit, um das erste Byte von Audio zu synthetisieren. In Version 1.26.0 hinzugefügt. |
SpeechServiceResponse_SynthesisBackend |
Gibt an, von welchem Back-End die Synthese abgeschlossen wird. Schreibgeschützt, verfügbar für Sprachsyntheseergebnisse, mit Ausnahme des Ergebnisses im SynthesisStarted-Ereignis Hinzugefügt in Version 1.17.0. |
CancellationDetails_Reason |
Der Kündigungsgrund. Derzeit nicht verwendet. |
CancellationDetails_ReasonText |
Der Abbruchtext. Derzeit nicht verwendet. |
CancellationDetails_ReasonDetailedText |
Der detaillierte Text der Abbruchabbruch. Derzeit nicht verwendet. |
LanguageUnderstandingServiceResponse_JsonResult |
Die Language Understanding-Dienstantwortausgabe (im JSON-Format). Verfügbar über IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Der Gerätename für die Audioaufnahme. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromMicrophoneInput. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_NumberOfChannelsForCapture |
Die Anzahl der Kanäle für die Audioaufnahme. Nur zur internen Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_SampleRateForCapture |
Die Abtastrate (in Hz) für die Audioaufnahme. Nur zur internen Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_BitsPerSampleForCapture |
Die Anzahl der Bits jedes Beispiels für die Audioaufnahme. Nur zur internen Verwendung. HINWEIS: Diese Eigenschafts-ID wurde in Version 1.3.0 hinzugefügt. |
AudioConfig_AudioSource |
Die Audioquelle. Zulässige Werte sind "Mikrofone", "Datei" und "Stream". In Version 1.3.0 hinzugefügt. |
AudioConfig_DeviceNameForRender |
Der Gerätename für das Audiorendern. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen AudioConfig::FromSpeakerOutput. In Version 1.14.0 hinzugefügt. |
AudioConfig_PlaybackBufferLengthInMs |
Wiedergabepufferlänge in Millisekunden, Standardwert 50 Millisekunden. |
AudioConfig_AudioProcessingOptions |
Audioverarbeitungsoptionen im JSON-Format. |
Speech_LogFilename |
Der Dateiname zum Schreiben von Protokollen. In Version 1.4.0 hinzugefügt. |
Speech_SegmentationSilenceTimeoutMs |
Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert wird. Das Konfigurieren dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent zu zu langen oder zu kurzen Ergebnissen führt. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Spracherkennungsgenauigkeit auswirken. Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte wie vorgesehen gründlich überprüft werden. |
Conversation_ApplicationId |
Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. In Version 1.5.0 hinzugefügt. |
Conversation_DialogType |
Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll. In Version 1.7.0 hinzugefügt. |
Conversation_Initial_Silence_Timeout |
Stille Timeout für Das Lauschen wurde in Version 1.5.0 hinzugefügt. |
Conversation_From_Id |
From ID to be used on speech recognition activities In Version 1.5.0 hinzugefügt. |
Conversation_Conversation_Id |
ConversationId für die Sitzung. In Version 1.8.0 hinzugefügt. |
Conversation_Custom_Voice_Deployment_Ids |
Durch Trennzeichen getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs. In Version 1.8.0 hinzugefügt. |
Conversation_Speech_Activity_Template |
Vorlage für Sprachaktivität, Stempeleigenschaften in der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde. In Version 1.10.0 hinzugefügt. |
Conversation_ParticipantId |
Ihr Teilnehmerbezeichner in der aktuellen Unterhaltung. In Version 1.13.0 hinzugefügt. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Der Zeitstempel, der dem datenpuffer zugeordnet ist, der vom Client bei Verwendung von Pull/Push-Audioeingabestreams geschrieben wird. Der Zeitstempel ist ein 64-Bit-Wert mit einer Auflösung von 90 kHz. Er entspricht dem Zeitstempel der Präsentation in einem MPEG-Transportstream. Weitere Informationen finden Sie https://en.wikipedia.org/wiki/Presentation_timestamp unter Hinzugefügt in Version 1.5.0. |
DataBuffer_UserId |
Die Benutzer-ID, die dem vom Client geschriebenen Datenpuffer bei Verwendung von Pull/Push-Audioeingabestreams zugeordnet ist. In Version 1.5.0 hinzugefügt. |
PronunciationAssessment_ReferenceText |
Der Referenztext des Audiosignals für die Ausspracheauswertung. Dies und die folgenden Aussprachebewertungsparameter finden Sie in der Tabelle Aussprachebewertungsparameter. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create oder PronunciationAssessmentConfig::SetReferenceText. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_GradingSystem |
Das Punktsystem für die Aussprachebewertungskalibrierung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_Granularity |
Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_EnableMiscue |
Definiert, ob fehlgeleitete Berechnung aktiviert wird. Wenn diese Option aktiviert ist, werden die ausgesprochenen Wörter mit dem Referenztext verglichen und auf der Grundlage des Vergleichs mit Auslassung/Einfügung gekennzeichnet. Die Standardeinstellung lautet Falsch. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_PhonemeAlphabet |
Das Phonemalal für die Ausspracheauswertung. Die gültigen Werte sind "SAPI" (Standard) und "IPA" Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetPhonemeAlphabet. In Version 1.20.0 hinzugefügt. |
PronunciationAssessment_NBestPhonemeCount |
Die Anzahl der Phoneme der Ausspracheauswertung nbest. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::SetNBestPhonemeCount. In Version 1.20.0 hinzugefügt. |
PronunciationAssessment_EnableProsodyAssessment |
Gibt an, ob die Prosodiebewertung aktiviert werden soll. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableProsodyAssessment. In Version 1.33.0 hinzugefügt. |
PronunciationAssessment_Json |
Die JSON-Zeichenfolge der Aussprachebewertungsparameter Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::Create. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_Params |
Aussprachebewertungsparameter. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. In Version 1.14.0 hinzugefügt. |
PronunciationAssessment_ContentTopic |
Das Inhaltsthema der Aussprachebewertung. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. In Version 1.33.0 hinzugefügt. |
SpeakerRecognition_Api_Version |
Version der Sprechererkennungs-Back-End-API. Diese Eigenschaft wird hinzugefügt, um ggf. das Testen und Verwenden früherer Versionen von Sprechererkennungs-APIs zu ermöglichen. In Version 1.18.0 hinzugefügt. |
SpeechTranslation_ModelName |
Der Name eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
SpeechTranslation_ModelKey |
Der Entschlüsselungsschlüssel eines Modells, das für die Sprachübersetzung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
KeywordRecognition_ModelName |
Der Name eines Modells, das für Schlüsselwort (keyword) Erkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
KeywordRecognition_ModelKey |
Der Entschlüsselungsschlüssel eines Modells, das für Schlüsselwort (keyword) Erkennung verwendet werden soll. Verwenden Sie diese Eigenschaft nicht direkt. Dies ist derzeit nur gültig, wenn EmbeddedSpeechConfig verwendet wird. |
EmbeddedSpeech_EnablePerformanceMetrics |
Aktivieren Sie die Sammlung eingebetteter Sprachleistungsmetriken, die verwendet werden können, um die Fähigkeit eines Geräts zur Verwendung eingebetteter Sprache auszuwerten. Die gesammelten Daten werden in Die Ergebnisse bestimmter Szenarien wie der Spracherkennung einbezogen. Die Standardeinstellung ist „false“. Beachten Sie, dass Metriken möglicherweise nicht in allen eingebetteten Sprachszenarien verfügbar sind. |