Freigeben über


ConversationTranscriber Klasse

Für ein Objekt, das Konversationstranskriptionsvorgänge ausführt. Wenn Sie Informationen zur Quellsprache angeben müssen, geben Sie bitte nur einen dieser drei Parameter an: Sprache, source_language_config oder auto_detect_source_language_config.

Vererbung
ConversationTranscriber

Konstruktor

ConversationTranscriber(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)

Parameter

Name Beschreibung
speech_config
Erforderlich

Die Konfiguration für die Konversationstraskription

audio_config

Die Konfiguration für die Audioeingabe

Standardwert: None
language

Quellsprache

Standardwert: None
source_language_config

Konfiguration der Quellsprache

Standardwert: None
auto_detect_source_language_config

Die Konfiguration der Quellsprache für die automatische Erkennung

Standardwert: None

Methoden

recognize_once

Führt die Erkennung in einem blockierenden (synchronen) Modus aus. Wird nach der Erkennung einer einzelnen Äußerung wieder verfügbar. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Die Aufgabe gibt als Ergebnis den Erkennungstext zurück. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

recognize_once_async

Führt die Erkennung in einem nicht blockierenden (asynchronen) Modus aus. Dient zum Erkennen einer einzelnen Äußerung. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

start_continuous_recognition

Initiiert synchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_continuous_recognition_async

Initiiert asynchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_keyword_recognition

Konfiguriert die Erkennung synchron mit dem angegebenen Schlüsselwort (keyword)-Modell. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_keyword_recognition_async

Konfiguriert die Erkennung asynchron mit dem angegebenen Schlüsselwort (keyword) Modells. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition_async() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_transcribing_async

Beginnt asynchron mit der Transskription von Konversationen.

stop_continuous_recognition

Beendet synchron den fortlaufenden Erkennungsvorgang.

stop_continuous_recognition_async

Beendet asynchron den fortlaufenden Erkennungsvorgang.

stop_keyword_recognition

Beendet synchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_keyword_recognition_async

Beendet asynchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_transcribing_async

Beendet die Transskription von Unterhaltungen asynchron.

recognize_once

Führt die Erkennung in einem blockierenden (synchronen) Modus aus. Wird nach der Erkennung einer einzelnen Äußerung wieder verfügbar. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Die Aufgabe gibt als Ergebnis den Erkennungstext zurück. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

recognize_once() -> SpeechRecognitionResult

Gibt zurück

Typ Beschreibung

Der Ergebniswert der synchronen Erkennung.

recognize_once_async

Führt die Erkennung in einem nicht blockierenden (asynchronen) Modus aus. Dient zum Erkennen einer einzelnen Äußerung. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.

recognize_once_async() -> ResultFuture

Gibt zurück

Typ Beschreibung

Eine Zukunft, die den Ergebniswert der asynchronen Erkennung enthält.

start_continuous_recognition

Initiiert synchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_continuous_recognition()

start_continuous_recognition_async

Initiiert asynchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.

start_continuous_recognition_async()

Gibt zurück

Typ Beschreibung

Eine Zukunft, die erfüllt wird, sobald die Erkennung initialisiert wurde.

start_keyword_recognition

Konfiguriert die Erkennung synchron mit dem angegebenen Schlüsselwort (keyword)-Modell. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_keyword_recognition(model: KeywordRecognitionModel)

Parameter

Name Beschreibung
model
Erforderlich

das Schlüsselwort (keyword) Erkennungsmodell, das die zu erkennende Schlüsselwort (keyword) angibt.

start_keyword_recognition_async

Konfiguriert die Erkennung asynchron mit dem angegebenen Schlüsselwort (keyword) Modells. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition_async() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.

start_keyword_recognition_async(model: KeywordRecognitionModel)

Parameter

Name Beschreibung
model
Erforderlich

das Schlüsselwort (keyword) Erkennungsmodell, das die zu erkennende Schlüsselwort (keyword) angibt.

Gibt zurück

Typ Beschreibung

Eine Zukunft, die erfüllt wird, sobald die Erkennung initialisiert wurde.

start_transcribing_async

Beginnt asynchron mit der Transskription von Konversationen.

start_transcribing_async() -> ResultFuture

Gibt zurück

Typ Beschreibung

Eine Zukunft, die sich erfüllt, sobald die Konversationstranskription gestartet wird.

stop_continuous_recognition

Beendet synchron den fortlaufenden Erkennungsvorgang.

stop_continuous_recognition()

stop_continuous_recognition_async

Beendet asynchron den fortlaufenden Erkennungsvorgang.

stop_continuous_recognition_async()

Gibt zurück

Typ Beschreibung

Eine Zukunft, die sich erfüllt, sobald die Anerkennung beendet wurde.

stop_keyword_recognition

Beendet synchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_keyword_recognition()

stop_keyword_recognition_async

Beendet asynchron die Schlüsselwort (keyword) initiierte Erkennung.

stop_keyword_recognition_async()

Gibt zurück

Typ Beschreibung

Eine Zukunft, die sich erfüllt, sobald die Anerkennung beendet wurde.

stop_transcribing_async

Beendet die Transskription von Unterhaltungen asynchron.

stop_transcribing_async() -> ResultFuture

Gibt zurück

Typ Beschreibung

Eine Zukunft, die erfüllt ist, sobald die Transkription der Unterhaltung beendet wird.

Attribute

authorization_token

Das Autorisierungstoken, das zum Herstellen einer Verbindung mit dem Dienst verwendet wird.

Hinweis

Der Aufrufer muss sicherstellen, dass das Autorisierungstoken gültig ist. Vor dem

Das Autorisierungstoken läuft ab, der Aufrufer muss es aktualisieren, indem er diesen Setter mit einem aufruft.

neues gültiges Token. Da Konfigurationswerte beim Erstellen einer neuen Erkennung kopiert werden,

Der neue Tokenwert gilt nicht für Erkennungen, die bereits erstellt wurden. Für

Erkennungen, die zuvor erstellt wurden, müssen Sie das Autorisierungstoken des

entsprechende Erkennung, um das Token zu aktualisieren. Andernfalls werden die Erkennunger

Fehler während der Transkription.

canceled

Signal für Ereignisse, die abgebrochene Transkriptionsergebnisse enthalten (die einen Transkriptionsversuch angeben, der als Ergebnis abgebrochen wurde, oder eine direkte Abbruchanforderung oder alternativ einen Transport- oder Protokollfehler).

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem ConversationTranscriptionCanceledEventArgs, instance als einzelnes Argument aufgerufen.

endpoint_id

Die Endpunkt-ID eines benutzerdefinierten Sprachmodells, das für die Erkennung verwendet wird, oder eines benutzerdefinierten Sprachmodells für die Sprachsynthese.

properties

Eine Auflistung von Eigenschaften und deren Werten, die für diesen Teilnehmer definiert sind.

recognized

Signal für Ereignisse mit endgültigen Erkennungsergebnissen (ein Hinweis auf einen erfolgreichen Erkennungsversuch).

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionEventArgsoder TranslationRecognitionEventArgsIntentRecognitionEventArgs instance als einzelnes Argument aufgerufen, abhängig vom Typ der Erkennung.

recognizing

Signal für Ereignisse, die Zwischenerkennungsergebnisse enthalten.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionEventArgsoder TranslationRecognitionEventArgsIntentRecognitionEventArgs instance als einzelnes Argument aufgerufen, abhängig vom Typ der Erkennung.

session_started

Signal für Ereignisse, die den Beginn einer Erkennungssitzung (Vorgang) angeben.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SessionEventArgs instance als einzelnes Argument aufgerufen.

session_stopped

Signal für Ereignisse, die das Ende einer Erkennungssitzung (Vorgang) angeben.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SessionEventArgs instance als einzelnes Argument aufgerufen.

speech_end_detected

Signal für Ereignisse, die das Ende der Sprache anzeigen.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem RecognitionEventArgs instance als einzelnes Argument aufgerufen.

speech_start_detected

Signal für Ereignisse, die den Sprachbeginn angeben.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem RecognitionEventArgs instance als einzelnes Argument aufgerufen.

transcribed

Signal für Ereignisse mit endgültigen Transkriptionsergebnissen (ein Hinweis auf einen erfolgreichen Transkriptionsversuch).

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem ConversationTranscriptionEventArgs, instance als einzelnes Argument aufgerufen.

transcribing

Signal für Ereignisse, die Zwischentranskriptionsergebnisse enthalten.

Rückrufe, die mit diesem Signal verbunden sind, werden mit einem ConversationTranscriptionEventArgs, instance als einzelnes Argument aufgerufen.