ConversationTranscriber Klasse
Für ein Objekt, das Konversationstranskriptionsvorgänge ausführt. Wenn Sie Informationen zur Quellsprache angeben müssen, geben Sie bitte nur einen dieser drei Parameter an: Sprache, source_language_config oder auto_detect_source_language_config.
- Vererbung
-
ConversationTranscriber
Konstruktor
ConversationTranscriber(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)
Parameter
Name | Beschreibung |
---|---|
speech_config
Erforderlich
|
Die Konfiguration für die Konversationstraskription |
audio_config
|
Die Konfiguration für die Audioeingabe Standardwert: None
|
language
|
Quellsprache Standardwert: None
|
source_language_config
|
Konfiguration der Quellsprache Standardwert: None
|
auto_detect_source_language_config
|
Die Konfiguration der Quellsprache für die automatische Erkennung Standardwert: None
|
Methoden
recognize_once |
Führt die Erkennung in einem blockierenden (synchronen) Modus aus. Wird nach der Erkennung einer einzelnen Äußerung wieder verfügbar. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Die Aufgabe gibt als Ergebnis den Erkennungstext zurück. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async. |
recognize_once_async |
Führt die Erkennung in einem nicht blockierenden (asynchronen) Modus aus. Dient zum Erkennen einer einzelnen Äußerung. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async. |
start_continuous_recognition |
Initiiert synchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden. |
start_continuous_recognition_async |
Initiiert asynchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden. |
start_keyword_recognition |
Konfiguriert die Erkennung synchron mit dem angegebenen Schlüsselwort (keyword)-Modell. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden. |
start_keyword_recognition_async |
Konfiguriert die Erkennung asynchron mit dem angegebenen Schlüsselwort (keyword) Modells. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition_async() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden. |
start_transcribing_async |
Beginnt asynchron mit der Transskription von Konversationen. |
stop_continuous_recognition |
Beendet synchron den fortlaufenden Erkennungsvorgang. |
stop_continuous_recognition_async |
Beendet asynchron den fortlaufenden Erkennungsvorgang. |
stop_keyword_recognition |
Beendet synchron die Schlüsselwort (keyword) initiierte Erkennung. |
stop_keyword_recognition_async |
Beendet asynchron die Schlüsselwort (keyword) initiierte Erkennung. |
stop_transcribing_async |
Beendet die Transskription von Unterhaltungen asynchron. |
recognize_once
Führt die Erkennung in einem blockierenden (synchronen) Modus aus. Wird nach der Erkennung einer einzelnen Äußerung wieder verfügbar. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Die Aufgabe gibt als Ergebnis den Erkennungstext zurück. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.
recognize_once() -> SpeechRecognitionResult
Gibt zurück
Typ | Beschreibung |
---|---|
Der Ergebniswert der synchronen Erkennung. |
recognize_once_async
Führt die Erkennung in einem nicht blockierenden (asynchronen) Modus aus. Dient zum Erkennen einer einzelnen Äußerung. Zur Erkennung des Endes einer einzelnen Äußerung wird auf Stille am Ende gelauscht oder gewartet, bis maximal 15 Sekunden an Audiodaten verarbeitet wurden. Verwenden Sie für die Erkennung mehrerer Äußerungen über einen längeren Zeitraum stattdessen start_continuous_recognition_async.
recognize_once_async() -> ResultFuture
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die den Ergebniswert der asynchronen Erkennung enthält. |
start_continuous_recognition
Initiiert synchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.
start_continuous_recognition()
start_continuous_recognition_async
Initiiert asynchron den kontinuierlichen Erkennungsvorgang. Der Benutzer muss eine Verbindung mit „EventSignal“ herstellen, um Erkennungsergebnisse zu erhalten. Rufen Sie stop_continuous_recognition_async auf, um die Erkennung zu beenden.
start_continuous_recognition_async()
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die erfüllt wird, sobald die Erkennung initialisiert wurde. |
start_keyword_recognition
Konfiguriert die Erkennung synchron mit dem angegebenen Schlüsselwort (keyword)-Modell. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.
start_keyword_recognition(model: KeywordRecognitionModel)
Parameter
Name | Beschreibung |
---|---|
model
Erforderlich
|
das Schlüsselwort (keyword) Erkennungsmodell, das die zu erkennende Schlüsselwort (keyword) angibt. |
start_keyword_recognition_async
Konfiguriert die Erkennung asynchron mit dem angegebenen Schlüsselwort (keyword) Modells. Nach dem Aufrufen dieser Methode lauscht die Erkennung auf den Schlüsselwort (keyword), um die Erkennung zu starten. Rufen Sie stop_keyword_recognition_async() auf, um die Schlüsselwort (keyword) initiierte Erkennung zu beenden.
start_keyword_recognition_async(model: KeywordRecognitionModel)
Parameter
Name | Beschreibung |
---|---|
model
Erforderlich
|
das Schlüsselwort (keyword) Erkennungsmodell, das die zu erkennende Schlüsselwort (keyword) angibt. |
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die erfüllt wird, sobald die Erkennung initialisiert wurde. |
start_transcribing_async
Beginnt asynchron mit der Transskription von Konversationen.
start_transcribing_async() -> ResultFuture
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die sich erfüllt, sobald die Konversationstranskription gestartet wird. |
stop_continuous_recognition
Beendet synchron den fortlaufenden Erkennungsvorgang.
stop_continuous_recognition()
stop_continuous_recognition_async
Beendet asynchron den fortlaufenden Erkennungsvorgang.
stop_continuous_recognition_async()
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die sich erfüllt, sobald die Anerkennung beendet wurde. |
stop_keyword_recognition
Beendet synchron die Schlüsselwort (keyword) initiierte Erkennung.
stop_keyword_recognition()
stop_keyword_recognition_async
Beendet asynchron die Schlüsselwort (keyword) initiierte Erkennung.
stop_keyword_recognition_async()
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die sich erfüllt, sobald die Anerkennung beendet wurde. |
stop_transcribing_async
Beendet die Transskription von Unterhaltungen asynchron.
stop_transcribing_async() -> ResultFuture
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Zukunft, die erfüllt ist, sobald die Transkription der Unterhaltung beendet wird. |
Attribute
authorization_token
Das Autorisierungstoken, das zum Herstellen einer Verbindung mit dem Dienst verwendet wird.
Hinweis
Der Aufrufer muss sicherstellen, dass das Autorisierungstoken gültig ist. Vor dem
Das Autorisierungstoken läuft ab, der Aufrufer muss es aktualisieren, indem er diesen Setter mit einem aufruft.
neues gültiges Token. Da Konfigurationswerte beim Erstellen einer neuen Erkennung kopiert werden,
Der neue Tokenwert gilt nicht für Erkennungen, die bereits erstellt wurden. Für
Erkennungen, die zuvor erstellt wurden, müssen Sie das Autorisierungstoken des
entsprechende Erkennung, um das Token zu aktualisieren. Andernfalls werden die Erkennunger
Fehler während der Transkription.
canceled
Signal für Ereignisse, die abgebrochene Transkriptionsergebnisse enthalten (die einen Transkriptionsversuch angeben, der als Ergebnis abgebrochen wurde, oder eine direkte Abbruchanforderung oder alternativ einen Transport- oder Protokollfehler).
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem ConversationTranscriptionCanceledEventArgs, instance als einzelnes Argument aufgerufen.
endpoint_id
Die Endpunkt-ID eines benutzerdefinierten Sprachmodells, das für die Erkennung verwendet wird, oder eines benutzerdefinierten Sprachmodells für die Sprachsynthese.
properties
Eine Auflistung von Eigenschaften und deren Werten, die für diesen Teilnehmer definiert sind.
recognized
Signal für Ereignisse mit endgültigen Erkennungsergebnissen (ein Hinweis auf einen erfolgreichen Erkennungsversuch).
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionEventArgsoder TranslationRecognitionEventArgsIntentRecognitionEventArgs instance als einzelnes Argument aufgerufen, abhängig vom Typ der Erkennung.
recognizing
Signal für Ereignisse, die Zwischenerkennungsergebnisse enthalten.
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SpeechRecognitionEventArgsoder TranslationRecognitionEventArgsIntentRecognitionEventArgs instance als einzelnes Argument aufgerufen, abhängig vom Typ der Erkennung.
session_started
Signal für Ereignisse, die den Beginn einer Erkennungssitzung (Vorgang) angeben.
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SessionEventArgs instance als einzelnes Argument aufgerufen.
session_stopped
Signal für Ereignisse, die das Ende einer Erkennungssitzung (Vorgang) angeben.
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem SessionEventArgs instance als einzelnes Argument aufgerufen.
speech_end_detected
Signal für Ereignisse, die das Ende der Sprache anzeigen.
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem RecognitionEventArgs instance als einzelnes Argument aufgerufen.
speech_start_detected
Signal für Ereignisse, die den Sprachbeginn angeben.
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem RecognitionEventArgs instance als einzelnes Argument aufgerufen.
transcribed
Signal für Ereignisse mit endgültigen Transkriptionsergebnissen (ein Hinweis auf einen erfolgreichen Transkriptionsversuch).
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem ConversationTranscriptionEventArgs, instance als einzelnes Argument aufgerufen.
transcribing
Signal für Ereignisse, die Zwischentranskriptionsergebnisse enthalten.
Rückrufe, die mit diesem Signal verbunden sind, werden mit einem ConversationTranscriptionEventArgs, instance als einzelnes Argument aufgerufen.
Azure SDK for Python