SpeechRecognitionEngine.BabbleTimeout Eigenschaft
Definition
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Ruft das Zeitintervall ab oder legt dieses fest, während dessen eine SpeechRecognitionEngine Eingaben akzeptiert, welche nur Hintergrundgeräusche enthalten, bevor die Erkennung abgeschlossen wird.
public:
property TimeSpan BabbleTimeout { TimeSpan get(); void set(TimeSpan value); };
public TimeSpan BabbleTimeout { get; set; }
member this.BabbleTimeout : TimeSpan with get, set
Public Property BabbleTimeout As TimeSpan
Eigenschaftswert
Die Dauer des Zeitintervalls.
Ausnahmen
Diese Eigenschaft wird auf einen Wert kleiner als 0 Sekunden festgelegt.
Beispiele
Das folgende Beispiel zeigt einen Teil einer Konsolenanwendung, die die grundlegende Spracherkennung veranschaulicht, die die BabbleTimeout Eigenschaften und InitialSilenceTimeout eines SpeechRecognitionEngine festlegt, bevor die Spracherkennung initiiert wird. Handler für die Spracherkennung AudioStateChanged und RecognizeCompleted ereignisse geben Ereignisinformationen an die Konsole aus, um zu veranschaulichen, wie sich die InitialSilenceTimeout Eigenschaften eines SpeechRecognitionEngine auf Erkennungsvorgänge auswirken.
using System;
using System.Speech.Recognition;
namespace SpeechRecognitionApp
{
class Program
{
static void Main(string[] args)
{
// Initialize an in-process speech recognizer.
using (SpeechRecognitionEngine recognizer =
new SpeechRecognitionEngine(
new System.Globalization.CultureInfo("en-US")))
{
// Load a Grammar object.
recognizer.LoadGrammar(CreateServicesGrammar("FindServices"));
// Add event handlers.
recognizer.AudioStateChanged +=
new EventHandler<AudioStateChangedEventArgs>(
AudioStateChangedHandler);
recognizer.RecognizeCompleted +=
new EventHandler<RecognizeCompletedEventArgs>(
RecognizeCompletedHandler);
// Configure input to the speech recognizer.
recognizer.SetInputToDefaultAudioDevice();
recognizer.InitialSilenceTimeout = TimeSpan.FromSeconds(3);
recognizer.BabbleTimeout = TimeSpan.FromSeconds(2);
recognizer.EndSilenceTimeout = TimeSpan.FromSeconds(1);
recognizer.EndSilenceTimeoutAmbiguous = TimeSpan.FromSeconds(1.5);
Console.WriteLine("BabbleTimeout: {0}", recognizer.BabbleTimeout);
Console.WriteLine("InitialSilenceTimeout: {0}", recognizer.InitialSilenceTimeout);
Console.WriteLine("EndSilenceTimeout: {0}", recognizer.EndSilenceTimeout);
Console.WriteLine("EndSilenceTimeoutAmbiguous: {0}", recognizer.EndSilenceTimeoutAmbiguous);
Console.WriteLine();
// Start asynchronous speech recognition.
recognizer.RecognizeAsync(RecognizeMode.Single);
// Keep the console window open.
while (true)
{
Console.ReadLine();
}
}
}
// Create a grammar and build it into a Grammar object.
static Grammar CreateServicesGrammar(string grammarName)
{
// Create a grammar for finding services in different cities.
Choices services = new Choices(new string[] { "restaurants", "hotels", "gas stations" });
Choices cities = new Choices(new string[] { "Seattle", "Boston", "Dallas" });
GrammarBuilder findServices = new GrammarBuilder("Find");
findServices.Append(services);
findServices.Append("near");
findServices.Append(cities);
// Create a Grammar object from the GrammarBuilder.
Grammar servicesGrammar = new Grammar(findServices);
servicesGrammar.Name = ("FindServices");
return servicesGrammar;
}
// Handle the AudioStateChanged event.
static void AudioStateChangedHandler(
object sender, AudioStateChangedEventArgs e)
{
Console.WriteLine("AudioStateChanged ({0}): {1}",
DateTime.Now.ToString("mm:ss.f"), e.AudioState);
}
// Handle the RecognizeCompleted event.
static void RecognizeCompletedHandler(
object sender, RecognizeCompletedEventArgs e)
{
Console.WriteLine("RecognizeCompleted ({0}):",
DateTime.Now.ToString("mm:ss.f"));
string resultText;
if (e.Result != null) { resultText = e.Result.Text; }
else { resultText = "<null>"; }
Console.WriteLine(
" BabbleTimeout: {0}; InitialSilenceTimeout: {1}; Result text: {2}",
e.BabbleTimeout, e.InitialSilenceTimeout, resultText);
if (e.Error != null)
{
Console.WriteLine(" Exception message: ", e.Error.Message);
}
// Start the next asynchronous recognition operation.
((SpeechRecognitionEngine)sender).RecognizeAsync(RecognizeMode.Single);
}
}
}
Hinweise
Jede Spracherkennung verfügt über einen Algorithmus, um zwischen Stille und Sprache zu unterscheiden. Die Erkennung klassifiziert als Hintergrundrauschen alle Nicht-Still-Eingaben, die nicht der anfänglichen Regel der geladenen und aktivierten Spracherkennungsgrammatiken der Erkennung entsprechen. Wenn die Erkennung nur Hintergrundgeräusche und Stille innerhalb des babble Timeoutintervalls empfängt, schließt die Erkennung diesen Erkennungsvorgang ab.
Bei asynchronen Erkennungsvorgängen löst die Erkennung das RecognizeCompleted -Ereignis aus, wobei die RecognizeCompletedEventArgs.BabbleTimeout -Eigenschaft
true
und die RecognizeCompletedEventArgs.Result -Eigenschaft istnull
.Für synchrone Erkennungsvorgänge und Emulationen gibt die Erkennung anstelle eines gültigen RecognitionResultzurück
null
.
Wenn der Babble-Timeoutzeitraum auf 0 festgelegt ist, führt die Erkennung keine Babbletimeoutüberprüfung durch. Das Timeoutintervall kann ein beliebiger nicht negativer Wert sein. Der Standardwert ist 0 Sekunden.