クラス Intent::IntentRecognizer
class Intent::IntentRecognizer
: public AsyncRecognizer< IntentRecognitionResult, IntentRecognitionEventArgs, IntentRecognitionCanceledEventArgs >
IntentRecognizer は、音声テキスト変換認識の実行に加えて、話者の意図に関する構造化された情報を抽出します。これは、専用の意図トリガーを使用してさらにアクションを実行するために使用できます ( IntentTrigger を参照)。
メンバー
プロパティ
構文: public PropertyCollection & Properties;
この IntentRecognizer に対して定義されているプロパティとその値のコレクション。
IntentRecognizer
構文: public inline explicit IntentRecognizer ( SPXRECOHANDLE hreco );
内部コンストラクター。 指定されたハンドルを使用して新しいインスタンスを作成します。
パラメーター
hreco
認識エンジン ハンドル。
~IntentRecognizer
構文: public inline ~IntentRecognizer ( );
デストラクター
RecognizeOnceAsync
構文: public inline virtual std::future< std::shared_ptr< IntentRecognitionResult > > RecognizeOnceAsync ( );
意図認識を開始し、1 つの発話が認識された後に を返します。 1 つの発話の終わりは、終了時の無音状態をリッスンするか、最大 15 秒のオーディオが処理されるまで待機することによって決定されます。 このタスクからは、結果として認識テキストが返されます。 注: RecognizeOnceAsync() は 1 つの発話のみを返すので、コマンドやクエリなどのシングル ショット認識にのみ適しています。 実行時間の長い複数発話認識の場合は、代わりに StartContinuousRecognitionAsync() を使用してください。
戻り値
非同期インテント認識の結果値 (IntentRecognitionResult への共有ポインター) を含む将来。
RecognizeOnceAsync
構文: public inline std::future< std::shared_ptr< IntentRecognitionResult > > RecognizeOnceAsync ( std::string text );
意図認識を開始し、渡されたテキストから結果を生成します。 これは、テストや、音声入力が IntentRecognizer に関連付けられていない場合に便利です。 注: インテント サービスでは現在サポートされていないため、オフライン パターン マッチングまたは完全一致インテントに対してのみ有効です。
パラメーター
text
評価するテキスト。
戻り値
非同期インテント認識の結果値 (IntentRecognitionResult への共有ポインター) を含む将来。
StartContinuousRecognitionAsync
構文: public inline virtual std::future< void > StartContinuousRecognitionAsync ( );
継続的な意図認識操作を非同期的に開始します。
戻り値
空の未来。
StopContinuousRecognitionAsync
構文: public inline virtual std::future< void > StopContinuousRecognitionAsync ( );
継続的な継続的な意図認識操作を非同期的に終了します。
戻り値
空の未来。
StartKeywordRecognitionAsync
構文: public inline virtual std::future< void > StartKeywordRecognitionAsync ( std::shared_ptr< KeywordRecognitionModel > model );
認識操作キーワード (keyword)非同期的に開始します。
パラメーター
model
使用するキーワード (keyword) モデルを指定します。
戻り値
空の未来。
StopKeywordRecognitionAsync
構文: public inline virtual std::future< void > StopKeywordRecognitionAsync ( );
認識操作キーワード (keyword)非同期的に終了します。
戻り値
空の未来。
AddIntent
構文: public inline void AddIntent ( const std::string & simplePhrase );
特定のユーザー 意図を示す、ユーザーが話す可能性のある単純な語句を追加します。 この単純なフレーズは、中かっこで囲まれた と enitity を含むパターンにすることができます。 "{checkboxName} チェックボックスをクリック" など。
パラメーター
simplePhrase
意図に対応するフレーズ。
認識されると、IntentRecognitionResult の IntentId プロパティは、ここで指定した simplePhrase と一致します。 エンティティが指定され、一致する場合は、IntentResult-GetEntities>() 呼び出しで使用できます。
AddIntent
構文: public inline void AddIntent ( const std::string & simplePhrase , const std::string & intentId );
特定のユーザー 意図を示す、ユーザーが話す可能性のある単純な語句を追加します。 この単純なフレーズは、中かっこで囲まれた と enitity を含むパターンにすることができます。 "{checkboxName} チェックボックスをクリック" など。
パラメーター
simplePhrase
意図に対応するフレーズ。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム ID 文字列。
認識されると、結果の意図 ID は、ここで指定した ID と一致します。 エンティティが指定され、一致する場合は、IntentResult-GetEntities>() 呼び出しで使用できます。
AddIntent
構文: public inline void AddIntent ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentName );
指定した Language Understanding Model から名前で 1 つの意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。 これらの型の場合、intentName は無視されます。
パラメーター
model
意図を含む言語理解モデル。intentName
言語理解モデルから含める 1 つの意図の名前。
認識されると、IntentRecognitionResult の IntentId プロパティには、ここで指定した intentName が含まれます。
AddIntent
構文: public inline void AddIntent ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentName , const std::string & intentId );
指定した Language Understanding Model から名前で 1 つの意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。 これらの型の場合、intentName と intentId は無視されます。
パラメーター
model
意図を含む言語理解モデル。intentName
言語理解モデルから含める 1 つの意図の名前。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム ID 文字列。
AddAllIntents
構文: public inline void AddAllIntents ( std::shared_ptr< LanguageUnderstandingModel > model );
指定した Language Understanding Model からすべての意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。
パラメーター
model
意図を含む言語理解モデル。
認識されると、IntentRecognitionResult の IntentId プロパティには、認識された意図の名前が含まれます。
AddAllIntents
構文: public inline void AddAllIntents ( std::shared_ptr< LanguageUnderstandingModel > model , const std::string & intentId );
指定した Language Understanding Model からすべての意図を追加します。 PatternMatchingModel 型と ConversationalLanguageUnderstandingModel 型の場合、これを有効にする前に既存のモデルがクリアされます。
パラメーター
model
意図を含む言語理解モデル。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム文字列 ID。
AddIntent
構文: public inline void AddIntent ( std::shared_ptr< IntentTrigger > trigger , const std::string & intentId );
指定された IntentTrigger を追加します。
パラメーター
trigger
意図に対応する IntentTrigger。intentId
IntentRecognitionResult の IntentId プロパティで返されるカスタム文字列 ID。
SetAuthorizationToken
構文: public inline void SetAuthorizationToken ( const std::string & token );
サービスへの接続に使用する承認トークンを設定します。 注: 呼び出し元は、承認トークンが有効であることを確認する必要があります。 認証トークンの有効期限が切れる前に、呼び出し元は、新しい有効なトークンを使用してこのセッターを呼び出すことによって、認証トークンを更新する必要があります。 そうしないと、認識中に認識エンジンでエラーが発生します。
パラメーター
token
承認トークンを表す文字列。
GetAuthorizationToken
構文: public inline std::string GetAuthorizationToken ( );
承認トークンを取得します。
戻り値
承認トークン
ApplyLanguageModels
構文: public inline bool ApplyLanguageModels ( const std::vector< std::shared_ptr< LanguageUnderstandingModel > > & collection );
言語理解モデルのコレクションを取得し、それらのコピーを作成し、認識エンジンに適用します。 このアプリケーションは、言語理解モデルの種類に応じて異なる時間に発生します。 簡易言語モデルはほぼすぐにアクティブになりますが、LUIS を利用する言語理解モデルは次の音声ターンでアクティブになります。 これにより、以前に適用されたモデルが置き換えられます。
パラメーター
collection
LanguageUnderstandingModels への共有ポインターのベクター。
戻り値
True を指定すると、モデルの適用が直ちに有効になります。 それ以外の場合は false。
FromConfig
構文: public inline static std::shared_ptr< IntentRecognizer > FromConfig ( std::shared_ptr< SpeechConfig > speechConfig , std::shared_ptr< Audio::AudioConfig > audioInput );
音声構成とオーディオ構成から意図認識エンジンを作成します。ユーザーはこの関数を使用して、意図認識エンジンの新しいインスタンスを作成する必要があります。
パラメーター
speechConfig
音声の構成。audioInput
オーディオ構成。
戻り値
意図認識エンジンのインスタンス。
FromConfig
構文: public inline static std::shared_ptr< IntentRecognizer > FromConfig ( std::shared_ptr< EmbeddedSpeechConfig > speechConfig , std::shared_ptr< Audio::AudioConfig > audioInput );
埋め込まれた音声構成とオーディオ構成から意図認識エンジンを作成します。ユーザーはこの関数を使用して、意図認識エンジンの新しいインスタンスを作成する必要があります。 バージョン 1.19.0 で追加されました。
パラメーター
speechConfig
埋め込み音声の構成。audioInput
オーディオ構成。
戻り値
意図認識エンジンのインスタンス。
BaseType
構文: typedef BaseType;