SpeechServiceConnection_Key |
Cognitive Services Speech Service サブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromSubscription を使用します。 |
SpeechServiceConnection_Endpoint |
Cognitive Services Speech Service エンドポイント (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromEndpoint を使用します。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。 |
SpeechServiceConnection_Region |
Cognitive Services Speech Service リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromSubscription、 SpeechConfig::FromEndpoint、 SpeechConfig::FromHost、 SpeechConfig::FromAuthorizationToken を使用します。 |
SpeechServiceAuthorization_Token |
Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれます)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromAuthorizationToken、 SpeechRecognizer::SetAuthorizationToken、IntentRecognizer::SetAuthorizationToken、TranslationRecognizer::SetAuthorizationToken を使用します。 |
SpeechServiceAuthorization_Type |
Cognitive Services Speech Service 承認の種類。 現在使用されていません。 |
SpeechServiceConnection_EndpointId |
Cognitive Services Custom Speech または Custom Voice Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechConfig::SetEndpointId を使用します。 注: エンドポイント ID は、[エンドポイントの詳細] の下に表示されている Custom Speech ポータルで使用できます。 |
SpeechServiceConnection_Host |
Cognitive Services Speech Service ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromHost を使用します。 |
SpeechServiceConnection_ProxyHostName |
Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのホスト名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。 |
SpeechServiceConnection_ProxyPort |
Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。 |
SpeechServiceConnection_ProxyUserName |
Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのユーザー名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。 |
SpeechServiceConnection_ProxyPassword |
Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのパスワード。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。 |
SpeechServiceConnection_Url |
音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 注: バージョン 1.5.0 で追加されました。 |
SpeechServiceConnection_TranslationToLanguages |
ターゲット翻訳言語として使用されるコンマ区切り言語の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechTranslationConfig::AddTargetLanguage と SpeechTranslationConfig::GetTargetLanguages を使用します。 |
SpeechServiceConnection_TranslationVoice |
Cognitive Service Text to Speech Service 音声の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechTranslationConfig::SetVoiceName を使用します。 注: 有効な音声名については、 こちらを参照してください。 |
SpeechServiceConnection_TranslationFeatures |
翻訳機能。 内部使用です。 |
SpeechServiceConnection_IntentRegion |
Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに LanguageUnderstandingModel を使用します。 |
SpeechServiceConnection_RecoMode |
Cognitive Services Speech Service 認識モード。 "INTERACTIVE"、"CONVERSATION"、"DICTATION" を指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 |
SpeechServiceConnection_RecoLanguage |
認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetSpeechRecognitionLanguage を使用します。 |
Speech_SessionId |
セッション ID。この ID は、オーディオ入力ストリームと、それがバインドされている基になる音声認識インスタンスの特定のバインドを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、SessionEventArgs::SessionId を使用します。 |
SpeechServiceConnection_UserDefinedQueryParameters |
ユーザーによって提供されるクエリ パラメーター。 これらは、URL クエリ パラメーターとしてサービスに渡されます。 バージョン 1.5.0 で追加されました。 |
SpeechServiceConnection_RecoBackend |
音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用しないでください。 現在、オフライン オプションは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_RecoModelName |
音声認識に使用するモデルの名前。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_RecoModelKey |
音声認識に使用するモデルの復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_RecoModelIniFile |
音声認識に使用するモデルの ini ファイルへのパス。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_SynthLanguage |
合成する音声言語 (en-US など) がバージョン 1.4.0 で追加されました。 |
SpeechServiceConnection_SynthVoice |
音声合成に使用する TTS 音声の名前がバージョン 1.4.0 で追加されました。 |
SpeechServiceConnection_SynthOutputFormat |
バージョン 1.4.0 で追加された TTS 出力オーディオ形式を指定する文字列。 |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
音声合成オーディオ送信に圧縮オーディオ形式を使用するかどうかを示します。 このプロパティは、SpeechServiceConnection_SynthOutputFormatが pcm 形式に設定されている場合にのみ影響します。 このプロパティが設定されておらず、GStreamer が使用可能な場合、SDK では合成オーディオ転送に圧縮形式が使用され、デコードされます。 このプロパティを "false" に設定すると、ネットワーク上の伝送に生の pcm 形式を使用できます。 バージョン 1.16.0 で追加されました。 |
SpeechServiceConnection_SynthBackend |
TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPaths を使用して、合成バックエンドをオフラインに設定します。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_SynthOfflineDataPath |
オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPaths を使用します。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_SynthOfflineVoice |
音声合成に使用するオフライン TTS 音声の名前 通常の状況では、このプロパティを直接使用しないでください。 代わりに、 EmbeddedSpeechConfig::SetSpeechSynthesisVoice と EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName を使用します。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_SynthModelKey |
音声合成に使用する音声の復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 代わりに、 EmbeddedSpeechConfig::SetSpeechSynthesisVoice を使用します。 バージョン 1.19.0 で追加されました。 |
SpeechServiceConnection_VoicesListEndpoint |
Cognitive Services Speech Service の音声リスト API エンドポイント (URL)。 通常の状況では、このプロパティを指定する必要はありません。SDK は SpeechConfig のリージョン/ホスト/エンドポイントに基づいてそれを構築します。 バージョン 1.16.0 で追加されました。 |
SpeechServiceConnection_InitialSilenceTimeoutMs |
サービスで使用される初期無音タイムアウト値 (ミリ秒単位)。 バージョン 1.5.0 で追加されました。 |
SpeechServiceConnection_EndSilenceTimeoutMs |
サービスで使用される終了無音タイムアウト値 (ミリ秒単位)。 バージョン 1.5.0 で追加されました。 |
SpeechServiceConnection_EnableAudioLogging |
サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされている独自のストレージ アカウント (Bring Your Own Storage (BYOS) 対応 Speech リソース) のいずれかに格納されます。 バージョン 1.5.0 で追加されました。 |
SpeechServiceConnection_LanguageIdMode |
音声サービス接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 言語識別に関するドキュメントを参照してください。 1.25.0 で追加されました。 |
SpeechServiceConnection_AutoDetectSourceLanguages |
バージョン 1.8.0 で追加されたソース言語の自動検出。 |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
ソース言語の自動検出の結果がバージョン 1.8.0 で追加されました。 |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechConfig::SetOutputFormat を使用します。 |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
要求された Cognitive Services Speech Service 応答出力の不適切なレベル。 現在使用されていません。 |
SpeechServiceResponse_ProfanityOption |
要求された Cognitive Services Speech Service 応答出力の不適切な設定。 使用できる値は、"masked"、"removed"、"raw" です。 バージョン 1.5.0 で追加されました。 |
SpeechServiceResponse_PostProcessingOption |
サービスで使用する後処理オプションを指定する文字列値。 使用できる値は "TrueText" です。 バージョン 1.5.0 で追加されました。 |
SpeechServiceResponse_RequestWordLevelTimestamps |
応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 バージョン 1.5.0 で追加されました。 |
SpeechServiceResponse_StablePartialResultThreshold |
単語が部分的な結果になる必要がある回数を返します。 バージョン 1.5.0 で追加されました。 |
SpeechServiceResponse_OutputFormatOption |
応答結果の出力形式オプションを指定する文字列値。 内部使用のみです。 バージョン 1.5.0 で追加されました。 |
SpeechServiceResponse_RequestSnr |
応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。 バージョン 1.18.0 で追加されました。 |
SpeechServiceResponse_TranslationRequestStablePartialResult |
末尾の単語を省略して翻訳の一部の結果を安定させるために要求するブール値。 バージョン 1.5.0 で追加されました。 |
SpeechServiceResponse_RequestWordBoundary |
WordBoundary イベントを要求するかどうかを指定するブール値。 バージョン 1.21.0 で追加されました。 |
SpeechServiceResponse_RequestPunctuationBoundary |
WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。 バージョン 1.21.0 で追加されました。 |
SpeechServiceResponse_RequestSentenceBoundary |
WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。 バージョン 1.21.0 で追加されました。 |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
SDK が合成メタデータ イベント (単語の境界、口形素など) をオーディオ再生に同期するかどうかを指定するブール値。 これは、オーディオが SDK を介して再生される場合にのみ有効になります。 既定値は true です。 false に設定すると、SDK はサービスからのイベントを発生させます。これは、オーディオ再生と同期していない可能性があります。 バージョン 1.31.0 で追加されました。 |
SpeechServiceResponse_JsonResult |
Cognitive Services Speech Service 応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。 |
SpeechServiceResponse_JsonErrorDetails |
Cognitive Services Speech Service エラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 CancellationDetails::ErrorDetails を使用します。 |
SpeechServiceResponse_RecognitionLatencyMs |
認識待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声/翻訳/意図の結果で使用できます。 これにより、SDK でオーディオ入力を受信してから、サービスから最終的な結果を受信するまでの待機時間が測定されます。 SDK は、最終的な結果に寄与しているオーディオ入力の最後のオーディオ フラグメントと、音声サービスから最終的な結果を受信した時刻の時間差を計算します。 バージョン 1.3.0 で追加されました。 |
SpeechServiceResponse_RecognitionBackend |
認識バックエンド。 読み取り専用。音声認識結果で使用できます。 これは、クラウド (オンライン) または埋め込み (オフライン) 認識を使用して結果を生成したかどうかを示します。 |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
音声合成の最初のバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始され、最初のバイト オーディオが使用可能になった瞬間までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。 |
SpeechServiceResponse_SynthesisFinishLatencyMs |
音声合成のすべてのバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されたときと、オーディオ全体が合成された瞬間までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。 |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
音声合成のアンダーラン時間 (ミリ秒単位)。 読み取り専用。SynthesisCompleted イベントの結果で使用できます。 これにより、合成が完了するまでの PropertyId::AudioConfig_PlaybackBufferLengthInMs からのアンダーラン時間の合計が測定されます。 バージョン 1.17.0 で追加されました。 |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
音声合成接続の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始され、HTTP/WebSocket 接続が確立された時点までの待機時間が測定されます。 バージョン 1.26.0 で追加されました。 |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
音声合成ネットワークの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、ネットワークのラウンド トリップ時間が測定されます。 バージョン 1.26.0 で追加されました。 |
SpeechServiceResponse_SynthesisServiceLatencyMs |
音声合成サービスの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、オーディオの最初のバイトを合成するためのサービス処理時間が測定されます。 バージョン 1.26.0 で追加されました。 |
SpeechServiceResponse_SynthesisBackend |
合成が完了したバックエンドを示します。 読み取り専用。音声合成結果で使用できます。ただし、SynthesisStarted イベントの結果を除き、バージョン 1.17.0 で追加されました。 |
CancellationDetails_Reason |
取り消しの理由。 現在使用されていません。 |
CancellationDetails_ReasonText |
取り消しテキスト。 現在使用されていません。 |
CancellationDetails_ReasonDetailedText |
取り消しの詳細なテキスト。 現在使用されていません。 |
LanguageUnderstandingServiceResponse_JsonResult |
Language Understanding サービス応答出力 (JSON 形式)。 IntentRecognitionResult.Properties を使用して使用できます。 |
AudioConfig_DeviceNameForCapture |
オーディオ キャプチャのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromMicrophoneInput を使用します。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。 |
AudioConfig_NumberOfChannelsForCapture |
オーディオ キャプチャ用のチャネルの数。 内部使用のみです。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。 |
AudioConfig_SampleRateForCapture |
オーディオ キャプチャのサンプル レート (Hz 単位)。 内部使用のみです。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。 |
AudioConfig_BitsPerSampleForCapture |
オーディオ キャプチャ用の各サンプルのビット数。 内部使用のみです。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。 |
AudioConfig_AudioSource |
オーディオ ソース。 使用できる値は、"Microphones"、"File"、および "Stream" です。 バージョン 1.3.0 で追加されました。 |
AudioConfig_DeviceNameForRender |
オーディオ レンダリングのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromSpeakerOutput を使用します。 バージョン 1.14.0 で追加されました。 |
AudioConfig_PlaybackBufferLengthInMs |
再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。 |
AudioConfig_AudioProcessingOptions |
JSON 形式のオーディオ処理オプション。 |
Speech_LogFilename |
ログを書き込むファイル名。 バージョン 1.4.0 で追加されました。 |
Speech_SegmentationSilenceTimeoutMs |
検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な Recognized 結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって長すぎる、または短すぎる結果が一貫して生成される状況で役立つ場合があります。 セグメント化タイムアウト値が不適切に高いか低い場合は、音声テキスト変換の精度に悪影響を及ぼす可能性があります。このプロパティは慎重に構成し、結果の動作を意図したとおりに徹底的に検証する必要があります。 |
Conversation_ApplicationId |
バックエンド サービスへの接続に使用される識別子。 バージョン 1.5.0 で追加されました。 |
Conversation_DialogType |
接続するダイアログ バックエンドの種類。 バージョン 1.7.0 で追加されました。 |
Conversation_Initial_Silence_Timeout |
リッスンの無音タイムアウト バージョン 1.5.0 で追加されました。 |
Conversation_From_Id |
音声認識アクティビティで使用する ID から、バージョン 1.5.0 で追加されました。 |
Conversation_Conversation_Id |
セッションの ConversationId。 バージョン 1.8.0 で追加されました。 |
Conversation_Custom_Voice_Deployment_Ids |
カスタム音声展開 ID のコンマ区切りの一覧。 バージョン 1.8.0 で追加されました。 |
Conversation_Speech_Activity_Template |
音声アクティビティ テンプレート。音声用にサービスによって生成されたアクティビティのテンプレート内のプロパティをスタンプします。 バージョン 1.10.0 で追加されました。 |
Conversation_ParticipantId |
現在の会話の参加者識別子。 バージョン 1.13.0 で追加されました。 |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Pull/Push オーディオ入力ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられたタイム スタンプ。 タイムスタンプは、解像度が 90 kHz の 64 ビット値です。 これは、MPEG トランスポート ストリームのプレゼンテーション タイムスタンプと同じです。 「バージョン 1.5.0 で追加されました」を参照してください https://en.wikipedia.org/wiki/Presentation_timestamp 。 |
DataBuffer_UserId |
Pull/Push オーディオ入力ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられているユーザー ID。 バージョン 1.5.0 で追加されました。 |
PronunciationAssessment_ReferenceText |
発音評価用のオーディオの参照テキスト。 このパラメーターと次の発音評価パラメーターについては、 発音評価パラメーターの表を参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create または PronunciationAssessmentConfig::SetReferenceText を使用します。 バージョン 1.14.0 で追加されました。 |
PronunciationAssessment_GradingSystem |
発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。 |
PronunciationAssessment_Granularity |
発音評価の粒度 (音素、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。 |
PronunciationAssessment_EnableMiscue |
誤った計算を有効にするかどうかを定義します。 これを有効にすると、発音された単語が参照テキストと比較され、比較に基づいて省略または挿入がマークされます。 既定の設定は [False] です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。 |
PronunciationAssessment_PhonemeAlphabet |
発音評価音素アルファベット。 有効な値は "SAPI" (既定値) と "IPA" です。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::SetPhonemeAlphabet を使用します。 バージョン 1.20.0 で追加されました。 |
PronunciationAssessment_NBestPhonemeCount |
発音評価 nbest 音素数。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::SetNBestPhonemeCount を使用します。 バージョン 1.20.0 で追加されました。 |
PronunciationAssessment_EnableProsodyAssessment |
プロソディ評価を有効にするかどうか。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::EnableProsodyAssessment を使用します。 バージョン 1.33.0 で追加されました。 |
PronunciationAssessment_Json |
発音評価パラメーターの json 文字列 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。 |
PronunciationAssessment_Params |
発音評価パラメーター。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.14.0 で追加されました。 |
PronunciationAssessment_ContentTopic |
発音評価のコンテンツ トピック。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic を使用します。 バージョン 1.33.0 で追加されました。 |
SpeakerRecognition_Api_Version |
Speaker Recognition バックエンド API のバージョン。 このプロパティは、以前のバージョンの Speaker Recognition API (該当する場合) のテストと使用を可能にするために追加されます。 バージョン 1.18.0 で追加されました。 |
SpeechTranslation_ModelName |
音声翻訳に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
SpeechTranslation_ModelKey |
音声翻訳に使用するモデルの復号化キー。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
KeywordRecognition_ModelName |
キーワード (keyword)認識に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
KeywordRecognition_ModelKey |
キーワード (keyword)認識に使用するモデルの復号化キー。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
EmbeddedSpeech_EnablePerformanceMetrics |
埋め込み音声を使用するデバイスの機能を評価するために使用できる埋め込み音声パフォーマンス メトリックのコレクションを有効にします。 収集されたデータは、音声認識などの特定のシナリオの結果に含まれます。 既定の設定は "false" です。 すべての埋め込み音声シナリオでメトリックを使用できない場合があることに注意してください。 |