PropertyId 列挙型
定義
重要
一部の情報は、リリース前に大きく変更される可能性があるプレリリースされた製品に関するものです。 Microsoft は、ここに記載されている情報について、明示または黙示を問わず、一切保証しません。
音声プロパティ ID を一覧表示します。
public enum PropertyId
type PropertyId =
Public Enum PropertyId
- 継承
-
PropertyId
フィールド
AudioConfig_DeviceNameForRender | 8005 | オーディオ レンダリングのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに FromSpeakerOutput(String) を使用してください。 バージョン 1.17.0 で追加されました |
AudioConfig_PlaybackBufferLengthInMs | 8006 | 再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。 バージョン 1.17.0 で追加されました |
CancellationDetails_Reason | 6000 | 未使用。 取り消しの理由。 |
CancellationDetails_ReasonDetailedText | 6002 | 未使用。 キャンセルの詳細なテキスト。 |
CancellationDetails_ReasonText | 6001 | 未使用。 取り消しテキスト。 |
Conversation_ApplicationId | 10000 | バックエンド サービスへの接続に使用される識別子。 1.5.0 で追加 |
Conversation_Connection_Id | 10009 | バックエンド サービスで認証するために使用されるDirect Line トークンなどの追加の識別情報。 1.16.0 で追加 |
Conversation_Conversation_Id | 10004 | セッションの ConversationId。 1.8.0 で追加 |
Conversation_Custom_Voice_Deployment_Ids | 10005 | カスタム音声デプロイ ID のコンマ区切りの一覧。 1.8.0 で追加 |
Conversation_DialogType | 10001 | 接続するダイアログ バックエンドの種類。 1.7.0 で追加 |
Conversation_From_Id | 10003 | 音声認識アクティビティに追加する from 識別子。 1.5.0 で追加 |
Conversation_Initial_Silence_Timeout | 10002 | リッスンの無音タイムアウト。 1.5.0 で追加 |
Conversation_ParticipantId | 10007 | 会話内の識別子を取得します。 1.13.0 で追加されました |
Conversation_Request_Bot_Status_Messages | 10008 | クライアントがターン ステータス メッセージを受信し、対応する TurnStatusReceived イベントを生成するかどうかを指定するブール値。 既定値は true です。 1.15.0 で追加 |
Conversation_Speech_Activity_Template | 10006 | Speech アクティビティ テンプレート。サービスによって音声用に生成されたアクティビティのテンプレートのスタンプ プロパティ。 「1.10.0 で追加された」を参照してくださいSpeechActivityTemplate |
ConversationTranscribingService_DataBufferTimeStamp | 11001 | Pull/Push オーディオ モード ストリームを使用する場合にクライアントによって書き込まれたデータ バッファーに関連付けられたタイム スタンプ。 タイムスタンプは、解像度が 90 kHz の 64 ビット値です。 MPEG トランスポート ストリームのプレゼンテーション タイムスタンプと同じです。 「https://en.wikipedia.org/wiki/Presentation_timestamp」を参照してください。 1.5.0 で追加 |
ConversationTranscribingService_DataBufferUserId | 11002 | Pull/Push オーディオ モード ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられているユーザー識別子。 1.5.0 で追加 |
LanguageUnderstandingServiceResponse_JsonResult | 7000 | Language Understanding サービス応答出力 (JSON 形式)。 を使用して Properties使用できます。 |
PronunciationAssessment_EnableMiscue | 12005 | 計算の誤った状態を示します。 有効にすると、発音された単語は参照テキストと比較され、比較に基づいて省略/挿入でマークされます。 既定の設定は false です。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました |
PronunciationAssessment_GradingSystem | 12002 | 発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました |
PronunciationAssessment_Granularity | 12003 | 発音評価の粒度 (音素、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました |
PronunciationAssessment_Json | 12009 | 発音評価パラメーターの JSON 文字列。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました |
PronunciationAssessment_NBestPhonemeCount | 12007 | 発音評価 nbest 音素数。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに NBestPhonemeCount を使用してください。 バージョン 1.20.0 で追加されました |
PronunciationAssessment_Params | 12010 | 発音評価パラメーター。 このプロパティは読み取り専用です。 1.14.0 で追加されました |
PronunciationAssessment_PhonemeAlphabet | 12006 | 発音評価音素アルファベット。 有効な値は "SAPI" (既定値) と "IPA" です。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに PhonemeAlphabet を使用してください。 バージョン 1.20.0 で追加されました |
PronunciationAssessment_ReferenceText | 12001 | 発音評価用のオーディオの参照テキスト。 このパラメーターと次の発音評価パラメーターについては、発音 評価パラメーター に関するページを参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました |
SpeakerRecognition_Api_Version | 13001 | 話者認識 API のバージョン。 1.18.0 で追加されました |
Speech_LogFilename | 9001 | ログを書き込むファイル名。 1.4.0 で追加 |
Speech_SegmentationSilenceTimeoutMs | 9002 | 検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な Recognized 結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって長すぎる、または短すぎる結果が一貫して生成される状況で役立つ場合があります。 セグメント化タイムアウト値が不適切に高いか低い場合は、音声テキスト変換の精度に悪影響を及ぼす可能性があります。このプロパティは慎重に構成し、結果の動作を意図したとおりに徹底的に検証する必要があります。 既定の動作の説明を含むタイムアウト構成の詳細については、 を参照 https://aka.ms/csspeech/timeoutsしてください。 |
Speech_SessionId | 3002 | セッション ID。この ID は、オーディオ入力ストリームと、それがバインドされている基になる音声認識インスタンスの特定のバインドを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SessionId を使用します。 |
SpeechServiceAuthorization_Token | 1003 | Speech サービス承認トークン (別名アクセス トークン)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、、AuthorizationTokenAuthorizationToken、 を使用FromAuthorizationToken(String, String)AuthorizationTokenします。 |
SpeechServiceAuthorization_Type | 1004 | 未使用。 Speech サービスの承認の種類。 |
SpeechServiceConnection_AutoDetectSourceLanguageResult | 3301 | ソース言語の自動検出の結果。 1.9.0 で追加されました |
SpeechServiceConnection_AutoDetectSourceLanguages | 3300 | ソース言語の自動検出。 1.9.0 で追加されました |
SpeechServiceConnection_EnableAudioLogging | 3202 | サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされている独自のストレージ アカウント (Bring Your Own Storage (BYOS) 対応 Speech リソース) のいずれかに格納されます。 1.5.0 で追加されました。 |
SpeechServiceConnection_Endpoint | 1001 | Speech サービス エンドポイント(URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 または を使用 FromEndpoint(Uri, String)します FromEndpoint(Uri)。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。 |
SpeechServiceConnection_EndpointId | 1005 | Custom Speech または Custom Voice Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 または を使用 FromEndpoint(Uri, String)します FromEndpoint(Uri)。 注: エンドポイント ID は、[エンドポイントの詳細] の下に表示されている Custom Speech ポータルで使用できます。 |
SpeechServiceConnection_EndSilenceTimeoutMs | 3201 | サービスで使用される終了無音タイムアウト値 (ミリ秒単位)。 1.5.0 で追加 |
SpeechServiceConnection_Host | 1006 | Speech サービス ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 または を使用 FromHost(Uri, String)します FromHost(Uri)。 |
SpeechServiceConnection_InitialSilenceTimeoutMs | 3200 | サービスで使用される初期無音タイムアウト値 (ミリ秒単位)。 1.5.0 で追加 |
SpeechServiceConnection_IntentRegion | 2003 | Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに LanguageUnderstandingModel を使用します。 |
SpeechServiceConnection_Key | 1000 | Speech サービス エンドポイントで使用されるサブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに FromSubscription(String, String) を使用してください。 |
SpeechServiceConnection_LanguageIdMode | 3205 | 音声サービス接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 言語識別に関するドキュメントを参照してください。 1.25.0 で追加 |
SpeechServiceConnection_ProxyHostName | 1100 | Speech サービスへの接続に使用されるプロキシ サーバーのホスト名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加 |
SpeechServiceConnection_ProxyPassword | 1103 | Speech サービスへの接続に使用されるプロキシ サーバーのパスワード。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加 |
SpeechServiceConnection_ProxyPort | 1101 | Speech サービスへの接続に使用されるプロキシ サーバーのポート。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加 |
SpeechServiceConnection_ProxyUserName | 1102 | Speech サービスへの接続に使用するプロキシ サーバーのユーザー名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加 |
SpeechServiceConnection_RecoBackend | 3004 | 音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用しないでください。 現在、オフライン オプションは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_RecoLanguage | 3001 | 認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechRecognitionLanguage を使用してください。 |
SpeechServiceConnection_RecoMode | 3000 | Speech Service 認識モード。 対話型、会話、ディクテーションを指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されます。 |
SpeechServiceConnection_RecoModelKey | 3006 | 音声認識に使用するモデルの復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_RecoModelName | 3005 | 音声認識に使用するモデルの名前。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_Region | 1002 | サブスクリプション キーに関連付けられている Speech サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、、、、、、 を使用FromSubscription(String, String)FromEndpoint(Uri, String)します。 FromAuthorizationToken(String, String)FromHost(Uri)FromHost(Uri, String)FromEndpoint(Uri) |
SpeechServiceConnection_SynthBackend | 3110 | TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、FromPath(String) または FromPaths(String[]) を使用します。 合成バックエンドをオフラインに設定します。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission | 3103 | 音声合成オーディオ送信に圧縮オーディオ形式を使用するかどうかを示します。 このプロパティは、SpeechServiceConnection_SynthOutputFormatが pcm 形式に設定されている場合にのみ重要です。 このプロパティが true に設定されておらず、GStreamer が使用可能な場合、SDK は合成オーディオ転送に圧縮形式を使用し、デコードします。 このプロパティを false に設定すると、ネットワーク上の伝送に生の pcm 形式を使用できます。 1.16.0 で追加 |
SpeechServiceConnection_SynthLanguage | 3100 | 合成する音声言語 (en-US など)。 1.4.0 で追加 |
SpeechServiceConnection_SynthModelKey | 3114 | 音声合成に使用するモデルの復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 代わりに SetSpeechSynthesisVoice(String, String) を使用してください。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_SynthOfflineDataPath | 3112 | オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、FromPath(String) または FromPaths(String[]) を使用します。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_SynthOfflineVoice | 3113 | 音声合成に使用するオフライン TTS 音声の名前。 通常の状況では、このプロパティを直接使用しないでください。 代わりに SetSpeechSynthesisVoice(String, String) を使用してください。 バージョン 1.19.0 で追加されました |
SpeechServiceConnection_SynthOutputFormat | 3102 | 音声合成出力オーディオ形式を指定する文字列 (例: riff-16khz-16bit-mono-pcm) 1.4.0 で追加 |
SpeechServiceConnection_SynthVoice | 3101 | テキスト読み上げに使用する音声の名前。 1.4.0 で追加 |
SpeechServiceConnection_TranslationFeatures | 2002 | 翻訳機能。 内部使用です。 |
SpeechServiceConnection_TranslationToLanguages | 2000 | ターゲット翻訳言語として使用されるコンマ区切り言語 (BCP-47 形式) の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 と の読み取り専用TargetLanguagesコレクションを使用AddTargetLanguage(String)します。 |
SpeechServiceConnection_TranslationVoice | 2001 | テキスト読み上げに使用される音声の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに VoiceName を使用します。 有効な音声名 については、こちらを参照してください。 |
SpeechServiceConnection_Url | 1104 | 音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では、この値が内部的に使用されます。 1.5.0 で追加 |
SpeechServiceConnection_VoicesListEndpoint | 3130 | Cognitive Services Speech Service 音声リスト API エンドポイント (URL)。 通常の状況では、このプロパティを指定する必要はありません。SDK では、 のリージョン/ホスト/エンドポイント SpeechConfigに基づいて構築されます。 1.16.0 で追加 |
SpeechServiceResponse_JsonErrorDetails | 5001 | 音声サービスのエラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに ErrorDetails を使用します。 |
SpeechServiceResponse_JsonResult | 5000 | 音声サービスの応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。 |
SpeechServiceResponse_OutputFormatOption | 4006 | 応答結果の出力形式オプションを指定する文字列値。 内部使用のみです。 1.5.0 で追加 |
SpeechServiceResponse_PostProcessingOption | 4003 | サービスで使用する後処理オプションを指定する文字列値。 使用できる値: TrueText。 1.5.0 で追加 |
SpeechServiceResponse_ProfanityOption | 4002 | 要求された Speech サービス応答出力の不適切な設定。 使用できる値は、マスク、削除、未加工です。 1.5.0 で追加 |
SpeechServiceResponse_RecognitionBackend | 5003 | 認識バックエンド。 読み取り専用。音声認識結果で使用できます。 これは、クラウド (オンライン) または埋め込み (オフライン) 認識を使用して結果を生成したかどうかを示します。 |
SpeechServiceResponse_RecognitionLatencyMs | 5002 | 認識の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声/翻訳/意図の結果で使用できます。 これにより、SDK によってオーディオ入力が受信されたときと、サービスから最終的な結果が受信された時点までの待機時間が測定されます。 SDK は、最終的な結果に寄与するオーディオ入力からの最後のオーディオ フラグメントと、音声サービスから最終的な結果を受信した時刻の時間差を計算します。 1.3.0 で追加 |
SpeechServiceResponse_RequestDetailedResultTrueFalse | 4000 | 要求された Speech サービス応答出力形式 (OutputFormat.Simple または OutputFormat.Detailed)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに OutputFormat を使用してください。 |
SpeechServiceResponse_RequestProfanityFilterTrueFalse | 4001 | 未使用。 要求された Speech サービス応答出力の不適切なレベル。 |
SpeechServiceResponse_RequestPunctuationBoundary | 4201 | WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。 バージョン 1.21.0 で追加されました。 |
SpeechServiceResponse_RequestSentenceBoundary | 4202 | WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。 バージョン 1.21.0 で追加されました。 |
SpeechServiceResponse_RequestSnr | 4007 | 応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。 バージョン 1.18.0 で追加されました |
SpeechServiceResponse_RequestWordBoundary | 4200 | WordBoundary イベントを要求するかどうかを指定するブール値。 バージョン 1.21.0 で追加されました。 |
SpeechServiceResponse_RequestWordLevelTimestamps | 4004 | 応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 1.5.0 で追加 |
SpeechServiceResponse_StablePartialResultThreshold | 4005 | 単語が部分的な結果に含まれている必要がある回数を返します。 1.5.0 で追加 |
SpeechServiceResponse_SynthesisBackend | 5020 | 合成を終了するバックエンドを示します。 読み取り専用。音声合成の結果で使用できます。ただし、SynthesisStarted イベントの結果を除きます。 バージョン 1.19.0 で追加されました。 |
SpeechServiceResponse_SynthesisConnectionLatencyMs | 5013 | 音声合成接続の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始された時間と、HTTP/WebSocket 接続が確立された時点までの待機時間が測定されます。 バージョン 1.26.0 で追加されました。 |
SpeechServiceResponse_SynthesisEventsSyncToAudio | 4210 | SDK で合成メタデータ イベント (単語の境界、口形素など) をオーディオ再生に同期するかどうかを指定するブール値。 これは、オーディオが SDK を介して再生される場合にのみ有効になります。 既定値は true です。 false に設定すると、SDK はサービスからのイベントを発生させます。これは、オーディオ再生と同期できない可能性があります。 バージョン 1.31.0 で追加されました。 |
SpeechServiceResponse_SynthesisFinishLatencyMs | 5011 | 音声合成のすべてのバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されたときと、オーディオ全体が合成された時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。 |
SpeechServiceResponse_SynthesisFirstByteLatencyMs | 5010 | 音声合成の最初のバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始され、最初のバイト オーディオが使用可能になった時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。 |
SpeechServiceResponse_SynthesisNetworkLatencyMs | 5014 | 音声合成ネットワークの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、ネットワークのラウンド トリップ時間が測定されます。 バージョン 1.26.0 で追加されました。 |
SpeechServiceResponse_SynthesisServiceLatencyMs | 5015 | 音声合成サービスの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、オーディオの最初のバイトを合成するためのサービス処理時間が測定されます。 バージョン 1.26.0 で追加されました。 |
SpeechServiceResponse_SynthesisUnderrunTimeMs | 5012 | 音声合成のアンダーラン時間 (ミリ秒単位)。 読み取り専用。合成Completed イベントの結果で使用できます。 これにより、入力から AudioConfig_PlaybackBufferLengthInMs 合成完了までのアンダーラン時間の合計が測定されます。 バージョン 1.17.0 で追加されました。 |
SpeechServiceResponse_TranslationRequestStablePartialResult | 4100 | 末尾の単語を省略して翻訳の部分的な結果を安定化するために要求するブール値。 1.5.0 で追加 |
SpeechTranslation_ModelKey | 13101 | 音声翻訳に使用するモデルの復号化キー。 このプロパティは直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
SpeechTranslation_ModelName | 13100 | 音声翻訳に使用するモデルの名前。 このプロパティは直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 |
適用対象
Azure SDK for .NET