次の方法で共有


PropertyId 列挙型

  • java.lang.Object
    • java.lang.Enum
      • com.microsoft.cognitiveservices.speech.PropertyId

public enum PropertyId
extends java.lang.Enum<PropertyId>

プロパティ ID を定義します。 バージョン 1.8.0 で変更されました。

フィールド

AudioConfig_AudioProcessingOptions

JSON 形式のオーディオ処理オプション。

AudioConfig_DeviceNameForRender

オーディオ レンダリングのデバイス名。

AudioConfig_PlaybackBufferLengthInMs

再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。

CancellationDetails_Reason

取り消しの理由。

CancellationDetails_ReasonDetailedText

キャンセルの詳細なテキスト。

CancellationDetails_ReasonText

取り消しテキスト。

Conversation_ApplicationId

バックエンド サービスへの接続に使用される識別子。

Conversation_Connection_Id

バックエンド サービスで認証するために使用されるDirect Line トークンなどの追加の識別情報。

Conversation_Conversation_Id

セッションの会話ID。

Conversation_Custom_Voice_Deployment_Ids

カスタム音声デプロイ ID のコンマ区切りの一覧。

Conversation_DialogType

接続するダイアログ バックエンドの種類。

Conversation_From_Id

音声認識アクティビティで使用される ID から バージョン 1.5.0 で追加されました。

Conversation_Initial_Silence_Timeout

リッスンの無音タイムアウト バージョン 1.5.0 で追加されました。

Conversation_Request_Bot_Status_Messages

クライアントがステータス メッセージを受信し、対応するターンステータス受信イベントを生成するかどうかを指定するブール値。

Conversation_Speech_Activity_Template

音声アクティビティ テンプレート、サービスによって生成された音声のアクティビティのテンプレート内のスタンプ プロパティ。

DataBuffer_TimeStamp

Pull/Push オーディオ モード ストリームを使用する場合にクライアントによって書き込まれたデータ バッファーに関連付けられたタイム スタンプ。

DataBuffer_UserId

Pull/Push オーディオ モード ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられているユーザー ID。

LanguageUnderstandingServiceResponse_JsonResult

Language Understanding サービス応答出力 (JSON 形式)。

PronunciationAssessment_EnableMiscue

誤った計算を有効にするかどうかを定義します。

PronunciationAssessment_GradingSystem

発音スコア調整用のポイント システム (5ポイントまたは 100マーク)。

PronunciationAssessment_Granularity

発音評価の粒度 (音素、Word、またはフルテキスト)。

PronunciationAssessment_Json

発音評価パラメーターの json 文字列 通常の状況では、このプロパティを直接使用する必要はありません。

PronunciationAssessment_NBestPhonemeCount

発音評価 nbest 音素数。

PronunciationAssessment_Params

発音評価パラメーター。

PronunciationAssessment_PhonemeAlphabet

発音評価音素アルファベット。

PronunciationAssessment_ReferenceText

発音評価用のオーディオの参照テキスト。

SpeakerRecognition_Api_Version

使用する Speaker Recognition のバージョン。

SpeechServiceAuthorization_Token

Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれます)。

SpeechServiceAuthorization_Type

Cognitive Services Speech Service 承認の種類。

SpeechServiceConnection_AutoDetectSourceLanguageResult

ソース言語の自動検出の結果がバージョン 1.8.0 で追加されました。

SpeechServiceConnection_AutoDetectSourceLanguages

ソース言語の自動検出バージョン 1.8.0 で追加されました。

SpeechServiceConnection_EnableAudioLogging

サービスでオーディオ ログを有効にするかどうかを指定するブール値。

SpeechServiceConnection_EndSilenceTimeoutMs

サービスで使用される終了無音タイムアウト値 (ミリ秒単位)。

SpeechServiceConnection_Endpoint

Cognitive Services Speech Service エンドポイント (URL)。

SpeechServiceConnection_EndpointId

Cognitive Services Custom Speech または Custom Voice Service エンドポイント ID。

SpeechServiceConnection_Host

Cognitive Services Speech Service ホスト (URL)。

SpeechServiceConnection_InitialSilenceTimeoutMs

サービスで使用される初期無音タイムアウト値 (ミリ秒単位)。

SpeechServiceConnection_IntentRegion

Language Understanding サービス リージョン。

SpeechServiceConnection_Key

Cognitive Services Speech Service サブスクリプション キー。

SpeechServiceConnection_LanguageIdMode

Speech Service 接続言語識別子モード。

SpeechServiceConnection_ProxyHostName

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのホスト名。

SpeechServiceConnection_ProxyPassword

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのパスワード。

SpeechServiceConnection_ProxyPort

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。

SpeechServiceConnection_ProxyUserName

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのユーザー名。

SpeechServiceConnection_RecoBackend

音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。

SpeechServiceConnection_RecoLanguage

認識される音声言語 (BCP-47 形式)。

SpeechServiceConnection_RecoMode

Cognitive Services Speech Service 認識モード。

SpeechServiceConnection_RecoModelKey

音声認識に使用するモデルの復号化キー。

SpeechServiceConnection_RecoModelName

音声認識に使用するモデルの名前。

SpeechServiceConnection_Region

Cognitive Services Speech Service リージョン。

SpeechServiceConnection_SynthBackend

TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。

SpeechServiceConnection_SynthEnableCompressedAudioTransmission

音声合成オーディオ送信に圧縮オーディオ形式を使用するかどうかを示します。

SpeechServiceConnection_SynthLanguage

合成する音声言語 (例:

SpeechServiceConnection_SynthModelKey

音声合成に使用するモデルの復号化キー。

SpeechServiceConnection_SynthOfflineDataPath

オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。

SpeechServiceConnection_SynthOfflineVoice

音声合成に使用するオフライン TTS 音声の名前。

SpeechServiceConnection_SynthOutputFormat

TTS 出力オーディオ形式を指定する文字列 (例:

SpeechServiceConnection_SynthVoice

音声合成に使用する TTS 音声の名前がバージョン 1.7.0 で追加されました

SpeechServiceConnection_TranslationFeatures

翻訳機能。

SpeechServiceConnection_TranslationToLanguages

ターゲット翻訳言語として使用されるコンマ区切り言語 (BCP-47 形式) の一覧。

SpeechServiceConnection_TranslationVoice

Cognitive Service Text to Speech Service 音声の名前。

SpeechServiceConnection_Url

音声構成から構築された URL 文字列。

SpeechServiceConnection_VoicesListEndpoint

Cognitive Services Speech Service の音声リスト API エンドポイント (URL)。

SpeechServiceResponse_JsonErrorDetails

Cognitive Services Speech Service エラーの詳細 (JSON 形式)。

SpeechServiceResponse_JsonResult

Cognitive Services Speech Service 応答出力 (JSON 形式)。

SpeechServiceResponse_OutputFormatOption

応答結果の出力形式オプションを指定する文字列値。

SpeechServiceResponse_PostProcessingOption

サービスで使用する後処理オプションを指定する文字列値。

SpeechServiceResponse_ProfanityOption

要求された Cognitive Services Speech Service 応答出力の不適切な設定。

SpeechServiceResponse_RecognitionBackend

認識バックエンド。

SpeechServiceResponse_RecognitionLatencyMs

認識待機時間 (ミリ秒単位)。

SpeechServiceResponse_RequestDetailedResultTrueFalse

要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。

SpeechServiceResponse_RequestProfanityFilterTrueFalse

要求された Cognitive Services Speech Service 応答出力の不適切なレベル。

SpeechServiceResponse_RequestPunctuationBoundary

Word Boundary イベントで句読点の境界を要求するかどうかを指定するブール値。

SpeechServiceResponse_RequestSentenceBoundary

Word Boundary イベントで文の境界を要求するかどうかを指定するブール値。

SpeechServiceResponse_RequestSnr

応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。

SpeechServiceResponse_RequestWordBoundary

Word Boundary イベントを要求するかどうかを指定するブール値。

SpeechServiceResponse_RequestWordLevelTimestamps

応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。

SpeechServiceResponse_StablePartialResultThreshold

単語が部分的な結果になる必要がある回数を返します。

SpeechServiceResponse_SynthesisBackend

合成が完了したバックエンドを示します。

SpeechServiceResponse_SynthesisConnectionLatencyMs

音声合成接続の待機時間 (ミリ秒単位)。

SpeechServiceResponse_SynthesisEventsSyncToAudio

SDK が合成メタデータ イベントを同期する必要があるかどうかを指定するブール値 (例:

SpeechServiceResponse_SynthesisFinishLatencyMs

音声合成のすべてのバイト待機時間 (ミリ秒単位)。

SpeechServiceResponse_SynthesisFirstByteLatencyMs

音声合成の最初のバイト待機時間 (ミリ秒単位)。

SpeechServiceResponse_SynthesisNetworkLatencyMs

音声合成ネットワークの待機時間 (ミリ秒単位)。

SpeechServiceResponse_SynthesisServiceLatencyMs

音声合成サービスの待機時間 (ミリ秒単位)。

SpeechServiceResponse_SynthesisUnderrunTimeMs

音声合成のアンダーラン時間 (ミリ秒単位)。

SpeechServiceResponse_TranslationRequestStablePartialResult

末尾の単語を省略して翻訳の部分的な結果を安定化するために要求するブール値。

SpeechTranslation_ModelKey

音声翻訳に使用するモデルの復号化キー。

SpeechTranslation_ModelName

音声翻訳に使用するモデルの名前。

Speech_LogFilename

ログを書き込むファイル名。

Speech_SegmentationSilenceTimeoutMs

検出された無音の期間 (ミリ秒単位) で測定され、その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な Recognized 結果が生成されます。

Speech_SessionId

セッション ID。

メソッドの継承元: java.lang.Enum

java.lang.Enum.<T>valueOf java.lang.Enum.clone java.lang.Enum.compareTo java.lang.Enum.equals java.lang.Enum.finalize java.lang.Enum.getDeclaringClass java.lang.Enum.hashCode java.lang.Enum.name java.lang.Enum.ordinal java.lang.Enum.toString

メソッドの継承元: java.lang.Object

java.lang.Object.getClass java.lang.Object.notify java.lang.Object.notifyAll java.lang.Object.wait java.lang.Object.wait java.lang.Object.wait

メソッド

getValue()

public int getValue()

内部値プロパティ ID を返します

戻り値

int
speech プロパティ ID

valueOf(String name)

public static PropertyId valueOf(String name)

パラメーター

name
java.lang.String

戻り値

values()

public static PropertyId[] values()

戻り値

適用対象