SpeechServiceConnection_Key |
认知服务语音服务订阅密钥。 如果使用意向识别器,则需要为特定的 LUIS 应用指定 LUIS 终结点密钥。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::FromSubscription。 |
SpeechServiceConnection_Endpoint |
认知服务语音服务终结点(url)。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::FromEndpoint。 注意:此终结点与用于获取访问令牌的终结点不同。 |
SpeechServiceConnection_Region |
认知服务语音服务区域。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::FromSubscription、SpeechConfig::FromEndpoint、SpeechConfig::FromHost、SpeechConfig::FromAuthorizationToken。 |
SpeechServiceAuthorization_Token |
认知服务语音服务授权令牌(即访问令牌)。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::FromAuthorizationToken、SpeechRecognizer::SetAuthorizationToken、IntentRecognizer::SetAuthorizationToken、TranslationRecognizer::SetAuthorizationToken。 |
SpeechServiceAuthorization_Type |
认知服务语音服务授权类型。 当前未使用。 |
SpeechServiceConnection_EndpointId |
认知服务自定义语音或自定义语音服务终结点 ID。在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetEndpointId。 注意:终结点 ID 在自定义语音门户中可用,在终结点详细信息下列出。 |
SpeechServiceConnection_Host |
认知服务语音服务主机(url)。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::FromHost。 |
SpeechServiceConnection_ProxyHostName |
用于连接到认知服务语音服务的代理服务器的主机名。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetProxy。 注意:已在版本 1.1.0 中添加此属性 ID。 |
SpeechServiceConnection_ProxyPort |
用于连接到认知服务语音服务的代理服务器的端口。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetProxy。 注意:已在版本 1.1.0 中添加此属性 ID。 |
SpeechServiceConnection_ProxyUserName |
用于连接到认知服务语音服务的代理服务器的用户名。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetProxy。 注意:已在版本 1.1.0 中添加此属性 ID。 |
SpeechServiceConnection_ProxyPassword |
用于连接到认知服务语音服务的代理服务器的密码。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetProxy。 注意:已在版本 1.1.0 中添加此属性 ID。 |
SpeechServiceConnection_Url |
通过语音配置生成的 URL 字符串。 此属性旨在为只读。 SDK 在内部使用它。 注意:在版本 1.5.0 中添加。 |
SpeechServiceConnection_ProxyHostBypass |
指定不应为其使用代理的主机列表。 此设置将替代所有其他配置。 主机名用逗号分隔,并以不区分大小写的方式进行匹配。 不支持通配符。 |
SpeechServiceConnection_TranslationToLanguages |
用作目标翻译语言的逗号分隔语言的列表。 在正常情况下,不应直接使用此属性。 请改用 SpeechTranslationConfig::AddTargetLanguage 和 SpeechTranslationConfig::GetTargetLanguages。 |
SpeechServiceConnection_TranslationVoice |
认知服务文本转语音服务语音的名称。 在正常情况下,不应直接使用此属性。 请改用 SpeechTranslationConfig::SetVoiceName。 注意:可在此处找到有效的语音名称 。 |
SpeechServiceConnection_TranslationFeatures |
翻译功能。 供内部使用。 |
SpeechServiceConnection_IntentRegion |
语言理解服务区域。 在正常情况下,不应直接使用此属性。 请改用 LanguageUnderstandingModel。 |
SpeechServiceConnection_RecoMode |
认知服务语音识别模式。 可以是“INTERACTIVE”、“CONVERSATION”、“DICTATION”。 此属性旨在为只读。 SDK 在内部使用它。 |
SpeechServiceConnection_RecoLanguage |
要识别的口语(采用 BCP-47 格式)。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetSpeechRecognitionLanguage。 |
Speech_SessionId |
会话 ID。此 ID 是一个通用唯一标识符(即 UUID),表示音频输入流的特定绑定及其绑定到的基础语音识别实例。 在正常情况下,不应直接使用此属性。 请改用 SessionEventArgs::SessionId。 |
SpeechServiceConnection_UserDefinedQueryParameters |
用户提供的查询参数。 它们将作为 URL 查询参数传递给服务。 在版本 1.5.0 中添加。 |
SpeechServiceConnection_RecoBackend |
指定要用于语音识别的后端的字符串;允许的选项处于联机和脱机状态。 在正常情况下,不应直接使用此属性。 目前,仅当使用 EmbeddedSpeechConfig 时,脱机选项才有效。 在版本 1.19.0 中添加。 |
SpeechServiceConnection_RecoModelName |
要用于语音识别的模型的名称。 在正常情况下,不应直接使用此属性。 目前,仅当使用 EmbeddedSpeechConfig 时才有效。 在版本 1.19.0 中添加。 |
SpeechServiceConnection_RecoModelKey |
此属性已弃用。 |
SpeechServiceConnection_RecoModelIniFile |
要用于语音识别的模型的 ini 文件的路径。 在正常情况下,不应直接使用此属性。 目前,仅当使用 EmbeddedSpeechConfig 时才有效。 在版本 1.19.0 中添加。 |
SpeechServiceConnection_SynthLanguage |
要合成的口语(例如 en-US)在版本 1.4.0 中添加。 |
SpeechServiceConnection_SynthVoice |
要用于语音合成的 TTS 语音的名称,在版本 1.4.0 中添加。 |
SpeechServiceConnection_SynthOutputFormat |
用于指定在版本 1.4.0 中添加的 TTS 输出音频格式的字符串。 |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
指示是否使用压缩的音频格式进行语音合成音频传输。 此属性仅影响SpeechServiceConnection_SynthOutputFormat设置为 pcm 格式时。 如果未设置此属性并且 GStreamer 可用,SDK 将使用压缩格式进行合成音频传输,并对其进行解码。 可以将此属性设置为“false”,以使用原始 pcm 格式在网络上传输。 已在版本 1.16.0 中添加。 |
SpeechServiceConnection_SynthBackend |
要指定 TTS 后端的字符串;有效选项处于联机和脱机状态。 在正常情况下,不应直接使用此属性。 请改用 EmbeddedSpeechConfig::FromPath 或 EmbeddedSpeechConfig::FromPaths 将合成后端设置为脱机。 在版本 1.19.0 中添加。 |
SpeechServiceConnection_SynthOfflineDataPath |
脱机合成引擎的数据文件路径:仅在合成后端脱机时有效。 在正常情况下,不应直接使用此属性。 请改用 EmbeddedSpeechConfig::FromPath 或 EmbeddedSpeechConfig::FromPaths。 在版本 1.19.0 中添加。 |
SpeechServiceConnection_SynthOfflineVoice |
在正常情况下,要用于语音合成的脱机 TTS 语音的名称,不应直接使用此属性。 请改用 EmbeddedSpeechConfig::SetSpeechSynthesisVoice 和 EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName。 在版本 1.19.0 中添加。 |
SpeechServiceConnection_SynthModelKey |
此属性已弃用。 |
SpeechServiceConnection_VoicesListEndpoint |
认知服务语音服务语音列表 API 终结点(url)。 在正常情况下,无需指定此属性,SDK 将基于 SpeechConfig的区域/主机/终结点构造此属性。 已在版本 1.16.0 中添加。 |
SpeechServiceConnection_InitialSilenceTimeoutMs |
服务使用的初始静音超时值(以毫秒为单位)。 在版本 1.5.0 中添加。 |
SpeechServiceConnection_EndSilenceTimeoutMs |
服务使用的结束静音超时值(以毫秒为单位)。 在版本 1.5.0 中添加。 |
SpeechServiceConnection_EnableAudioLogging |
一个布尔值,该值指定是否在服务中启用音频日志记录。 音频和内容日志存储在Microsoft拥有的存储中,或存储在链接到认知服务订阅(启用自带存储(BYOS)的语音资源)的自己的存储帐户中。 在版本 1.5.0 中添加。 |
SpeechServiceConnection_LanguageIdMode |
语音服务连接语言标识符模式。 可以是“AtStart”(默认值),也可以是“连续”。 请参阅 语言标识 文档。 在 1.25.0 中添加。 |
SpeechServiceConnection_TranslationCategoryId |
语音服务连接转换 categoryId。 |
SpeechServiceConnection_AutoDetectSourceLanguages |
自动检测版本 1.8.0 中添加的源语言。 |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
在版本 1.8.0 中添加的自动检测源语言结果。 |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
请求的认知服务语音服务响应输出格式(简单或详细)。 在正常情况下,不应直接使用此属性。 请改用 SpeechConfig::SetOutputFormat。 |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
请求的认知服务语音服务响应输出不雅内容级别。 当前未使用。 |
SpeechServiceResponse_ProfanityOption |
请求的认知服务语音服务响应输出不雅设置。 允许的值是“masked”、“removed”和“raw”。 在版本 1.5.0 中添加。 |
SpeechServiceResponse_PostProcessingOption |
一个字符串值,该值指定服务应使用哪个后期处理选项。 允许的值为“TrueText”。 在版本 1.5.0 中添加。 |
SpeechServiceResponse_RequestWordLevelTimestamps |
一个布尔值,指定是否在响应结果中包含字级时间戳。 在版本 1.5.0 中添加。 |
SpeechServiceResponse_StablePartialResultThreshold |
单词必须以部分结果返回的次数。 在版本 1.5.0 中添加。 |
SpeechServiceResponse_OutputFormatOption |
一个字符串值,该值指定响应结果中的输出格式选项。 仅供内部使用。 在版本 1.5.0 中添加。 |
SpeechServiceResponse_RequestSnr |
一个布尔值,该值指定是否在响应结果中包含 SNR(信号与干扰比率)。 在版本 1.18.0 中添加。 |
SpeechServiceResponse_TranslationRequestStablePartialResult |
一个布尔值,用于通过省略末尾的单词来请求稳定翻译部分结果。 在版本 1.5.0 中添加。 |
SpeechServiceResponse_RequestWordBoundary |
一个布尔值,指定是否请求 WordBoundary 事件。 在版本 1.21.0 中添加。 |
SpeechServiceResponse_RequestPunctuationBoundary |
一个布尔值,该值指定是否在 WordBoundary 事件中请求标点边界。 默认值为 true。 在版本 1.21.0 中添加。 |
SpeechServiceResponse_RequestSentenceBoundary |
一个布尔值,该值指定是否在 WordBoundary Events 中请求句子边界。 默认值为 false。 在版本 1.21.0 中添加。 |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
一个布尔值,指定 SDK 是否应将合成元数据事件(例如单词边界、viseme 等)同步到音频播放。 这仅在通过 SDK 播放音频时生效。 默认值为 true。 如果设置为 false,SDK 会在事件来自服务时触发事件,这可能与音频播放不同步。 在版本 1.31.0 中添加。 |
SpeechServiceResponse_JsonResult |
认知服务语音服务响应输出(采用 JSON 格式)。 此属性仅适用于识别结果对象。 |
SpeechServiceResponse_JsonErrorDetails |
认知服务语音服务错误详细信息(采用 JSON 格式)。 在正常情况下,不应直接使用此属性。 请改用 CancellationDetails::ErrorDetails。 |
SpeechServiceResponse_RecognitionLatencyMs |
识别延迟(以毫秒为单位)。 只读,可用于最终语音/翻译/意向结果。 这会测量 SDK 接收音频输入时与从服务接收最终结果之间的延迟。 SDK 从导致最终结果的音频输入中计算最后一个音频片段与从语音服务接收最终结果的时间之间的时间差。 在版本 1.3.0 中添加。 |
SpeechServiceResponse_RecognitionBackend |
识别后端。 只读,可用于语音识别结果。 这表示是使用云(联机)还是嵌入式(脱机)识别来生成结果。 |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
语音合成第一个字节延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这会测量开始处理合成时与第一个字节音频可用时的延迟。 在版本 1.17.0 中添加。 |
SpeechServiceResponse_SynthesisFinishLatencyMs |
语音合成所有字节延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这会测量开始处理合成的时间与合成整个音频的合成时间之间的延迟。 在版本 1.17.0 中添加。 |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
语音合成的运行不足时间(以毫秒为单位)。 只读,可用于 SynthesisCompleted 事件中的结果。 这将度量 PropertyId::AudioConfig_PlaybackBufferLengthInMs 的总运行时间填充到完成的合成。 在版本 1.17.0 中添加。 |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
语音合成连接延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这会测量在开始处理合成时与建立 HTTP/WebSocket 连接之间的延迟。 在版本 1.26.0 中添加。 |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
语音合成网络延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这将测量网络往返时间。 在版本 1.26.0 中添加。 |
SpeechServiceResponse_SynthesisServiceLatencyMs |
语音合成服务延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这会测量服务处理时间以合成第一个音频字节。 在版本 1.26.0 中添加。 |
SpeechServiceResponse_SynthesisBackend |
指示合成完成的后端。 只读,可用于语音合成结果,除了在版本 1.17.0 中添加的 SynthesisStarted 事件的结果。 |
SpeechServiceResponse_DiarizeIntermediateResults |
确定中间结果是否包含说话人识别。 |
CancellationDetails_Reason |
取消原因。 当前未使用。 |
CancellationDetails_ReasonText |
取消文本。 当前未使用。 |
CancellationDetails_ReasonDetailedText |
取消详细文本。 当前未使用。 |
LanguageUnderstandingServiceResponse_JsonResult |
语言理解服务响应输出(采用 JSON 格式)。 可通过 IntentRecognitionResult.Properties 获取。 |
AudioConfig_DeviceNameForCapture |
音频捕获的设备名称。 在正常情况下,不应直接使用此属性。 请改用 AudioConfig::FromMicrophoneInput。 注意:已在版本 1.3.0 中添加此属性 ID。 |
AudioConfig_NumberOfChannelsForCapture |
音频捕获的通道数。 仅供内部使用。 注意:已在版本 1.3.0 中添加此属性 ID。 |
AudioConfig_SampleRateForCapture |
音频捕获的采样率(以 Hz 为单位)。 仅供内部使用。 注意:已在版本 1.3.0 中添加此属性 ID。 |
AudioConfig_BitsPerSampleForCapture |
用于音频捕获的每个示例的位数。 仅供内部使用。 注意:已在版本 1.3.0 中添加此属性 ID。 |
AudioConfig_AudioSource |
音频源。 允许的值为“麦克风”、“文件”和“Stream”。 在版本 1.3.0 中添加。 |
AudioConfig_DeviceNameForRender |
音频呈现的设备名称。 在正常情况下,不应直接使用此属性。 请改用 AudioConfig::FromSpeakerOutput。 已在版本 1.14.0 中添加。 |
AudioConfig_PlaybackBufferLengthInMs |
播放缓冲区长度(以毫秒为单位),默认值为 50 毫秒。 |
AudioConfig_AudioProcessingOptions |
JSON 格式的音频处理选项。 |
Speech_LogFilename |
要写入日志的文件名。 在版本 1.4.0 中添加。 |
Speech_SegmentationSilenceTimeoutMs |
检测到的沉默持续时间(以毫秒为单位),之后语音转文本将确定语音短语已结束并生成最终识别的结果。 在语音输入明显快或慢于平常的情况下,配置此超时可能很有用,默认分段行为会持续产生太长或太短的结果。 不适当的高或低分段超时值可能会对语音转文本的准确性产生负面影响;应仔细配置此属性,并且应按预期彻底验证生成的行为。 |
Speech_SegmentationMaximumTimeMs |
使用“时间”分段策略时,口语短语的最大长度。 随着口语短语的长度接近此值,Speech_SegmentationSilenceTimeoutMs将开始减少,直到达到短语静音超时或短语达到最大长度为止。 |
Speech_SegmentationStrategy |
用于确定口语短语何时结束和最终识别结果的策略应生成。 允许的值为“Default”、“Time”和“Semantic”。 |
Conversation_ApplicationId |
用于连接到后端服务的标识符。 在版本 1.5.0 中添加。 |
Conversation_DialogType |
要连接到的对话后端的类型。 在版本 1.7.0 中添加。 |
Conversation_Initial_Silence_Timeout |
在版本 1.5.0 中添加的侦听的静音超时。 |
Conversation_From_Id |
从 ID 开始用于在版本 1.5.0 中添加的语音识别活动。 |
Conversation_Conversation_Id |
会话的 ConversationId。 在版本 1.8.0 中添加。 |
Conversation_Custom_Voice_Deployment_Ids |
自定义语音部署 ID 的逗号分隔列表。 在版本 1.8.0 中添加。 |
Conversation_Speech_Activity_Template |
语音活动模板,标记服务为语音生成的活动的模板中的属性。 在版本 1.10.0 中添加。 |
Conversation_ParticipantId |
当前对话中的参与者标识符。 在版本 1.13.0 中添加。 |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
使用拉取/推送音频输入流时,与客户端写入的数据缓冲区关联的时间戳。 时间戳是分辨率为 90 kHz 的 64 位值。 它与 MPEG 传输流中的表示时间戳相同。 请参阅版本 1.5.0 中添加 https://en.wikipedia.org/wiki/Presentation_timestamp。 |
DataBuffer_UserId |
使用拉取/推送音频输入流时,与客户端写入的数据缓冲区关联的用户 ID。 在版本 1.5.0 中添加。 |
PronunciationAssessment_ReferenceText |
用于发音评估的音频参考文本。 有关此发音评估参数和以下发音评估参数,请参阅表 发音评估参数。 在正常情况下,不应直接使用此属性。 请改用 PronunciationAssessmentConfig::Create 或 PronunciationAssessmentConfig::SetReferenceText。 已在版本 1.14.0 中添加。 |
PronunciationAssessment_GradingSystem |
发音分数校准的点系统(FivePoint 或 HundredMark)。 在正常情况下,不应直接使用此属性。 请改用 发音AssessmentConfig::Create。 已在版本 1.14.0 中添加。 |
PronunciationAssessment_Granularity |
发音评估粒度(Phoneme、Word 或 FullText)。 在正常情况下,不应直接使用此属性。 请改用 发音AssessmentConfig::Create。 已在版本 1.14.0 中添加。 |
PronunciationAssessment_EnableMiscue |
定义是否启用错误计算。 启用此功能后,将比较发音的字词与参考文本进行比较,并根据比较使用省略/插入进行标记。 默认设置为 False。 在正常情况下,不应直接使用此属性。 请改用 发音AssessmentConfig::Create。 已在版本 1.14.0 中添加。 |
PronunciationAssessment_PhonemeAlphabet |
发音评估音素字母表。 有效值为“SAPI”(默认值)和“IPA”在正常情况下,不应直接使用此属性。 请改用 发音AssessmentConfig::SetPhonemeAlphabet。 在版本 1.20.0 中添加。 |
PronunciationAssessment_NBestPhonemeCount |
发音评估 nbest 音素计数。 在正常情况下,不应直接使用此属性。 请改用 发音AssessmentConfig::SetNBestPhonemeCount。 在版本 1.20.0 中添加。 |
PronunciationAssessment_EnableProsodyAssessment |
是否启用 prosody 评估。 在正常情况下,不应直接使用此属性。 请改用 发音AssessmentConfig::EnableProsodyAssessment。 在版本 1.33.0 中添加。 |
PronunciationAssessment_Json |
在正常情况下,发音评估参数的 json 字符串不应直接使用此属性。 请改用 发音AssessmentConfig::Create。 已在版本 1.14.0 中添加。 |
PronunciationAssessment_Params |
发音评估参数。 此属性旨在为只读。 SDK 在内部使用它。 已在版本 1.14.0 中添加。 |
PronunciationAssessment_ContentTopic |
发音评估的内容主题。 在正常情况下,不应直接使用此属性。 请改用 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic。 在版本 1.33.0 中添加。 |
SpeakerRecognition_Api_Version |
说话人识别后端 API 版本。 添加此属性以允许测试和使用早期版本的说话人识别 API(如果适用)。 在版本 1.18.0 中添加。 |
SpeechTranslation_ModelName |
要用于语音翻译的模型的名称。 请勿直接使用此属性。 目前,仅当使用 EmbeddedSpeechConfig 时才有效。 |
SpeechTranslation_ModelKey |
此属性已弃用。 |
KeywordRecognition_ModelName |
要用于关键字识别的模型的名称。 请勿直接使用此属性。 目前,仅当使用 EmbeddedSpeechConfig 时才有效。 |
KeywordRecognition_ModelKey |
此属性已弃用。 |
EmbeddedSpeech_EnablePerformanceMetrics |
启用嵌入式语音性能指标的集合,该指标可用于评估设备使用嵌入式语音的功能。 收集的数据包含在特定方案(如语音识别)的结果中。 默认设置为“false”。 请注意,并非所有嵌入式语音方案都提供指标。 |
SpeechSynthesisRequest_Pitch |
合成语音的音调。 |
SpeechSynthesisRequest_Rate |
合成语音的速率。 |
SpeechSynthesisRequest_Volume |
合成语音的音量。 |