你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
PropertyId 枚举
定义
重要
一些信息与预发行产品相关,相应产品在发行之前可能会进行重大修改。 对于此处提供的信息,Microsoft 不作任何明示或暗示的担保。
列出语音属性 ID。
public enum PropertyId
type PropertyId =
Public Enum PropertyId
- 继承
-
PropertyId
字段
AudioConfig_DeviceNameForRender | 8005 | 音频呈现的设备名称。 在正常情况下,不必直接使用此属性。 请改用 FromSpeakerOutput(String)。 在版本 1.17.0 中添加 |
AudioConfig_PlaybackBufferLengthInMs | 8006 | 播放缓冲区长度(以毫秒为单位),默认值为 50 毫秒。 在版本 1.17.0 中添加 |
CancellationDetails_Reason | 6000 | 未使用。 取消原因。 |
CancellationDetails_ReasonDetailedText | 6002 | 未使用。 取消详细文本。 |
CancellationDetails_ReasonText | 6001 | 未使用。 取消文本。 |
Conversation_ApplicationId | 10000 | 用于连接到后端服务的标识符。 在 1.5.0 中添加 |
Conversation_Connection_Id | 10009 | 用于向后端服务进行身份验证的其他标识信息,例如Direct Line令牌。 在 1.16.0 中添加 |
Conversation_Conversation_Id | 10004 | 会话的 ConversationId。 在 1.8.0 中添加 |
Conversation_Custom_Voice_Deployment_Ids | 10005 | 自定义语音部署 ID 的逗号分隔列表。 在 1.8.0 中添加 |
Conversation_DialogType | 10001 | 要连接到的对话后端的类型。 在 1.7.0 中添加 |
Conversation_From_Id | 10003 | 要添加到语音识别活动的 from 标识符。 在 1.5.0 中添加 |
Conversation_Initial_Silence_Timeout | 10002 | 侦听的静音超时。 在 1.5.0 中添加 |
Conversation_ParticipantId | 10007 | 获取对话中的标识符。 在 1.13.0 中添加 |
Conversation_Request_Bot_Status_Messages | 10008 | 一个布尔值,指定客户端是否应接收轮次状态消息并生成相应的 TurnStatusReceived 事件。 默认为 true。 在 1.15.0 中添加 |
Conversation_Speech_Activity_Template | 10006 | 语音活动模板,在语音服务生成的活动上标记模板中的属性。 请参阅 SpeechActivityTemplate 在 1.10.0 中添加 |
ConversationTranscribingService_DataBufferTimeStamp | 11001 | 使用拉取/推送音频模式流时,与客户端写入的数据缓冲区关联的时间戳。 时间戳是分辨率为 90 kHz 的 64 位值。 与 MPEG 传输流中的表示时间戳相同。 请参阅 https://en.wikipedia.org/wiki/Presentation_timestamp。 在 1.5.0 中添加 |
ConversationTranscribingService_DataBufferUserId | 11002 | 使用拉取/推送音频模式流时,与客户端写入的数据缓冲区关联的用户标识符。 在 1.5.0 中添加 |
LanguageUnderstandingServiceResponse_JsonResult | 7000 | 语言理解服务响应输出 (JSON 格式) 。 可通过 Properties获取。 |
PronunciationAssessment_EnableMiscue | 12005 | 指示错误的计算状态。 启用后,发音的单词将与参考文本进行比较,并根据比较进行省略/插入标记。 默认设置为 false。 在正常情况下,不必直接使用此属性。 在 1.14.0 中添加 |
PronunciationAssessment_GradingSystem | 12002 | 用于发音分数校准的分数系统 (FivePoint 或 HundredMark) 。 在正常情况下,不必直接使用此属性。 在 1.14.0 中添加 |
PronunciationAssessment_Granularity | 12003 | 发音评估粒度 (音素、Word或全文) 。 在正常情况下,不必直接使用此属性。 在 1.14.0 中添加 |
PronunciationAssessment_Json | 12009 | 发音评估参数的 JSON 字符串。 在正常情况下,不必直接使用此属性。 在 1.14.0 中添加 |
PronunciationAssessment_NBestPhonemeCount | 12007 | 发音评估 nbest 音素计数。 在正常情况下,不必直接使用此属性。 请改用 NBestPhonemeCount。 在版本 1.20.0 中添加 |
PronunciationAssessment_Params | 12010 | 发音评估参数。 此属性为只读。 在 1.14.0 中添加 |
PronunciationAssessment_PhonemeAlphabet | 12006 | 发音评估音素字母表。 有效值为“SAPI” (默认) 和“IPA”在正常情况下,不应直接使用此属性。 请改用 PhonemeAlphabet。 在版本 1.20.0 中添加 |
PronunciationAssessment_ReferenceText | 12001 | 用于发音评估的音频的参考文本。 有关此和以下发音评估参数,请参阅 发音评估参数 了解详细信息。 在正常情况下,不必直接使用此属性。 在 1.14.0 中添加 |
SpeakerRecognition_Api_Version | 13001 | 说话人识别 API 版本。 在 1.18.0 中添加 |
Speech_LogFilename | 9001 | 要写入日志的文件名。 在 1.4.0 中添加 |
Speech_SegmentationSilenceTimeoutMs | 9002 | 检测到的静音持续时间(以毫秒为单位),之后语音转文本将确定语音短语已结束,并生成最终的已识别结果。 如果语音输入明显比平时快或慢,并且默认分段行为始终会产生过长或太短的结果,则配置此超时可能会有所帮助。 不适当的高或低分段超时值可能会对语音转文本的准确性产生负面影响;应仔细配置此属性,并按预期彻底验证生成的行为。 有关包含默认行为讨论的超时配置的详细信息,请访问 https://aka.ms/csspeech/timeouts。 |
Speech_SessionId | 3002 | 会话 ID。此 ID 是一个通用唯一标识符, (又名 UUID) 表示音频输入流及其绑定到的基础语音识别实例的特定绑定。 在正常情况下,不必直接使用此属性。 请改用 SessionId。 |
SpeechServiceAuthorization_Token | 1003 | 语音服务授权令牌 (又名访问令牌) 。 在正常情况下,不必直接使用此属性。 请改用 FromAuthorizationToken(String, String)、、AuthorizationTokenAuthorizationToken、AuthorizationToken。 |
SpeechServiceAuthorization_Type | 1004 | 未使用。 语音服务授权类型。 |
SpeechServiceConnection_AutoDetectSourceLanguageResult | 3301 | 自动检测源语言结果。 在 1.9.0 中添加 |
SpeechServiceConnection_AutoDetectSourceLanguages | 3300 | 自动检测源语言。 在 1.9.0 中添加 |
SpeechServiceConnection_EnableAudioLogging | 3202 | 一个布尔值,指定是否在服务中启用音频日志记录。 音频和内容日志存储在 Microsoft 拥有的存储中,或存储在链接到认知服务订阅的自己的存储帐户中, (将自己的存储 (BYOS) 启用的语音资源) 。 在 1.5.0 中添加。 |
SpeechServiceConnection_Endpoint | 1001 | 语音服务终结点,URL。 在正常情况下,不必直接使用此属性。 请改用 FromEndpoint(Uri, String)、 或 FromEndpoint(Uri)。 注意:此终结点与用于获取访问令牌的终结点不同。 |
SpeechServiceConnection_EndpointId | 1005 | 自定义语音或自定义语音服务终结点 ID。在正常情况下,不必直接使用此属性。 请改用 FromEndpoint(Uri, String)、 或 FromEndpoint(Uri)。 注意:终结点 ID 在自定义语音门户中提供,在“终结点详细信息”下列出。 |
SpeechServiceConnection_EndSilenceTimeoutMs | 3201 | 服务使用的结束静音超时值 (以毫秒为单位) 。 在 1.5.0 中添加 |
SpeechServiceConnection_Host | 1006 | 语音服务主机 (url) 。 在正常情况下,不必直接使用此属性。 请改用 FromHost(Uri, String)、 或 FromHost(Uri)。 |
SpeechServiceConnection_InitialSilenceTimeoutMs | 3200 | 服务) 使用的初始静音超时值 (以毫秒为单位。 在 1.5.0 中添加 |
SpeechServiceConnection_IntentRegion | 2003 | 语言理解服务区域。 在正常情况下,不必直接使用此属性。 请改用 LanguageUnderstandingModel。 |
SpeechServiceConnection_Key | 1000 | 用于语音服务终结点的订阅密钥。 如果使用意向识别器,则需要为特定的 LUIS 应用指定 LUIS 终结点密钥。 在正常情况下,不必直接使用此属性。 请改用 FromSubscription(String, String)。 |
SpeechServiceConnection_LanguageIdMode | 3205 | 语音服务连接语言标识符模式。 可以是“AtStart” (默认) ,也可以是“连续”。 请参阅 语言标识 文档。 在 1.25.0 中添加 |
SpeechServiceConnection_ProxyHostName | 1100 | 用于连接到语音服务的代理服务器的主机名。 在正常情况下,不必直接使用此属性。 请改用 SetProxy(String, Int32, String, String)。 在 1.1.0 中添加 |
SpeechServiceConnection_ProxyPassword | 1103 | 用于连接到语音服务的代理服务器的密码。 在正常情况下,不必直接使用此属性。 请改用 SetProxy(String, Int32, String, String)。 在 1.1.0 中添加 |
SpeechServiceConnection_ProxyPort | 1101 | 用于连接到语音服务的代理服务器的端口。 在正常情况下,不必直接使用此属性。 请改用 SetProxy(String, Int32, String, String)。 在 1.1.0 中添加 |
SpeechServiceConnection_ProxyUserName | 1102 | 用于连接到语音服务的代理服务器的用户名。 在正常情况下,不必直接使用此属性。 请改用 SetProxy(String, Int32, String, String)。 在 1.1.0 中添加 |
SpeechServiceConnection_RecoBackend | 3004 | 用于指定要用于语音识别的后端的字符串;允许的选项包括联机和脱机。 在正常情况下,不应直接使用此属性。 目前,脱机选项仅在使用 EmbeddedSpeechConfig 时有效。 在版本 1.19.0 中添加 |
SpeechServiceConnection_RecoLanguage | 3001 | 要以 BCP-47 格式 (识别的口语) 。 在正常情况下,不必直接使用此属性。 请改用 SpeechRecognitionLanguage。 |
SpeechServiceConnection_RecoMode | 3000 | 语音服务识别模式。 可以是 INTERACTIVE、CONVERSATION、听写。 此属性为只读。 SDK 在内部使用它。 |
SpeechServiceConnection_RecoModelKey | 3006 | 要用于语音识别的模型的解密密钥。 在正常情况下,不应直接使用此属性。 目前,这仅在使用 EmbeddedSpeechConfig 时有效。 在版本 1.19.0 中添加 |
SpeechServiceConnection_RecoModelName | 3005 | 要用于语音识别的模型的名称。 在正常情况下,不应直接使用此属性。 目前,这仅在使用 EmbeddedSpeechConfig 时有效。 在版本 1.19.0 中添加 |
SpeechServiceConnection_Region | 1002 | 与订阅密钥关联的语音服务区域。 在正常情况下,不必直接使用此属性。 请改用 FromSubscription(String, String)、、FromEndpoint(Uri, String)、FromHost(Uri, String)FromEndpoint(Uri)、FromHost(Uri)、FromAuthorizationToken(String, String)、 。 |
SpeechServiceConnection_SynthBackend | 3110 | 用于指定 TTS 后端的字符串;有效选项包括联机和脱机。 在正常情况下,不必直接使用此属性。 请改为使用 FromPath(String) 或 FromPaths(String[])。 将合成后端设置为脱机。 在版本 1.19.0 中添加 |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission | 3103 | 指示是否使用压缩的音频格式进行语音合成音频传输。 仅当SpeechServiceConnection_SynthOutputFormat设置为 pcm 格式时,此属性才重要。 如果此属性未设置为 true 并且 GStreamer 可用,SDK 将使用压缩格式进行合成音频传输,并对其进行解码。 可以将此属性设置为 false 以使用原始 pcm 格式进行在线传输。 在 1.16.0 中添加 |
SpeechServiceConnection_SynthLanguage | 3100 | 要 (合成的口语,例如 en-US) 。 在 1.4.0 中添加 |
SpeechServiceConnection_SynthModelKey | 3114 | 要用于语音合成的模型的解密密钥。 在正常情况下,不应直接使用此属性。 请改用 SetSpeechSynthesisVoice(String, String)。 在版本 1.19.0 中添加 |
SpeechServiceConnection_SynthOfflineDataPath | 3112 | 脱机合成引擎的数据文件路径 () ;仅在合成后端脱机时有效。 在正常情况下,不必直接使用此属性。 请改为使用 FromPath(String) 或 FromPaths(String[])。 在版本 1.19.0 中添加 |
SpeechServiceConnection_SynthOfflineVoice | 3113 | 要用于语音合成的脱机 TTS 语音的名称。 在正常情况下,不应直接使用此属性。 请改用 SetSpeechSynthesisVoice(String, String)。 在版本 1.19.0 中添加 |
SpeechServiceConnection_SynthOutputFormat | 3102 | 用于指定语音合成输出音频格式的字符串, (例如 riff-16khz-16bit-mono-pcm) 在 1.4.0 中添加 |
SpeechServiceConnection_SynthVoice | 3101 | 要用于文本转语音的语音的名称。 在 1.4.0 中添加 |
SpeechServiceConnection_TranslationFeatures | 2002 | 翻译功能。 供内部使用。 |
SpeechServiceConnection_TranslationToLanguages | 2000 | ) 用作目标翻译语言的 BCP-47 格式 (逗号分隔语言的列表。 在正常情况下,不必直接使用此属性。 请改用 AddTargetLanguage(String) 和 只读 TargetLanguages 集合。 |
SpeechServiceConnection_TranslationVoice | 2001 | 用于文本转语音的语音的名称。 在正常情况下,不必直接使用此属性。 请改用 VoiceName。 在此处查找有效的语音名称。 |
SpeechServiceConnection_Url | 1104 | 从语音配置生成的 URL 字符串。 此属性为只读。 SDK 在内部使用此值。 在 1.5.0 中添加 |
SpeechServiceConnection_VoicesListEndpoint | 3130 | 认知服务语音服务语音列表 API 终结点 (url) 。 在正常情况下,无需指定此属性,SDK 将基于 的区域/主机/终结点 SpeechConfig构造它。 在 1.16.0 中添加 |
SpeechServiceResponse_JsonErrorDetails | 5001 | 语音服务错误详细信息 (JSON 格式) 。 在正常情况下,不必直接使用此属性。 请改用 ErrorDetails。 |
SpeechServiceResponse_JsonResult | 5000 | 语音服务响应输出 (JSON 格式) 。 此属性仅适用于识别结果对象。 |
SpeechServiceResponse_OutputFormatOption | 4006 | 一个字符串值,指定响应结果中的输出格式选项。 仅限内部使用。 在 1.5.0 中添加 |
SpeechServiceResponse_PostProcessingOption | 4003 | 一个字符串值,指定服务应使用哪个后处理选项。 允许的值:TrueText。 在 1.5.0 中添加 |
SpeechServiceResponse_ProfanityOption | 4002 | 请求的语音服务响应输出不雅内容设置。 允许的值是掩码、删除和原始值。 在 1.5.0 中添加 |
SpeechServiceResponse_RecognitionBackend | 5003 | 识别后端。 只读,可用于语音识别结果。 这指示是使用云 (联机) 还是嵌入式 (脱机) 识别来生成结果。 |
SpeechServiceResponse_RecognitionLatencyMs | 5002 | 识别延迟(以毫秒为单位)。 只读,可用于最终语音/翻译/意向结果。 这将测量 SDK 接收音频输入与从服务接收最终结果之间的延迟。 SDK 计算最终结果的音频输入中的最后一个音频片段与从语音服务接收最终结果的时间差。 在 1.3.0 中添加 |
SpeechServiceResponse_RequestDetailedResultTrueFalse | 4000 | 请求的语音服务响应输出格式 (OutputFormat.Simple 或 OutputFormat.Detailed) 。 在正常情况下,不必直接使用此属性。 请改用 OutputFormat。 |
SpeechServiceResponse_RequestProfanityFilterTrueFalse | 4001 | 未使用。 请求的语音服务响应输出不雅级别。 |
SpeechServiceResponse_RequestPunctuationBoundary | 4201 | 一个布尔值,指定是否请求 WordBoundary Events 中的标点符号边界。 默认为 true。 在版本 1.21.0 中添加。 |
SpeechServiceResponse_RequestSentenceBoundary | 4202 | 一个布尔值,指定是否在 WordBoundary Events 中请求句子边界。 默认值为 false。 在版本 1.21.0 中添加。 |
SpeechServiceResponse_RequestSnr | 4007 | 一个布尔值,指定是否在响应结果中包括信噪比 (信噪比) 的 SNR。 在版本 1.18.0 中添加 |
SpeechServiceResponse_RequestWordBoundary | 4200 | 一个布尔值,指定是否请求 WordBoundary 事件。 在版本 1.21.0 中添加。 |
SpeechServiceResponse_RequestWordLevelTimestamps | 4004 | 一个布尔值,指定是否在响应结果中包含单词级时间戳。 在 1.5.0 中添加 |
SpeechServiceResponse_StablePartialResultThreshold | 4005 | 单词必须位于要返回的部分结果中的次数。 在 1.5.0 中添加 |
SpeechServiceResponse_SynthesisBackend | 5020 | 指示合成由哪个后端完成。 只读,可用于语音合成结果,但合成启动事件中的结果除外。 在版本 1.19.0 中添加。 |
SpeechServiceResponse_SynthesisConnectionLatencyMs | 5013 | 语音合成连接延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这将测量开始处理合成与建立 HTTP/WebSocket 连接之间的延迟。 在版本 1.26.0 中添加。 |
SpeechServiceResponse_SynthesisEventsSyncToAudio | 4210 | 一个布尔值,指定 SDK 是否应同步合成元数据事件, (例如单词边界、视素等 ) 音频播放。 这仅在通过 SDK 播放音频时生效。 默认为 true。 如果设置为 false,SDK 将在事件来自服务时触发事件,这可能与音频播放不同步。 在版本 1.31.0 中添加。 |
SpeechServiceResponse_SynthesisFinishLatencyMs | 5011 | 语音合成所有字节延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这将测量开始处理合成与合成整个音频之间的延迟。 在版本 1.17.0 中添加。 |
SpeechServiceResponse_SynthesisFirstByteLatencyMs | 5010 | 语音合成第一个字节延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这将测量开始处理合成与第一个字节音频可用之间的延迟。 在版本 1.17.0 中添加。 |
SpeechServiceResponse_SynthesisNetworkLatencyMs | 5014 | 语音合成网络延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这将测量网络往返时间。 在版本 1.26.0 中添加。 |
SpeechServiceResponse_SynthesisServiceLatencyMs | 5015 | 语音合成服务延迟(以毫秒为单位)。 只读,可用于最终语音合成结果。 这将测量合成音频第一个字节的服务处理时间。 在版本 1.26.0 中添加。 |
SpeechServiceResponse_SynthesisUnderrunTimeMs | 5012 | 语音合成的运行不足时间(以毫秒为单位)。 只读,可用于 SynthesisCompleted 事件的结果。 这将测量从 AudioConfig_PlaybackBufferLengthInMs 填充到合成完成的总不足时间。 在版本 1.17.0 中添加。 |
SpeechServiceResponse_TranslationRequestStablePartialResult | 4100 | 一个布尔值,用于请求通过省略末尾的单词来稳定翻译部分结果。 在 1.5.0 中添加 |
SpeechTranslation_ModelKey | 13101 | 用于语音翻译的模型的解密密钥。 请勿直接使用此属性。 目前,这仅在使用 EmbeddedSpeechConfig 时有效。 |
SpeechTranslation_ModelName | 13100 | 要用于语音翻译的模型的名称。 请勿直接使用此属性。 目前,这仅在使用 EmbeddedSpeechConfig 时有效。 |