SpeechServiceConnection_Key |
Cognitive Services Speech Service 구독 키입니다. 의도 인식기를 사용하는 경우 특정 LUIS 앱에 대한 LUIS 엔드포인트 키를 지정해야 합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription사용합니다. |
SpeechServiceConnection_Endpoint |
Cognitive Services Speech Service 엔드포인트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromEndpoint사용합니다. 참고: 이 엔드포인트는 액세스 토큰을 가져오는 데 사용되는 엔드포인트와 동일하지 않습니다. |
SpeechServiceConnection_Region |
Cognitive Services Speech Service 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken사용합니다. |
SpeechServiceAuthorization_Token |
Cognitive Services Speech Service 권한 부여 토큰(즉, 액세스 토큰)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken을 사용합니다. |
SpeechServiceAuthorization_Type |
Cognitive Services Speech Service 권한 부여 유형입니다. 현재 사용되지 않습니다. |
SpeechServiceConnection_EndpointId |
Cognitive Services Custom Speech 또는 Custom Voice Service 엔드포인트 ID입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetEndpointId사용합니다. 참고: 엔드포인트 ID는 엔드포인트 세부 정보 아래에 나열된 Custom Speech Portal에서 사용할 수 있습니다. |
SpeechServiceConnection_Host |
Cognitive Services Speech Service 호스트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromHost사용합니다. |
SpeechServiceConnection_ProxyHostName |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 호스트 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_ProxyPort |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 포트입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_ProxyUserName |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 사용자 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_ProxyPassword |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 암호입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_Url |
음성 구성에서 빌드된 URL 문자열입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 참고: 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_ProxyHostBypass |
프록시를 사용하지 않아야 하는 호스트 목록을 지정합니다. 이 설정은 다른 모든 구성을 재정의합니다. 호스트 이름은 쉼표로 구분되며 대/소문자를 구분하지 않는 방식으로 일치합니다. 와일드카드는 지원되지 않습니다. |
SpeechServiceConnection_TranslationToLanguages |
대상 번역 언어로 사용되는 쉼표로 구분된 언어 목록입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::AddTargetLanguage 및 SpeechTranslationConfig::GetTargetLanguages를 사용합니다. |
SpeechServiceConnection_TranslationVoice |
Cognitive Service Text to Speech Service 음성의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::SetVoiceName을 사용합니다. 참고: 유효한 음성 이름은여기에서 찾을 수 있습니다. |
SpeechServiceConnection_TranslationFeatures |
번역 기능. 내부용입니다. |
SpeechServiceConnection_IntentRegion |
Language Understanding Service 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 LanguageUnderstandingModel을 사용합니다. |
SpeechServiceConnection_RecoMode |
Cognitive Services Speech Service 인식 모드입니다. "INTERACTIVE", "CONVERSATION", "DICTATION"일 수 있습니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. |
SpeechServiceConnection_RecoLanguage |
인식할 음성 언어(BCP-47 형식)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetSpeechRecognitionLanguage사용합니다. |
Speech_SessionId |
세션 ID입니다. 이 ID는 오디오 입력 스트림의 특정 바인딩 및 바인딩된 기본 음성 인식 인스턴스를 나타내는 UUID(범용 고유 식별자)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SessionEventArgs::SessionId사용합니다. |
SpeechServiceConnection_UserDefinedQueryParameters |
사용자가 제공하는 쿼리 매개 변수입니다. URL 쿼리 매개 변수로 서비스에 전달됩니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_RecoBackend |
음성 인식에 사용할 백 엔드를 지정하는 문자열입니다. 허용되는 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 오프라인 옵션은 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_RecoModelName |
음성 인식에 사용할 모델의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_RecoModelKey |
이 속성은 더 이상 사용되지 않습니다. |
SpeechServiceConnection_RecoModelIniFile |
음성 인식에 사용할 모델의 ini 파일에 대한 경로입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthLanguage |
합성할 음성 언어(예: en-US) 버전 1.4.0에 추가되었습니다. |
SpeechServiceConnection_SynthVoice |
버전 1.4.0에 추가된 음성 합성에 사용할 TTS 음성의 이름입니다. |
SpeechServiceConnection_SynthOutputFormat |
버전 1.4.0에 추가된 TTS 출력 오디오 형식을 지정하는 문자열입니다. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
음성 합성 오디오 전송에 압축 오디오 형식을 사용하는지 여부를 나타냅니다. 이 속성은 SpeechServiceConnection_SynthOutputFormat pcm 형식으로 설정된 경우에만 영향을 줍니다. 이 속성을 설정하지 않고 GStreamer를 사용할 수 있는 경우 SDK는 합성된 오디오 전송에 압축 형식을 사용하고 디코딩합니다. 이 속성을 "false"로 설정하여 유선 전송에 원시 pcm 형식을 사용할 수 있습니다. 버전 1.16.0에 추가되었습니다. |
SpeechServiceConnection_SynthBackend |
TTS 백 엔드를 지정할 문자열입니다. 유효한 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths 사용하여 합성 백 엔드를 오프라인으로 설정합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthOfflineDataPath |
오프라인 합성 엔진에 대한 데이터 파일 경로입니다. 합성 백 엔드가 오프라인인 경우에만 유효합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths사용합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthOfflineVoice |
일반적인 상황에서 음성 합성에 사용할 오프라인 TTS 음성의 이름은 이 속성을 직접 사용하면 안 됩니다. 대신 EmbeddedSpeechConfig::SetSpeechSynthesisVoice 및 EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName사용합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthModelKey |
이 속성은 더 이상 사용되지 않습니다. |
SpeechServiceConnection_VoicesListEndpoint |
Cognitive Services Speech Service 음성은 api 엔드포인트(URL)를 나열합니다. 정상적인 상황에서는 이 속성을 지정할 필요가 없습니다. SDK는 SpeechConfig지역/호스트/엔드포인트를 기반으로 구성합니다. 버전 1.16.0에 추가되었습니다. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
서비스에서 사용하는 초기 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_EndSilenceTimeoutMs |
서비스에서 사용하는 종료 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_EnableAudioLogging |
서비스에서 오디오 로깅을 사용할지 여부를 지정하는 부울 값입니다. 오디오 및 콘텐츠 로그는 Microsoft 소유 스토리지 또는 Cognitive Services 구독(BYOS(Bring Your Own Storage) 사용 음성 리소스에 연결된 사용자 고유의 스토리지 계정에 저장됩니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_LanguageIdMode |
음성 서비스 연결 언어 식별자 모드입니다. "AtStart"(기본값) 또는 "연속"일 수 있습니다.
언어 식별 문서를 참조하세요. 1.25.0에 추가되었습니다. |
SpeechServiceConnection_TranslationCategoryId |
Speech Service 연결 번역 categoryId입니다. |
SpeechServiceConnection_AutoDetectSourceLanguages |
버전 1.8.0에서 추가된 소스 언어 자동 검색 |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
자동 검색 소스 언어 결과가 버전 1.8.0에 추가되었습니다. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
요청된 Cognitive Services Speech Service 응답 출력 형식(단순 또는 상세)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetOutputFormat사용합니다. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
요청된 Cognitive Services Speech Service 응답 출력 욕설 수준입니다. 현재 사용되지 않습니다. |
SpeechServiceResponse_ProfanityOption |
요청된 Cognitive Services Speech Service 응답 출력 욕설 설정입니다. 허용되는 값은 "masked", "removed" 및 "raw"입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_PostProcessingOption |
서비스에서 사용해야 하는 후처리 옵션을 지정하는 문자열 값입니다. 허용되는 값은 "TrueText"입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_RequestWordLevelTimestamps |
응답 결과에 단어 수준 타임스탬프를 포함할지 여부를 지정하는 부울 값입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_StablePartialResultThreshold |
단어를 반환할 부분 결과에 있어야 하는 횟수입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_OutputFormatOption |
응답 결과의 출력 형식 옵션을 지정하는 문자열 값입니다. 내부 전용입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_RequestSnr |
응답 결과에 SNR(신호 대 노이즈 비율)을 포함할지 여부를 지정하는 부울 값입니다. 버전 1.18.0에 추가되었습니다. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
마지막에 단어를 생략하여 번역 부분 결과를 안정화하도록 요청할 부울 값입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_RequestWordBoundary |
WordBoundary 이벤트를 요청할지 여부를 지정하는 부울 값입니다. 버전 1.21.0에 추가되었습니다. |
SpeechServiceResponse_RequestPunctuationBoundary |
WordBoundary 이벤트에서 문장 부호 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 true입니다. 버전 1.21.0에 추가되었습니다. |
SpeechServiceResponse_RequestSentenceBoundary |
WordBoundary 이벤트에서 문장 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 false입니다. 버전 1.21.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
SDK가 합성 메타데이터 이벤트(예: 단어 경계, viseme 등)를 오디오 재생과 동기화할지 여부를 지정하는 부울 값입니다. 이는 오디오가 SDK를 통해 재생될 때만 적용됩니다. 기본값은 true입니다. false로 설정하면 SDK는 서비스에서 이벤트가 발생하므로 오디오 재생과 동기화되지 않을 수 있습니다. 버전 1.31.0에 추가되었습니다. |
SpeechServiceResponse_JsonResult |
Cognitive Services Speech Service 응답 출력(JSON 형식)입니다. 이 속성은 인식 결과 개체에서만 사용할 수 있습니다. |
SpeechServiceResponse_JsonErrorDetails |
Cognitive Services Speech Service 오류 세부 정보(JSON 형식)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 CancellationDetails::ErrorDetails사용합니다. |
SpeechServiceResponse_RecognitionLatencyMs |
인식 대기 시간(밀리초)입니다. 최종 음성/번역/의도 결과에서 사용할 수 있는 읽기 전용입니다. 이렇게 하면 SDK에서 오디오 입력을 받은 시간과 서비스에서 최종 결과를 받는 순간 사이의 대기 시간을 측정합니다. SDK는 최종 결과에 기여하는 오디오 입력의 마지막 오디오 조각과 음성 서비스에서 최종 결과를 받은 시간 사이의 시간 차이를 계산합니다. 버전 1.3.0에 추가되었습니다. |
SpeechServiceResponse_RecognitionBackend |
인식 백 엔드입니다. 음성 인식 결과에서 사용할 수 있는 읽기 전용입니다. 이는 클라우드(온라인) 또는 포함된(오프라인) 인식이 결과를 생성하는 데 사용되었는지 여부를 나타냅니다. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
음성 합성 첫 번째 바이트 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이는 합성이 처리되기 시작한 시간과 첫 번째 바이트 오디오를 사용할 수 있는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
음성은 모든 바이트 대기 시간을 밀리초 단위로 합성합니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이는 합성이 처리되기 시작한 시점과 전체 오디오가 합성되는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
음성 합성에 대한 언더런 시간(밀리초)입니다. SynthesisCompleted 이벤트의 결과에서 사용할 수 있는 읽기 전용입니다. 이는 합성이 완료될 때까지 PropertyId::AudioConfig_PlaybackBufferLengthInMs 총 실행 시간을 측정합니다. 버전 1.17.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
음성 합성 연결 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이렇게 하면 합성이 처리되기 시작한 시간과 HTTP/WebSocket 연결이 설정된 순간 사이의 대기 시간을 측정합니다. 버전 1.26.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
음성 합성 네트워크 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 네트워크 왕복 시간을 측정합니다. 버전 1.26.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
음성 합성 서비스 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이렇게 하면 오디오의 첫 번째 바이트를 합성하는 서비스 처리 시간을 측정합니다. 버전 1.26.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisBackend |
합성이 완료된 백 엔드를 나타냅니다. 버전 1.17.0에 추가된 SynthesisStarted 이벤트의 결과를 제외하고 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. |
SpeechServiceResponse_DiarizeIntermediateResults |
중간 결과에 화자 식별이 포함되어 있는지 확인합니다. |
CancellationDetails_Reason |
취소 이유입니다. 현재 사용되지 않습니다. |
CancellationDetails_ReasonText |
취소 텍스트입니다. 현재 사용되지 않습니다. |
CancellationDetails_ReasonDetailedText |
취소 세부 텍스트입니다. 현재 사용되지 않습니다. |
LanguageUnderstandingServiceResponse_JsonResult |
Language Understanding Service 응답 출력(JSON 형식) IntentRecognitionResult.Properties를 통해 사용할 수 있습니다. |
AudioConfig_DeviceNameForCapture |
오디오 캡처의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromMicrophoneInput을 사용합니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다. |
AudioConfig_NumberOfChannelsForCapture |
오디오 캡처를 위한 채널 수입니다. 내부 전용입니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다. |
AudioConfig_SampleRateForCapture |
오디오 캡처에 대한 샘플 속도(Hz)입니다. 내부 전용입니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다. |
AudioConfig_BitsPerSampleForCapture |
오디오 캡처에 대한 각 샘플의 비트 수입니다. 내부 전용입니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다. |
AudioConfig_AudioSource |
오디오 원본입니다. 허용되는 값은 "마이크", "파일" 및 "스트림"입니다. 버전 1.3.0에 추가되었습니다. |
AudioConfig_DeviceNameForRender |
오디오 렌더링의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromSpeakerOutput을 사용합니다. 버전 1.14.0에 추가되었습니다. |
AudioConfig_PlaybackBufferLengthInMs |
재생 버퍼 길이(밀리초)이며 기본값은 50밀리초입니다. |
AudioConfig_AudioProcessingOptions |
JSON 형식의 오디오 처리 옵션입니다. |
Speech_LogFilename |
로그를 쓸 파일 이름입니다. 버전 1.4.0에 추가되었습니다. |
Speech_SegmentationSilenceTimeoutMs |
감지된 무음 기간(밀리초)으로 측정되며, 그 후에 음성 텍스트 변환은 음성 구가 종료되었음을 확인하고 최종 인식된 결과를 생성합니다. 이 시간 제한을 구성하는 것은 음성 입력이 평소보다 훨씬 빠르거나 느리고 기본 구분 동작이 너무 길거나 너무 짧은 결과를 일관되게 생성하는 경우에 유용할 수 있습니다. 부적절하게 높거나 낮은 분할 시간 제한 값은 음성 텍스트 변환 정확도에 부정적인 영향을 줄 수 있습니다. 이 속성은 신중하게 구성해야 하며, 의도한 대로 결과 동작의 유효성을 철저히 검사해야 합니다. |
Speech_SegmentationMaximumTimeMs |
"시간" 구분 전략을 사용하는 경우 음성 구의 최대 길이입니다. 음성 구의 길이가 이 값에 도달하면 구 무음 시간 제한이 적중되거나 구가 최대 길이에 도달할 때까지 Speech_SegmentationSilenceTimeoutMs 감소되기 시작합니다. |
Speech_SegmentationStrategy |
음성 구가 종료되고 최종 인식 결과를 생성해야 하는 시기를 결정하는 데 사용되는 전략입니다. 허용되는 값은 "Default", "Time" 및 "Semantic"입니다. |
Conversation_ApplicationId |
백 엔드 서비스에 연결하는 데 사용되는 식별자입니다. 버전 1.5.0에 추가되었습니다. |
Conversation_DialogType |
연결할 대화 백 엔드의 유형입니다. 버전 1.7.0에 추가되었습니다. |
Conversation_Initial_Silence_Timeout |
1.5.0 버전에서 추가된 수신 대기에 대한 무음 시간 제한입니다. |
Conversation_From_Id |
버전 1.5.0에 추가된 음성 인식 활동에 사용할 ID입니다. |
Conversation_Conversation_Id |
세션에 대한 ConversationId입니다. 버전 1.8.0에 추가되었습니다. |
Conversation_Custom_Voice_Deployment_Ids |
사용자 지정 음성 배포 ID의 쉼표로 구분된 목록입니다. 버전 1.8.0에 추가되었습니다. |
Conversation_Speech_Activity_Template |
음성 활동 템플릿, 음성을 위해 서비스에서 생성한 활동에 대한 템플릿의 스탬프 속성입니다. 버전 1.10.0에 추가되었습니다. |
Conversation_ParticipantId |
현재 대화의 참가자 식별자입니다. 버전 1.13.0에 추가되었습니다. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트가 작성한 데이터 버퍼에 연결된 타임스탬프를 나타냅니다. 타임스탬프는 해상도가 90kHz인 64비트 값입니다. MPEG 전송 스트림의 프레젠테이션 타임스탬프와 동일합니다. 버전 1.5.0에서 추가된 https://en.wikipedia.org/wiki/Presentation_timestamp 참조하세요. |
DataBuffer_UserId |
끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트에서 작성한 데이터 버퍼에 연결된 사용자 ID입니다. 버전 1.5.0에 추가되었습니다. |
PronunciationAssessment_ReferenceText |
발음 평가를 위한 오디오의 참조 텍스트입니다. 이 매개 변수와 다음 발음 평가 매개 변수는발음 평가 매개 변수 표를 참조하세요. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create 또는 PronunciationAssessmentConfig::SetReferenceText사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_GradingSystem |
발음 점수 보정을 위한 포인트 시스템(FivePoint 또는 HundredMark)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_Granularity |
발음 평가 세분성(Phoneme, Word 또는 FullText)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_EnableMiscue |
잘못된 계산을 사용하도록 설정할지 정의합니다. 이 기능을 사용하면 발음된 단어가 참조 텍스트와 비교되고 비교에 따라 생략/삽입으로 표시됩니다. 기본 설정은 False입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_PhonemeAlphabet |
발음 평가 음소 알파벳입니다. 유효한 값은 "SAPI"(기본값) 및 "IPA"입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetPhonemeAlphabet사용합니다. 버전 1.20.0에 추가되었습니다. |
PronunciationAssessment_NBestPhonemeCount |
발음 평가 nbest 음소 수입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetNBestPhonemeCount사용합니다. 버전 1.20.0에 추가되었습니다. |
PronunciationAssessment_EnableProsodyAssessment |
prosody 평가를 사용하도록 설정할지 여부입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableProsodyAssessment사용합니다. 버전 1.33.0에 추가되었습니다. |
PronunciationAssessment_Json |
발음 평가 매개 변수의 json 문자열은 일반적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_Params |
발음 평가 매개 변수입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_ContentTopic |
발음 평가의 콘텐츠 항목입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic사용합니다. 버전 1.33.0에 추가되었습니다. |
SpeakerRecognition_Api_Version |
Speaker Recognition 백 엔드 API 버전입니다. 이 속성은 해당되는 경우 이전 버전의 Speaker Recognition API를 테스트하고 사용할 수 있도록 추가됩니다. 버전 1.18.0에 추가되었습니다. |
SpeechTranslation_ModelName |
음성 번역에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. |
SpeechTranslation_ModelKey |
이 속성은 더 이상 사용되지 않습니다. |
KeywordRecognition_ModelName |
키워드 인식에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. |
KeywordRecognition_ModelKey |
이 속성은 더 이상 사용되지 않습니다. |
EmbeddedSpeech_EnablePerformanceMetrics |
포함된 음성을 사용하는 디바이스의 기능을 평가하는 데 사용할 수 있는 포함된 음성 성능 메트릭의 컬렉션을 사용하도록 설정합니다. 수집된 데이터는 음성 인식과 같은 특정 시나리오의 결과에 포함됩니다. 기본 설정은 "false"입니다. 모든 포함된 음성 시나리오에서는 메트릭을 사용할 수 없습니다. |
SpeechSynthesisRequest_Pitch |
합성된 음성의 피치입니다. |
SpeechSynthesisRequest_Rate |
합성된 음성의 속도입니다. |
SpeechSynthesisRequest_Volume |
합성된 음성의 볼륨입니다. |