SpeechServiceConnection_Key |
Cognitive Services Speech Service 구독 키입니다. 의도 인식기를 사용하는 경우 특정 LUIS 앱에 대한 LUIS 엔드포인트 키를 지정해야 합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription을 사용합니다. |
SpeechServiceConnection_Endpoint |
Cognitive Services Speech Service 엔드포인트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromEndpoint를 사용합니다. 참고: 이 엔드포인트는 액세스 토큰을 가져오는 데 사용되는 엔드포인트와 동일하지 않습니다. |
SpeechServiceConnection_Region |
Cognitive Services Speech Service 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken을 사용합니다. |
SpeechServiceAuthorization_Token |
Cognitive Services Speech Service 권한 부여 토큰(즉, 액세스 토큰)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken을 사용합니다. |
SpeechServiceAuthorization_Type |
Cognitive Services Speech Service 권한 부여 유형입니다. 현재 사용되지 않습니다. |
SpeechServiceConnection_EndpointId |
Cognitive Services Custom Speech 또는 Custom Voice Service 엔드포인트 ID입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetEndpointId를 사용합니다. 참고: 엔드포인트 ID는 엔드포인트 세부 정보 아래에 나열된 Custom Speech Portal에서 사용할 수 있습니다. |
SpeechServiceConnection_Host |
Cognitive Services Speech Service 호스트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromHost를 사용합니다. |
SpeechServiceConnection_ProxyHostName |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 호스트 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_ProxyPort |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 포트입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_ProxyUserName |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 사용자 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_ProxyPassword |
Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 암호입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다. |
SpeechServiceConnection_Url |
음성 구성에서 빌드된 URL 문자열입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 참고: 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_TranslationToLanguages |
대상 번역 언어로 사용되는 쉼표로 구분된 언어 목록입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::AddTargetLanguage 및 SpeechTranslationConfig::GetTargetLanguages를 사용합니다. |
SpeechServiceConnection_TranslationVoice |
Cognitive Service Text to Speech Service 음성의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::SetVoiceName을 사용합니다. 참고: 유효한 음성 이름은 여기에서 찾을 수 있습니다. |
SpeechServiceConnection_TranslationFeatures |
번역 기능. 내부적으로만 사용할 수 있습니다. |
SpeechServiceConnection_IntentRegion |
Language Understanding 서비스 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 LanguageUnderstandingModel을 사용합니다. |
SpeechServiceConnection_RecoMode |
Cognitive Services Speech Service 인식 모드입니다. "INTERACTIVE", "CONVERSATION", "DICTATION"일 수 있습니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. |
SpeechServiceConnection_RecoLanguage |
인식할 음성 언어입니다(BCP-47 형식). 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetSpeechRecognitionLanguage를 사용합니다. |
Speech_SessionId |
세션 ID입니다. 이 ID는 오디오 입력 스트림의 특정 바인딩 및 바인딩된 기본 음성 인식 instance 나타내는 범용 고유 식별자(즉, UUID)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SessionEventArgs::SessionId를 사용합니다. |
SpeechServiceConnection_UserDefinedQueryParameters |
사용자가 제공하는 쿼리 매개 변수입니다. URL 쿼리 매개 변수로 서비스에 전달됩니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_RecoBackend |
음성 인식에 사용할 백 엔드를 지정하는 문자열입니다. 허용된 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 오프라인 옵션은 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_RecoModelName |
음성 인식에 사용할 모델의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_RecoModelKey |
음성 인식에 사용할 모델의 암호 해독 키입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_RecoModelIniFile |
음성 인식에 사용할 모델의 ini 파일에 대한 경로입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthLanguage |
합성할 음성 언어(예: en-US) 버전 1.4.0에 추가되었습니다. |
SpeechServiceConnection_SynthVoice |
버전 1.4.0에 추가된 음성 합성에 사용할 TTS 음성의 이름입니다. |
SpeechServiceConnection_SynthOutputFormat |
버전 1.4.0에서 추가된 TTS 출력 오디오 형식을 지정하는 문자열입니다. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
음성 합성 오디오 전송에 압축 오디오 형식을 사용하는지 나타냅니다. 이 속성은 SpeechServiceConnection_SynthOutputFormat pcm 형식으로 설정된 경우에만 영향을 줍니다. 이 속성을 설정하지 않고 GStreamer를 사용할 수 있는 경우 SDK는 합성된 오디오 전송에 압축 형식을 사용하고 디코딩합니다. 이 속성을 "false"로 설정하여 유선 전송에 원시 pcm 형식을 사용할 수 있습니다. 버전 1.16.0에 추가되었습니다. |
SpeechServiceConnection_SynthBackend |
TTS 백 엔드를 지정할 문자열입니다. 유효한 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths 를 사용하여 합성 백 엔드를 오프라인으로 설정합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthOfflineDataPath |
오프라인 합성 엔진에 대한 데이터 파일 경로입니다. 합성 백 엔드가 오프라인인 경우에만 유효합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths를 사용합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthOfflineVoice |
일반적인 상황에서 음성 합성에 사용할 오프라인 TTS 음성의 이름은 이 속성을 직접 사용하면 안 됩니다. 대신 EmbeddedSpeechConfig::SetSpeechSynthesisVoice 및 EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName을 사용합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_SynthModelKey |
음성 합성에 사용할 음성의 암호 해독 키입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 대신 EmbeddedSpeechConfig::SetSpeechSynthesisVoice를 사용합니다. 버전 1.19.0에 추가되었습니다. |
SpeechServiceConnection_VoicesListEndpoint |
Cognitive Services Speech Service 음성은 api 엔드포인트(URL)를 나열합니다. 정상적인 상황에서는 이 속성을 지정할 필요가 없습니다. SDK는 SpeechConfig의 지역/호스트/엔드포인트를 기반으로 구성합니다. 버전 1.16.0에 추가되었습니다. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
서비스에서 사용하는 초기 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_EndSilenceTimeoutMs |
서비스에서 사용하는 종료 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_EnableAudioLogging |
서비스에서 오디오 로깅을 사용할지 여부를 지정하는 부울 값입니다. 오디오 및 콘텐츠 로그는 Microsoft 소유 스토리지 또는 Cognitive Services 구독에 연결된 사용자 고유의 스토리지 계정(BYOS(Bring Your Own Storage) 사용 음성 리소스)에 저장됩니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceConnection_LanguageIdMode |
음성 서비스 연결 언어 식별자 모드입니다. "AtStart"(기본값) 또는 "연속"일 수 있습니다. 언어 식별 문서를 참조하세요. 1.25.0에 추가되었습니다. |
SpeechServiceConnection_AutoDetectSourceLanguages |
버전 1.8.0에 추가된 소스 언어 자동 검색 |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
자동 검색 원본 언어 결과 버전 1.8.0에 추가되었습니다. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
요청된 Cognitive Services Speech Service 응답 출력 형식(단순 또는 상세)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetOutputFormat을 사용합니다. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
요청된 Cognitive Services Speech Service 응답 출력 욕설 수준입니다. 현재 사용되지 않습니다. |
SpeechServiceResponse_ProfanityOption |
요청된 Cognitive Services Speech Service 응답 출력 욕설 설정입니다. 허용되는 값은 "masked", "removed" 및 "raw"입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_PostProcessingOption |
서비스에서 사용해야 하는 후처리 옵션을 지정하는 문자열 값입니다. 허용되는 값은 "TrueText"입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_RequestWordLevelTimestamps |
응답 결과에 단어 수준 타임스탬프를 포함할지 여부를 지정하는 부울 값입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_StablePartialResultThreshold |
단어를 반환할 부분 결과에 있어야 하는 횟수입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_OutputFormatOption |
응답 결과에서 출력 형식 옵션을 지정하는 문자열 값입니다. 내부적으로만 사용됩니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_RequestSnr |
응답 결과에 SNR(신호 대 노이즈 비율)을 포함할지 여부를 지정하는 부울 값입니다. 버전 1.18.0에 추가되었습니다. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
마지막에 단어를 생략하여 번역 부분 결과를 안정화하도록 요청할 부울 값입니다. 버전 1.5.0에 추가되었습니다. |
SpeechServiceResponse_RequestWordBoundary |
WordBoundary 이벤트를 요청할지 여부를 지정하는 부울 값입니다. 버전 1.21.0에 추가되었습니다. |
SpeechServiceResponse_RequestPunctuationBoundary |
WordBoundary 이벤트에서 문장 부호 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 true입니다. 버전 1.21.0에 추가되었습니다. |
SpeechServiceResponse_RequestSentenceBoundary |
WordBoundary 이벤트에서 문장 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 false입니다. 버전 1.21.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
SDK가 합성 메타데이터 이벤트(예: 단어 경계, viseme 등)를 오디오 재생에 동기화할지 여부를 지정하는 부울 값입니다. 이는 오디오가 SDK를 통해 재생될 때만 적용됩니다. 기본값은 true입니다. false로 설정하면 SDK는 서비스에서 발생하는 이벤트를 발생하며 오디오 재생과 동기화되지 않을 수 있습니다. 버전 1.31.0에 추가되었습니다. |
SpeechServiceResponse_JsonResult |
Cognitive Services Speech Service 응답 출력(JSON 형식). 이 속성은 인식 결과 개체에서만 사용할 수 있습니다. |
SpeechServiceResponse_JsonErrorDetails |
Cognitive Services Speech Service 오류 세부 정보(JSON 형식). 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 CancellationDetails::ErrorDetails를 사용합니다. |
SpeechServiceResponse_RecognitionLatencyMs |
인식 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성/번역/의도 결과에서 사용할 수 있습니다. 이렇게 하면 SDK에서 오디오 입력을 받은 시간과 서비스에서 최종 결과를 받는 순간 사이의 대기 시간을 측정합니다. SDK는 최종 결과에 기여하는 오디오 입력의 마지막 오디오 조각과 음성 서비스에서 최종 결과가 수신되는 시간 간의 시간 차이를 계산합니다. 버전 1.3.0에 추가되었습니다. |
SpeechServiceResponse_RecognitionBackend |
인식 백 엔드입니다. 읽기 전용이며 음성 인식 결과에서 사용할 수 있습니다. 이는 클라우드(온라인) 또는 포함된(오프라인) 인식이 결과를 생성하는 데 사용되었는지 여부를 나타냅니다. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
음성 합성 첫 번째 바이트 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이는 합성이 처리되기 시작한 시간과 첫 번째 바이트 오디오를 사용할 수 있는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
음성은 모든 바이트 대기 시간을 밀리초 단위로 합성합니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이는 합성이 처리되기 시작한 시점과 전체 오디오가 합성되는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
음성 합성의 언더런 시간(밀리초)입니다. 읽기 전용이며 SynthesisCompleted 이벤트의 결과에서 사용할 수 있습니다. 이는 합성이 완료되도록 채워지는 PropertyId::AudioConfig_PlaybackBufferLengthInMs 총 언더런 시간을 측정합니다. 버전 1.17.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
음성 합성 연결 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이는 합성이 처리되기 시작한 시점과 HTTP/WebSocket 연결이 설정된 순간 사이의 대기 시간을 측정합니다. 버전 1.26.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
음성 합성 네트워크 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 네트워크 왕복 시간을 측정합니다. 버전 1.26.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
음성 합성 서비스 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이렇게 하면 오디오의 첫 번째 바이트를 합성하는 서비스 처리 시간이 측정됩니다. 버전 1.26.0에 추가되었습니다. |
SpeechServiceResponse_SynthesisBackend |
합성이 완료된 백 엔드를 나타냅니다. SynthesisStarted 이벤트 버전 1.17.0에 추가된 결과를 제외하고 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. |
CancellationDetails_Reason |
취소 이유입니다. 현재 사용되지 않습니다. |
CancellationDetails_ReasonText |
취소 텍스트입니다. 현재 사용되지 않습니다. |
CancellationDetails_ReasonDetailedText |
취소 세부 텍스트입니다. 현재 사용되지 않습니다. |
LanguageUnderstandingServiceResponse_JsonResult |
Language Understanding 서비스 응답 출력(JSON 형식)입니다. IntentRecognitionResult.Properties를 통해 사용할 수 있습니다. |
AudioConfig_DeviceNameForCapture |
오디오 캡처의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromMicrophoneInput을 사용합니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다. |
AudioConfig_NumberOfChannelsForCapture |
오디오 캡처를 위한 채널 수입니다. 내부적으로만 사용됩니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다. |
AudioConfig_SampleRateForCapture |
오디오 캡처에 대한 샘플 속도(Hz)입니다. 내부적으로만 사용됩니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다. |
AudioConfig_BitsPerSampleForCapture |
오디오 캡처를 위한 각 샘플의 비트 수입니다. 내부적으로만 사용됩니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다. |
AudioConfig_AudioSource |
오디오 원본입니다. 허용되는 값은 "마이크", "파일" 및 "Stream"입니다. 버전 1.3.0에 추가되었습니다. |
AudioConfig_DeviceNameForRender |
오디오 렌더링의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromSpeakerOutput을 사용합니다. 버전 1.14.0에 추가되었습니다. |
AudioConfig_PlaybackBufferLengthInMs |
재생 버퍼 길이(밀리초)이며 기본값은 50밀리초입니다. |
AudioConfig_AudioProcessingOptions |
JSON 형식의 오디오 처리 옵션입니다. |
Speech_LogFilename |
로그를 쓸 파일 이름입니다. 버전 1.4.0에 추가되었습니다. |
Speech_SegmentationSilenceTimeoutMs |
감지된 무음 기간(밀리초)으로 측정되며, 그 후에 음성 텍스트 변환은 음성 구가 종료되었음을 확인하고 최종 인식된 결과를 생성합니다. 이 시간 제한을 구성하는 것은 음성 입력이 평소보다 훨씬 빠르거나 느리고 기본 구분 동작이 너무 길거나 너무 짧은 결과를 일관되게 생성하는 경우에 유용할 수 있습니다. 부적절하게 높거나 낮은 세분화 시간 제한 값은 음성 텍스트 변환 정확도에 부정적인 영향을 줄 수 있습니다. 이 속성은 신중하게 구성해야 하며 결과 동작은 의도한 대로 철저히 유효성을 검사해야 합니다. |
Conversation_ApplicationId |
백 엔드 서비스에 연결하는 데 사용되는 식별자입니다. 버전 1.5.0에 추가되었습니다. |
Conversation_DialogType |
연결할 대화 백 엔드의 유형입니다. 버전 1.7.0에 추가되었습니다. |
Conversation_Initial_Silence_Timeout |
수신 대기에 대한 무음 시간 제한 버전 1.5.0에 추가되었습니다. |
Conversation_From_Id |
ID에서 음성 인식 작업에 사용할 버전 1.5.0에 추가되었습니다. |
Conversation_Conversation_Id |
세션에 대한 ConversationId입니다. 버전 1.8.0에 추가되었습니다. |
Conversation_Custom_Voice_Deployment_Ids |
사용자 지정 음성 배포 ID의 쉼표로 구분된 목록입니다. 버전 1.8.0에 추가되었습니다. |
Conversation_Speech_Activity_Template |
음성 활동 템플릿, 음성 서비스에 의해 생성된 활동에 대한 템플릿의 스탬프 속성입니다. 버전 1.10.0에 추가되었습니다. |
Conversation_ParticipantId |
현재 대화의 참가자 식별자입니다. 버전 1.13.0에 추가되었습니다. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트가 작성한 데이터 버퍼에 연결된 타임스탬프를 지정합니다. 타임스탬프는 해상도가 90kHz인 64비트 값입니다. MPEG 전송 스트림의 프레젠테이션 타임스탬프와 동일합니다. 버전 1.5.0에서 추가됨을 참조하세요 https://en.wikipedia.org/wiki/Presentation_timestamp . |
DataBuffer_UserId |
끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트가 작성한 데이터 버퍼에 연결된 사용자 ID입니다. 버전 1.5.0에 추가되었습니다. |
PronunciationAssessment_ReferenceText |
발음 평가를 위한 오디오의 참조 텍스트입니다. 이 매개 변수와 다음 발음 평가 매개 변수는 발음 평가 매개 변수 표를 참조하세요. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create 또는 PronunciationAssessmentConfig::SetReferenceText를 사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_GradingSystem |
발음 점수 보정을 위한 점 시스템(FivePoint 또는 HundredMark)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_Granularity |
발음 평가 세분성(Phoneme, Word 또는 FullText)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_EnableMiscue |
잘못된 계산을 사용하도록 설정할지 정의합니다. 이를 사용하도록 설정하면 발음된 단어를 참조 텍스트와 비교하여, 비교를 바탕으로 생략/삽입으로 표시합니다. 기본 설정은 False입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_PhonemeAlphabet |
발음 평가 음소 알파벳입니다. 유효한 값은 "SAPI"(기본값) 및 "IPA"입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetPhonemeAlphabet을 사용합니다. 버전 1.20.0에 추가되었습니다. |
PronunciationAssessment_NBestPhonemeCount |
발음 평가 nbest 음소 수입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetNBestPhonemeCount를 사용합니다. 버전 1.20.0에 추가되었습니다. |
PronunciationAssessment_EnableProsodyAssessment |
prosody 평가를 사용하도록 설정할지 여부입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableProsodyAssessment를 사용합니다. 버전 1.33.0에 추가되었습니다. |
PronunciationAssessment_Json |
발음 평가 매개 변수의 json 문자열 일반적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_Params |
발음 평가 매개 변수입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 버전 1.14.0에 추가되었습니다. |
PronunciationAssessment_ContentTopic |
발음 평가의 콘텐츠 항목입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic을 사용합니다. 버전 1.33.0에 추가되었습니다. |
SpeakerRecognition_Api_Version |
Speaker Recognition 백 엔드 API 버전입니다. 이 속성은 해당되는 경우 이전 버전의 Speaker Recognition API를 테스트하고 사용할 수 있도록 추가됩니다. 버전 1.18.0에 추가되었습니다. |
SpeechTranslation_ModelName |
음성 번역에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. |
SpeechTranslation_ModelKey |
음성 번역에 사용할 모델의 암호 해독 키입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. |
KeywordRecognition_ModelName |
키워드(keyword) 인식에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. |
KeywordRecognition_ModelKey |
키워드(keyword) 인식에 사용할 모델의 암호 해독 키입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. |
EmbeddedSpeech_EnablePerformanceMetrics |
포함된 음성을 사용하는 디바이스의 기능을 평가하는 데 사용할 수 있는 포함된 음성 성능 메트릭의 컬렉션을 사용하도록 설정합니다. 수집된 데이터는 음성 인식과 같은 특정 시나리오의 결과에 포함됩니다. 기본 설정은 “false”입니다. 모든 포함된 음성 시나리오에서 메트릭을 사용할 수 없습니다. |