다음을 통해 공유


네임스페이스 Microsoft::CognitiveServices::Speech

요약

회원 설명
propertyId 음성 속성 ID를 정의합니다. 버전 1.4.0에서 변경되었습니다.
열거형 OutputFormat 출력 형식입니다.
열거형 ProfanityOption 욕설(욕설)을 제거하거나 불경한 단어의 문자를 별으로 대체합니다. 버전 1.5.0에 추가되었습니다.
열거형 ResultReason 인식 결과가 생성될 수 있는 가능한 이유를 지정합니다.
열거형 CancellationReason 인식 결과가 취소될 수 있는 가능한 이유를 정의합니다.
열거형 CancellationErrorCode CancellationReason이 오류인 경우 오류 코드를 정의합니다. 버전 1.1.0에 추가되었습니다.
열거형 NoMatchReason 인식 결과가 인식되지 않을 수 있는 가능한 이유를 정의합니다.
열거형 ActivityJSONType 활동 json 값에 사용할 수 있는 형식을 정의합니다. 버전 1.5.0에 추가되었습니다.
enum SpeechSynthesisOutputFormat 가능한 음성 합성 출력 오디오 형식을 정의합니다. 버전 1.19.0에서 업데이트되었습니다.
열거형 StreamStatus 오디오 데이터 스트림의 가능한 상태를 정의합니다. 버전 1.4.0에 추가되었습니다.
열거형 ServicePropertyChannel 속성 설정을 서비스에 전달하는 데 사용되는 채널을 정의합니다. 버전 1.5.0에 추가되었습니다.
열거형 VoiceProfileType 음성 프로필 유형을 정의합니다.
enum RecognitionFactorScope 인식 요소가 적용되는 범위를 정의합니다.
enum PronunciationAssessmentGradingSystem 발음 점수 보정을 위한 점 시스템을 정의합니다. 기본값은 FivePoint입니다. 버전 1.14.0에 추가되었습니다.
열거형 PronunciationAssessmentGranularity 발음 평가 세분성을 정의합니다. 기본값은 Phoneme입니다. 버전 1.14.0에 추가되었습니다.
열거형 SynthesisVoiceType 버전 1.16.0에서 추가된 합성 음성의 유형을 정의합니다.
열거형 SynthesisVoiceGender 버전 1.17.0에 추가된 합성 음성의 성별을 정의합니다.
열거형 SpeechSynthesisBoundaryType 버전 1.21.0에 추가된 음성 합성 경계 이벤트의 경계 유형을 정의합니다.
enum SegmentationStrategy 음성 구가 종료되고 최종 인식 결과를 생성해야 하는 시기를 결정하는 데 사용되는 전략입니다. 허용되는 값은 "Default", "Time" 및 "Semantic"입니다.
클래스 AsyncRecognizer AsyncRecognizer 추상 기본 클래스입니다.
클래스 AudioDataStream 오디오 데이터를 스트림으로 작동하는 데 사용되는 오디오 데이터 스트림을 나타냅니다. 버전 1.4.0에 추가되었습니다.
클래스 AutoDetectSourceLanguageConfig 1.13.0에서 업데이트된 자동 검색 원본 구성을 정의하는 클래스입니다.
클래스 AutoDetectSourceLanguageResult 1.8.0에 추가된 자동 검색된 원본 언어 결과를 포함합니다.
클래스 BaseAsyncRecognizer BaseAsyncRecognizer 클래스입니다.
클래스 CancellationDetails 결과가 취소된 이유에 대한 자세한 정보를 포함합니다.
클래스 ClassLanguageModel 동적 문법 시나리오에 대한 문법 목록을 나타냅니다. 버전 1.7.0에 추가되었습니다.
클래스 연결 연결은 지정된 Recognizer의 음성 서비스에 대한 연결을 관리하기 위한 프록시 클래스입니다. 기본적으로 Recognizer는 필요할 때 서비스에 대한 연결을 자율적으로 관리합니다. Connection 클래스는 사용자가 연결을 명시적으로 열거나 닫고 연결 상태 변경을 구독하는 추가 메서드를 제공합니다. 연결 사용은 선택 사항입니다. 연결 상태에 따라 애플리케이션 동작을 미세 조정해야 하는 시나리오를 위한 것입니다. 사용자는 필요에 따라 Open()을 호출하여 이 연결과 연결된 인식기에서 인식을 시작하기 전에 서비스 연결을 수동으로 시작할 수 있습니다. 인식을 시작한 후 Open() 또는 Close()를 호출하지 못할 수 있습니다. 이는 인식기 또는 진행 중인 인식에 영향을 주지 않습니다. 여러 가지 이유로 인해 연결이 끊어질 수 있으며, Recognizer는 항상 지속적인 작업을 보장하기 위해 필요에 따라 연결을 다시 구성하려고 합니다. 이러한 모든 경우 연결/연결이 끊긴 이벤트는 연결 상태의 변경을 나타냅니다. 버전 1.17.0에서 업데이트되었습니다.
클래스 ConnectionEventArgs ConnectionEvent에 대한 데이터를 제공합니다. 버전 1.2.0에 추가되었습니다.
클래스 ConnectionMessage ConnectionMessage는 음성 서비스에서 보내고 받은 특정 메시지 구현을 나타냅니다. 이러한 메시지는 디버깅을 위해 제공되며 Azure Cognitive Services Speech Service의 프로덕션 사용 사례에 사용해서는 안 됩니다. Speech Service에서 보내고 받은 메시지는 예고 없이 변경될 수 있습니다. 여기에는 메시지 내용, 헤더, 페이로드, 순서 지정 등이 포함됩니다. 버전 1.10.0에 추가되었습니다.
클래스 ConnectionMessageEventArgs ConnectionMessageEvent에 대한 데이터를 제공합니다.
클래스 EmbeddedSpeechConfig 포함된(오프라인) 음성 구성을 정의하는 클래스입니다.
클래스 EventArgs 이벤트 인수의 기본 클래스입니다.
클래스 EventSignal 클라이언트는 이벤트 신호에 연결하여 이벤트를 수신하거나 이벤트 신호에서 연결을 끊어 이벤트 수신을 중지할 수 있습니다.
클래스 EventSignalBase 클라이언트는 이벤트 신호에 연결하여 이벤트를 수신하거나 이벤트 신호에서 연결을 끊어 이벤트 수신을 중지할 수 있습니다.
클래스 문법 음성 인식을 사용자 지정하기 위한 기본 클래스 문법을 나타냅니다. 버전 1.5.0에 추가되었습니다.
클래스 GrammarList 동적 문법 시나리오에 대한 문법 목록을 나타냅니다. 버전 1.7.0에 추가되었습니다.
클래스 GrammarPhrase 사용자가 말할 수 있는 구를 나타냅니다. 버전 1.5.0에 추가되었습니다.
클래스 HybridSpeechConfig 음성 인식 또는 음성 합성에 대한 하이브리드(클라우드 및 포함) 구성을 정의하는 클래스입니다.
클래스 KeywordRecognitionEventArgs KeywordRecognizer내보낸 이벤트에 대한 클래스입니다.
클래스 KeywordRecognitionModel StartKeywordRecognitionAsync 메서드에 사용되는 키워드 인식 모델을 나타냅니다.
클래스 KeywordRecognitionResult KeywordRecognizer내보낸 결과를 정의하는 클래스입니다.
클래스 KeywordRecognizer 키워드 활성화만 처리하도록 특수화된 인식기 형식입니다.
클래스 NoMatchDetails NoMatch 인식 결과에 대한 자세한 정보를 포함합니다.
클래스 PersonalVoiceSynthesisRequest 개인 음성(aka.ms/azureai/personal-voice)에 대한 음성 합성 요청을 정의하는 클래스입니다. 이 클래스는 미리 보기 상태이며 변경될 수 있습니다. 버전 1.39.0에 추가되었습니다.
클래스 PhraseListGrammar 동적 문법 시나리오에 대한 구 목록 문법을 나타냅니다. 버전 1.5.0에 추가되었습니다.
클래스 PronunciationAssessmentConfig 발음 평가 구성을 정의하는 클래스가 1.14.0에 추가되었습니다.
클래스 PronunciationAssessmentResult 발음 평가 결과에 대한 클래스입니다.
클래스 PronunciationContentAssessmentResult 콘텐츠 평가 결과에 대한 클래스입니다.
클래스 PropertyCollection 속성 컬렉션에서 속성 값을 검색하거나 설정하는 클래스입니다.
클래스 RecognitionEventArgs RecognitionEvent에 대한 데이터를 제공합니다.
클래스 RecognitionResult 인식 작업의 결과에 대한 자세한 정보를 포함합니다.
클래스 Recognizer Recognizer 기본 클래스입니다.
클래스 SessionEventArgs 세션 이벤트 인수에 대한 기본 클래스입니다.
클래스 SmartHandle 스마트 핸들 클래스입니다.
클래스 SourceLanguageConfig 1.8.0에 추가된 소스 언어 구성을 정의하는 클래스입니다.
클래스 SourceLanguageRecognizer 소스 언어 인식기의 클래스입니다. 독립 실행형 언어 검색에 이 클래스를 사용할 수 있습니다. 버전 1.17.0에 추가되었습니다.
클래스 SpeechConfig 음성/의도 인식 또는 음성 합성에 대한 구성을 정의하는 클래스입니다.
클래스 SpeechRecognitionCanceledEventArgs 음성 인식에 대한 클래스가 이벤트 인수를 취소했습니다.
클래스 SpeechRecognitionEventArgs 음성 인식 이벤트 인수에 대한 클래스입니다.
클래스 SpeechRecognitionModel 음성 인식 모델 정보입니다.
클래스 SpeechRecognitionResult 음성 인식 결과의 기본 클래스입니다.
클래스 SpeechRecognizer 음성 인식기의 클래스입니다.
클래스 SpeechSynthesisBookmarkEventArgs 음성 합성 책갈피 이벤트 인수에 대한 클래스입니다. 버전 1.16.0에 추가되었습니다.
클래스 SpeechSynthesisCancellationDetails 결과가 취소된 이유에 대한 자세한 정보를 포함합니다. 버전 1.4.0에 추가되었습니다.
클래스 SpeechSynthesisEventArgs 음성 합성 이벤트 인수에 대한 클래스입니다. 버전 1.4.0에 추가되었습니다.
클래스 SpeechSynthesisRequest 음성 합성 요청을 정의하는 클래스입니다. 이 클래스는 미리 보기 상태이며 변경될 수 있습니다. 버전 1.37.0에 추가되었습니다.
클래스 SpeechSynthesisResult 텍스트 음성 변환 합성의 결과에 대한 정보를 포함합니다. 버전 1.4.0에 추가되었습니다.
클래스 SpeechSynthesisVisemeEventArgs 음성 합성 viseme 이벤트 인수에 대한 클래스입니다. 버전 1.16.0에 추가되었습니다.
클래스 SpeechSynthesisWordBoundaryEventArgs 음성 합성 단어 경계 이벤트 인수에 대한 클래스입니다. 버전 1.7.0에 추가되었습니다.
클래스 SpeechSynthesizer 음성 신시사이저에 대한 클래스입니다. 버전 1.14.0에서 업데이트되었습니다.
클래스 SpeechTranslationModel 음성 번역 모델 정보입니다.
클래스 SynthesisVoicesResult 음성 신시사이저의 음성 목록 결과에 대한 정보를 포함합니다. 버전 1.16.0에 추가되었습니다.
클래스 VoiceInfo 버전 1.17.0에서 업데이트된 합성 음성 정보에 대한 정보를 포함합니다.

회원

enum PropertyId

설명
SpeechServiceConnection_Key Cognitive Services Speech Service 구독 키입니다. 의도 인식기를 사용하는 경우 특정 LUIS 앱에 대한 LUIS 엔드포인트 키를 지정해야 합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription사용합니다.
SpeechServiceConnection_Endpoint Cognitive Services Speech Service 엔드포인트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromEndpoint사용합니다. 참고: 이 엔드포인트는 액세스 토큰을 가져오는 데 사용되는 엔드포인트와 동일하지 않습니다.
SpeechServiceConnection_Region Cognitive Services Speech Service 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken사용합니다.
SpeechServiceAuthorization_Token Cognitive Services Speech Service 권한 부여 토큰(즉, 액세스 토큰)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken을 사용합니다.
SpeechServiceAuthorization_Type Cognitive Services Speech Service 권한 부여 유형입니다. 현재 사용되지 않습니다.
SpeechServiceConnection_EndpointId Cognitive Services Custom Speech 또는 Custom Voice Service 엔드포인트 ID입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetEndpointId사용합니다. 참고: 엔드포인트 ID는 엔드포인트 세부 정보 아래에 나열된 Custom Speech Portal에서 사용할 수 있습니다.
SpeechServiceConnection_Host Cognitive Services Speech Service 호스트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromHost사용합니다.
SpeechServiceConnection_ProxyHostName Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 호스트 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_ProxyPort Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 포트입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_ProxyUserName Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 사용자 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_ProxyPassword Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 암호입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_Url 음성 구성에서 빌드된 URL 문자열입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 참고: 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_ProxyHostBypass 프록시를 사용하지 않아야 하는 호스트 목록을 지정합니다. 이 설정은 다른 모든 구성을 재정의합니다. 호스트 이름은 쉼표로 구분되며 대/소문자를 구분하지 않는 방식으로 일치합니다. 와일드카드는 지원되지 않습니다.
SpeechServiceConnection_TranslationToLanguages 대상 번역 언어로 사용되는 쉼표로 구분된 언어 목록입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::AddTargetLanguage 및 SpeechTranslationConfig::GetTargetLanguages를 사용합니다.
SpeechServiceConnection_TranslationVoice Cognitive Service Text to Speech Service 음성의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::SetVoiceName을 사용합니다. 참고: 유효한 음성 이름은여기에서 찾을 수 있습니다.
SpeechServiceConnection_TranslationFeatures 번역 기능. 내부용입니다.
SpeechServiceConnection_IntentRegion Language Understanding Service 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 LanguageUnderstandingModel을 사용합니다.
SpeechServiceConnection_RecoMode Cognitive Services Speech Service 인식 모드입니다. "INTERACTIVE", "CONVERSATION", "DICTATION"일 수 있습니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다.
SpeechServiceConnection_RecoLanguage 인식할 음성 언어(BCP-47 형식)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetSpeechRecognitionLanguage사용합니다.
Speech_SessionId 세션 ID입니다. 이 ID는 오디오 입력 스트림의 특정 바인딩 및 바인딩된 기본 음성 인식 인스턴스를 나타내는 UUID(범용 고유 식별자)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SessionEventArgs::SessionId사용합니다.
SpeechServiceConnection_UserDefinedQueryParameters 사용자가 제공하는 쿼리 매개 변수입니다. URL 쿼리 매개 변수로 서비스에 전달됩니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_RecoBackend 음성 인식에 사용할 백 엔드를 지정하는 문자열입니다. 허용되는 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 오프라인 옵션은 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_RecoModelName 음성 인식에 사용할 모델의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_RecoModelKey 이 속성은 더 이상 사용되지 않습니다.
SpeechServiceConnection_RecoModelIniFile 음성 인식에 사용할 모델의 ini 파일에 대한 경로입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthLanguage 합성할 음성 언어(예: en-US) 버전 1.4.0에 추가되었습니다.
SpeechServiceConnection_SynthVoice 버전 1.4.0에 추가된 음성 합성에 사용할 TTS 음성의 이름입니다.
SpeechServiceConnection_SynthOutputFormat 버전 1.4.0에 추가된 TTS 출력 오디오 형식을 지정하는 문자열입니다.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission 음성 합성 오디오 전송에 압축 오디오 형식을 사용하는지 여부를 나타냅니다. 이 속성은 SpeechServiceConnection_SynthOutputFormat pcm 형식으로 설정된 경우에만 영향을 줍니다. 이 속성을 설정하지 않고 GStreamer를 사용할 수 있는 경우 SDK는 합성된 오디오 전송에 압축 형식을 사용하고 디코딩합니다. 이 속성을 "false"로 설정하여 유선 전송에 원시 pcm 형식을 사용할 수 있습니다. 버전 1.16.0에 추가되었습니다.
SpeechServiceConnection_SynthBackend TTS 백 엔드를 지정할 문자열입니다. 유효한 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths 사용하여 합성 백 엔드를 오프라인으로 설정합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthOfflineDataPath 오프라인 합성 엔진에 대한 데이터 파일 경로입니다. 합성 백 엔드가 오프라인인 경우에만 유효합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths사용합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthOfflineVoice 일반적인 상황에서 음성 합성에 사용할 오프라인 TTS 음성의 이름은 이 속성을 직접 사용하면 안 됩니다. 대신 EmbeddedSpeechConfig::SetSpeechSynthesisVoiceEmbeddedSpeechConfig::GetSpeechSynthesisVoiceName사용합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthModelKey 이 속성은 더 이상 사용되지 않습니다.
SpeechServiceConnection_VoicesListEndpoint Cognitive Services Speech Service 음성은 api 엔드포인트(URL)를 나열합니다. 정상적인 상황에서는 이 속성을 지정할 필요가 없습니다. SDK는 SpeechConfig지역/호스트/엔드포인트를 기반으로 구성합니다. 버전 1.16.0에 추가되었습니다.
SpeechServiceConnection_InitialSilenceTimeoutMs 서비스에서 사용하는 초기 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_EndSilenceTimeoutMs 서비스에서 사용하는 종료 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_EnableAudioLogging 서비스에서 오디오 로깅을 사용할지 여부를 지정하는 부울 값입니다. 오디오 및 콘텐츠 로그는 Microsoft 소유 스토리지 또는 Cognitive Services 구독(BYOS(Bring Your Own Storage) 사용 음성 리소스에 연결된 사용자 고유의 스토리지 계정에 저장됩니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_LanguageIdMode 음성 서비스 연결 언어 식별자 모드입니다. "AtStart"(기본값) 또는 "연속"일 수 있습니다. 언어 식별 문서를 참조하세요. 1.25.0에 추가되었습니다.
SpeechServiceConnection_TranslationCategoryId Speech Service 연결 번역 categoryId입니다.
SpeechServiceConnection_AutoDetectSourceLanguages 버전 1.8.0에서 추가된 소스 언어 자동 검색
SpeechServiceConnection_AutoDetectSourceLanguageResult 자동 검색 소스 언어 결과가 버전 1.8.0에 추가되었습니다.
SpeechServiceResponse_RequestDetailedResultTrueFalse 요청된 Cognitive Services Speech Service 응답 출력 형식(단순 또는 상세)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetOutputFormat사용합니다.
SpeechServiceResponse_RequestProfanityFilterTrueFalse 요청된 Cognitive Services Speech Service 응답 출력 욕설 수준입니다. 현재 사용되지 않습니다.
SpeechServiceResponse_ProfanityOption 요청된 Cognitive Services Speech Service 응답 출력 욕설 설정입니다. 허용되는 값은 "masked", "removed" 및 "raw"입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_PostProcessingOption 서비스에서 사용해야 하는 후처리 옵션을 지정하는 문자열 값입니다. 허용되는 값은 "TrueText"입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_RequestWordLevelTimestamps 응답 결과에 단어 수준 타임스탬프를 포함할지 여부를 지정하는 부울 값입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_StablePartialResultThreshold 단어를 반환할 부분 결과에 있어야 하는 횟수입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_OutputFormatOption 응답 결과의 출력 형식 옵션을 지정하는 문자열 값입니다. 내부 전용입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_RequestSnr 응답 결과에 SNR(신호 대 노이즈 비율)을 포함할지 여부를 지정하는 부울 값입니다. 버전 1.18.0에 추가되었습니다.
SpeechServiceResponse_TranslationRequestStablePartialResult 마지막에 단어를 생략하여 번역 부분 결과를 안정화하도록 요청할 부울 값입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_RequestWordBoundary WordBoundary 이벤트를 요청할지 여부를 지정하는 부울 값입니다. 버전 1.21.0에 추가되었습니다.
SpeechServiceResponse_RequestPunctuationBoundary WordBoundary 이벤트에서 문장 부호 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 true입니다. 버전 1.21.0에 추가되었습니다.
SpeechServiceResponse_RequestSentenceBoundary WordBoundary 이벤트에서 문장 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 false입니다. 버전 1.21.0에 추가되었습니다.
SpeechServiceResponse_SynthesisEventsSyncToAudio SDK가 합성 메타데이터 이벤트(예: 단어 경계, viseme 등)를 오디오 재생과 동기화할지 여부를 지정하는 부울 값입니다. 이는 오디오가 SDK를 통해 재생될 때만 적용됩니다. 기본값은 true입니다. false로 설정하면 SDK는 서비스에서 이벤트가 발생하므로 오디오 재생과 동기화되지 않을 수 있습니다. 버전 1.31.0에 추가되었습니다.
SpeechServiceResponse_JsonResult Cognitive Services Speech Service 응답 출력(JSON 형식)입니다. 이 속성은 인식 결과 개체에서만 사용할 수 있습니다.
SpeechServiceResponse_JsonErrorDetails Cognitive Services Speech Service 오류 세부 정보(JSON 형식)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 CancellationDetails::ErrorDetails사용합니다.
SpeechServiceResponse_RecognitionLatencyMs 인식 대기 시간(밀리초)입니다. 최종 음성/번역/의도 결과에서 사용할 수 있는 읽기 전용입니다. 이렇게 하면 SDK에서 오디오 입력을 받은 시간과 서비스에서 최종 결과를 받는 순간 사이의 대기 시간을 측정합니다. SDK는 최종 결과에 기여하는 오디오 입력의 마지막 오디오 조각과 음성 서비스에서 최종 결과를 받은 시간 사이의 시간 차이를 계산합니다. 버전 1.3.0에 추가되었습니다.
SpeechServiceResponse_RecognitionBackend 인식 백 엔드입니다. 음성 인식 결과에서 사용할 수 있는 읽기 전용입니다. 이는 클라우드(온라인) 또는 포함된(오프라인) 인식이 결과를 생성하는 데 사용되었는지 여부를 나타냅니다.
SpeechServiceResponse_SynthesisFirstByteLatencyMs 음성 합성 첫 번째 바이트 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이는 합성이 처리되기 시작한 시간과 첫 번째 바이트 오디오를 사용할 수 있는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다.
SpeechServiceResponse_SynthesisFinishLatencyMs 음성은 모든 바이트 대기 시간을 밀리초 단위로 합성합니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이는 합성이 처리되기 시작한 시점과 전체 오디오가 합성되는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다.
SpeechServiceResponse_SynthesisUnderrunTimeMs 음성 합성에 대한 언더런 시간(밀리초)입니다. SynthesisCompleted 이벤트의 결과에서 사용할 수 있는 읽기 전용입니다. 이는 합성이 완료될 때까지 PropertyId::AudioConfig_PlaybackBufferLengthInMs 총 실행 시간을 측정합니다. 버전 1.17.0에 추가되었습니다.
SpeechServiceResponse_SynthesisConnectionLatencyMs 음성 합성 연결 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이렇게 하면 합성이 처리되기 시작한 시간과 HTTP/WebSocket 연결이 설정된 순간 사이의 대기 시간을 측정합니다. 버전 1.26.0에 추가되었습니다.
SpeechServiceResponse_SynthesisNetworkLatencyMs 음성 합성 네트워크 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 네트워크 왕복 시간을 측정합니다. 버전 1.26.0에 추가되었습니다.
SpeechServiceResponse_SynthesisServiceLatencyMs 음성 합성 서비스 대기 시간(밀리초)입니다. 최종 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다. 이렇게 하면 오디오의 첫 번째 바이트를 합성하는 서비스 처리 시간을 측정합니다. 버전 1.26.0에 추가되었습니다.
SpeechServiceResponse_SynthesisBackend 합성이 완료된 백 엔드를 나타냅니다. 버전 1.17.0에 추가된 SynthesisStarted 이벤트의 결과를 제외하고 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다.
SpeechServiceResponse_DiarizeIntermediateResults 중간 결과에 화자 식별이 포함되어 있는지 확인합니다.
CancellationDetails_Reason 취소 이유입니다. 현재 사용되지 않습니다.
CancellationDetails_ReasonText 취소 텍스트입니다. 현재 사용되지 않습니다.
CancellationDetails_ReasonDetailedText 취소 세부 텍스트입니다. 현재 사용되지 않습니다.
LanguageUnderstandingServiceResponse_JsonResult Language Understanding Service 응답 출력(JSON 형식) IntentRecognitionResult.Properties를 통해 사용할 수 있습니다.
AudioConfig_DeviceNameForCapture 오디오 캡처의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromMicrophoneInput을 사용합니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다.
AudioConfig_NumberOfChannelsForCapture 오디오 캡처를 위한 채널 수입니다. 내부 전용입니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다.
AudioConfig_SampleRateForCapture 오디오 캡처에 대한 샘플 속도(Hz)입니다. 내부 전용입니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다.
AudioConfig_BitsPerSampleForCapture 오디오 캡처에 대한 각 샘플의 비트 수입니다. 내부 전용입니다. 참고: 이 속성 ID는 버전 1.3.0에서 추가되었습니다.
AudioConfig_AudioSource 오디오 원본입니다. 허용되는 값은 "마이크", "파일" 및 "스트림"입니다. 버전 1.3.0에 추가되었습니다.
AudioConfig_DeviceNameForRender 오디오 렌더링의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromSpeakerOutput을 사용합니다. 버전 1.14.0에 추가되었습니다.
AudioConfig_PlaybackBufferLengthInMs 재생 버퍼 길이(밀리초)이며 기본값은 50밀리초입니다.
AudioConfig_AudioProcessingOptions JSON 형식의 오디오 처리 옵션입니다.
Speech_LogFilename 로그를 쓸 파일 이름입니다. 버전 1.4.0에 추가되었습니다.
Speech_SegmentationSilenceTimeoutMs 감지된 무음 기간(밀리초)으로 측정되며, 그 후에 음성 텍스트 변환은 음성 구가 종료되었음을 확인하고 최종 인식된 결과를 생성합니다. 이 시간 제한을 구성하는 것은 음성 입력이 평소보다 훨씬 빠르거나 느리고 기본 구분 동작이 너무 길거나 너무 짧은 결과를 일관되게 생성하는 경우에 유용할 수 있습니다. 부적절하게 높거나 낮은 분할 시간 제한 값은 음성 텍스트 변환 정확도에 부정적인 영향을 줄 수 있습니다. 이 속성은 신중하게 구성해야 하며, 의도한 대로 결과 동작의 유효성을 철저히 검사해야 합니다.
Speech_SegmentationMaximumTimeMs "시간" 구분 전략을 사용하는 경우 음성 구의 최대 길이입니다. 음성 구의 길이가 이 값에 도달하면 구 무음 시간 제한이 적중되거나 구가 최대 길이에 도달할 때까지 Speech_SegmentationSilenceTimeoutMs 감소되기 시작합니다.
Speech_SegmentationStrategy 음성 구가 종료되고 최종 인식 결과를 생성해야 하는 시기를 결정하는 데 사용되는 전략입니다. 허용되는 값은 "Default", "Time" 및 "Semantic"입니다.
Conversation_ApplicationId 백 엔드 서비스에 연결하는 데 사용되는 식별자입니다. 버전 1.5.0에 추가되었습니다.
Conversation_DialogType 연결할 대화 백 엔드의 유형입니다. 버전 1.7.0에 추가되었습니다.
Conversation_Initial_Silence_Timeout 1.5.0 버전에서 추가된 수신 대기에 대한 무음 시간 제한입니다.
Conversation_From_Id 버전 1.5.0에 추가된 음성 인식 활동에 사용할 ID입니다.
Conversation_Conversation_Id 세션에 대한 ConversationId입니다. 버전 1.8.0에 추가되었습니다.
Conversation_Custom_Voice_Deployment_Ids 사용자 지정 음성 배포 ID의 쉼표로 구분된 목록입니다. 버전 1.8.0에 추가되었습니다.
Conversation_Speech_Activity_Template 음성 활동 템플릿, 음성을 위해 서비스에서 생성한 활동에 대한 템플릿의 스탬프 속성입니다. 버전 1.10.0에 추가되었습니다.
Conversation_ParticipantId 현재 대화의 참가자 식별자입니다. 버전 1.13.0에 추가되었습니다.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp 끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트가 작성한 데이터 버퍼에 연결된 타임스탬프를 나타냅니다. 타임스탬프는 해상도가 90kHz인 64비트 값입니다. MPEG 전송 스트림의 프레젠테이션 타임스탬프와 동일합니다. 버전 1.5.0에서 추가된 https://en.wikipedia.org/wiki/Presentation_timestamp 참조하세요.
DataBuffer_UserId 끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트에서 작성한 데이터 버퍼에 연결된 사용자 ID입니다. 버전 1.5.0에 추가되었습니다.
PronunciationAssessment_ReferenceText 발음 평가를 위한 오디오의 참조 텍스트입니다. 이 매개 변수와 다음 발음 평가 매개 변수는발음 평가 매개 변수 표를 참조하세요. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create 또는 PronunciationAssessmentConfig::SetReferenceText사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_GradingSystem 발음 점수 보정을 위한 포인트 시스템(FivePoint 또는 HundredMark)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_Granularity 발음 평가 세분성(Phoneme, Word 또는 FullText)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_EnableMiscue 잘못된 계산을 사용하도록 설정할지 정의합니다. 이 기능을 사용하면 발음된 단어가 참조 텍스트와 비교되고 비교에 따라 생략/삽입으로 표시됩니다. 기본 설정은 False입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_PhonemeAlphabet 발음 평가 음소 알파벳입니다. 유효한 값은 "SAPI"(기본값) 및 "IPA"입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetPhonemeAlphabet사용합니다. 버전 1.20.0에 추가되었습니다.
PronunciationAssessment_NBestPhonemeCount 발음 평가 nbest 음소 수입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetNBestPhonemeCount사용합니다. 버전 1.20.0에 추가되었습니다.
PronunciationAssessment_EnableProsodyAssessment prosody 평가를 사용하도록 설정할지 여부입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableProsodyAssessment사용합니다. 버전 1.33.0에 추가되었습니다.
PronunciationAssessment_Json 발음 평가 매개 변수의 json 문자열은 일반적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_Params 발음 평가 매개 변수입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_ContentTopic 발음 평가의 콘텐츠 항목입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic사용합니다. 버전 1.33.0에 추가되었습니다.
SpeakerRecognition_Api_Version Speaker Recognition 백 엔드 API 버전입니다. 이 속성은 해당되는 경우 이전 버전의 Speaker Recognition API를 테스트하고 사용할 수 있도록 추가됩니다. 버전 1.18.0에 추가되었습니다.
SpeechTranslation_ModelName 음성 번역에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다.
SpeechTranslation_ModelKey 이 속성은 더 이상 사용되지 않습니다.
KeywordRecognition_ModelName 키워드 인식에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다.
KeywordRecognition_ModelKey 이 속성은 더 이상 사용되지 않습니다.
EmbeddedSpeech_EnablePerformanceMetrics 포함된 음성을 사용하는 디바이스의 기능을 평가하는 데 사용할 수 있는 포함된 음성 성능 메트릭의 컬렉션을 사용하도록 설정합니다. 수집된 데이터는 음성 인식과 같은 특정 시나리오의 결과에 포함됩니다. 기본 설정은 "false"입니다. 모든 포함된 음성 시나리오에서는 메트릭을 사용할 수 없습니다.
SpeechSynthesisRequest_Pitch 합성된 음성의 피치입니다.
SpeechSynthesisRequest_Rate 합성된 음성의 속도입니다.
SpeechSynthesisRequest_Volume 합성된 음성의 볼륨입니다.

음성 속성 ID를 정의합니다. 버전 1.4.0에서 변경되었습니다.

enum OutputFormat

설명
간단한
상세한

출력 형식입니다.

enum ProfanityOption

설명
마스크 불경한 단어의 문자를 별 문자로 대체합니다.
제거 불경한 단어를 제거합니다.
날것의 단어를 모독하기 위해 아무 것도 하지 않습니다.

욕설(욕설)을 제거하거나 불경한 단어의 문자를 별으로 대체합니다. 버전 1.5.0에 추가되었습니다.

enum ResultReason

설명
NoMatch 음성을 인식할 수 없음을 나타냅니다. 자세한 내용은 NoMatchDetails 개체에서 찾을 수 있습니다.
취소 인식이 취소되었음을 나타냅니다. CancellationDetails 개체를 사용하여 자세한 내용을 확인할 수 있습니다.
RecognizingSpeech 음성 결과에 가설 텍스트가 포함되어 있음을 나타냅니다.
RecognizedSpeech 음성 결과에 인식된 최종 텍스트가 포함되어 있음을 나타냅니다. 이제 이 구에 대해 음성 인식이 완료되었습니다.
RecognizingIntent 의도 결과에 가설 텍스트와 의도가 포함되어 있음을 나타냅니다.
RecognizedIntent 의도 결과에 최종 텍스트와 의도가 포함되어 있음을 나타냅니다. 이제 이 구에 대해 음성 인식 및 의도 결정이 완료되었습니다.
TranslatingSpeech 번역 결과에 가설 텍스트와 해당 번역이 포함되어 있음을 나타냅니다.
TranslatedSpeech 번역 결과에 최종 텍스트와 해당 번역이 포함됨을 나타냅니다. 이제 이 구에 대해 음성 인식 및 번역이 완료되었습니다.
SynthesizingAudio 합성된 오디오 결과에 0이 아닌 양의 오디오 데이터가 포함되었음을 나타냅니다.
SynthesizingAudioCompleted 이제 이 구에 대해 합성된 오디오가 완료되었음을 나타냅니다.
RecognizingKeyword 음성 결과에 (확인되지 않은) 키워드 텍스트가 포함되어 있음을 나타냅니다. 버전 1.3.0에 추가되었습니다.
RecognizedKeyword 지정된 키워드를 인식하여 키워드 인식이 완료되었음을 나타냅니다. 버전 1.3.0에 추가되었습니다.
SynthesizingAudioStarted 음성 합성이 이제 버전 1.4.0에서 추가됨을 나타냅니다.
TranslatingParticipantSpeech 대화의 다른 참가자에 대한 가설 텍스트와 번역이 전사 결과에 포함됨을 나타냅니다. 버전 1.8.0에 추가되었습니다.
TranslatedParticipantSpeech 대화의 다른 참가자에 대한 최종 텍스트 및 해당 번역이 전사 결과에 포함됨을 나타냅니다. 이제 이 구에 대해 음성 인식 및 번역이 완료되었습니다. 버전 1.8.0에 추가되었습니다.
TranslatedInstantMessage 전사 결과에 인스턴트 메시지와 해당 번역이 포함되어 있음을 나타냅니다. 버전 1.8.0에 추가되었습니다.
TranslatedParticipantInstantMessage 전사 결과에 대화의 다른 참가자 및 해당 번역에 대한 인스턴트 메시지가 포함되어 있음을 나타냅니다. 버전 1.8.0에 추가되었습니다.
EnrollingVoiceProfile 음성 프로필이 등록 중이며 고객이 음성 프로필을 만들기 위해 더 많은 오디오를 보내야 했음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
EnrolledVoiceProfile 음성 프로필이 등록되었습니다. 버전 1.12.0에 추가되었습니다.
RecognizedSpeakers 일부 스피커를 성공적으로 식별했음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
RecognizedSpeaker 한 화자가 성공적으로 확인되었음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
ResetVoiceProfile 음성 프로필이 성공적으로 다시 설정되었음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
DeletedVoiceProfile 음성 프로필이 성공적으로 삭제되었음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
VoicesListRetrieved 음성 목록이 성공적으로 검색되었음을 나타냅니다. 버전 1.16.0에 추가되었습니다.

인식 결과가 생성될 수 있는 가능한 이유를 지정합니다.

enum CancellationReason

설명
오류 음성 인식 중에 오류가 발생했음을 나타냅니다.
EndOfStream 오디오 스트림의 끝에 도달했음을 나타냅니다.
CancelledByUser 사용자가 요청을 취소했음을 나타냅니다. 버전 1.14.0에 추가되었습니다.

인식 결과가 취소될 수 있는 가능한 이유를 정의합니다.

enum CancellationErrorCode

설명
NoError 오류가 없습니다. CancellationReason이 EndOfStream이면 CancellationErrorCode가 NoError로 설정됩니다.
AuthenticationFailure 인증 오류를 나타냅니다. 구독 키 또는 권한 부여 토큰이 유효하지 않거나 만료되었거나 사용 중인 지역과 일치하지 않는 경우 인증 오류가 발생합니다.
BadRequest 하나 이상의 인식 매개 변수가 잘못되었거나 오디오 형식이 지원되지 않음을 나타냅니다.
TooManyRequests 병렬 요청 수가 구독에 대해 허용되는 동시 전사 수를 초과했음을 나타냅니다.
금지된 요청에 사용된 무료 구독의 할당량이 부족했음을 나타냅니다.
ConnectionFailure 연결 오류를 나타냅니다.
ServiceTimeout 서비스에서 응답을 기다리는 동안 시간 제한 오류를 나타냅니다.
ServiceError 서비스에서 오류가 반환됨을 나타냅니다.
ServiceUnavailable 서비스를 현재 사용할 수 없음을 나타냅니다.
RuntimeError 예기치 않은 런타임 오류를 나타냅니다.
ServiceRedirectTemporary Speech Service가 일시적으로 다른 엔드포인트에 다시 연결하도록 요청했음을 나타냅니다.
ServiceRedirectPermanent Speech Service가 다른 엔드포인트에 대한 다시 연결이 영구적으로 요청되고 있음을 나타냅니다.
EmbeddedModelError 포함된 음성(SR 또는 TTS) 모델을 사용할 수 없거나 손상되었음을 나타냅니다.

CancellationReason이 오류인 경우 오류 코드를 정의합니다. 버전 1.1.0에 추가되었습니다.

enum NoMatchReason

설명
NotRecognized 음성이 검색되었지만 인식되지 않음을 나타냅니다.
InitialSilenceTimeout 오디오 스트림의 시작 부분에 침묵만 포함되고 서비스가 음성을 기다리는 데 시간이 초과되었음을 나타냅니다.
InitialBabbleTimeout 오디오 스트림의 시작에 노이즈만 포함되고 서비스가 음성을 기다리는 데 시간이 초과되었음을 나타냅니다.
KeywordNotRecognized 검색된 키워드가 키워드 확인 서비스에서 거부되었음을 나타냅니다. 버전 1.5.0에 추가되었습니다.
EndSilenceTimeout 오디오 스트림에 마지막으로 인식된 구 뒤의 무음만 포함되었음을 나타냅니다.

인식 결과가 인식되지 않을 수 있는 가능한 이유를 정의합니다.

enum ActivityJSONType

설명
객체
배열
문자열
UInt
Int
부울

활동 json 값에 사용할 수 있는 형식을 정의합니다. 버전 1.5.0에 추가되었습니다.

enum SpeechSynthesisOutputFormat

설명
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren 서비스에서 지원되지 않습니다. 이 값을 사용하지 마세요.
Audio16Khz16KbpsMonoSiren 오디오-16khz-16kbps-mono-siren 서비스에서 지원되지 않습니다. 이 값을 사용하지 마세요.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus 버전 1.16.0에 추가됨
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus 버전 1.16.0에 추가됨
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus 버전 1.16.0에 추가됨
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk 버전 1.17.0에 추가됨
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw 버전 1.17.0에 추가됨
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw 버전 1.17.0에 추가됨
Webm24Khz16Bit24KbpsMonoOpus WebM 컨테이너에서 OPUS 코덱으로 압축된 webm-24khz-16bit-24kbps-mono-opus Audio는 IoT 시나리오에 최적화된 비트 전송률이 24kbps입니다. (1.19.0에 추가됨)
Audio16Khz16Bit32KbpsMonoOpus 오디오-16khz-16bit-32kbps-mono-opus 오디오는 컨테이너 없이 OPUS 코덱에 의해 압축되며 비트 전송률은 32kbps입니다. (1.20.0에 추가됨)
Audio24Khz16Bit48KbpsMonoOpus 오디오-24khz-16bit-48kbps-mono-opus 오디오는 컨테이너 없이 OPUS 코덱에 의해 압축되며 비트 전송률은 48kbps입니다. (1.20.0에 추가됨)
Audio24Khz16Bit24KbpsMonoOpus 오디오-24khz-16bit-24kbps-mono-opus 오디오는 컨테이너 없이 OPUS 코덱에 의해 압축되며 비트 전송률은 24kbps입니다. (1.20.0에 추가됨)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Raw PCM audio at 22050Hz 샘플링 속도 및 16비트 깊이. (1.22.0에 추가됨)
Riff22050Hz16BitMonoPcm RIFF 헤더를 사용하여 22050Hz 샘플링 속도 및 16비트 깊이의 riff-22050hz-16비트-모노-pcm PCM 오디오. (1.22.0에 추가됨)
Raw44100Hz16BitMonoPcm 원시-44100hz-16bit-mono-pcm 원시 PCM 오디오는 44100Hz 샘플링 속도와 16비트 깊이입니다. (1.22.0에 추가됨)
Riff44100Hz16BitMonoPcm RIFF 헤더를 사용하여 44100Hz 샘플링 속도 및 16비트 깊이의 riff-44100hz-16bit-mono-pcm PCM 오디오. (1.22.0에 추가됨)
AmrWb16000Hz amr-wb-16000hz는 16kHz 샘플링 속도로 오디오를 AMR-WB. (1.24.0에 추가됨)
G72216Khz64Kbps g722-16khz-64kbps G.722 오디오(16kHz 샘플링 속도 및 64kbps 비트 전송률). (1.38.0에 추가됨)

가능한 음성 합성 출력 오디오 형식을 정의합니다. 버전 1.19.0에서 업데이트되었습니다.

enum StreamStatus

설명
알려지지 않은 오디오 데이터 스트림 상태를 알 수 없습니다.
NoData 오디오 데이터 스트림에 데이터가 없습니다.
PartialData 오디오 데이터 스트림에는 음성 요청의 부분 데이터가 포함됩니다.
AllData 오디오 데이터 스트림에는 음성 요청의 모든 데이터가 포함됩니다.
취소 오디오 데이터 스트림이 취소되었습니다.

오디오 데이터 스트림의 가능한 상태를 정의합니다. 버전 1.4.0에 추가되었습니다.

enum ServicePropertyChannel

설명
UriQueryParameter URI 쿼리 매개 변수를 사용하여 속성 설정을 서비스에 전달합니다.
HttpHeader HttpHeader를 사용하여 HTTP 헤더에 키/값을 설정합니다.

속성 설정을 서비스에 전달하는 데 사용되는 채널을 정의합니다. 버전 1.5.0에 추가되었습니다.

enum VoiceProfileType

설명
TextIndependentIdentification 텍스트 독립적 화자 ID입니다.
TextDependentVerification 텍스트 종속 화자 확인.
TextIndependentVerification 텍스트 독립적 확인.

음성 프로필 유형을 정의합니다.

enum RecognitionFactorScope

설명
PartialPhrase 인식 요소는 개별 부분 구로 참조할 수 있는 문법에 적용됩니다.

인식 요소가 적용되는 범위를 정의합니다.

enum PronunciationAssessmentGradingSystem

설명
FivePoint 5점 보정.
HundredMark 백 마크.

발음 점수 보정을 위한 점 시스템을 정의합니다. 기본값은 FivePoint입니다. 버전 1.14.0에 추가되었습니다.

enum PronunciationAssessmentGranularity

설명
표음 전체 텍스트, 단어 및 음소 수준의 점수를 표시합니다.
단어 전체 텍스트 및 단어 수준의 점수를 표시합니다.
FullText 전체 텍스트 수준에서만 점수를 표시합니다.

발음 평가 세분성을 정의합니다. 기본값은 Phoneme입니다. 버전 1.14.0에 추가되었습니다.

enum SynthesisVoiceType

설명
OnlineNeural 온라인 신경망 음성.
OnlineStandard 온라인 표준 음성.
OfflineNeural 오프라인 신경망 음성.
OfflineStandard 오프라인 표준 음성입니다.

버전 1.16.0에서 추가된 합성 음성의 유형을 정의합니다.

enum SynthesisVoiceGender

설명
알려지지 않은 성별을 알 수 없습니다.
여성 여성의 목소리.
남성 남성의 목소리.

버전 1.17.0에 추가된 합성 음성의 성별을 정의합니다.

enum SpeechSynthesisBoundaryType

설명
단어 Word 경계입니다.
문장 부호 문장 부호 경계입니다.
문장 문장 경계입니다.

버전 1.21.0에 추가된 음성 합성 경계 이벤트의 경계 유형을 정의합니다.

enum SegmentationStrategy

설명
기본값 Speech Service에서 결정한 대로 기본 전략 및 설정을 사용합니다. 대부분의 상황에서 사용합니다.
시간 음성 간의 무음 양을 사용하여 최종 결과를 생성할 시기를 결정하는 시간 기반 전략을 사용합니다.
시멘틱 AI 모델을 사용하여 구 내용에 따라 음성 구의 끝을 억제합니다.

음성 구가 종료되고 최종 인식 결과를 생성해야 하는 시기를 결정하는 데 사용되는 전략입니다. 허용되는 값은 "Default", "Time" 및 "Semantic"입니다.