SpeechServiceConnection_Key |
Klucz subskrypcji usługi Mowa w usługach Cognitive Services. Jeśli używasz rozpoznawania intencji, musisz określić klucz punktu końcowego usługi LUIS dla określonej aplikacji usługi LUIS. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
Punkt końcowy usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::FromEndpoint. UWAGA: Ten punkt końcowy nie jest taki sam jak punkt końcowy używany do uzyskiwania tokenu dostępu. |
SpeechServiceConnection_Region |
Region usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Token autoryzacji usługi Mowa w usługach Cognitive Services (czyli token dostępu). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Typ autoryzacji usługi Mowa w usługach Cognitive Services. Obecnie nieużywane. |
SpeechServiceConnection_EndpointId |
Identyfikator punktu końcowego usługi Custom Speech lub Custom Voice Service w usługach Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::SetEndpointId. UWAGA: Identyfikator punktu końcowego jest dostępny w portalu usługi Custom Speech w obszarze Szczegóły punktu końcowego. |
SpeechServiceConnection_Host |
Host usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nazwa hosta serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_ProxyPort |
Port serwera proxy używany do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nazwa użytkownika serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Hasło serwera proxy używanego do nawiązywania połączenia z usługą Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_Url |
Ciąg adresu URL utworzony na podstawie konfiguracji mowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. UWAGA: Dodano w wersji 1.5.0. |
SpeechServiceConnection_ProxyHostBypass |
Określa listę hostów, dla których nie należy używać serwerów proxy. To ustawienie zastępuje wszystkie inne konfiguracje. Nazwy hostów są rozdzielane przecinkami i są dopasowywane w sposób bez uwzględniania wielkości liter. Symbole wieloznaczne nie są obsługiwane. |
SpeechServiceConnection_TranslationToLanguages |
Lista języków rozdzielonych przecinkami używanych jako języki tłumaczenia docelowego. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia SpeechTranslationConfig::AddTargetLanguage i SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nazwa tekstu usługi Cognitive Service na głos usługi Mowa. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia SpeechTranslationConfig::SetVoiceName. UWAGA: Prawidłowe nazwy głosów można znaleźć tutaj. |
SpeechServiceConnection_TranslationFeatures |
Funkcje tłumaczenia. Do użytku wewnętrznego. |
SpeechServiceConnection_IntentRegion |
Region usługi Language Understanding. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj elementu LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Tryb rozpoznawania usługi Mowa w usługach Cognitive Services. Może to być "INTERACTIVE", "CONVERSATION", "DICTATION". Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. |
SpeechServiceConnection_RecoLanguage |
Rozpoznawany język mówiony (w formacie BCP-47). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
Identyfikator sesji. Ten identyfikator jest uniwersalnym unikatowym identyfikatorem (aka UUID) reprezentującym określone powiązanie strumienia wejściowego audio i bazowego wystąpienia rozpoznawania mowy, z którym jest powiązana. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Parametry zapytania udostępniane przez użytkowników. Zostaną one przekazane do usługi jako parametry zapytania adresu URL. Dodano element w wersji 1.5.0. |
SpeechServiceConnection_RecoBackend |
Ciąg określający zaplecze do użycia na potrzeby rozpoznawania mowy; dozwolone opcje są w trybie online i offline. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie opcja offline jest prawidłowa tylko wtedy, gdy jest używana funkcja EmbeddedSpeechConfig. Dodano element w wersji 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nazwa modelu, który ma być używany do rozpoznawania mowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. Dodano element w wersji 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Ta właściwość jest przestarzała. |
SpeechServiceConnection_RecoModelIniFile |
Ścieżka do pliku ini modelu, który ma być używany do rozpoznawania mowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. Dodano element w wersji 1.19.0. |
SpeechServiceConnection_SynthLanguage |
Język mówiony, który ma być syntetyzowany (np. en-US) Dodany w wersji 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nazwa głosu TTS, który ma być używany do syntezy mowy Dodano w wersji 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Ciąg określający format dźwięku wyjściowego TTS Dodany w wersji 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Wskazuje, czy używasz skompresowanego formatu audio do transmisji dźwięku syntezy mowy. Ta właściwość ma wpływ tylko wtedy, gdy SpeechServiceConnection_SynthOutputFormat jest ustawiona na format pcm. Jeśli ta właściwość nie jest ustawiona i GStreamer jest dostępna, zestaw SDK będzie używać skompresowanego formatu do syntetyzowanej transmisji audio i dekodować go. Tę właściwość można ustawić na wartość "false", aby używać nieprzetworzonego formatu pcm do transmisji na przewodach. Dodano element w wersji 1.16.0. |
SpeechServiceConnection_SynthBackend |
Ciąg określający zaplecze TTS; prawidłowe opcje to online i offline. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj EmbeddedSpeechConfig::FromPath lub EmbeddedSpeechConfig::FromPaths, aby ustawić zaplecze syntezy na offline. Dodano element w wersji 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Ścieżki plików danych dla aparatu syntezy offline; prawidłowe tylko wtedy, gdy zaplecze syntezy jest w trybie offline. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia EmbeddedSpeechConfig::FromPath lub EmbeddedSpeechConfig::FromPaths. Dodano element w wersji 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
Nazwa głosu TTS w trybie offline, który ma być używany do syntezy mowy w normalnych okolicznościach, nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia EmbeddedSpeechConfig::SetSpeechSynthesisVoice i EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Dodano element w wersji 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Ta właściwość jest przestarzała. |
SpeechServiceConnection_VoicesListEndpoint |
Punkt końcowy interfejsu API interfejsu API (url) w usłudze Speech Service usług Cognitive Services. W normalnych okolicznościach nie trzeba określać tej właściwości, zestaw SDK utworzy ją na podstawie regionu/hosta/punktu końcowego SpeechConfig. Dodano element w wersji 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Początkowa wartość limitu czasu ciszy (w milisekundach) używana przez usługę. Dodano element w wersji 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Wartość limitu czasu zakończenia ciszy (w milisekundach) używana przez usługę. Dodano element w wersji 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Wartość logiczna określająca, czy rejestrowanie audio jest włączone w usłudze, czy nie. Dzienniki audio i zawartości są przechowywane w magazynie należącym do firmy Microsoft lub na własnym koncie magazynu połączonym z subskrypcją usług Cognitive Services (Przynieś własny magazyn (BYOS) z włączoną usługą Mowa. Dodano element w wersji 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Tryb identyfikatora języka połączenia usługi rozpoznawania mowy. Może to być wartość "AtStart" (wartość domyślna) lub "Continuous". Zobacz dokument identyfikacji języka . Dodano element w wersji 1.25.0. |
SpeechServiceConnection_TranslationCategoryId |
KategoriaId tłumaczenia połączenia z usługą rozpoznawania mowy. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Automatyczne wykrywanie języków źródłowych dodanych w wersji 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Wynik automatycznego wykrywania języka źródłowego Dodano w wersji 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Żądany format danych wyjściowych odpowiedzi usługi Mowa w usługach Cognitive Services (prosty lub szczegółowy). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Żądany poziom wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Obecnie nieużywane. |
SpeechServiceResponse_ProfanityOption |
Żądane ustawienie wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Dozwolone wartości to "maskowane", "usunięte" i "nieprzetworzone". Dodano element w wersji 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Wartość ciągu określająca, która opcja przetwarzania końcowego powinna być używana przez usługę. Dozwolone wartości to "TrueText". Dodano element w wersji 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Wartość logiczna określająca, czy uwzględnić znaczniki czasu na poziomie wyrazu w wyniku odpowiedzi. Dodano element w wersji 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Liczba razy, gdy wyraz musi być zwracany w częściowych wynikach. Dodano element w wersji 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Wartość ciągu określająca opcję formatu wyjściowego w wyniku odpowiedzi. Tylko do użytku wewnętrznego. Dodano element w wersji 1.5.0. |
SpeechServiceResponse_RequestSnr |
Wartość logiczna określająca, czy uwzględnić SNR (współczynnik sygnału do szumu) w wyniku odpowiedzi. Dodano element w wersji 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Wartość logiczna do żądania stabilizacji częściowych wyników tłumaczenia przez pominięcie wyrazów na końcu. Dodano element w wersji 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Wartość logiczna określająca, czy żądać zdarzeń WordBoundary. Dodano element w wersji 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Wartość logiczna określająca, czy żądać granicy interpunkcyjnej w zdarzeniach WordBoundary. Wartość domyślna to true. Dodano element w wersji 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Wartość logiczna określająca, czy żądać granicy zdań w zdarzeniach WordBoundary. Wartość domyślna to false. Dodano element w wersji 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Wartość logiczna określająca, czy zestaw SDK powinien synchronizować zdarzenia metadanych syntezy (np. granicę słowa, viseme itp.) do odtwarzania audio. Ma to wpływ tylko wtedy, gdy dźwięk jest odtwarzany za pośrednictwem zestawu SDK. Wartość domyślna to true. Jeśli zostanie ustawiona wartość false, zestaw SDK uruchomi zdarzenia pochodzące z usługi, co może nie być zsynchronizowane z odtwarzaniem dźwięku. Dodano element w wersji 1.31.0. |
SpeechServiceResponse_JsonResult |
Dane wyjściowe odpowiedzi usługi Mowa w usługach Cognitive Services (w formacie JSON). Ta właściwość jest dostępna tylko dla obiektów wyników rozpoznawania. |
SpeechServiceResponse_JsonErrorDetails |
Szczegóły błędu usługi Mowa w usługach Cognitive Services (w formacie JSON). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Opóźnienie rozpoznawania w milisekundach. Tylko do odczytu, dostępne w końcowych wynikach zamiany mowy/tłumaczenia/intencji. Mierzy to opóźnienie między odebraniem danych wejściowych dźwiękowych przez zestaw SDK, a moment odebrania wyniku końcowego z usługi. Zestaw SDK oblicza różnicę czasu między ostatnim fragmentem dźwięku z danych wejściowych audio, które przyczyniają się do końcowego wyniku, a czasem odebrania końcowego wyniku z usługi mowy. Dodano element w wersji 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Zaplecze rozpoznawania. Dostępne tylko do odczytu w wynikach rozpoznawania mowy. Wskazuje to, czy rozpoznawanie chmury (online) lub osadzone (offline) zostało użyte do wygenerowania wyniku. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Synteza mowy najpierw opóźnienie bajtów w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to opóźnienie między rozpoczęciem przetwarzania syntezy, a moment dostępności pierwszego bajtu dźwięku. Dodano element w wersji 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
Synteza mowy wszystkie bajty opóźnienia w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to opóźnienie między rozpoczęciem przetwarzania syntezy, a moment, w którym cały dźwięk jest syntetyzowany. Dodano element w wersji 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Underrun czas syntezy mowy w milisekundach. Dostępne tylko do odczytu wyniki w zdarzeniach SynthesisCompleted. Mierzy całkowity czas uruchamiania z właściwości PropertyId::AudioConfig_PlaybackBufferLengthInMs jest wypełniony w celu ukończenia syntezy. Dodano element w wersji 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Opóźnienie połączenia syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to opóźnienie między rozpoczęciem przetwarzania syntezy, a momentem ustanowienia połączenia HTTP/WebSocket. Dodano element w wersji 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Opóźnienie sieci syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to czas rundy sieciowej. Dodano element w wersji 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Opóźnienie usługi syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy czas przetwarzania usługi, aby zsyntetyzować pierwszy bajt dźwięku. Dodano element w wersji 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Wskazuje, które zaplecze syntezy zostało zakończone. Tylko do odczytu, dostępne w wynikach syntezy mowy, z wyjątkiem wyniku zdarzenia SynthesisStarted Dodano w wersji 1.17.0. |
SpeechServiceResponse_DiarizeIntermediateResults |
Określa, czy wyniki pośrednie zawierają identyfikację osoby mówiącej. |
CancellationDetails_Reason |
Przyczyna anulowania. Obecnie nieużywane. |
CancellationDetails_ReasonText |
Tekst anulowania. Obecnie nieużywane. |
CancellationDetails_ReasonDetailedText |
Szczegółowy tekst anulowania. Obecnie nieużywane. |
LanguageUnderstandingServiceResponse_JsonResult |
Dane wyjściowe odpowiedzi usługi Language Understanding Service (w formacie JSON). Dostępne za pośrednictwem intentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nazwa urządzenia do przechwytywania dźwięku. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia AudioConfig::FromMicrophoneInput. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Liczba kanałów do przechwytywania dźwięku. Tylko do użytku wewnętrznego. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_SampleRateForCapture |
Częstotliwość próbkowania (w Hz) na potrzeby przechwytywania dźwięku. Tylko do użytku wewnętrznego. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Liczba bitów każdego przykładu na potrzeby przechwytywania dźwięku. Tylko do użytku wewnętrznego. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_AudioSource |
Źródło audio. Dozwolone wartości to "Mikrofony", "Plik" i "Stream". Dodano element w wersji 1.3.0. |
AudioConfig_DeviceNameForRender |
Nazwa urządzenia do renderowania audio. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia AudioConfig::FromSpeakerOutput. Dodano element w wersji 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
Długość buforu odtwarzania w milisekundach, wartość domyślna to 50 milisekund. |
AudioConfig_AudioProcessingOptions |
Opcje przetwarzania audio w formacie JSON. |
Speech_LogFilename |
Nazwa pliku do zapisywania dzienników. Dodano element w wersji 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Czas trwania wykrytej ciszy mierzony w milisekundach, po którym zamiana mowy na tekst określi, że fraza mówiona została zakończona i wygeneruje końcowy wynik rozpoznany. Skonfigurowanie tego limitu czasu może być przydatne w sytuacjach, gdy mówione dane wejściowe są znacznie szybsze lub wolniejsze niż zwykle, a domyślne zachowanie segmentacji stale daje wyniki zbyt długie lub zbyt krótkie. Wartości limitu czasu segmentacji, które są niewłaściwie wysokie lub niskie, mogą negatywnie wpływać na dokładność zamiany mowy na tekst; ta właściwość powinna być starannie skonfigurowana, a wynikowe zachowanie powinno być dokładnie zweryfikowane zgodnie z oczekiwaniami. |
Speech_SegmentationMaximumTimeMs |
Maksymalna długość frazy mówionej podczas korzystania ze strategii segmentacji "Czas". Ponieważ długość frazy mówionej zbliża się do tej wartości, Speech_SegmentationSilenceTimeoutMs rozpocznie się zmniejszanie, dopóki limit czasu ciszy frazy nie zostanie osiągnięty lub fraza osiągnie maksymalną długość. |
Speech_SegmentationStrategy |
Strategia używana do określania, kiedy fraza mówiona została zakończona, a końcowy rozpoznany wynik powinien zostać wygenerowany. Dozwolone wartości to "Default", "Time" i "Semantic". |
Conversation_ApplicationId |
Identyfikator używany do nawiązywania połączenia z usługą zaplecza. Dodano element w wersji 1.5.0. |
Conversation_DialogType |
Typ zaplecza okna dialogowego do nawiązania połączenia. Dodano element w wersji 1.7.0. |
Conversation_Initial_Silence_Timeout |
Limit czasu ciszy nasłuchuje dodano w wersji 1.5.0. |
Conversation_From_Id |
Od identyfikatora do użycia w działaniach rozpoznawania mowy Dodano w wersji 1.5.0. |
Conversation_Conversation_Id |
Identyfikator konwersacji dla sesji. Dodano element w wersji 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Rozdzielona przecinkami lista niestandardowych identyfikatorów wdrożenia głosowego. Dodano element w wersji 1.8.0. |
Conversation_Speech_Activity_Template |
Szablon działania mowy, właściwości sygnatury w szablonie dla działania wygenerowanego przez usługę dla mowy. Dodano element w wersji 1.10.0. |
Conversation_ParticipantId |
Identyfikator uczestnika w bieżącej konwersacji. Dodano element w wersji 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Sygnatura czasowa skojarzona z buforem danych zapisywanym przez klienta podczas korzystania ze strumieni wejściowych ściągnięcia/wypychania dźwięku. Sygnatura czasowa jest wartością 64-bitową o rozdzielczości 90 kHz. Jest to taki sam jak sygnatura czasowa prezentacji w strumieniu transportu MPEG. Zobacz https://en.wikipedia.org/wiki/Presentation_timestamp Dodano w wersji 1.5.0. |
DataBuffer_UserId |
Identyfikator użytkownika skojarzony z buforem danych zapisanym przez klienta podczas korzystania ze strumieni wejściowych ściągnięcia/wypychania dźwięku. Dodano element w wersji 1.5.0. |
PronunciationAssessment_ReferenceText |
Tekst referencyjny dźwięku do oceny wymowy. Aby uzyskać te i następujące parametry oceny wymowy, zobacz tabelę Parametry oceny wymowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::Create lub PronunciationAssessmentConfig::SetReferenceText. Dodano element w wersji 1.14.0. |
PronunciationAssessment_GradingSystem |
System punktów kalibracji wyniku wymowy (FivePoint lub HundredMark). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_Granularity |
Stopień szczegółowości oceny wymowy (Phoneme, Word lub FullText). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_EnableMiscue |
Określa, czy włączyć błędne obliczenie. Po włączeniu tej opcji wyrazy wymawiane będą porównywane z tekstem odwołania i będą oznaczone pominięciem/wstawieniem na podstawie porównania. Ustawieniem domyślnym jest Fałsz. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alfabet fonetyczny oceny wymowy. Prawidłowe wartości to "SAPI" (wartość domyślna) i "IPA" W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::SetPhonemeAlphabet. Dodano element w wersji 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Liczba numerów phoneme oceny wymowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::SetNBestPhonemeCount. Dodano element w wersji 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Czy włączyć ocenę prosody. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::EnableProsodyAssessment. Dodano element w wersji 1.33.0. |
PronunciationAssessment_Json |
Ciąg json parametrów oceny wymowy W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_Params |
Parametry oceny wymowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano element w wersji 1.14.0. |
PronunciationAssessment_ContentTopic |
Temat zawartości oceny wymowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj WymowaAssessmentConfig::EnableContentAssessmentWithTopic. Dodano element w wersji 1.33.0. |
SpeakerRecognition_Api_Version |
Wersja interfejsu API zaplecza rozpoznawania osoby mówiącej. Ta właściwość jest dodawana w celu umożliwienia testowania i używania poprzednich wersji interfejsów API rozpoznawania osoby mówiącej, jeśli ma to zastosowanie. Dodano element w wersji 1.18.0. |
SpeechTranslation_ModelName |
Nazwa modelu, który ma być używany do tłumaczenia mowy. Nie używaj tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. |
SpeechTranslation_ModelKey |
Ta właściwość jest przestarzała. |
KeywordRecognition_ModelName |
Nazwa modelu, który ma być używany do rozpoznawania słów kluczowych. Nie używaj tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. |
KeywordRecognition_ModelKey |
Ta właściwość jest przestarzała. |
EmbeddedSpeech_EnablePerformanceMetrics |
Włącz kolekcję osadzonych metryk wydajności mowy, które mogą służyć do oceny możliwości urządzenia do korzystania z osadzonej mowy. Zebrane dane są uwzględniane w wynikach z określonych scenariuszy, takich jak rozpoznawanie mowy. Ustawieniem domyślnym jest "false". Należy pamiętać, że metryki mogą nie być dostępne we wszystkich scenariuszach osadzonej mowy. |
SpeechSynthesisRequest_Pitch |
Skok syntetyzowanej mowy. |
SpeechSynthesisRequest_Rate |
Szybkość syntetyzowanej mowy. |
SpeechSynthesisRequest_Volume |
Objętość syntetyzowanej mowy. |