PropertyId enum
Definiuje identyfikatory właściwości mowy.
Pola
SpeechServiceConnection_Key = 0 | Klucz subskrypcji usługi Mowa w usługach Cognitive Services. Jeśli używasz rozpoznawania intencji, musisz określić klucz punktu końcowego usługi LUIS dla określonej aplikacji usługi LUIS. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromSubscription. |
SpeechServiceConnection_Endpoint = 1 | Punkt końcowy usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromEndpoint. UWAGA: Ten punkt końcowy nie jest taki sam jak punkt końcowy używany do uzyskania tokenu dostępu. |
SpeechServiceConnection_Region = 2 | Region usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken. |
SpeechServiceAuthorization_Token = 3 | Token autoryzacji usługi Speech Service usług Cognitive Services (czyli token dostępu). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken. |
SpeechServiceAuthorization_Type = 4 | Typ autoryzacji usługi Mowa w usługach Cognitive Services. Obecnie nieużywane. |
SpeechServiceConnection_EndpointId = 5 | Identyfikator punktu końcowego usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj identyfikatora SpeechConfig.endpointId. UWAGA: identyfikator punktu końcowego jest dostępny w portalu mowy, na liście w obszarze Szczegóły punktu końcowego. |
SpeechServiceConnection_TranslationToLanguages = 6 | Lista języków rozdzielonych przecinkami (format BCP-47) używanych jako języki tłumaczenia docelowego. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages. |
SpeechServiceConnection_TranslationVoice = 7 | Nazwa tekstu usługi Cognitive Service na głos usługi Mowa. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechTranslationConfig.voiceName. UWAGA: Prawidłowe nazwy głosu można znaleźć tutaj. |
SpeechServiceConnection_TranslationFeatures = 8 | Funkcje tłumaczenia. |
SpeechServiceConnection_IntentRegion = 9 | Region usługi Language Understanding. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj elementu LanguageUnderstandingModel. |
SpeechServiceConnection_ProxyHostName = 10 | Nazwa hosta serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0. |
SpeechServiceConnection_ProxyPort = 11 | Port serwera proxy używany do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0. |
SpeechServiceConnection_ProxyUserName = 12 | Nazwa użytkownika serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0. |
SpeechServiceConnection_ProxyPassword = 13 | Hasło serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0. |
SpeechServiceConnection_RecoMode = 14 | Tryb rozpoznawania usługi Rozpoznawanie mowy w usługach Cognitive Services. Może to być "INTERACTIVE", "CONVERSATION", "DICTATION". Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. |
SpeechServiceConnection_RecoLanguage = 15 | Język mówiony rozpoznawany (w formacie BCP-47). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.speechRecognitionLanguage. |
Speech_SessionId = 16 | Identyfikator sesji. Ten identyfikator jest powszechnie unikatowym identyfikatorem (aka UUID) reprezentującym określone powiązanie strumienia wejściowego audio i bazowego wystąpienia rozpoznawania mowy, do którego jest powiązana. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj parametru SessionEventArgs.sessionId. |
SpeechServiceConnection_SynthLanguage = 17 | Język mówiony, który ma być syntetyzowany (np. en-US) |
SpeechServiceConnection_SynthVoice = 18 | Nazwa głosu TTS, który ma być używany do syntezy mowy |
SpeechServiceConnection_SynthOutputFormat = 19 | Ciąg określający format dźwięku wyjściowego TTS |
SpeechServiceConnection_AutoDetectSourceLanguages = 20 | Lista języków rozdzielanych przecinkami używanych jako możliwe języki źródłowe Dodane w wersji 1.13.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse = 21 | Żądany format danych wyjściowych odpowiedzi usługi Mowa w usługach Cognitive Services (prosty lub szczegółowy). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj elementu SpeechConfig.outputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22 | Żądany poziom wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Obecnie nieużywane. |
SpeechServiceResponse_JsonResult = 23 | Dane wyjściowe odpowiedzi usługi Mowa w usługach Cognitive Services (w formacie JSON). Ta właściwość jest dostępna tylko w obiektach wyników rozpoznawania. |
SpeechServiceResponse_JsonErrorDetails = 24 | Szczegóły błędu usługi Mowa w usługach Cognitive Services (w formacie JSON). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia CancellationDetails.errorDetails. |
CancellationDetails_Reason = 25 | Przyczyna anulowania. Obecnie nieużywane. |
CancellationDetails_ReasonText = 26 | Tekst anulowania. Obecnie nieużywane. |
CancellationDetails_ReasonDetailedText = 27 | Szczegółowy tekst anulowania. Obecnie nieużywane. |
LanguageUnderstandingServiceResponse_JsonResult = 28 | Dane wyjściowe odpowiedzi usługi Language Understanding (w formacie JSON). Dostępne za pośrednictwem intencjiRecognitionResult |
SpeechServiceConnection_Url = 29 | Ciąg adresu URL utworzony na podstawie konfiguracji mowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. UWAGA: Dodano w wersji 1.7.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs = 30 | Początkowa wartość limitu czasu ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.7.0 |
SpeechServiceConnection_EndSilenceTimeoutMs = 31 | Wartość limitu czasu zakończenia ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.7.0 |
Speech_SegmentationSilenceTimeoutMs = 32 | Czas trwania wykrytej ciszy, mierzony w milisekundach, po którym zamiana mowy na tekst określi, że fraza mówiona zakończyła się i wygeneruje końcowy wynik Rozpoznany. Skonfigurowanie tego limitu czasu może być przydatne w sytuacjach, gdy mówione dane wejściowe są znacznie szybsze lub wolniejsze niż zwykle, a domyślne zachowanie segmentacji stale daje wyniki zbyt długie lub zbyt krótkie. Wartości limitu czasu segmentacji, które są niewłaściwie wysokie lub niskie, mogą negatywnie wpływać na dokładność zamiany mowy na tekst; ta właściwość powinna być starannie skonfigurowana, a wynikowe zachowanie powinno być dokładnie zweryfikowane zgodnie z oczekiwaniami. Aby uzyskać więcej informacji na temat konfiguracji limitu czasu, która obejmuje omówienie domyślnych zachowań, odwiedź stronę https://aka.ms/csspeech/timeouts. Dodano w wersji 1.21.0. |
SpeechServiceConnection_EnableAudioLogging = 33 | Wartość logiczna określająca, czy rejestrowanie audio jest włączone w usłudze, czy nie. Dzienniki audio i zawartości są przechowywane w magazynie należącym do firmy Microsoft lub na własnym koncie magazynu połączonym z subskrypcją usług Cognitive Services (Bring Your Own Storage (BYOS) z włączoną usługą Mowa. Dzienniki zostaną usunięte po upływie 30 dni. Dodano w wersji 1.7.0 |
SpeechServiceConnection_LanguageIdMode = 34 | Tryb identyfikatora języka połączenia usługi mowa. Może to być "AtStart" (wartość domyślna) lub "Continuous". Aby uzyskać więcej informacji, zobacz Dokument https://aka.ms/speech/lid?pivots=programming-language-javascript identyfikacji języka. Dodano w wersji 1.25.0 |
SpeechServiceConnection_RecognitionEndpointVersion = 35 | Wartość ciągu reprezentująca żądaną wersję punktu końcowego docelową dla rozpoznawania mowy. Dodano w wersji 1.21.0 |
SpeechServiceConnection_SpeakerIdMode = 36 | /**
|
SpeechServiceResponse_ProfanityOption = 37 | Żądane ustawienie wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Dozwolone wartości to "maskowane", "usunięte" i "nieprzetworzone". Dodano w wersji 1.7.0. |
SpeechServiceResponse_PostProcessingOption = 38 | Wartość ciągu określająca, która opcja przetwarzania końcowego powinna być używana przez usługę. Dozwolone wartości to "TrueText". Dodano w wersji 1.7.0 |
SpeechServiceResponse_RequestWordLevelTimestamps = 39 | Wartość logiczna określająca, czy należy uwzględnić znaczniki czasu na poziomie wyrazu w wyniku odpowiedzi. Dodano w wersji 1.7.0 |
SpeechServiceResponse_StablePartialResultThreshold = 40 | Liczba przypadków zwracania wyrazu w częściowych wynikach. Dodano w wersji 1.7.0 |
SpeechServiceResponse_OutputFormatOption = 41 | Wartość ciągu określająca opcję formatu wyjściowego w wyniku odpowiedzi. Tylko do użytku wewnętrznego. Dodano w wersji 1.7.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult = 42 | Wartość logiczna do żądania stabilizacji wyników częściowych tłumaczenia przez pominięcie wyrazów w końcu. Dodano w wersji 1.7.0. |
SpeechServiceResponse_RequestWordBoundary = 43 | Wartość logiczna określająca, czy żądać zdarzeń programu WordBoundary. |
SpeechServiceResponse_RequestPunctuationBoundary = 44 | Wartość logiczna określająca, czy żądać granicy interpunkcyjnej w zdarzeniach WordBoundary. Wartość domyślna to „true”. |
SpeechServiceResponse_RequestSentenceBoundary = 45 | Wartość logiczna określająca, czy żądać granicy zdań w zdarzeniach WordBoundary. Wartość domyślna to false. |
Conversation_ApplicationId = 46 | Identyfikator używany do nawiązywania połączenia z usługą zaplecza. |
Conversation_DialogType = 47 | Typ zaplecza okna dialogowego do nawiązania połączenia. |
Conversation_Initial_Silence_Timeout = 48 | Limit czasu ciszy na potrzeby nasłuchiwania |
Conversation_From_Id = 49 | Z identyfikatora, aby dodać do działań rozpoznawania mowy. |
Conversation_Conversation_Id = 50 | Identyfikator konwersacji dla sesji. |
Conversation_Custom_Voice_Deployment_Ids = 51 | Rozdzielona przecinkami lista niestandardowych identyfikatorów wdrożeń głosowych. |
Conversation_Speech_Activity_Template = 52 | Szablon działania mowy, właściwości sygnatury z szablonu dla działania wygenerowanego przez usługę na potrzeby mowy. |
Conversation_Request_Bot_Status_Messages = 53 | Włącza lub wyłącza odbieranie komunikatów o stanie włączenia, jak uzyskano w zdarzeniu turnStatusReceived. |
Conversation_Agent_Connection_Id = 54 | Określa identyfikator połączenia, który ma zostać podany w komunikacie konfiguracji agenta, np. token Direct Line na potrzeby uwierzytelniania kanału. Dodano w wersji 1.15.1. |
SpeechServiceConnection_Host = 55 | Host usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromHost. |
ConversationTranslator_Host = 56 | Ustaw hosta dla wywołań usługi do zarządzania REST usługi Conversation Translator i wywołań protokołu Websocket. |
ConversationTranslator_Name = 57 | Opcjonalnie ustaw nazwę wyświetlaną hosta. Używany podczas dołączania do konwersacji. |
ConversationTranslator_CorrelationId = 58 | Opcjonalnie ustaw wartość nagłówka żądania X-CorrelationId. Służy do rozwiązywania problemów z błędami w dziennikach serwera. Powinien być prawidłowym identyfikatorem GUID. |
ConversationTranslator_Token = 59 | Ustaw token konwersacji, który ma zostać wysłany do usługi mowy. Dzięki temu usługa może obsługiwać wywołanie z usługi rozpoznawania mowy do usługi Conversation Translator na potrzeby przekazywania rozpoznawania. Do użytku wewnętrznego. |
PronunciationAssessment_ReferenceText = 60 | Tekst referencyjny dźwięku do oceny wymowy. Aby uzyskać szczegółowe informacje, zobacz https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters następujące parametry oceny wymowy. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0 |
PronunciationAssessment_GradingSystem = 61 | System punktów dla kalibracji wyniku wymowy (FivePoint lub HundredMark). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0 |
PronunciationAssessment_Granularity = 62 | Stopień szczegółowości oceny wymowy (Phoneme, Word lub FullText). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0 |
PronunciationAssessment_EnableMiscue = 63 | Określa, czy włączyć błędne obliczenie. Po włączeniu tej opcji wyrazy wymawiane będą porównywane z tekstem referencyjnym i będą oznaczone pominięciem/wstawieniem na podstawie porównania. Ustawieniem domyślnym jest wartość False. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0 |
PronunciationAssessment_Json = 64 | Ciąg json parametrów oceny wymowy W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0 |
PronunciationAssessment_Params = 65 | Parametry oceny wymowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano w wersji 1.15.0 |
SpeakerRecognition_Api_Version = 66 | Wersja interfejsu API rozpoznawania osoby mówiącej do użycia. Dodano w wersji 1.18.0 |
WebWorkerLoadType = 67 | Określa, czy zezwalać na ładowanie adresu URL danych dla dozwolonych wartości procesu roboczego sieci Web są "wyłączone" i "włączone". Wartość domyślna to "włączone". Dodano w wersji 1.32.0 |
TalkingAvatarService_WebRTC_SDP = 68 | Omówienie protokołu opisu sesji WebRTC usługi awatara. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano w wersji 1.33.0 |