Udostępnij za pośrednictwem


PropertyId enum

Definiuje identyfikatory właściwości mowy.

Pola

SpeechServiceConnection_Key = 0

Klucz subskrypcji usługi Mowa w usługach Cognitive Services. Jeśli używasz rozpoznawania intencji, musisz określić klucz punktu końcowego usługi LUIS dla określonej aplikacji usługi LUIS. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

Punkt końcowy usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.fromEndpoint. UWAGA: Ten punkt końcowy nie jest taki sam jak punkt końcowy używany do uzyskiwania tokenu dostępu.

SpeechServiceConnection_Region = 2

Region usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

Token autoryzacji usługi Mowa w usługach Cognitive Services (czyli token dostępu). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

Typ autoryzacji usługi Mowa w usługach Cognitive Services. Obecnie nieużywane.

SpeechServiceConnection_EndpointId = 5

Identyfikator punktu końcowego usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.endpointId. UWAGA: Identyfikator punktu końcowego jest dostępny w portalu usługi Mowa na liście w obszarze Szczegóły punktu końcowego.

SpeechServiceConnection_TranslationToLanguages = 6

Lista języków rozdzielonych przecinkami (format BCP-47) używanych jako języki tłumaczenia docelowego. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

Nazwa tekstu usługi Cognitive Service na głos usługi Mowa. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechTranslationConfig.voiceName. UWAGA: Prawidłowe nazwy głosów można znaleźć tutaj.

SpeechServiceConnection_TranslationFeatures = 8

Funkcje tłumaczenia.

SpeechServiceConnection_IntentRegion = 9

Region usługi Language Understanding. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

Nazwa hosta serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Tylko istotne w środowiskach Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano element w wersji 1.4.0.

SpeechServiceConnection_ProxyPort = 11

Port serwera proxy używany do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Tylko istotne w środowiskach Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano element w wersji 1.4.0.

SpeechServiceConnection_ProxyUserName = 12

Nazwa użytkownika serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Tylko istotne w środowiskach Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano element w wersji 1.4.0.

SpeechServiceConnection_ProxyPassword = 13

Hasło serwera proxy używanego do nawiązywania połączenia z usługą Mowa w usługach Cognitive Services. Tylko istotne w środowiskach Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano element w wersji 1.4.0.

SpeechServiceConnection_RecoMode = 14

Tryb rozpoznawania usługi Mowa w usługach Cognitive Services. Może to być "INTERACTIVE", "CONVERSATION", "DICTATION". Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie.

SpeechServiceConnection_RecoLanguage = 15

Rozpoznawany język mówiony (w formacie BCP-47). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

Identyfikator sesji. Ten identyfikator jest uniwersalnym unikatowym identyfikatorem (aka UUID) reprezentującym określone powiązanie strumienia wejściowego audio i bazowego wystąpienia rozpoznawania mowy, z którym jest powiązana. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

Język mówiony do syntetyzowania (np. en-US)

SpeechServiceConnection_SynthVoice = 18

Nazwa głosu TTS, który ma być używany do syntezy mowy

SpeechServiceConnection_SynthOutputFormat = 19

Ciąg określający format audio wyjściowego TTS

SpeechServiceConnection_AutoDetectSourceLanguages = 20

Lista języków rozdzielonych przecinkami używanych jako możliwe języki źródłowe dodane w wersji 1.13.0

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

Żądany format danych wyjściowych odpowiedzi usługi Mowa w usługach Cognitive Services (prosty lub szczegółowy). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

Żądany poziom wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Obecnie nieużywane.

SpeechServiceResponse_JsonResult = 23

Dane wyjściowe odpowiedzi usługi Mowa w usługach Cognitive Services (w formacie JSON). Ta właściwość jest dostępna tylko dla obiektów wyników rozpoznawania.

SpeechServiceResponse_JsonErrorDetails = 24

Szczegóły błędu usługi Mowa w usługach Cognitive Services (w formacie JSON). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

Przyczyna anulowania. Obecnie nieużywane.

CancellationDetails_ReasonText = 26

Tekst anulowania. Obecnie nieużywane.

CancellationDetails_ReasonDetailedText = 27

Szczegółowy tekst Anulowania. Obecnie nieużywane.

LanguageUnderstandingServiceResponse_JsonResult = 28

Dane wyjściowe odpowiedzi usługi Language Understanding Service (w formacie JSON). Dostępne za pośrednictwem IntentRecognitionResult

SpeechServiceConnection_Url = 29

Ciąg adresu URL utworzony na podstawie konfiguracji mowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. UWAGA: Dodano w wersji 1.7.0.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

Początkowa wartość limitu czasu ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

Wartość limitu czasu zakończenia ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Czas trwania wykrytej ciszy mierzony w milisekundach, po którym zamiana mowy na tekst określi, że fraza mówiona została zakończona i wygeneruje końcowy wynik rozpoznany. Skonfigurowanie tego limitu czasu może być przydatne w sytuacjach, gdy mówione dane wejściowe są znacznie szybsze lub wolniejsze niż zwykle, a domyślne zachowanie segmentacji stale daje wyniki zbyt długie lub zbyt krótkie. Wartości limitu czasu segmentacji, które są niewłaściwie wysokie lub niskie, mogą negatywnie wpływać na dokładność zamiany mowy na tekst; ta właściwość powinna być starannie skonfigurowana, a wynikowe zachowanie powinno być dokładnie zweryfikowane zgodnie z oczekiwaniami.

Aby uzyskać więcej informacji na temat konfiguracji limitu czasu, która obejmuje omówienie domyślnych zachowań, odwiedź https://aka.ms/csspeech/timeouts.

Dodano element w wersji 1.21.0.

Speech_SegmentationMaximumTimeMs = 33

SegmentationMaximumTimeMs reprezentuje maksymalną długość frazy mówionej podczas korzystania ze strategii segmentacji Czas. Ponieważ długość frazy mówionej zbliża się do tej wartości, wartość

Speech_SegmentationStrategy = 34

SegmentationStrategy definiuje strategię używaną do określania, kiedy fraza mówiona została zakończona, a końcowy wynik rozpoznany powinien zostać wygenerowany. Dozwolone wartości to "Default", "Time" i "Semantic".

Prawidłowe wartości:

  • "Ustawienie domyślne": używa domyślnej strategii i ustawień określonych przez usługę Rozpoznawanie mowy. Nadaje się do większości sytuacji.
  • "Czas": Używa strategii opartej na czasie, w której ilość ciszy między mową określa, kiedy wygenerować wynik końcowy.
  • "Semantic": Używa modelu sztucznej inteligencji do określenia końca frazy mówionej na podstawie zawartości frazy.

Dodatkowe uwagi:

  • W przypadku korzystania ze strategii Czas
SpeechServiceConnection_EnableAudioLogging = 35

Wartość logiczna określająca, czy rejestrowanie audio jest włączone w usłudze, czy nie. Dzienniki audio i zawartości są przechowywane w magazynie należącym do firmy Microsoft lub na własnym koncie magazynu połączonym z subskrypcją usług Cognitive Services (Przynieś własny magazyn (BYOS) z włączoną usługą Mowa. Dzienniki zostaną usunięte po upływie 30 dni. Dodano w wersji 1.7.0

SpeechServiceConnection_LanguageIdMode = 36

Tryb identyfikatora języka połączenia usługi rozpoznawania mowy. Może to być wartość "AtStart" (wartość domyślna) lub "Continuous". Aby uzyskać więcej informacji, zobacz dokument identyfikacji języka https://aka.ms/speech/lid?pivots=programming-language-javascript. Dodano w wersji 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 37

Wartość ciągu reprezentująca żądaną wersję punktu końcowego docelową dla rozpoznawania mowy. Dodano w wersji 1.21.0

SpeechServiceConnection_SpeakerIdMode = 38

/**

  • Wartość ciągu bieżącego scenariusza/trybu rozpoznawania osoby mówiącej (TextIndependentIdentIdentification itp.).
  • Dodano w wersji 1.23.0
SpeechServiceResponse_ProfanityOption = 39

Żądane ustawienie wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Dozwolone wartości to "maskowane", "usunięte" i "nieprzetworzone". Dodano element w wersji 1.7.0.

SpeechServiceResponse_PostProcessingOption = 40

Wartość ciągu określająca, która opcja przetwarzania końcowego powinna być używana przez usługę. Dozwolone wartości to "TrueText". Dodano w wersji 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 41

Wartość logiczna określająca, czy uwzględnić znaczniki czasu na poziomie wyrazu w wyniku odpowiedzi. Dodano w wersji 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 42

Liczba razy, gdy wyraz musi być zwracany w częściowych wynikach. Dodano w wersji 1.7.0

SpeechServiceResponse_OutputFormatOption = 43

Wartość ciągu określająca opcję formatu wyjściowego w wyniku odpowiedzi. Tylko do użytku wewnętrznego. Dodano element w wersji 1.7.0.

SpeechServiceResponse_TranslationRequestStablePartialResult = 44

Wartość logiczna do żądania stabilizacji częściowych wyników tłumaczenia przez pominięcie wyrazów na końcu. Dodano element w wersji 1.7.0.

SpeechServiceResponse_RequestWordBoundary = 45

Wartość logiczna określająca, czy żądać zdarzeń WordBoundary.

SpeechServiceResponse_RequestPunctuationBoundary = 46

Wartość logiczna określająca, czy żądać granicy interpunkcyjnej w zdarzeniach WordBoundary. Wartość domyślna to true.

SpeechServiceResponse_RequestSentenceBoundary = 47

Wartość logiczna określająca, czy żądać granicy zdań w zdarzeniach WordBoundary. Wartość domyślna to false.

SpeechServiceResponse_DiarizeIntermediateResults = 48

Określa, czy wyniki pośrednie zawierają identyfikację osoby mówiącej. Dozwolone wartości to "true" lub "false". Jeśli zostanie ustawiona wartość "true", wyniki pośrednie będą zawierać identyfikację osoby mówiącej. Wartość domyślna, jeśli nie zostanie ustawiona lub ustawiona na nieprawidłową wartość to "false". Jest to obecnie obsługiwane tylko w przypadku scenariuszy korzystających z elementu ConversationTranscriber".

Conversation_ApplicationId = 49

Identyfikator używany do nawiązywania połączenia z usługą zaplecza.

Conversation_DialogType = 50

Typ zaplecza okna dialogowego do nawiązania połączenia.

Conversation_Initial_Silence_Timeout = 51

Limit czasu ciszy na potrzeby słuchania

Conversation_From_Id = 52

Od identyfikatora, aby dodać do działań rozpoznawania mowy.

Conversation_Conversation_Id = 53

Identyfikator konwersacji dla sesji.

Conversation_Custom_Voice_Deployment_Ids = 54

Rozdzielona przecinkami lista niestandardowych identyfikatorów wdrożenia głosowego.

Conversation_Speech_Activity_Template = 55

Szablon działania mowy, właściwości sygnatury z szablonu dla działania wygenerowanego przez usługę dla mowy.

Conversation_Request_Bot_Status_Messages = 56

Włącza lub wyłącza odbieranie komunikatów o stanie kolei uzyskanych na zdarzeniu turnStatusReceived.

Conversation_Agent_Connection_Id = 57

Określa identyfikator połączenia, który ma być podany w komunikacie konfiguracji agenta, np. token wiersza bezpośredniego na potrzeby uwierzytelniania kanału. Dodano element w wersji 1.15.1.

SpeechServiceConnection_Host = 58

Host usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj SpeechConfig.fromHost.

ConversationTranslator_Host = 59

Ustaw hosta dla wywołań usług do zarządzania REST usługi Conversation Translator i wywołań protokołu Websocket.

ConversationTranslator_Name = 60

Opcjonalnie ustaw nazwę wyświetlaną hosta. Używany podczas dołączania do konwersacji.

ConversationTranslator_CorrelationId = 61

Opcjonalnie ustaw wartość nagłówka żądania X-CorrelationId. Służy do rozwiązywania problemów z błędami w dziennikach serwera. Powinien być prawidłowym identyfikatorem GUID.

ConversationTranslator_Token = 62

Ustaw token konwersacji, który ma zostać wysłany do usługi rozpoznawania mowy. Dzięki temu usługa może obsługiwać wywołanie z usługi rozpoznawania mowy do usługi Conversation Translator na potrzeby przekazywania funkcji rozpoznawania. Do użytku wewnętrznego.

PronunciationAssessment_ReferenceText = 63

Tekst referencyjny dźwięku do oceny wymowy. Aby uzyskać szczegółowe informacje, zobacz https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters, aby uzyskać szczegółowe informacje. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0

PronunciationAssessment_GradingSystem = 64

System punktów kalibracji wyniku wymowy (FivePoint lub HundredMark). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0

PronunciationAssessment_Granularity = 65

Stopień szczegółowości oceny wymowy (Phoneme, Word lub FullText). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0

PronunciationAssessment_EnableMiscue = 66

Określa, czy włączyć błędne obliczenie. Po włączeniu tej opcji wyrazy wymawiane będą porównywane z tekstem odwołania i będą oznaczone pominięciem/wstawieniem na podstawie porównania. Ustawieniem domyślnym jest Fałsz. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0

PronunciationAssessment_Json = 67

Ciąg json parametrów oceny wymowy W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0

PronunciationAssessment_Params = 68

Parametry oceny wymowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano w wersji 1.15.0

SpeakerRecognition_Api_Version = 69

Wersja interfejsu API rozpoznawania osoby mówiącej do użycia. Dodano element w wersji 1.18.0

WebWorkerLoadType = 70

Określa, czy zezwalać na ładowanie adresu URL danych dla procesu roboczego sieci Web Dozwolone wartości są "wyłączone" i "włączone". Wartość domyślna to "włączone". Dodano w wersji 1.32.0

TalkingAvatarService_WebRTC_SDP = 71

Protokół opisu sesji WebRTC usługi awatara. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano element w wersji 1.33.0