SpeechServiceConnection_Key |
Clave de suscripción de Cognitive Services Speech Service. Si usa un reconocedor de intenciones, debe especificar la clave de punto de conexión de LUIS para la aplicación de LUIS concreta. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
El punto de conexión de Speech Service (url) de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::FromEndpoint. NOTA: Este punto de conexión no es el mismo que el que se usa para obtener un token de acceso. |
SpeechServiceConnection_Region |
La región de Speech Service de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
El token de autorización de Speech Service de Cognitive Services (también conocido como token de acceso). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Tipo de autorización de Cognitive Services Speech Service. Actualmente no se está usando. |
SpeechServiceConnection_EndpointId |
Identificador de punto de conexión de Cognitive Services Custom Speech o Custom Voice Service. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetEndpointId. NOTA: El identificador de punto de conexión está disponible en el Portal de Voz personalizada, que aparece en Detalles del punto de conexión. |
SpeechServiceConnection_Host |
Host (url) de Cognitive Services Speech Service. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nombre de host del servidor proxy que se usa para conectarse al servicio voz de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetProxy. NOTA: Este identificador de propiedad se agregó en la versión 1.1.0. |
SpeechServiceConnection_ProxyPort |
Puerto del servidor proxy que se usa para conectarse al servicio Voz de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetProxy. NOTA: Este identificador de propiedad se agregó en la versión 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nombre de usuario del servidor proxy que se usa para conectarse al servicio voz de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetProxy. NOTA: Este identificador de propiedad se agregó en la versión 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Contraseña del servidor proxy que se usa para conectarse al servicio voz de Cognitive Services. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetProxy. NOTA: Este identificador de propiedad se agregó en la versión 1.1.0. |
SpeechServiceConnection_Url |
Cadena de dirección URL creada a partir de la configuración de voz. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. NOTA: Se ha agregado en la versión 1.5.0. |
SpeechServiceConnection_ProxyHostBypass |
Especifica la lista de hosts para los que no se deben usar los servidores proxy. Esta configuración invalida todas las demás configuraciones. Los nombres de host se separan por comas y se coinciden de forma que no distinguen mayúsculas de minúsculas. No se admiten caracteres comodín. |
SpeechServiceConnection_TranslationToLanguages |
Lista de idiomas separados por comas usados como idiomas de traducción de destino. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechTranslationConfig::AddTargetLanguage y SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nombre de la voz de Cognitive Service Text to Speech Service. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechTranslationConfig::SetVoiceName. NOTA: Los nombres de voz válidos se pueden encontrar aquí. |
SpeechServiceConnection_TranslationFeatures |
Características de traducción. Para uso interno. |
SpeechServiceConnection_IntentRegion |
Región del servicio Language Understanding. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
El modo de reconocimiento de Speech Service de Cognitive Services. Puede ser "INTERACTIVE", "CONVERSATION", "DICTATION". Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. |
SpeechServiceConnection_RecoLanguage |
Idioma hablado que se va a reconocer (en formato BCP-47). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
Identificador de sesión. Este identificador es un identificador único universal (también conocido como UUID) que representa un enlace específico de una secuencia de entrada de audio y la instancia de reconocimiento de voz subyacente a la que está enlazado. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Parámetros de consulta proporcionados por los usuarios. Se pasarán al servicio como parámetros de consulta url. Se agregó en la versión 1.5.0. |
SpeechServiceConnection_RecoBackend |
Cadena que se va a especificar el back-end que se va a usar para el reconocimiento de voz; las opciones permitidas están en línea y sin conexión. En circunstancias normales, no debe usar esta propiedad directamente. Actualmente, la opción sin conexión solo es válida cuando se usa EmbeddedSpeechConfig. Se agregó en la versión 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nombre del modelo que se va a usar para el reconocimiento de voz. En circunstancias normales, no debe usar esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig. Se agregó en la versión 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Esta propiedad está en desuso. |
SpeechServiceConnection_RecoModelIniFile |
Ruta de acceso al archivo ini del modelo que se va a usar para el reconocimiento de voz. En circunstancias normales, no debe usar esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig. Se agregó en la versión 1.19.0. |
SpeechServiceConnection_SynthLanguage |
Lenguaje hablado que se va a sintetizar (por ejemplo, en-US) Agregado en la versión 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nombre de la voz TTS que se usará para la síntesis de voz agregada en la versión 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Cadena para especificar el formato de audio de salida de TTS agregado en la versión 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indica si se usa el formato de audio comprimido para la transmisión de audio de síntesis de voz. Esta propiedad solo afecta cuando SpeechServiceConnection_SynthOutputFormat se establece en un formato pcm. Si esta propiedad no está establecida y GStreamer está disponible, el SDK usará el formato comprimido para la transmisión de audio sintetizada y lo descodificará. Puede establecer esta propiedad en "false" para usar el formato pcm sin procesar para la transmisión en la conexión. Se agregó en la versión 1.16.0. |
SpeechServiceConnection_SynthBackend |
Cadena que se va a especificar el back-end de TTS; las opciones válidas están en línea y sin conexión. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths para establecer el back-end de síntesis en sin conexión. Se agregó en la versión 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Las rutas de acceso del archivo de datos para el motor de síntesis sin conexión; solo es válido cuando el back-end de síntesis está sin conexión. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths. Se agregó en la versión 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
El nombre de la voz TTS sin conexión que se usará para la síntesis de voz En circunstancias normales, no debe usar esta propiedad directamente. En su lugar, use EmbeddedSpeechConfig::SetSpeechSynthesisVoice y EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Se agregó en la versión 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Esta propiedad está en desuso. |
SpeechServiceConnection_VoicesListEndpoint |
Las voces de Speech Service de Cognitive Services enumeran el punto de conexión de API (url). En circunstancias normales, no es necesario especificar esta propiedad, el SDK lo construirá en función de la región, host o punto de conexión de SpeechConfig. Se agregó en la versión 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valor de tiempo de espera de silencio inicial (en milisegundos) usado por el servicio. Se agregó en la versión 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valor de tiempo de espera de silencio final (en milisegundos) usado por el servicio. Se agregó en la versión 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Valor booleano que especifica si el registro de audio está habilitado en el servicio o no. Los registros de audio y contenido se almacenan en el almacenamiento propiedad de Microsoft o en su propia cuenta de almacenamiento vinculada a su suscripción de Cognitive Services (Traiga su propio almacenamiento [BYOS]) habilitado para el recurso de voz). Se agregó en la versión 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Modo de identificador de idioma de conexión del servicio de voz. Puede ser "AtStart" (valor predeterminado) o "Continuous". Consulte documento de identificación del idioma. Agregado en la versión 1.25.0. |
SpeechServiceConnection_TranslationCategoryId |
CategoryId de traducción de conexión del servicio de voz. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Los idiomas de origen de detección automática agregados en la versión 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Resultado de detección automática del idioma de origen agregado en la versión 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
El formato de salida de respuesta solicitado de Cognitive Services Speech Service (simple o detallado). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
El nivel de palabra soece de respuesta de Cognitive Services Speech Service solicitado. Actualmente no se está usando. |
SpeechServiceResponse_ProfanityOption |
Configuración de palabra soece de salida de respuesta de Cognitive Services Speech Service solicitada. Los valores permitidos son "masked", "removed" y "raw". Se agregó en la versión 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Valor de cadena que especifica qué opción posterior al procesamiento debe usar el servicio. Los valores permitidos son "TrueText". Se agregó en la versión 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valor booleano que especifica si se deben incluir marcas de tiempo de nivel de palabra en el resultado de la respuesta. Se agregó en la versión 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Número de veces que una palabra debe estar en resultados parciales que se van a devolver. Se agregó en la versión 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Valor de cadena que especifica la opción de formato de salida en el resultado de la respuesta. Solo uso interno. Se agregó en la versión 1.5.0. |
SpeechServiceResponse_RequestSnr |
Valor booleano que especifica si se debe incluir SNR (relación de señal a ruido) en el resultado de la respuesta. Se agregó en la versión 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valor booleano que se va a solicitar para estabilizar los resultados parciales de traducción omitiendo palabras al final. Se agregó en la versión 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Valor booleano que especifica si se van a solicitar eventos de WordBoundary. Se agregó en la versión 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valor booleano que especifica si se va a solicitar el límite de puntuación en eventos de WordBoundary. El valor predeterminado es true. Se agregó en la versión 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Valor booleano que especifica si se va a solicitar el límite de oración en eventos de WordBoundary. El valor predeterminado es false. Se agregó en la versión 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valor booleano que especifica si el SDK debe sincronizar los eventos de metadatos de síntesis (por ejemplo, límite de palabras, visema, etc.) con la reproducción de audio. Esto solo surte efecto cuando el audio se reproduce a través del SDK. El valor predeterminado es true. Si se establece en false, el SDK activará los eventos a medida que proceden del servicio, lo que puede estar fuera de sincronización con la reproducción de audio. Se agregó en la versión 1.31.0. |
SpeechServiceResponse_JsonResult |
Salida de respuesta de Speech Service de Cognitive Services (en formato JSON). Esta propiedad solo está disponible en objetos de resultado de reconocimiento. |
SpeechServiceResponse_JsonErrorDetails |
Los detalles del error de Cognitive Services Speech Service (en formato JSON). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Latencia de reconocimiento en milisegundos. Solo lectura, disponible en los resultados finales de voz, traducción o intención. Esto mide la latencia entre cuando el SDK recibe una entrada de audio y el momento en que se recibe el resultado final del servicio. El SDK calcula la diferencia de tiempo entre el último fragmento de audio de la entrada de audio que contribuye al resultado final y la hora en que se recibe el resultado final del servicio de voz. Se agregó en la versión 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Back-end de reconocimiento. Solo lectura, disponible en los resultados del reconocimiento de voz. Esto indica si se usó el reconocimiento en la nube (en línea) o incrustado (sin conexión) para generar el resultado. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
La síntesis de voz tiene la primera latencia de bytes en milisegundos. Solo lectura, disponible en los resultados finales de la síntesis de voz. Esto mide la latencia entre cuando se inicia la síntesis para procesarse y el momento en que está disponible el primer audio de bytes. Se agregó en la versión 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
La síntesis de voz todas las latencias de bytes en milisegundos. Solo lectura, disponible en los resultados finales de la síntesis de voz. Esto mide la latencia entre cuando se inicia la síntesis para procesarse y el momento en que se sintetiza todo el audio. Se agregó en la versión 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Tiempo de ejecución inferior para la síntesis de voz en milisegundos. Solo lectura, disponible en los resultados de los eventos SynthesisCompleted. Esto mide el tiempo total de infraejecución de PropertyId::AudioConfig_PlaybackBufferLengthInMs se rellena para completar la síntesis. Se agregó en la versión 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latencia de conexión de síntesis de voz en milisegundos. Solo lectura, disponible en los resultados finales de la síntesis de voz. Esto mide la latencia entre cuando se inicia la síntesis para procesarse y el momento en que se establece la conexión HTTP/WebSocket. Se agregó en la versión 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latencia de red de síntesis de voz en milisegundos. Solo lectura, disponible en los resultados finales de la síntesis de voz. Esto mide el tiempo de ida y vuelta de red. Se agregó en la versión 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latencia del servicio de síntesis de voz en milisegundos. Solo lectura, disponible en los resultados finales de la síntesis de voz. Esto mide el tiempo de procesamiento del servicio para sintetizar el primer byte de audio. Se agregó en la versión 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indica qué back-end finaliza la síntesis. Solo lectura, disponible en los resultados de síntesis de voz, excepto el resultado en el evento SynthesisStarted Agregado en la versión 1.17.0. |
SpeechServiceResponse_DiarizeIntermediateResults |
Determina si los resultados intermedios contienen identificación del hablante. |
CancellationDetails_Reason |
Motivo de cancelación. Actualmente no se está usando. |
CancellationDetails_ReasonText |
Texto de cancelación. Actualmente no se está usando. |
CancellationDetails_ReasonDetailedText |
Texto detallado de cancelación. Actualmente no se está usando. |
LanguageUnderstandingServiceResponse_JsonResult |
Salida de respuesta de Language Understanding Service (en formato JSON). Disponible a través de IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nombre del dispositivo para la captura de audio. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use AudioConfig::FromMicrophoneInput. NOTA: Este identificador de propiedad se agregó en la versión 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Número de canales para la captura de audio. Solo uso interno. NOTA: Este identificador de propiedad se agregó en la versión 1.3.0. |
AudioConfig_SampleRateForCapture |
Frecuencia de muestreo (en Hz) para la captura de audio. Solo uso interno. NOTA: Este identificador de propiedad se agregó en la versión 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Número de bits de cada muestra para la captura de audio. Solo uso interno. NOTA: Este identificador de propiedad se agregó en la versión 1.3.0. |
AudioConfig_AudioSource |
Origen de audio. Los valores permitidos son "Micrófonos", "Archivo" y "Stream". Se agregó en la versión 1.3.0. |
AudioConfig_DeviceNameForRender |
Nombre del dispositivo para la representación de audio. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use AudioConfig::FromSpeakerOutput. Se agregó en la versión 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
La longitud del búfer de reproducción en milisegundos, el valor predeterminado es de 50 milisegundos. |
AudioConfig_AudioProcessingOptions |
Opciones de procesamiento de audio en formato JSON. |
Speech_LogFilename |
Nombre de archivo que se va a escribir registros. Se agregó en la versión 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Duración del silencio detectado, medido en milisegundos, después de lo cual la conversión de voz a texto determinará una frase hablada y generará un resultado reconocido final. La configuración de este tiempo de espera puede ser útil en situaciones en las que la entrada hablada sea significativamente más rápida o más lenta que el comportamiento de segmentación predeterminado y habitual produce resultados que son demasiado largos o demasiado cortos. Los valores de tiempo de espera de segmentación que son inadecuados o bajos pueden afectar negativamente a la precisión de la conversión de voz a texto; esta propiedad debe configurarse cuidadosamente y el comportamiento resultante debe validarse exhaustivamente según lo previsto. |
Speech_SegmentationMaximumTimeMs |
Longitud máxima de una frase hablada cuando se usa la estrategia de segmentación "Time". A medida que la longitud de una frase hablada se aproxima a este valor, el Speech_SegmentationSilenceTimeoutMs comenzará a reducirse hasta que se alcance el tiempo de espera del silencio de frases o la frase alcance la longitud máxima. |
Speech_SegmentationStrategy |
Estrategia que se usa para determinar cuándo ha finalizado una frase hablada y se debe generar un resultado reconocido final. Los valores permitidos son "Default", "Time" y "Semantic". |
Conversation_ApplicationId |
Identificador usado para conectarse al servicio back-end. Se agregó en la versión 1.5.0. |
Conversation_DialogType |
Tipo de back-end de diálogo al que conectarse. Se agregó en la versión 1.7.0. |
Conversation_Initial_Silence_Timeout |
Tiempo de espera de silencio para escuchar agregado en la versión 1.5.0. |
Conversation_From_Id |
De id que se usará en las actividades de reconocimiento de voz agregadas en la versión 1.5.0. |
Conversation_Conversation_Id |
ConversationId para la sesión. Se agregó en la versión 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Lista separada por comas de identificadores de implementación de voz personalizados. Se agregó en la versión 1.8.0. |
Conversation_Speech_Activity_Template |
Plantilla de actividad de voz, propiedades de marca de la plantilla en la actividad generada por el servicio para voz. Se agregó en la versión 1.10.0. |
Conversation_ParticipantId |
Identificador del participante en la conversación actual. Se agregó en la versión 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Marca de tiempo asociada al búfer de datos escrito por el cliente cuando se usan flujos de entrada de audio pull/Push. La marca de tiempo es un valor de 64 bits con una resolución de 90 kHz. Es igual que la marca de tiempo de presentación en una secuencia de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp Agregado en la versión 1.5.0. |
DataBuffer_UserId |
Identificador de usuario asociado al búfer de datos escrito por el cliente al usar flujos de entrada de audio pull/Push. Se agregó en la versión 1.5.0. |
PronunciationAssessment_ReferenceText |
Texto de referencia del audio para la evaluación de pronunciación. Para ello y los siguientes parámetros de evaluación de pronunciación, consulte la tabla parámetros de evaluación de pronunciación. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::Create o PronunciationAssessmentConfig::SetReferenceText. Se agregó en la versión 1.14.0. |
PronunciationAssessment_GradingSystem |
Sistema de puntos para la calibración de la puntuación de pronunciación (FivePoint o HundredMark). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::Create. Se agregó en la versión 1.14.0. |
PronunciationAssessment_Granularity |
Granularidad de evaluación de pronunciación (Phoneme, Word o FullText). En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::Create. Se agregó en la versión 1.14.0. |
PronunciationAssessment_EnableMiscue |
Define si se habilita el cálculo de incorrectamente. Con esta opción habilitada, las palabras pronunciadas se compararán con el texto de referencia y se marcarán con omisión o inserción en función de la comparación. La configuración predeterminada es False. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::Create. Se agregó en la versión 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alfabeto fonético de evaluación de pronunciación. Los valores válidos son "SAPI" (valor predeterminado) y "IPA" En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::SetPhonemeAlphabet. Se agregó en la versión 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Recuento de fonemas nbest de evaluación de pronunciación. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::SetNBestPhonemeCount. Se agregó en la versión 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Si se va a habilitar la evaluación de la prosodia. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::EnableProsodyAssessment. Se agregó en la versión 1.33.0. |
PronunciationAssessment_Json |
Cadena json de parámetros de evaluación de pronunciación En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::Create. Se agregó en la versión 1.14.0. |
PronunciationAssessment_Params |
Parámetros de evaluación de pronunciación. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. Se agregó en la versión 1.14.0. |
PronunciationAssessment_ContentTopic |
Tema de contenido de la evaluación de pronunciación. En circunstancias normales, no debería tener que usar esta propiedad directamente. En su lugar, use PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Se agregó en la versión 1.33.0. |
SpeakerRecognition_Api_Version |
Versión de la API de back-end de Speaker Recognition. Esta propiedad se agrega para permitir las pruebas y el uso de versiones anteriores de speaker Recognition API, si procede. Se agregó en la versión 1.18.0. |
SpeechTranslation_ModelName |
Nombre de un modelo que se va a usar para la traducción de voz. No utilice esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig. |
SpeechTranslation_ModelKey |
Esta propiedad está en desuso. |
KeywordRecognition_ModelName |
Nombre de un modelo que se va a usar para el reconocimiento de palabras clave. No utilice esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig. |
KeywordRecognition_ModelKey |
Esta propiedad está en desuso. |
EmbeddedSpeech_EnablePerformanceMetrics |
Habilite la recopilación de métricas de rendimiento de voz insertadas que se pueden usar para evaluar la capacidad de un dispositivo para usar la voz insertada. Los datos recopilados se incluyen en los resultados de escenarios específicos, como el reconocimiento de voz. El valor predeterminado es "false". Tenga en cuenta que es posible que las métricas no estén disponibles en todos los escenarios de voz insertados. |
SpeechSynthesisRequest_Pitch |
El tono de la voz sintetizada. |
SpeechSynthesisRequest_Rate |
Velocidad de la voz sintetizada. |
SpeechSynthesisRequest_Volume |
Volumen de la voz sintetizada. |