Compartir a través de


FaceDetectorPreset Clase

Describe toda la configuración que se va a usar al analizar un vídeo para detectar (y, opcionalmente, redactar) todas las caras presentes.

Todos los parámetros necesarios deben rellenarse para enviarlos a Azure.

Herencia
azure.mgmt.media.models._models_py3.Preset
FaceDetectorPreset

Constructor

FaceDetectorPreset(*, resolution: str | _models.AnalysisResolution | None = None, mode: str | _models.FaceRedactorMode | None = None, blur_type: str | _models.BlurType | None = None, experimental_options: Dict[str, str] | None = None, **kwargs)

Parámetros de palabra clave únicamente

Nombre Description
resolution

Especifica la resolución máxima en la que se analiza el vídeo. El comportamiento predeterminado es "SourceResolution", que mantendrá el vídeo de entrada en su resolución original cuando se analice. El uso de "StandardDefinition" cambiará el tamaño de los vídeos de entrada a la definición estándar, a la vez que conserva la relación de aspecto adecuada. Solo cambiará el tamaño si el vídeo es de mayor resolución. Por ejemplo, una entrada de 1920x1080 se escalaría a 640x360 antes del procesamiento. Cambiar a "StandardDefinition" reducirá el tiempo necesario para procesar vídeo de alta resolución. También puede reducir el costo de usar este componente (consulte https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics para obtener más información). Sin embargo, es posible que no se detecten caras que terminen siendo demasiado pequeñas en el vídeo cambiado. Los valores conocidos son: "SourceResolution" y "StandardDefinition".

mode

Este modo proporciona la capacidad de elegir entre las siguientes opciones: 1) Analizar: solo para la detección. Este modo genera un archivo JSON de metadatos que marca las apariencias de las caras en todo el vídeo. Siempre que sea posible, a las apariencias de la misma persona se les asigna el mismo identificador. 2) Combinado: además redactes (desenfoque) caras detectadas. 3) Redact: esto permite un proceso de 2 pasos, lo que permite la reacción selectiva de un subconjunto de caras detectadas. Toma el archivo de metadatos de un paso de análisis anterior, junto con el vídeo de origen, y un subconjunto seleccionado por el usuario de identificadores que requieren redacción. Los valores conocidos son: "Analyze", "Redact" y "Combined".

blur_type

Tipo de desenfoque. Los valores conocidos son: "Box", "Low", "Med", "High" y "Black".

experimental_options

Diccionario que contiene pares clave-valor para parámetros no expuestos en el propio valor preestablecido.

Variables

Nombre Description
odata_type
str

Discriminador de tipos derivados. Necesario.

resolution

Especifica la resolución máxima en la que se analiza el vídeo. El comportamiento predeterminado es "SourceResolution", que mantendrá el vídeo de entrada en su resolución original cuando se analice. El uso de "StandardDefinition" cambiará el tamaño de los vídeos de entrada a la definición estándar, a la vez que conserva la relación de aspecto adecuada. Solo cambiará el tamaño si el vídeo es de mayor resolución. Por ejemplo, una entrada de 1920x1080 se escalaría a 640x360 antes del procesamiento. Cambiar a "StandardDefinition" reducirá el tiempo necesario para procesar vídeo de alta resolución. También puede reducir el costo de usar este componente (consulte https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics para obtener más información). Sin embargo, es posible que no se detecten caras que terminen siendo demasiado pequeñas en el vídeo cambiado. Los valores conocidos son: "SourceResolution" y "StandardDefinition".

mode

Este modo proporciona la posibilidad de elegir entre las siguientes opciones: 1) Analizar

  • Solo para la detección. Este modo genera un archivo JSON de metadatos que marca las apariencias de las caras en todo el vídeo. Siempre que sea posible, a las apariencias de la misma persona se les asigna el mismo identificador.
  1. Combinado: además redacta (desenfoque) caras detectadas. 3) Redact: esto permite un proceso de 2 pasos, lo que permite la reacción selectiva de un subconjunto de caras detectadas. Toma el archivo de metadatos de un paso de análisis anterior, junto con el vídeo de origen, y un subconjunto seleccionado por el usuario de identificadores que requieren redacción. Los valores conocidos son: "Analyze", "Redact" y "Combined".
blur_type

Tipo de desenfoque. Los valores conocidos son: "Box", "Low", "Med", "High" y "Black".

experimental_options

Diccionario que contiene pares clave-valor para parámetros no expuestos en el propio valor preestablecido.