FaceDetectorPreset Clase
Describe toda la configuración que se va a usar al analizar un vídeo para detectar (y, opcionalmente, redactar) todas las caras presentes.
Todos los parámetros necesarios deben rellenarse para enviarlos a Azure.
- Herencia
-
azure.mgmt.media.models._models_py3.PresetFaceDetectorPreset
Constructor
FaceDetectorPreset(*, resolution: str | _models.AnalysisResolution | None = None, mode: str | _models.FaceRedactorMode | None = None, blur_type: str | _models.BlurType | None = None, experimental_options: Dict[str, str] | None = None, **kwargs)
Parámetros de palabra clave únicamente
Nombre | Description |
---|---|
resolution
|
Especifica la resolución máxima en la que se analiza el vídeo. El comportamiento predeterminado es "SourceResolution", que mantendrá el vídeo de entrada en su resolución original cuando se analice. El uso de "StandardDefinition" cambiará el tamaño de los vídeos de entrada a la definición estándar, a la vez que conserva la relación de aspecto adecuada. Solo cambiará el tamaño si el vídeo es de mayor resolución. Por ejemplo, una entrada de 1920x1080 se escalaría a 640x360 antes del procesamiento. Cambiar a "StandardDefinition" reducirá el tiempo necesario para procesar vídeo de alta resolución. También puede reducir el costo de usar este componente (consulte https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics para obtener más información). Sin embargo, es posible que no se detecten caras que terminen siendo demasiado pequeñas en el vídeo cambiado. Los valores conocidos son: "SourceResolution" y "StandardDefinition". |
mode
|
Este modo proporciona la capacidad de elegir entre las siguientes opciones: 1) Analizar: solo para la detección. Este modo genera un archivo JSON de metadatos que marca las apariencias de las caras en todo el vídeo. Siempre que sea posible, a las apariencias de la misma persona se les asigna el mismo identificador. 2) Combinado: además redactes (desenfoque) caras detectadas. 3) Redact: esto permite un proceso de 2 pasos, lo que permite la reacción selectiva de un subconjunto de caras detectadas. Toma el archivo de metadatos de un paso de análisis anterior, junto con el vídeo de origen, y un subconjunto seleccionado por el usuario de identificadores que requieren redacción. Los valores conocidos son: "Analyze", "Redact" y "Combined". |
blur_type
|
Tipo de desenfoque. Los valores conocidos son: "Box", "Low", "Med", "High" y "Black". |
experimental_options
|
Diccionario que contiene pares clave-valor para parámetros no expuestos en el propio valor preestablecido. |
Variables
Nombre | Description |
---|---|
odata_type
|
Discriminador de tipos derivados. Necesario. |
resolution
|
Especifica la resolución máxima en la que se analiza el vídeo. El comportamiento predeterminado es "SourceResolution", que mantendrá el vídeo de entrada en su resolución original cuando se analice. El uso de "StandardDefinition" cambiará el tamaño de los vídeos de entrada a la definición estándar, a la vez que conserva la relación de aspecto adecuada. Solo cambiará el tamaño si el vídeo es de mayor resolución. Por ejemplo, una entrada de 1920x1080 se escalaría a 640x360 antes del procesamiento. Cambiar a "StandardDefinition" reducirá el tiempo necesario para procesar vídeo de alta resolución. También puede reducir el costo de usar este componente (consulte https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics para obtener más información). Sin embargo, es posible que no se detecten caras que terminen siendo demasiado pequeñas en el vídeo cambiado. Los valores conocidos son: "SourceResolution" y "StandardDefinition". |
mode
|
Este modo proporciona la posibilidad de elegir entre las siguientes opciones: 1) Analizar
|
blur_type
|
Tipo de desenfoque. Los valores conocidos son: "Box", "Low", "Med", "High" y "Black". |
experimental_options
|
Diccionario que contiene pares clave-valor para parámetros no expuestos en el propio valor preestablecido. |
Azure SDK for Python