Supervisión de abusos en la detección de vivacidad de Face
La detección de vivacidad de Face de Azure AI le permite detectar y mitigar casos de contenido y/o comportamientos recurrentes que indiquen una infracción del Código de conducta u otros términos aplicables del producto. Esta guía le muestra cómo trabajar con estas características para asegurarse de que su aplicación cumple con la directiva de Azure.
Puede encontrar detalles sobre cómo se administran los datos en la página Datos, privacidad y seguridad.
Importante
Los SDK de cliente de Face para la vivacidad son una característica cerrada. Debe solicitar el acceso a la característica de vivacidad rellenando el formulario de acceso de reconocimiento facial. Cuando su suscripción a Azure tenga acceso, podrá descargar el SDK de vivacidad de Face.
Componentes de la supervisión de abusos
Hay varios componentes para la supervisión del abuso de vivacidad de Face:
- Administración de sesiones: el sistema de aplicaciones back-end crea sesiones de detección de vivacidad en nombre de los usuarios finales. El servicio Face emite tokens de autorización para una sesión determinada y cada uno es válido para un número limitado de llamadas API. Cuando el usuario final encuentra un error durante la detección de la vivacidad, se solicita un nuevo token. Esto permite que la aplicación back-end evalúe el riesgo de permitir reintentos de vivacidad adicionales. Un número excesivo de reintentos puede indicar un intento adversario de fuerza bruta para omitir el sistema de detección de vivacidad.
- Identificador de correlación temporal: el proceso de creación de sesión le pide que asigne un GUID de correlación de 128 bits temporal (identificador único global) para cada usuario final del sistema de aplicación. Esto le permite asociar cada sesión a un individuo. Los modelos clasificadores en el back-end del servicio pueden detectar indicaciones de ataque de presentación y observar patrones de error en el uso de un GUID determinado. Este GUID debe restablecerse a petición para admitir la invalidación manual del sistema automatizado de mitigación de abusos.
- Captura de patrones de abuso: el servicio de detección de vivacidad de Face de Azure AI examina los patrones de uso de los clientes y emplea algoritmos y heurística para detectar indicadores de posibles abusos. Los patrones detectados consideran, por ejemplo, la frecuencia y la gravedad en la que se detecta contenido de ataque de presentación en la captura de imágenes de un cliente.
- Revisión y decisión humanas: cuando los identificadores de correlación se marcan a través de la captura de patrones de abuso como se ha descrito anteriormente, no se pueden crear más sesiones para esos identificadores. Debe permitir que los empleados autorizados evalúen los patrones de tráfico y confirmen o invaliden la determinación en función de las directrices y directivas predefinidas. Si la revisión humana concluye que se necesita una invalidación, debe generar un nuevo GUID de correlación temporal para el individuo para generar más sesiones.
- Notificación y acción: cuando se ha confirmado un umbral de comportamiento abusivo en función de los pasos anteriores, se debería informar al cliente de la determinación por correo electrónico. Excepto en casos de abuso grave o recurrente, los clientes suelen tener la oportunidad de explicar o corregir el comportamiento abusivo (e implementar mecanismos para evitar la periodicidad). Si no se aborda el comportamiento, o el abuso periódico o grave, puede producirse la suspensión o terminación de la idoneidad de acceso limitado para los recursos o funcionalidades de Face de Azure AI.