Ejercicio: Moderación de imágenes

Completado

Contoso Camping Store proporciona a los clientes la capacidad de cargar fotos para complementar sus opiniones de productos. Los clientes encuentran esta característica útil, ya que proporciona información sobre cómo los productos se ven y funcionan fuera de las imágenes de marketing genéricas. Podríamos aplicar un modelo de inteligencia artificial para detectar si las imágenes publicadas por nuestros clientes son dañinas y, posteriormente, usar los resultados de detección para implementar las precauciones necesarias.

Contenido seguro

¡Vamos a probar primero una imagen de un camping familiar!

  1. En la página Seguridad de contenido, seleccione Contenido moderado de la imagen.

  2. Seleccione Examinar un archivo y cargue el archivo family-builds-campfire.JPG.

  3. Establezca todos los Niveles de umbral en Medio.

    Recorte de pantalla de la vista previa de la imagen y la configuración de filtro para la moderación de imágenes.

  4. Haga clic en Ejecutar prueba.

Como se esperaba, este contenido de imagen está Permitido, y el nivel de gravedad es Seguro en todas las categorías.

Recorte de pantalla de los resultados de moderación de imágenes. Se permite el contenido. El nivel de gravedad de todas las categorías es seguro. El umbral de todas las categorías es medio. Se permite el criterio en todas las categorías.

Contenido violento

También deberíamos prever que los clientes publiquen contenido de imágenes perjudiciales. Para asegurarnos de que tenemos en cuenta este escenario, vamos a probar la detección de contenido de imagen perjudicial.

Nota:

La imagen usada para las pruebas contiene una detección gráfica de un ataque de un oso. La imagen se desenfoca de forma predeterminada en la vista previa de la imagen. Sin embargo, puede usar el botón de alternancia Desenfocar la imagen para cambiar esta configuración.

  1. Seleccione Examinar un archivo y cargue el archivo bear-attack-blood.JPG.
  2. Establezca todos los Niveles de umbral en Medio.
  3. Haga clic en Ejecutar prueba.

De forma correcta, el contenido está bloqueado y fue rechazado por el filtro Violencia que tiene un nivel de gravedad alto.

Recorte de pantalla de los resultados de moderación de imágenes. El contenido está bloqueado. La gravedad de la violencia es alta. La sentencia de violencia está bloqueada.

Ejecución de una prueba masiva

Hasta ahora, hemos probado el contenido de imágenes para imágenes aisladas singulares. Sin embargo, si tenemos un conjunto de datos masivo de contenido de imágenes, podríamos probar el conjunto de datos masivo a la vez y recibir métricas en función del rendimiento del modelo.

Tenemos un conjunto de datos masivo de imágenes proporcionadas por los clientes. El conjunto de datos también incluye imágenes perjudiciales de ejemplo para probar la capacidad del modelo para detectar contenido dañino. Cada registro del conjunto de datos incluye una etiqueta para indicar si el contenido es dañino. Vamos a realizar otra ronda de pruebas, pero esta vez con el conjunto de datos.

  1. Cambie a la pestaña Ejecutar una prueba masiva.

  2. Seleccione Examinar un archivo y cargue el archivo bulk-image-moderation-dataset.zip.

  3. En la sección Vista previa del conjunto de datos, examine los Registros y su correspondiente Etiqueta. Un 0 indica que el contenido es aceptable (no dañino). Un 1 indica que el contenido es inaceptable (contenido dañino).

    Recorte de pantalla de la vista previa del conjunto de datos para la moderación de imágenes masiva. Una lista de registros de imagen se muestra junto con sus etiquetas. Los archivadores de configuración para los umbrales de gravedad se establecen en medio.

  4. Establezca todos los Niveles de umbral en Medio.

  5. Haga clic en Ejecutar prueba.

Recorte de pantalla de los resultados de moderación de imágenes masiva.

En función de los resultados, ¿hay espacio para mejorar? Si es así, ajuste los niveles de Umbral hasta que las métricas de Precisión, Recuperación y Puntuación de F1 estén más cerca de 1.