Moderación del contenido y detección de daños en Estudio de IA de Azure con Seguridad del contenido

Principiante
Desarrollador
Azure

Aprenda a elegir y crear un sistema de moderación de contenido en Estudio de IA de Azure.

Nota:

Este módulo es un proyecto guiado módulo en el que se completa un proyecto de un extremo a otro siguiendo las instrucciones paso a paso.

Objetivos de aprendizaje

Al término de este módulo, podrá:

  • Configure filtros y niveles de umbral para bloquear el contenido dañino.
  • Realice la moderación de texto e imagen para contenido dañino.
  • Analice y mejore las métricas de precisión, recuperación y puntuación F1.
  • Detecte la base en una salida del modelo.
  • Identifique y bloquee el contenido con derechos de autor generados por IA.
  • Mitigue las inyecciones directas e indirectas de mensajes.
  • Configuraciones de filtro de salida al código.

Requisitos previos