Moderación del contenido y detección de daños en Estudio de IA de Azure con Seguridad del contenido
Aprenda a elegir y crear un sistema de moderación de contenido en Estudio de IA de Azure.
Nota:
Este módulo es un proyecto guiado módulo en el que se completa un proyecto de un extremo a otro siguiendo las instrucciones paso a paso.
Objetivos de aprendizaje
Al término de este módulo, podrá:
- Configure filtros y niveles de umbral para bloquear el contenido dañino.
- Realice la moderación de texto e imagen para contenido dañino.
- Analice y mejore las métricas de precisión, recuperación y puntuación F1.
- Detecte la base en una salida del modelo.
- Identifique y bloquee el contenido con derechos de autor generados por IA.
- Mitigue las inyecciones directas e indirectas de mensajes.
- Configuraciones de filtro de salida al código.
Requisitos previos
- Una suscripción a Azure: cree una cuenta gratuita.
- Conocimiento de Azure y Azure Portal