Moderar conteúdo e detetar danos no Azure AI Studio com Segurança de Conteúdo
Saiba como escolher e criar um sistema de moderação de conteúdo no Azure AI Studio.
Nota
Este módulo é um módulo de projeto guiado onde você conclui um projeto de ponta a ponta seguindo instruções passo a passo.
Objetivos de aprendizagem
Ao final deste módulo, você é capaz de:
- Configure filtros e níveis de limite para bloquear conteúdo nocivo.
- Realize moderação de texto e imagem para conteúdo nocivo.
- Analise e melhore as métricas de Precisão, Recall e Pontuação F1.
- Detete a aterramento na saída de um modelo.
- Identifique e bloqueie conteúdo protegido por direitos autorais gerado por IA.
- Atenuar injeções imediatas diretas e indiretas.
- Configurações de filtro de saída para código.
Pré-requisitos
- Uma assinatura do Azure - Crie uma gratuitamente
- Ficar a conhecer o Azure e o portal do Azure