Introdução
A quantidade de conteúdos gerados pelos utilizadores publicados em linha está a aumentar rapidamente. Estamos também cada vez mais conscientes da necessidade de proteger todas as pessoas de conteúdos impróprios ou nocivos.
O Azure AI Content Safety é um serviço de IA projetado para ajudar os desenvolvedores a incluir segurança avançada de conteúdo em seus aplicativos e serviços.
Os desafios em manter espaços online seguros e respeitosos estão crescendo para as equipes de desenvolvedores responsáveis por hospedar discussões on-line. O Azure AI Content Safety identifica conteúdo potencialmente inseguro e ajuda as organizações a cumprir os regulamentos e a cumprir os seus próprios padrões de qualidade.
A necessidade de melhorar a segurança dos conteúdos em linha tem quatro fatores principais:
- Aumento dos conteúdos nocivos: registou-se um enorme crescimento dos conteúdos em linha gerados pelos utilizadores, incluindo conteúdos nocivos e inadequados.
- Pressões regulamentares: pressão governamental para regular os conteúdos em linha.
- Transparência: os usuários precisam de transparência nos padrões de moderação de conteúdo e na aplicação.
- Conteúdo complexo: os avanços na tecnologia estão tornando mais fácil para os usuários postar conteúdo multimodal e vídeos.
Nota
O Azure AI Content Safety substitui o Azure Content Moderator, que foi preterido em fevereiro de 2024 e será desativado em fevereiro de 2027.
Neste módulo, você aprenderá sobre os principais recursos do Azure AI Content Safety e quando cada um pode ser usado.