Introdução

Concluído

A quantidade de conteúdos gerados pelos utilizadores publicados em linha está a aumentar rapidamente. Estamos também cada vez mais conscientes da necessidade de proteger todas as pessoas de conteúdos impróprios ou nocivos.

O Azure AI Content Safety é um serviço de IA projetado para ajudar os desenvolvedores a incluir segurança avançada de conteúdo em seus aplicativos e serviços.

Os desafios em manter espaços online seguros e respeitosos estão crescendo para as equipes de desenvolvedores responsáveis por hospedar discussões on-line. O Azure AI Content Safety identifica conteúdo potencialmente inseguro e ajuda as organizações a cumprir os regulamentos e a cumprir os seus próprios padrões de qualidade.

A necessidade de melhorar a segurança dos conteúdos em linha tem quatro fatores principais:

  • Aumento dos conteúdos nocivos: registou-se um enorme crescimento dos conteúdos em linha gerados pelos utilizadores, incluindo conteúdos nocivos e inadequados.
  • Pressões regulamentares: pressão governamental para regular os conteúdos em linha.
  • Transparência: os usuários precisam de transparência nos padrões de moderação de conteúdo e na aplicação.
  • Conteúdo complexo: os avanços na tecnologia estão tornando mais fácil para os usuários postar conteúdo multimodal e vídeos.

Nota

O Azure AI Content Safety substitui o Azure Content Moderator, que foi preterido em fevereiro de 2024 e será desativado em fevereiro de 2027.

Neste módulo, você aprenderá sobre os principais recursos do Azure AI Content Safety e quando cada um pode ser usado.