Exercício – Moderação de imagem

Concluído

A Contoso Camping Store oferece aos clientes a capacidade de carregar fotos para complementar suas avaliações de produtos. Os clientes consideram esse recurso útil, pois ele fornece informações sobre a aparência e o funcionamento dos produtos fora das imagens genéricas de marketing. Poderíamos aplicar um modelo de IA para detectar se as imagens postadas por nossos clientes são prejudiciais e, posteriormente, usar os resultados da detecção para implementar as precauções necessárias.

Conteúdo seguro

Primeiro vamos testar uma imagem de um acampamento em família.

  1. Na página Segurança de conteúdo, selecione Moderar conteúdo de imagem.

  2. Selecione Procurar um arquivo e carregue o arquivo family-builds-campfire.JPG.

  3. Defina todos os Níveis de limite como Médio.

    Uma captura de tela da visualização da imagem e configuração do filtro para moderação de imagem.

  4. Selecione Executar teste.

Conforme o esperado, esse conteúdo de imagem é Permitido e o Nível de gravidade é Seguro em todas as categorias.

Uma captura de tela dos resultados da moderação da imagem. O conteúdo é permitido. O nível de gravidade em todas as categorias é seguro. O limite em todas as categorias é médio. O julgamento em todas as categorias é permitido.

Conteúdo violento

Também devemos prever que os clientes podem postar conteúdo com imagem prejudicial. Para garantir que contamos com esse cenário, vamos testar a detecção de conteúdo de imagem prejudicial.

Observação

A imagem usada para teste contém uma detecção gráfica de um ataque de urso. A imagem é desfocada por padrão na Visualização da imagem. No entanto, fique à vontade para usar a alternância de Desfoque de imagem para alterar essa configuração.

  1. Selecione Procurar um arquivo e carregue o arquivo bear-attack-blood.JPG.
  2. Defina todos os Níveis de limite como Médio.
  3. Selecione Executar teste.

Com razão, o conteúdo está Bloqueado e foi rejeitado pelo filtro Violência que tem um nível de Gravidade de Alto.

Uma captura de tela dos resultados da moderação da imagem. O conteúdo está bloqueado. A gravidade da violência é alta. O julgamento por violência está bloqueado.

Executar um teste em massa

Até agora, testamos o conteúdo da imagem para imagens isoladas singulares. No entanto, se tivermos um conjunto de dados em massa de conteúdo de imagem, poderemos testa-lo de uma só vez e receber métricas com base no desempenho do modelo.

Temos um conjunto de dados em massa de imagens fornecidas pelos clientes. O conjunto de dados também inclui imagens prejudiciais de exemplo para testar a capacidade do modelo de detectar conteúdo prejudicial. Cada registro no conjunto de dados inclui um rótulo para indicar se o conteúdo é prejudicial. Vamos fazer outra rodada de teste, mas desta vez com o conjunto de dados.

  1. Alterne para a guia Executar um teste em massa.

  2. Selecione Procurar um arquivo e carregue o arquivo bulk-image-moderation-dataset.zip.

  3. Na seção de Pré-visualização do conjunto de dados, navegue pelos Registros e pelos Rótulo correspondente. Um 0 indica que o conteúdo é aceitável (não prejudicial). Um 1 indica que o conteúdo é inaceitável (conteúdo prejudicial).

    Uma captura de tela da visualização do conjunto de dados para moderação de imagens em massa. Uma lista de registros de imagem é exibida junto com seus rótulos. Os filtros de configuração para os limites de gravidade estão todos definidos como médios.

  4. Defina todos os Níveis de limite como Médio.

  5. Selecione Executar teste.

Uma captura de tela dos resultados da moderação de imagens em massa.

Com base nos resultados, isso pode ser melhorado? Nesse caso, ajuste os níveis de limite até que as métricas Precisão, Recalle Pontuação F1 estejam mais próximas de 1.