Exercício – Moderação de imagem

Concluído

A Contoso Camping Store oferece aos clientes a capacidade de carregar fotos para complementar suas avaliações de produtos. Os clientes acham esse recurso útil, pois fornece informações sobre como os produtos parecem e funcionam fora das imagens genéricas de marketing. Poderíamos aplicar um modelo de IA para detetar se as imagens postadas por nossos clientes são prejudiciais e, posteriormente, usar os resultados da deteção para implementar as precauções necessárias.

Conteúdos seguros

Vamos primeiro testar uma imagem de um acampamento em família!

  1. Na página Segurança de Conteúdo, selecione Moderar conteúdo de imagem.

  2. Selecione Procurar um ficheiro e carregue-o family-builds-campfire.JPG .

  3. Defina todos os níveis de Limite como Médio.

    Uma captura de tela da visualização da imagem e da configuração do filtro para moderação de imagem.

  4. Selecione Executar teste.

Como esperado, esse conteúdo de imagem é Permitido e o nível de Severidade é Seguro em todas as categorias.

Uma captura de tela dos resultados da moderação de imagem. O conteúdo é permitido. O nível de gravidade em todas as categorias é seguro. O limiar em todas as categorias é médio. É permitido o julgamento em todas as categorias.

Conteúdo violento

Devemos também antecipar os clientes que podem publicar conteúdo de imagem prejudicial. Para garantir que respondemos por esse cenário, vamos testar a deteção de conteúdo de imagem prejudicial.

Nota

A imagem usada para o teste contém uma deteção gráfica de um ataque de urso. A imagem é desfocada por padrão na visualização da imagem. No entanto, você pode usar a alternância de imagem Desfoque para alterar essa configuração.

  1. Selecione Procurar um ficheiro e carregue-o bear-attack-blood.JPG .
  2. Defina todos os níveis de Limite como Médio.
  3. Selecione Executar teste.

Com razão, o conteúdo é Bloqueado e foi rejeitado pelo filtro Violência que tem um nível de Severidade Alto.

Uma captura de tela dos resultados da moderação de imagem. O conteúdo está bloqueado. a gravidade da violência é elevada. O julgamento por violência está bloqueado.

Executar um teste em massa

Até agora, testamos o conteúdo da imagem para imagens isoladas singulares. No entanto, se tivermos um conjunto de dados em massa de conteúdo de imagem, poderemos testar o conjunto de dados em massa de uma só vez e receber métricas com base no desempenho do modelo.

Temos um conjunto de dados em massa de imagens fornecidas pelos clientes. O conjunto de dados também inclui imagens nocivas de amostra para testar a capacidade do modelo de detetar conteúdo nocivo. Cada registro no conjunto de dados inclui um rótulo para indicar se o conteúdo é prejudicial. Vamos fazer outra rodada de testes, mas desta vez com o conjunto de dados!

  1. Alterne para a guia Executar um teste em massa.

  2. Selecione Procurar um ficheiro e carregue-o bulk-image-moderation-dataset.zip .

  3. Na seção de visualização do Conjunto de Dados, navegue pelos Registros e pelo Rótulo correspondente. A 0 indica que o conteúdo é aceitável (não prejudicial). A 1 indica que o conteúdo é inaceitável (conteúdo nocivo).

    Uma captura de tela da visualização do conjunto de dados para moderação de imagem em massa. Uma lista de registros de imagem é exibida ao lado de seus rótulos. Os servidores de dados de configuração para os limites de gravidade são todos definidos como médios.

  4. Defina todos os níveis de Limite como Médio.

  5. Selecione Executar teste.

Uma captura de tela dos resultados da moderação de imagem em massa.

Com base nos resultados, há margem para melhorias? Em caso afirmativo, ajuste os níveis de Limite até que as métricas de Precisão, Recall e Pontuação F1 estejam mais próximas de 1.