Exercício – Moderação de imagem
A Contoso Camping Store oferece aos clientes a capacidade de carregar fotos para complementar suas avaliações de produtos. Os clientes consideram esse recurso útil, pois ele fornece informações sobre a aparência e o funcionamento dos produtos fora das imagens genéricas de marketing. Poderíamos aplicar um modelo de IA para detectar se as imagens postadas por nossos clientes são prejudiciais e, posteriormente, usar os resultados da detecção para implementar as precauções necessárias.
Conteúdo seguro
Primeiro vamos testar uma imagem de um acampamento em família.
Na página Segurança de conteúdo, selecione Moderar conteúdo de imagem.
Selecione Procurar um arquivo e carregue o arquivo
family-builds-campfire.JPG
.Defina todos os Níveis de limite como Médio.
Selecione Executar teste.
Conforme o esperado, esse conteúdo de imagem é Permitido e o Nível de gravidade é Seguro em todas as categorias.
Conteúdo violento
Também devemos prever que os clientes podem postar conteúdo com imagem prejudicial. Para garantir que contamos com esse cenário, vamos testar a detecção de conteúdo de imagem prejudicial.
Observação
A imagem usada para teste contém uma detecção gráfica de um ataque de urso. A imagem é desfocada por padrão na Visualização da imagem. No entanto, fique à vontade para usar a alternância de Desfoque de imagem para alterar essa configuração.
- Selecione Procurar um arquivo e carregue o arquivo
bear-attack-blood.JPG
. - Defina todos os Níveis de limite como Médio.
- Selecione Executar teste.
Com razão, o conteúdo está Bloqueado e foi rejeitado pelo filtro Violência que tem um nível de Gravidade de Alto.
Executar um teste em massa
Até agora, testamos o conteúdo da imagem para imagens isoladas singulares. No entanto, se tivermos um conjunto de dados em massa de conteúdo de imagem, poderemos testa-lo de uma só vez e receber métricas com base no desempenho do modelo.
Temos um conjunto de dados em massa de imagens fornecidas pelos clientes. O conjunto de dados também inclui imagens prejudiciais de exemplo para testar a capacidade do modelo de detectar conteúdo prejudicial. Cada registro no conjunto de dados inclui um rótulo para indicar se o conteúdo é prejudicial. Vamos fazer outra rodada de teste, mas desta vez com o conjunto de dados.
Alterne para a guia Executar um teste em massa.
Selecione Procurar um arquivo e carregue o arquivo
bulk-image-moderation-dataset.zip
.Na seção de Pré-visualização do conjunto de dados, navegue pelos Registros e pelos Rótulo correspondente. Um 0 indica que o conteúdo é aceitável (não prejudicial). Um 1 indica que o conteúdo é inaceitável (conteúdo prejudicial).
Defina todos os Níveis de limite como Médio.
Selecione Executar teste.
Com base nos resultados, isso pode ser melhorado? Nesse caso, ajuste os níveis de limite até que as métricas Precisão, Recalle Pontuação F1 estejam mais próximas de 1.