练习 - 图像审核

已完成

Contoso 露营商店为客户提供上传照片以补充产品评论的功能。 客户发现这一功能非常有用,因为它能让他们在一般营销图像之外,深入了解产品的外观和功能。 我们可以应用 AI 模型来检测客户发布的图像是否有害,然后根据检测结果采取必要的预防措施。

安全内容

我们先来测试一张家庭露营的图像!

  1. 在“内容安全”页面中,选择“审查图像内容”。

  2. 选择“浏览文件”并上传 family-builds-campfire.JPG 文件

  3. 将所有“阈值级别”设置为“中等”

    图像预览和图像审查的筛选器配置的屏幕截图。

  4. 选择“运行测试”。

果然,该图像内容在所有类别中都是“允许”,“严重性级别”是“安全”

图像审查结果的屏幕截图。内容是允许的。所有类别中的严重性级别均为安全。所有类别中的阈值均为中等。允许跨所有类别的判断。

暴力内容

我们还应预见到客户可能会发布有害的图像内容。 为了确保我们能应对这种情况,我们来测试一下有害图像内容的检测。

注意

用于测试的图像包含一幅熊袭击的图片。 在“图像预览”中,图像会默认变模糊。 不过,你也可以使用“模糊图像”切换来更改这一设置

  1. 选择“浏览文件”并上传 bear-attack-blood.JPG 文件
  2. 将所有“阈值级别”设置为“中等”
  3. 选择“运行测试”。

果然,该内容“被屏蔽”,并被“严重性级别”为“高”的“暴力”筛选器拒绝

图像审查结果的屏幕截图。内容被阻止。暴力的严重性较高。暴力的判断被阻止。

运行批量测试

到目前为止,我们已经测试了单个孤立图像的图像内容。 但是,如果有图像内容的批量数据集,我们就可以一次性测试批量数据集,并根据模型的性能获得指标。

我们有一个批量图像数据集,这些图像由客户提供。 该数据集还包含有害图像示例,用于测试模型检测有害内容的能力。 该数据集中的每个记录都包括一个标签,用于指示内容是否有害。 让我们再做一轮测试,但这次是使用数据集!

  1. 切换到“运行批量测试”选项卡

  2. 选择“浏览文件”并上传 bulk-image-moderation-dataset.zip 文件

  3. 在“数据集预览”部分,浏览“记录”及其相应的“标签”。 0 指示内容是可接受的(无害)。 1 指示内容是不可接受的(有害内容)

    用于批量图像审查的数据集预览的屏幕截图。图像记录的列表与其标签一起显示。严重性阈值的配置筛选器都设为中等。

  4. 将所有“阈值级别”设置为“中等”

  5. 选择“运行测试”。

批量图像审查结果的屏幕截图。

根据结果,是否还有改进的空间? 如果是,请调整“阈值级别”,直到“精准率”、“查全率”和“F1 分数”指标更接近 1