你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Azure AI Content Safety 中的危害类别

本指南介绍了 Azure AI 内容安全用于标记内容的所有危害类别和分级。 文本和图像内容使用相同的标志集。

有害类别

Content Safety 可识别四种不同类别的令人反感的内容。

类别 说明 API 术语
仇恨和公平性 仇恨和公平伤害是指任何基于个人或身份群体的某些区别性属性攻击或使用歧视性语言的内容。

这些属性包括但不限于:
  • 种族、民族、国籍
  • 性别认同群体和表现
  • 性取向
  • 宗教
  • 个人外貌和体型
  • 残疾状况
  • 骚扰和欺凌
Hate
性指的是与以下方面相关的语言:解剖器官和生殖器、恋爱关系与性行为、以色情或情爱用语描述的行为(包括被描述为攻击或违背个人意愿的强迫性暴力行为的情况)。 

 包括但不限于:
  • 粗俗内容
  • 卖淫
  • 裸体和色情
  • 滥用
  • 儿童剥削、儿童虐待、儿童色诱
Sexual
暴力 暴力是指与旨在伤害、损伤、损害或杀害某人或某物的肢体动作相关的语言,以及与武器、枪支和相关实体相关的语言。

这包括但不限于:
  • 武器
  • 欺凌和恐吓
  • 恐怖主义和暴力极端主义
  • 跟踪
Violence
自残 自残指的是与故意伤害、损伤、损害某人身体或自杀的身体行为相关的语言。

这包括但不限于:
  • 饮食障碍
  • 欺凌和恐吓
SelfHarm

分类可以是多标记的。 例如,通过文本审查模型运行文本示例时,可以将其归类为性内容和暴力。

严重性级别

该服务适用的每种伤害类别还带有严重性评级。 严重性级别旨在表明,如果显示了已标记的内容,则造成的后果的严重性有多高。

文本:文本模型的当前版本支持完整的 0-7 严重度。 分类器按照此程度检测所有严重性。 如果用户已指定,它可以返回修整标度 0、2、4 和 6 的严重性;每两个相邻级别映射到单个级别。

  • [0,1] ->0
  • [2,3] ->2
  • [4,5] ->4
  • [6,7] ->6

图像:当前版本的图像模型支持完整 0-7 严重性标度的修整版本。 分类器仅返回严重性 0、2、4 和 6。

  • 0
  • 2
  • 4
  • 6

带文本的图像:多模式模型的当前版本支持完整的 0-7 严重性标度。 分类器按照此程度检测所有严重性。 如果用户已指定,它可以返回修整标度 0、2、4 和 6 的严重性;每两个相邻级别映射到单个级别。

  • [0,1] ->0
  • [2,3] ->2
  • [4,5] ->4
  • [6,7] ->6

文本内容

警告

本文档中的严重性定义选项卡包含可能对某些读者造成干扰的有害内容示例。

图像内容

警告

本文档中的严重性定义选项卡包含可能对某些读者造成干扰的有害内容示例。

多模式(带文本的图像)内容

警告

本文档中的严重性定义选项卡包含可能对某些读者造成干扰的有害内容示例。

后续步骤

遵照快速入门的说明,开始在应用程序中使用 Azure AI 内容安全。