你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

内容安全(文本)工具

Azure AI 内容安全是一项由 Microsoft 开发的 con帐篷模式ration 服务,可帮助检测来自不同形式和语言的有害内容。 内容安全(文本)工具是 Azure AI 内容安全文本 API 的包装器,可用于检测文本内容并获取审查结果。 有关详细信息,请参阅 Azure AI Content Safety

先决条件

  • 创建 Azure AI 内容安全 资源。
  • Azure Content Safety在提示流中添加连接。 使用API key所创建资源的节填充字段Primary keyKeys and Endpoint

输入

可以使用以下参数作为此工具的输入:

名称 Type 描述 必需
text string 需要审查的文本。
hate_category string 类别的 Hate 审查敏感度。 从四个选项中进行选择: disablelow_sensitivitymedium_sensitivityhigh_sensitivity。 此选项 disable 表示类别没有审查 Hate 。 其他三个选项意味着在筛选仇恨内容时的严格程度不同。 默认为 medium_sensitivity
sexual_category string 类别的 Sexual 审查敏感度。 从四个选项中进行选择: disablelow_sensitivitymedium_sensitivityhigh_sensitivity。 此选项 disable 表示类别没有审查 Sexual 。 其他三个选项意味着在筛选色情内容时的严格程度不同。 默认为 medium_sensitivity
self_harm_category string 类别的 Self-harm 审查敏感度。 从四个选项中进行选择: disablelow_sensitivitymedium_sensitivityhigh_sensitivity。 此选项 disable 表示类别没有审查 Self-harm 。 其他三个选项意味着筛选出自残内容时的不同严格程度。 默认为 medium_sensitivity
violence_category string 类别的 Violence 审查敏感度。 从四个选项中进行选择: disablelow_sensitivitymedium_sensitivityhigh_sensitivity。 此选项 disable 表示类别没有审查 Violence 。 其他三个选项意味着在筛选暴力内容时的严格程度不同。 默认为 medium_sensitivity

有关详细信息,请参阅 Azure AI Content Safety

Outputs

以下示例是该工具返回的示例 JSON 格式响应:

{
    "action_by_category": {
      "Hate": "Accept",
      "SelfHarm": "Accept",
      "Sexual": "Accept",
      "Violence": "Accept"
    },
    "suggested_action": "Accept"
  }

action_by_category 字段为每个类别提供二进制值: AcceptReject。 此值显示文本是否满足在该类别的请求参数中设置的敏感度级别。

字段 suggested_action 根据四个类别提供总体建议。 如果任何类别具有Reject值,则suggested_action也为Reject