你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
保护 AI – 面向负责保护 Azure 中 AI 工作负荷的组织的建议
本文概述了保护 AI 工作负荷的组织流程。 它关注于 AI 的机密性、完整性和可用性 (CIA)。 有效的安全做法可以保护 AI 模型和数据的机密性、完整性和可用性,从而降低受损风险。 安全的 AI 环境还能与业务安全目标保持一致,并增强对 AI 驱动流程的信任。
评估 AI 安全风险
评估 AI 安全风险包括识别和评估可能影响 AI 工作负荷的潜在漏洞。 积极应对这些风险有助于防止漏洞、操纵和滥用,从而增强 AI 应用程序的可靠性。 这种方法还能通过保护敏感数据和维护利益相关者的信任来为组织目标提供支持。
识别常见的 AI 安全风险。 使用已识别的资源,如 MITRE ATLAS、OWASP 机器学习风险和 OWASP 生成式 AI 风险来定期评估所有 AI 工作负荷的风险。 对于持续的安全态势管理,请考虑使用 AI 安全工具,如 Microsoft Defender for Cloud 中的 AI 安全态势管理。 这些工具可以自动检测和修复生成式 AI 风险。
识别数据风险。 敏感数据丢失或泄露会对企业的利益相关者和合规义务产生重大影响。 使用企业级工具(如 Microsoft Purview 内部风险管理)来评估内部人员风险并维护整个业务的数据安全。 在所有 AI 工作负荷中,根据其处理、存储或传输数据的敏感性对风险进行分类和优先级排序。
执行 AI 威胁建模。 通过使用 STRIDE 等框架来评估所有 AI 工作负荷的潜在攻击途径,在全公司范围内执行 AI 威胁建模。 定期更新威胁模型,以适应新的 AI 用例和威胁。 AI 卓越中心应考虑集中管理 AI 威胁建模,以确保整个组织采用统一的方法,并降低与各种 AI 模型、数据源和流程相关的风险。
测试 AI 模型。 针对生成式 AI 模型和非生成式模型进行红队测试,以评估它们面对攻击时的漏洞。 PyRIT 等工具可以自动执行生成式 AI 的这一过程,这样就可以在各种条件下对模型的输出结果提出质疑。 这一步骤技术性很强,需要专门的专业知识才能有效完成。
实现 AI 安全控制
实现 AI 安全控制意味着制定政策、程序和工具,以保护 AI 资源和数据的安全。 这些控制措施有助于确保符合监管要求,防止未经授权的访问,支持持续运营和数据隐私。 如果在 AI 工作负荷中应用一致的控制措施,就能更有效地管理安全性。
保护 AI 资源
保护 AI 资源包括对支持 AI 应用程序的系统、模型和基础结构进行管理和保护。 这一步骤可降低未经授权访问的可能性,并有助于在整个组织内实现安全做法的标准化。 全面的资源清单允许一致地应用安全策略,并加强对 AI 资产的整体控制。
建立集中的 AI 资产清单。 维护一份详细且最新的 AI 工作负荷资源清单,可确保对所有 AI 工作负荷统一应用安全策略。 编制一份全公司范围内所有 AI 系统、模型、数据集和 Azure 基础结构的清单。 利用 Azure Resource Graph 资源管理器和 Microsoft Defender for Cloud 等工具来自动执行发现流程。 Microsoft Defender for Cloud 可以发现生成式 AI 工作负荷并预部署的生成式 AI 工件。
保护 Azure AI 平台。 对每个 AI 资源的 Azure 安全基线应用进行标准化。 遵循 Azure 服务指南中的安全建议。
使用特定于工作负荷的治理指导。 针对 Azure 平台服务 (PaaS) 和 Azure 基础结构 (IaaS) 上的 AI 工作负荷提供了详细的安全指导。 使用本指南可保护这些工作负荷类型中的 AI 模型、资源和数据。
保护 AI 数据
保护 AI 数据涉及到保护 AI 模型的使用和生成的数据。 有效的数据安全做法有助于防止未经授权的访问、数据泄露和违反合规性。 控制数据访问和维护详细目录还有助于做出明智的决策,同时降低敏感信息暴露的风险。
定义并维护数据边界。 确保 AI 工作负荷使用适合其访问级别的数据。 所有员工都能访问的 AI 应用程序只能处理适合所有员工的数据。 面向 Internet 的 AI 应用程序必须使用适合公众使用的数据。 为不同的 AI 应用程序使用不同的数据集或环境,以防止意外的数据访问。 考虑使用 Microsoft Purview 的数据安全工具套件来确保数据的安全。
实施严格的数据访问控制。 确保应用程序会对最终用户是否有权访问其查询所涉及的数据进行验证。 避免为用户操作设置宽泛的系统权限。 操作时遵循以下原则:如果 AI 可以访问某些信息,则应授权用户直接访问这些信息。
维护一个数据目录。 保留一份连接到 AI 系统并会由 AI 系统使用的所有数据的最新目录,包括存储位置和访问详细信息。 定期扫描和标记数据,以便跟踪敏感性级别和适用性,从而帮助分析和识别风险。 考虑使用 Microsoft Purview 数据目录来映射和管理数据。
创建数据敏感性变更管理计划。 跟踪数据敏感性级别,因为它们会随着时间的推移而发生变化。 使用数据目录来监控 AI 工作负荷中使用的信息。 实现从 AI 工作负荷中查找和删除敏感数据的流程。
保护 AI 工件。 将 AI 模型和数据集视为有价值的知识产权,并采取相应措施加以保护。 将 AI 模型和数据集存储在专用终结点后面以及 Azure Blob 存储和专用工作区等安全环境中。 采用严格的访问策略和加密技术来保护 AI 工件,防止未经授权的访问或盗窃,从而防止数据中毒。
保护敏感数据。 当原始数据源不适合直接使用时,可使用仅包含必要信息的副本、本地拷贝或子集。 在受控环境中处理敏感数据,这些环境具有网络隔离和严格的访问控制功能,可防止未经授权的访问或数据泄露。 此外,还要实施全面的保障措施,如加密、持续监控和入侵检测系统,以防止数据在处理过程中发生泄露。
维护 AI 安全控制
维护 AI 安全控制包括持续监控、测试和更新安全措施,以应对不断变化的威胁。 定期评审安全控制措施是否可确保 AI 工作负荷始终受到保护,并确保组织能够适应新的风险。 主动维护有助于防止漏洞,并长期保持对 AI 系统的信任。
在 AI 系统中实现数据泄露和强制测试。 进行严格的测试,以确定敏感数据是否会通过 AI 系统泄露或强制使用。 执行数据丢失防护 (DLP) 测试并模拟特定于 AI 的攻击方案。 模拟模型反转或对抗攻击,以便评估数据保护措施的复原能力。 确保 AI 模型和数据处理流程安全,防止未经授权的访问和篡改,对于维护数据完整性和 AI 应用程序的信任度至关重要。
为员工提供以 AI 为重点的培训,增强他们的意识。 为所有参与 AI 项目的员工提供培训计划。 强调数据安全的重要性以及 AI 开发和部署的最佳做法。 培训员工如何处理训练中使用的敏感数据,并识别模型反转或数据中毒攻击等威胁。 定期培训可确保团队成员了解最新的 AI 安全协议,并了解他们在维护 AI 工作负荷完整性方面的作用。
针对 AI 安全事件制定并维护事件响应计划。 针对 AI 系统制定事件响应策略,以应对潜在的数据泄露或安全事件。 该计划应概述检测、报告和缓解可能影响 AI 模型、数据或基础设施的安全事件的明确程序。 定期开展以 AI 特定场景为重点的演习和模拟,以确保响应团队做好准备,高效处理现实世界中的 AI 安全事件。
定期进行风险评估。 通过风险评估和影响分析,定期评估 AI 特有的新威胁和漏洞。 这些评估有助于识别与 AI 模型、数据处理流程和部署环境相关的新风险。 评价还评估了安全漏洞对 AI 系统的潜在影响。
后续步骤
治理 AI、管理 AI 和保护 AI 是必须定期重复开展的持续流程。 根据需要重新审视每项 AI 策略、AI 计划和 AI 就绪状态。 使用 AI 采用清单来确定下一步应该怎么做。