确定用于实现负责任的 AI 的指导原则

已完成

在上一单元中,我们讨论了 AI 的一些社会影响。 我们了解了企业、政府、NGO 和学术研究人员对于预计和减轻 AI 技术带来的意外后果的责任。 考虑到这些责任,越来越多的组织正在制定内部策略和做法来指导其 AI 工作。

在 Microsoft,我们已经确认我们认为应该用于指导 AI 开发的六项原则:公平、可靠和安全、隐私和安全、包容、透明以及问责。 对于我们而言,这些原则是负责任的和值得信赖的 AI 方法的基石,尤其是智能技术在我们每天使用的产品和服务中变得越来越常见时。

公平

表示公平性的图标。

AI 系统应该公平对待每个人,并避免以不同的方式影响境况相似的人群。 例如,当 AI 系统提供有关医疗、贷款申请或就业的指南时,它们应该向具有类似症状、财务状况或专业资质的每个人提供相同的建议。

为了确保 AI 系统中的公平性,应:

  • 通过一些问题来理解 AI 系统的范围、精神和潜在用途。比如, 系统预计如何工作? 谁是设计系统时的预期用户? 系统是否会平等对待每个人? 它可能如何伤害他人?
  • 吸引各种各样的人才。 通过包括具有不同背景、经验、教育经历和观点的团队成员,确保设计团队反映我们生活的世界。
  • 通过评估数据的来源、了解数据的整理方式以及进行测试以确保其具有代表性,从而识别数据集中的偏见。 创建的每个阶段都可能会引入偏见,从收集到建模再到运行。 负责任 AI 仪表板在“资源”部分提供,其中包含一项可帮助完成此任务的功能。
  • 通过应用可提高模型透明度和可理解性的工具和技术,识别机器学习算法中的偏见。 用户应主动识别和消除机器学习算法中的偏见。
  • 利用人工审查和领域专业知识。 培训员工理解 AI 结果的含义和影响,尤其是当 AI 用于为有关人的决策提供信息时。 使用 AI 的决策应始终与人工评审配对。 在设计过程和部署决策中引入相关主题专家。 例如,将消费者信贷主题专家纳入信用评分 AI 系统。 应将 AI 用作辅助工具,即,让它帮助你更好、更快地完成工作,但需要一定程度的监督。
  • 研究并采用其他机构和企业的最佳做法、分析技术和工具,以帮助检测、预防和解决 AI 系统中的偏见问题。

可靠性和安全性

表示可靠性的图标。

若要建立信任,AI 系统在正常情况下和意外情况下均能可靠、安全且一致地运行至关重要。 这些系统应该能够按照最初的设计运行、安全地响应意外情况,并抵御有害操作。 能够验证这些系统在实际操作条件下按预期运行也很重要。 它们的行为方式以及它们能够可靠和安全地处理的各种状况在很大程度上反映了开发人员在设计和测试期间预期的各种情况和环境的范围。

为了确保 AI 系统的可靠性和安全性,应:

  • 制定用于审计 AI 系统的流程,以评估数据和模型的质量及适用性、持续监视性能,以及根据既定的性能衡量标准验证并确保系统按预期运行。
  • 提供详细的系统操作说明,包括设计规范、有关训练数据的信息、训练失败情况和训练数据存在的潜在不足之处,以及产生的推理和重要预测结果。
  • 针对意外情况进行设计,例如意外系统交互、恶意数据引入或网络攻击。
  • 让领域专家参与设计和实施过程,尤其是在使用 AI 帮助做出有关人的决策时。
  • 在 AI 系统开发和部署期间开展严格测试,以确保系统能够安全地响应意外情况、不会出现意外的性能故障,并且不会以意想不到的方式发展。 涉及影响人类安全或大量人群的高风险情景的 AI 系统应在实验室和现实世界方案中进行测试。
  • 评估 AI 系统何时以及如何就具有影响力的决策或在出现危急情况时寻求人类意见。 思考 AI 系统应该如何以有意义和可理解的方式将控制权转移给人类。 设计 AI 系统,以确保人类能够针对具有高影响力的决策提供必要的意见。
  • 开发可靠的反馈机制,方便用户报告性能问题,从而快速解决问题。

隐私和安全

表示隐私的图标。

随着 AI 变得越来越普遍,保护隐私和保护重要个人及商业信息变得越来越重要和复杂。 对于 AI,需要特别密切关注隐私和数据安全问题,因为访问数据对于 AI 系统做出有关人类的准确、明智的预测和决策而言至关重要。

为了确保 AI 系统中的隐私和安全,应:

  • 遵守相关数据保护、隐私和透明度法规,方法是在开发合规性技术和流程方面投入资源,或在 AI 系统开发期间与技术领导者合作。 开发相关流程以持续检查并确保 AI 系统满足这些法律的所有方面。
  • 设计 AI 系统以保持个人数据的完整性,以便它们只能在需要时使用个人数据,并且只能用于已告知客户的规定目的。 删除无意中收集的个​​人数据或与规定目的不再相关的数据。
  • 通过基于安全开发和运行基础设计 AI 系统、使用基于角色的访问以及保护传输给第三方的个人和机密数据,保护 AI 系统免受恶意行动者的影响。 设计 AI 系统以识别异常行为并防止操纵和恶意攻击。
  • 设计具有适当控制权的 AI 系统,以便客户能够选择收集和使用其数据的方式及原因。
  • 通过考虑系统如何从数据中删除个人标识,确保 AI 系统保持匿名。
  • 对所有 AI 系统开展隐私和安全审查
  • 研究并实施行业最佳做法,以跟踪有关客户数据的相关信息、访问和使用该据,以及审计访问和使用情况。

包容

表示包容性的图标。

在 Microsoft,我们坚信每个人都应该从智能技术中受益,这意味着它必须融入并满足广泛的人类需求和体验。 对于全球 10 亿残障人士而言,AI 技术可以改变游戏规则。 AI 可以提高获得教育、政府服务、就业、信息以及其他各种机会的便利性。 实时语音到文本转录、视觉识别服务和预测文本功能等智能解决方案已在为那些具有听觉、视觉和其他障碍的人们提供支持。

Microsoft 包容性设计原则

  • 识别排斥性
  • 将适用于一个人的解决方案扩展为适用于多人的解决方案
  • 从多样性中学习

为了确保 AI 系统的包容性,应:

  • 遵守有关可及性和包容性的法律,强制要求采购无障碍技术。
  • 使用本模块“资源”部分中提供的包容性 101 指南,帮助系统开发人员了解和解决产品环境中可能无意中排除特定人员的潜在障碍。
  • 让残障人士测试你的系统,以帮助确定系统是否可以由尽可能广泛的受众按预期使用。
  • 考虑常用的无障碍标准,以帮助确保各种人员都可以访问你的系统。

透明

表示透明度的图标。

前述价值观的基础是两项基本原则,这两项原则对于确保其余原则的有效性而言至关重要:透明以及问责。 至关重要的是,当 AI 系统用于通知对人们的生活产生影响的决策时,人们必须了解 AI 系统是如何得出结论的。 例如,银行可能会使用 AI 系统来决定某人的资信是否可靠,公司也可能会使用 AI 系统来确定最符合雇佣资格的候选人。

透明的关键部分在于我们所说的可理解性,即对 AI 系统及其组件行为的有用解释。 提高可理解性要求利益干系人理解其运作方式和原因,以便他们能够发现潜在的性能问题、安全和隐私问题、偏见、排他性做法或意外结果。 我们还认为,使用 AI 系统的人员应该对于他们选择部署这些系统时间、原因和方式保持诚实并具有预见性。

为了确保 AI 系统的透明度,应:

  • 共享数据集的关键特征,以帮助开发人员了解特定数据集是否适合其用例。
  • 通过应用更简单的模型并生成模型行为的可理解解释来提高模型可理解性。 对于此任务,可以使用资源部分中提供的负责任 AI 仪表板。
  • 就如何解释 AI 输出培训员工并确保他们对基于结果做出的相应决策负责。

问责

表示问责的图标。

设计和部署 AI 系统的人必须对其系统的运行负责。 组织应利用行业标准制定问责规范。 这些规范可以确保 AI 系统不会成为影响人们生活的任何决策的最终权威,并确保人类对其他高度自治的 AI 系统保持有意义的控制。

为了确保 AI 系统的问责制,应:

  • 设立内部审查委员会,为负责任地开发和部署 AI 系统提供监督和指导。 它们还可以帮助完成各种任务,例如定义在开发期间记录和测试 AI 系统的最佳做法,或针对敏感案例提供指导。
  • 确保员工接受相关培训,能够以负责任的且合乎道德的方式使用和维护解决方案,并了解解决方案何时需要额外的技术支持。
  • 通过向人类报告并让他们参与有关模型执行的决策,让他们具备最新的必要专业知识。 当需要自动化决策时,确保他们能够借助模型输出和执行来检查、识别和解决挑战。
  • 建立明确的问责和治理体系,以便在模型被视为以不公平或可能有害的方式行事时采取补救措施或纠正行动。

我们意识到,每个个体、公司和区域都有其自己的信念和标准,这些都应该在其 AI 旅程中得到体现。 我们与你分享我们的观点,旨在为你考虑制定自己的指导原则提供参考。

提示

花点时间为每个负责任 AI 原则集思广益,构想其他示例。
照片显示人们在桌子旁工作和交谈。

这些原则提供了开发和使用 AI 时应执行的操作的一般概念。 但是,需要从更实际的层面来反映它们。 接下来,我们探讨如何使用 AI 管理系统确保履行这些原则。