了解负责任 AI 的考虑因素
上一单元介绍了负责任和有道德地开发支持 AI 的软件的重要性。 在本单元中,我们将讨论 Microsoft 为开发负责任的 AI 所采用的一些核心原则。
公平
AI 系统应该公平对待所有人。 例如,假设你创建了一个机器学习模型来为银行的贷款审批应用程序提供支持。 该模型应在不考虑任何基于性别、种族或其他因素的偏见的情况下,对是否应批准贷款做出预测,这些偏见可能导致特定的申请人群遭受不公平的差别待遇。
机器学习系统的公平性是时下研究热点,我们可以借助一些软件解决方案来评估、量化和缓解机器学习模型中的不公平问题。 但是,仅使用工具不能彻底解决公平性问题。 从应用程序开发的开始阶段就要考虑公平性;仔细审核训练数据,确保其代表所有可能受影响的主题,并在整个开发生命周期内评估用户群体各部分的预测性能。
可靠和安全。
AI 系统应可靠且安全地运行。 例如,想象一个基于 AI 的自动驾驶软件系统,或是一个诊断患者症状并推荐处方的机器学习模型。 这些系统一旦出现不可靠性,就可能会给生命安全带来重大风险。
对于任何软件,基于 AI 的软件应用程序开发都必须经过严格的测试和部署管理,以在发布前确保它们能达到预期。 此外,软件工程师需要考虑机器学习模型的概率问题,并在评估预测的置信度分数时应用适当的阈值。
隐私和安全
AI 系统应该保护并尊重隐私。 AI 系统所基于的机器学习模型依赖于大量数据,这些数据可能包含必须保密的个人详细信息。 即使在模型经过训练且系统投入生产后,他们仍会使用新数据进行预测或采取措施应对隐私或安全问题;因此,必须实施适当的安全措施来保护数据和客户内容。
包容
AI 系统应该成为人们的有力助手,并与人互动。 AI 应不分身体能力、性别、性取向、种族或其他因素,造福社会各个阶层。
针对包容性进行优化的一个方法是确保应用程序的设计、开发和测试由各种不同的小组成员完成。
透明度
AI 系统应该是可理解的。 应让用户能充分了解系统的用途、工作方式以及局限性。
例如,当 AI 系统基于机器学习模型时,通常应让用户了解可能影响其预测准确性的因素,例如用于训练模型的事例数,或对预测结果影响最大的特定特征。 还应共享有关预测的置信度分数的信息。
当 AI 应用程序依赖于个人数据时(例如面部识别系统,该系统通过拍摄人脸图像来识别人员身份),应该向用户清楚地说明如何使用和保留他们的数据,以及谁有权访问这些数据。
问责
应有相关人员对 AI 系统负责。 尽管许多 AI 系统似乎是自主运行的,但最终需由开发人员负责对其使用的模型进行训练和验证,并定义基于模型预测得出决策的逻辑,以确保整体系统满足责任要求。 为了帮助实现这一目标,设计和开发基于 AI 的解决方案的人员应在管理和组织原则的框架内工作,以确保解决方案符合定义明确的道德和法律标准。
注意
Microsoft 已在 2022 年 6 月将有意义的更新发布到负责任 AI 标准。 在其中,我们已更新面部识别的方法,包括针对某些功能的新限制访问策略,用于保障负责任的使用。 你可以申请该受限访问,以便为应用程序启用这些功能。
如果想要深入了解 Microsoft 针对负责任 AI 制定的原则,请访问 Microsoft 负责任 AI 站点。