为负责任 AI 带来的影响做好准备
AI 是我们这个时代的决定性技术。 它已经在人类活动的几乎每个领域实现了更快、更深刻的进步,并有助于解决社会中一些最令人生畏的挑战。 例如,AI 可以通过为图像生成描述性文本来帮助视觉障碍人士理解图像。 在另一个示例中,AI 可以帮助农民为不断增长的全球人口生产足够的食物。
在 Microsoft,我们相信 AI 的计算智能应该用于放大人类固有的创造力和独创性。 我们对 AI 的愿景是让每个开发人员都能够进行创新、使组织能够改变行业,并让人们能够改变社会。
AI 的社会影响
与过去所有伟大的技术创新一样,AI 技术的使用对社会产生了广泛影响,从而引发关于我们想要看到何种未来的复杂而具有挑战性的问题。 AI 对跨行业的决策、数据安全和隐私,以及人们在工作场所取得成功所需的技能都有影响。 展望未来,我们必须扪心自问:
- 我们如何设计、构建和使用对个人及社会产生积极影响的 AI 系统?
- 我们如何才能让员工为 AI 的影响做好最佳准备?
- 我们如何在尊重隐私的同时获得 AI 的好处?
负责任的 AI 方法的重要性
重要的是要意识到,随着新的智能技术出现并在整个社会中普及,在享受其好处的同时也将出现意想不到的和不可预见的后果。 其中一些后果具有重大道德影响并可能造成严重伤害。 虽然组织还不能预测未来,但我们有责任通过深思熟虑的计划和持续不断的监督,共同努力预测和减轻我们向世界所发布的技术带来的意外后果。
威胁
AI 技术的每一次突破都提醒我们肩负着共同的责任。 例如,在 2016 年,Microsoft 在 X 上发布了一个名为 Tay 的聊天机器人,它可以通过与 X 用户交互进行学习。 目标是使聊天机器人能够更好地复制人类沟通和个性特征。 然而,在 24 小时内,用户就意识到聊天机器人会从偏执的言论中学习,并把聊天机器人变成了仇恨言论的载体。 此体验例证了在设计 AI 系统时必须考虑人为威胁的原因。
新的威胁要求我们不断演变处理负责任 AI 的方法。 例如,由于生成式 AI 使用户能够创建或编辑逼真的视频、图像或音频文件,因此媒体真实性更难验证。 作为回应,Microsoft 将与其他技术和新闻利益干系人合作,制定技术标准来解决与深度伪造相关的操作。
注意
为了应对可能影响学习数据集的新型攻击,Microsoft 开发了高级内容筛选器等技术,并为具有自动学习功能的 AI 系统引入了监管系统。 当前的生成式 AI 模型(例如 Azure AI 服务或必应聊天中提供的模型)是基于这些见解构建的。
有偏见的结果
组织应该记住的另一个意想不到的后果是,AI 可能会在没有特意计划和设计的情况下强化社会或其他偏见。 对于开发人员而言,了解偏差如何被引入训练数据或机器学习模型非常重要。 此问题可能普遍存在于预生成模型中,因为用户可能不自行处理训练数据。
例如,考虑一家大型金融借贷机构,该机构希望为贷款审批开发风险评分系统。 当工程师在部署前测试系统时,他们意识到它只批准男性借款人的贷款。 由于该系统是根据过去客户的数据进行训练的,因此它再现了信贷专员历史上的性别歧视偏见。 在部署之前验证系统使我们能够在系统运行之前识别并解决问题。
注意
在 Microsoft,我们的研究人员正在探索用于检测和减少 AI 系统内偏见的工具和技术。 虽然预生成模型经过彻底验证,但仍应明智地使用,并始终审核其结果,然后再采取行动。
敏感用例
我们减少意外后果的责任的另一个例证是面部识别等敏感技术。 最近,人们对面部识别技术的需求不断增长,特别是来自执法机构的人员,他们发现了该技术在寻找失踪儿童等用例方面的潜力。 然而,我们认识到,这些技术可能会危及基本自由。 例如,它们可能对特定个人进行持续监视。 我们认为社会有责任为这些技术的使用设定适当的界限,其中包括确保政府对面部识别技术的使用仍然受法律约束。
虽然必须制定新的法律和法规,但它们不能替代我们在与 AI 打交道时所承担的责任。 通过共同努力,企业、政府、非政府组织和学术研究人员都可以解决敏感用例。
注意
Microsoft 评估并制定用于管理我们的面部识别技术工作的原则。 随着我们就此问题不断学习并与客户、其他科技公司、学者、民间社团和其他人合作,我们预计这些原则将随时间推移而发展。 Microsoft 使用负责任 AI 实践来检测、预防和缓解这些问题,但任何与 AI 相关的项目也应考虑这些问题。
接下来,我们来了解 Microsoft 用于实现负责任 AI 的六项指导原则如何在其他组织内部应用。