适用于 Microsoft 365 的 Microsoft Copilot 的数据、隐私和安全性
适用于 Microsoft 365 的 Microsoft Copilot 是一个复杂的处理和编排引擎,它通过协调以下组件提供 AI 支持的生产力功能:
- 大型语言模型(LLM)
- Microsoft Graph 中的内容,例如你有权访问的电子邮件、聊天和文档。
- 每天使用的 Microsoft 365 应用,例如 Word 和 PowerPoint。
有关这三个组件如何协同工作的概述,请参阅 适用于 Microsoft 365 的 Microsoft Copilot 概述。 有关与适用于 Microsoft 365 的 Microsoft Copilot 相关的其他内容的链接,请参阅 适用于 Microsoft 365 的 Microsoft Copilot 文档。
重要
- 适用于 Microsoft 365 的 Microsoft Copilot 符合我们对 Microsoft 365 商业客户的现有隐私、安全性和合规性承诺,包括一般数据保护条例 (GDPR) 和欧盟 (EU) 数据边界。
- 通过 Microsoft Graph 访问的提示、回复和数据不用于训练基础 LLM,包括适用于 Microsoft 365 的 Microsoft Copilot 使用的 LLM。
- 适用于 Microsoft 365 的 Microsoft Copilot 具有多种保护,包括但不限于阻止有害内容、检测受保护的材料以及阻止提示注入(越狱攻击)。
本文中的信息旨在帮助回答以下问题:
- 适用于 Microsoft 365 的 Microsoft Copilot 如何使用专有组织数据?
- 适用于 Microsoft 365 的 Microsoft Copilot 如何保护组织信息和数据?
- 会存储哪些有关用户与适用于 Microsoft 365 的 Microsoft Copilot 交互的数据?
- Microsoft Copilot 做出哪些数据驻留承诺?
- 适用于 Microsoft 365 的 Microsoft Copilot 提供哪些扩展性选项
- 适用于 Microsoft 365 的 Microsoft Copilot 如何满足法规合规性要求?
- Microsoft 365 应用中连接体验的控件是否可用于适用于 Microsoft 365 的 Microsoft Copilot?
- 是否可以信任适用于 Microsoft 365 的 Microsoft Copilot 创建的内容? 谁拥有此内容?
- Microsoft 对负责任地使用 AI 的承诺是什么?
注意
适用于 Microsoft 365 的 Microsoft Copilot 将随着时间推移而不断改进,并提供新功能。 若要在适用于 Microsoft 365 的 Microsoft Copilot 上保持最新状态或提问,请访问 Microsoft 技术社区上的 Microsoft 365 Copilot 社区。
适用于 Microsoft 365 的 Microsoft Copilot 如何使用专有组织数据?
适用于 Microsoft 365 的 Microsoft Copilot 通过联系 LLM 与组织数据来提供价值。 适用于 Microsoft 365 的 Microsoft Copilot 通过 Microsoft Graph 访问内容和上下文。 它可以基于客户业务内容(例如用户文档、电子邮件、日历、聊天、会议、联系人和其他业务数据)生产响应。 适用于 Microsoft 365 的 Microsoft Copilot 将此内容与用户的工作上下文联系起来,例如用户现在参加的会议、用户对某个主题的电子邮件交流,或用户上周的聊天对话。 适用于 Microsoft 365 的 Microsoft Copilot 将此内容和上下文联系起来,以帮助提供准确、相关和符合上下文的回复。
重要
通过 Microsoft Graph 访问的提示、回复和数据不用于训练基础 LLM,包括适用于 Microsoft 365 的 Microsoft Copilot 使用的 LLM。
适用于 Microsoft 365 的 Microsoft Copilot 仅显示单个用户至少具有查看权限的组织数据。 请务必使用 Microsoft 365 服务(例如 SharePoint)中提供的权限模型,以帮助确保正确的用户或组有权访问组织内的相应内容。 这包括通过租户间协作解决方案(如 Microsoft Teams 中的共享频道)向组织外部的用户授予的权限。
使用适用于 Microsoft 365 的 Microsoft Copilot 输入提示时,提示中包含的信息、它们检索的数据以及生成的回复仍在 Microsoft 365 服务边界内,以符合我们当前的隐私、安全性和合规性承诺。 适用于 Microsoft 365 的 Microsoft Copilot 使用 Azure OpenAI 服务进行处理,而不是使用 OpenAI 的公开服务。 Azure OpenAI 不会缓存客户内容,并且 Copilot 修改了适用于 Microsoft 365 的 Copilot 的提示。
注意
- 使用插件帮助适用于 Microsoft 365 的 Copilot 提供更多相关信息时,请检查该插件的隐私声明和使用条款,以确定它如何处理组织的数据。 有关详细信息,请参阅适用于 Microsoft 365 的 Microsoft Copilot 的扩展性。
- 使用 Web 内容插件时,适用于 Microsoft 365 的 Copilot 会分析用户的提示,并识别 Web 支持可以提高回复质量的术语。 Copilot 会根据这些术语生成一个将发送到必应搜索服务的搜索查询。 有关详细信息,请参阅适用于 Microsoft 365 的 Copilot 中 Web 查询的数据、隐私和安全性。
对适用于 Microsoft 365 的 Microsoft Copilot 的滥用监视是实时进行的,无需向 Microsoft 提供对客户数据的任何长期访问权限,无论是人工还是自动审查。 虽然滥用审查(包括对内容进行人工审查)在 Azure OpenAI 中可用,但适用于 Microsoft 365 的 Microsoft Copilot 服务已选择退出。 Azure OpenAI 不会收集或存储 Microsoft 365 数据。
注意
我们可能会使用客户反馈(可选)来改进适用于 Microsoft 365 的 Microsoft Copilot,就像我们使用客户反馈改进其他 Microsoft 365 服务和 Microsoft 365 应用一样。 我们不会使用此反馈来训练适用于 Microsoft 365 的 Microsoft Copilot 使用的基础 LLM。 客户可以通过管理员控件管理反馈。 有关详细信息,请参阅管理组织的 Microsoft 反馈和提供有关适用于 Microsoft 365 的 Microsoft Copilot 的反馈。
存储的有关用户与适用于 Microsoft 365 的 Microsoft Copilot 交互的数据
当用户与适用于 Microsoft 365 的 Microsoft Copilot 应用 (使用 Word、PowerPoint、Excel、OneNote、Loop 或 Whiteboard 等) 交互时,我们会存储有关这些交互的数据。 存储的数据包括用户的提示和 Copilot 的回复,包括对用于支持 Copilot 回复的任何信息的引用。 我们将用户的提示和 Copilot 对此提示的回复称为“交互内容”,这些交互的记录是用户的 Copilot 交互历史记录。 例如,此存储的数据为用户提供 Microsoft Copilot 中的 Copilot 交互历史记录,其中包含基于 Graph 的聊天 和 Microsoft Teams 中的会议。 此数据的处理和存储方式与组织在 Microsoft 365 中的其他内容的合同承诺保持一致。 数据会在存储时加密,且不会用于训练基础 LLM,包括适用于 Microsoft 365 的 Microsoft Copilot 使用的基础 LLM。
若要查看和管理此存储数据,管理员可以使用内容搜索或 Microsoft Purview。 管理员还可以使用 Microsoft Purview 为与 Copilot 的聊天交互相关的数据设置保留策略。 有关详细信息,请参阅以下文章:
对于使用 Copilot 的 Microsoft Teams 聊天,管理员还可以使用 Microsoft Teams 导出 API 查看存储的数据。
删除用户与适用于 Microsoft 365 的 Microsoft Copilot 交互的历史记录
用户可以通过转到“我的帐户”门户 删除其 Copilot 交互历史记录(包括其提示和 Copilot 返回的回复)。 有关详细信息,请参阅 删除 Microsoft Copilot 交互历史记录。
适用于 Microsoft 365 的 Microsoft Copilot 和欧盟数据边界
适用于 Microsoft 365 的 Microsoft Copilot 对 LLM 的调用会路由到区域最近的数据中心,但也可以调用到利用率高峰期间有可用容量的其他区域。
对于欧盟 (EU) 用户,我们有其他安全措施来遵守欧盟数据边界。 欧盟流量保留在欧盟数据范围内,而全球流量可以发送到欧盟和其他国家或地区进行 LLM 处理。
适用于 Microsoft 365 的 Microsoft Copilot 和数据驻留
适用于 Microsoft 365 的 Copilot 正在遵守 Microsoft 产品条款和数据保护附录中所述的数据驻留承诺。 适用于 Microsoft 365 的 Copilot 已于 2024 年 3 月 1 日 添加为 Microsoft 产品条款中的数据驻留承诺中涵盖的工作负载。
Microsoft 高级数据驻留 (ADR) 和多地理位置功能产品/服务包括截至 2024 年 3 月 1 日适用于 Microsoft 365 的 Copilot客户的数据驻留承诺。 对于欧盟客户,适用于 Microsoft 365 的 Copilot 是欧盟数据边界服务。 欧盟以外的客户可能会在美国、欧盟或其他区域处理其查询。
适用于 Microsoft 365 的 Microsoft Copilot 的可扩展性
虽然适用于 Microsoft 365 的 Microsoft Copilot 已能够在 Microsoft 365 生态系统中使用应用和数据,但许多组织仍依赖各种外部工具和服务进行工作管理和协作。 适用于 Microsoft 365 的 Microsoft Copilot 体验可以通过使用 Microsoft Graph 连接器或插件在响应用户请求时引用第三方工具和服务。 如果用户有权访问该信息,则可以在适用于 Microsoft 365 的 Microsoft Copilot 中返回来自 Graph 连接器的数据。
启用插件后,适用于 Microsoft 365 的 Microsoft Copilot 确定是否需要使用特定插件来帮助向用户提供相关回复。 如果需要插件,适用于 Microsoft 365 的 Microsoft Copilot 将生成一个搜索查询,以代表用户发送到该插件。 查询基于用户的提示、Copilot 交互历史记录以及用户在 Microsoft 365 中有权访问的数据。
在 Microsoft 365 管理中心 的 集成应用部分中,管理员可以查看插件所需的权限和数据访问权限,以及插件的使用条款和隐私声明。 管理员可以完全控制以选择允许在其组织中使用的插件。 用户只能访问其管理员允许的插件以及用户安装或分配的插件。 适用于 Microsoft 365 的 Microsoft Copilot 仅使用用户启用的插件。
注意
控制在 Microsoft 365 应用版中使用可选连接体验的策略设置不适用于插件。
有关详细信息,请参阅以下文章:
- 在集成应用中管理 Copilot 的插件
- 扩展适用于 Microsoft 365 的 Microsoft Copilot
- 适用于 Microsoft 365 的 Microsoft Copilot 如何处理外部数据
适用于 Microsoft 365 的 Microsoft Copilot 如何保护组织数据?
Microsoft 365 租户中的权限模型有助于确保数据不会在用户、组和租户之间无意中泄漏。 适用于 Microsoft 365 的 Microsoft Copilot 仅显示每个人可以访问的数据,且使用与其他 Microsoft 365 服务中使用的数据访问相同的基础控件。 语义索引支持基于用户身份的访问范围,以便“Grounding”进程仅访问当前用户有权访问的内容。 有关详细信息,请参阅 Microsoft 的 隐私策略和服务文档。
如果数据由 Microsoft Purview 信息保护加密,则适用于 Microsoft 365 的 Microsoft Copilot 将遵守授予用户的使用权限。 可以通过 敏感度标签 应用此加密,也可以通过使用信息权限管理 (IRM) 在 Microsoft 365 中的应用中使用受限权限来应用此加密。 有关将 Microsoft Purview 与适用于 Microsoft 365 的 Microsoft Copilot 配合使用的详细信息,请参阅 生成式 AI 应用的 Microsoft Purview 数据安全和合规性保护。
我们已实施多种形式的保护,以帮助防止客户损害 Microsoft 365 服务和应用程序,或获取对其他租户或 Microsoft 365 系统自身的未经授权的访问权限。 下面是各种保护形式的一些示例:
Microsoft 365 服务每个租户中的客户内容逻辑隔离是通过 Microsoft Entra 授权和基于角色的访问控制实现。 有关详细信息,请参阅 Microsoft 365 隔离控件。
Microsoft 使用严格的物理安全性、后台屏蔽和多层加密策略来保护客户内容的机密性和完整性。
Microsoft 365 使用服务端技术来加密静态和传输中的客户内容,包括 BitLocker、按文件加密、传输层安全性 (TLS) 和 Internet 协议安全性 (IPsec)。 有关 Microsoft 365 加密的具体详细信息,请参阅 Microsoft 云中的加密。
Microsoft 承诺遵守广泛适用的隐私法(例如 GDPR)和隐私标准(例如 ISO/IEC 27018),这是全球首个云隐私国际实践准则,从而加强你对数据的控制。
对于通过适用于 Microsoft 365 的 Microsoft Copilot 插件访问的内容,加密可以排除编程访问,从而限制插件访问内容。 有关详细信息,请参阅 为 Azure 信息保护配置使用权限。
满足法规合规性要求
随着 AI 领域法规的发展,Microsoft 将继续满足和适应足未来法规的要求。
适用于 Microsoft 365 的 Microsoft Copilot 基于 Microsoft 当前对企业中数据安全和隐私的承诺。 这些承诺始终如一。 适用于 Microsoft 365 的 Microsoft Copilot 已集成到 Microsoft 365 中,并遵守对 Microsoft 365 商业客户的所有现有隐私、安全和合规性承诺。 有关详细信息,请参阅 Microsoft 合规性。
除了遵守法规之外,我们还优先与客户、合作伙伴和监管机构建立开放对话,以便更好地了解和解决问题,从而形成信任和合作的环境。 我们承认在 Microsoft AI 驱动的环境下,隐私性、安全性和透明度不仅仅是其特征,而是先决条件。
其他信息
适用于 Microsoft 365 的 Microsoft Copilot 和连接体验的策略设置
如果关闭用于分析组织中 Windows 或 Mac 设备上 Microsoft 365 应用版内容的连接体验,则以下应用中的用户将无法使用适用于 Microsoft 365 的 Microsoft Copilot 功能:
- Excel
- PowerPoint
- OneNote
- Word
同样,如果关闭 Microsoft 365 应用版的连接体验,则 Windows 或 Mac 设备上这些应用中的适用于 Microsoft 365 的 Microsoft Copilot 功能将不可用。
有关这些策略设置的详细信息,请参阅以下文章:
关于适用于 Microsoft 365 的 Microsoft Copilot 创建的内容
使用生成性 AI 产生的响应,并不能保证 100% 的事实性。 尽管我们不断改进响应,但用户仍应在发送输出内容给其他人之前通过判断来检查。 我们的适用于 Microsoft 365 的 Microsoft Copilot 功能提供有用的草稿和摘要,可帮助你实现更多目标,同时让你有机会查看生成的 AI,而不是将这些任务完全自动化。
我们将继续改进算法,努力解决诸如错误信息和虚假信息、内容拦截、数据安全等问题,并根据我们负责任的 AI 原则防止推广有害或歧视性的内容等问题。
Microsoft 不声明服务输出的所有权。 也就是说,我们不会确定客户的输出是否受版权保护或可对其他用户强制执行。 这是因为生成式 AI 系统可能会对多个客户的类似提示或查询生成类似的响应。 因此,多个客户可能拥有或声称拥有相同或基本相似的内容的权利。
如果第三方起诉商业客户使用 Microsoft Copilots 或其生成的输出侵犯版权,我们将为客户辩护,并支付诉讼导致的任何不利判决或和解金额,只要客户使用我们内置于产品中的防护措施和内容筛选器。 有关详细信息,请参阅 Microsoft 宣布面向客户的新 Copilot 版权承诺。
Copilot 如何阻止有害内容?
Azure OpenAI 服务包括与核心模型一起使用的内容筛选系统。 针对“恶意与公平”、“性”、“暴力”和“自残”类别的内容筛选模型经过了专门的培训,并以各种语言进行了测试。 此系统的工作原理是通过分类模型运行输入提示和响应,这些模型旨在标识和阻止有害内容的输出。
与仇恨和公平相关的伤害是指任何基于种族、民族、国籍、性别认同和表达、性取向、宗教、移民身份、能力状况、个人外貌和体型等属性使用贬义或歧视性语言的内容。 公平性是指确保 AI 系统公平地对待所有人群,而不会助长现有的社会不公平现象。 性内容涉及对人体生殖器官、恋爱关系、色情或亲昵行为、怀孕、身体性行为(包括攻击或强迫性暴力行为)、卖淫、色情和虐待的讨论。 暴力描述与旨在伤害或杀害的身体行为有关的语言,包括行动、武器和相关实体。 自残语言是指故意伤害或杀害自己的行为。
Copilot 是否提供受保护的材料检测?
是的,适用于 Microsoft 365 的 Copilot 可检测受保护的材料,其中包括受版权约束的文本和受许可限制的代码。 并非所有这些缓解措施都适用于所有适用于 Microsoft 365 的 Copilot 应用场景。
Copilot 是否阻止提示注入(越狱攻击)?
越狱攻击 是一种用户提示,其目的是激怒生成式 AI 模型,使其按照训练好的方式行事,或违反它被告知要遵守的规则。 适用于 Microsoft 365 的 Microsoft Copilot 旨在防范提示注入攻击。 详细了解越狱攻击以及如何使用 Azure AI 内容安全检测它们。
致力于负责任的 AI
正当 AI 改变我们生活的时候,我们必须为这项技术的使用和影响共同定义新规则、规范和实践。 自 2017 年以来,Microsoft 一直在开拓负责任的 AI 之旅,当时我们定义了我们的原则和方法,以确保以人为本的道德原则驱动这项技术使用。
在 Microsoft,我们遵循 AI 原则、负责任的 AI 标准,以及数十年的 AI、Grounding 和隐私保护机器学习研究。 由研究人员、工程师和策略专家组成的多学科团队审查 AI 系统的潜在危害和缓解措施 - 优化培训数据、筛选以限制有害内容、查询和结果拦截敏感主题,以及应用 Microsoft 技术(例如 InterpretML 和 Fairlearn)以帮助检测和纠正数据偏差。 我们通过指出局限性、链接来源以及提示用户审查、事实核查和根据主题专业知识调整内容,来明确系统如何做出决定。 有关详细信息,请参阅 管理 AI:未来蓝图。
我们的目标是帮助我们的客户负责任地使用 AI 产品,分享我们的学习知识,并建立基于信任的合作关系。 对于这些新服务,我们希望向客户提供有关 AI 平台服务的预期用途、功能和限制的信息,以便他们拥有做出负责任部署选择所需的知识。 我们还与组织内部的开发人员以及独立软件供应商 (ISV) 共享资源和模板,以帮助他们构建有效、安全且透明的 AI 解决方案。