Copilot 和 ASD 蓝图概述

Copilot for Microsoft 365 为用户提供了由生成 AI 提供支持的助手,该助手以自然语言进行交互,以简化工作流。 示例包括汇总电子邮件和文档、提供会议回顾、创建新内容和回答问题等功能,以及直接集成到日常Microsoft 365 应用程序 (Office) 。 Copilot 在 Office 中为复杂的 AI 助手提供自然语言界面。

自然语言界面。

2024 年 3 月,Microsoft 服务信任门户 发布了澳大利亚政府保护信息安全注册评估员计划 (IRAP) 评估Microsoft 365,并将 Copilot for Microsoft 365 包含在评估服务范围内。 这是适用于澳大利亚公有云服务的最高安全评估级别。 但是,与部署到敏感环境中的任何新服务一样,引入 Copilot 需要一些特定的配置。 此配置规划指南专用于解决在敏感操作框架中成功部署 copilot for Microsoft 365 所需的特定注意事项。 它全面概述了服务体系结构以及敏感环境的基本集成注意事项。 本指南假定根据澳大利亚信号局 (ASD) 蓝图安全云配置指南,访问 copilot 以获取 Microsoft Microsoft 365 订阅许可和 Microsoft 365 企业版 E5。

Copilot ... Copilot 不是...
AI 助手 AI 替换
人类控制 独立同事
提高工作效率 消除角色
起草内容 选择“发送”或“保存”
帮助你查找答案 自动决策
随时可用的 SaaS 应用开发组件

服务体系结构

考虑将 Copilot for Microsoft 365 集成时,在 Microsoft AI 共同责任模型上下文中评估 copilot for Microsoft 365 非常有用。 此方法反映了跨基础结构、平台和软件即服务模型针对其他云服务的注意事项。 AI 服务也有类似的区别,应以类似的方式通知此类服务的使用者的注意事项和重点。 建议客户熟悉Microsoft AI 共同责任模型。

在这种情况下,可以更轻松地理解 Copilot for Microsoft 365 的特定体系结构,因为适用于 Microsoft 365 的 Copilot 是一种软件即服务 (SaaS) 产品,可无缝嵌入 Microsoft 365 中。

客户责任

本文详细介绍了在实现 SaaS 应用程序(例如 Copilot for Microsoft 365)时需要考虑的 AI 共同责任模型的五个方面。 建议客户遵循本文档中的配置指南,并反思其内部策略和做法如何影响这些责任领域。

在 AI 共同责任模型中,Copilot for Microsoft 365 涵盖所有三种责任方案:

  • 客户责任:这些项目仅由客户处理。 Microsoft没有责任处理这些组件。

  • Microsoft责任:这些项目仅由Microsoft处理。 客户没有责任处理这些组件。

  • 共同责任:在此模型中的共担责任项目中,客户负责配置服务以满足其特定需求,同时Microsoft确保平台的完整性并强制实施客户配置的控制措施。 客户负责这些项目的非技术方面,例如采用和调整策略和过程,建立定期模式 & 做法,以及做出有关要应用的配置的决策。

    Microsoft 365 IRAP 评估报告Microsoft符合这些要求,确保 copilot for Microsoft 365 在Microsoft 365 环境的既定数据安全性和合规性参数内运行。

用户培训和问责

在 AI 共同责任模型中,客户对用户培训和问责承担 全部责任

与任何新技术一样,有效的培训可帮助用户了解并自信地在工作中应用生成 AI,减少错误或不当用户行为的可能性,并确保 AI 辅助的输出符合目的。

重要

Microsoft建议所有客户在实现生成 AI 产品时优先考虑采用和变更管理。 这包括制定一个全面的策略,确保对用户进行适当的培训和指导,了解如何使用 AI 系统。

生成 AI 服务(如适用于 Microsoft 365 的 Copilot)在提高工作效率、创造力和工作质量方面提供了大量好处,但它们并非一成全的,而且确实会犯错。 因此,一种以人为中心的方法,承认最终用户的自主性至关重要。 客户必须确保用户在使用生成 AI 服务时接受适当的培训并了解其责任。 这种以人为本的理念是 Copilot 模型不可或缺的一部分,可确保用户对 AI 的使用保持控制并对其负责。

同样,IT 专业人员、服务的保管人以及组织中的高级利益干系人和业务领袖必须接受有关将 Copilot 用于 Microsoft 365 的教育。 领导者在整个组织中传达生成 AI 服务的愿景方面起着关键作用,确保最终用户获得必要的指导和指导,以最大程度地提高服务权益。 这包括阐明 Copilot for Microsoft 365 的愿景,详细说明其优点,并提供适当的使用方案,以便全面了解和有效利用。

重要

组织领导层承诺推动愿景并协调这些职责内的政策和做法,对于成功实施 Copilot for Microsoft 365 同样重要。

通过遵循这些做法,许多客户可以有效地集成生成 AI,使其与其业务目标保持一致,并提高工作效率。

有关为 IT 专业人员启动适当的变更管理、采用和用户培训的详细信息,请参阅:

有关为最终用户启动适当的变更管理、采用和用户培训的详细信息,请参阅:

使用策略,管理员控制

在 AI 共同责任模型中,客户对使用策略和管理控制的应用承担 全部责任

制定使用策略是各个组织在其法律、合同和法规框架、自己的工作模式和利益干系人期望的背景下考虑的问题,例如:

  • 内部使用预期与来宾
  • 在创建外部通信时使用
  • 接受 AI 参与个性化交互
  • 利益干系人人口统计

此配置规划指南的主要重点是管理控制,建议 的配置 一文中对此进行了详细介绍。

标识、设备和访问管理

在 AI 共担责任模型中,标识、设备和访问管理是共同的责任。

Copilot for Microsoft 365 旨在与客户Microsoft 365 环境中的现有标识、设备和访问管理配置无缝集成。 本指南重点介绍特定于 Copilot for Microsoft 365 的其他控制措施,或重点介绍与实现 Copilot for Microsoft 365 的组织相关的现有控制措施。

有关部署敏感 Microsoft 365 环境的进一步配置指南,请参阅提供全面建议和安全配置的协议 的安全云的 ASD 蓝图

数据治理

在 AI 共同责任模型中,数据治理是共同 的责任。 在经历了数字化转型的任何组织中,有效的数据治理对于管理知识和信息、提高可发现性和工作效率至关重要。 本文档概述了成功实现 Copilot for Microsoft 365 的关键数据治理机制和做法。

有关更广泛的 Microsoft 365 生态系统中的数据治理的详细信息,请参阅:

AI 插件和数据连接

在 AI 共同责任模型中,插件和数据连接是共同 的责任。 连接器和插件使客户能够扩展 Copilot for Microsoft 365 的功能,使其能够与其Microsoft 365 环境之外的系统和数据进行交互。 因此,客户需要考虑使用外部数据和系统管理风险的责任,以及集成本身,因为这些可能Microsoft开发、客户开发或原始Microsoft。 客户负责任何非Microsoft或自定义开发的连接器和插件。

鼓励 IT 专业人员熟悉 Copilot Microsoft 365 扩展性 选项和体系结构。

插件(如必应)与连接器的不同之处在于,它们实时运行,以增强 Copilot 的新功能和见解。 服务组件一文中提供了插件和连接器的更详细说明。