负责任 AI 常见问题解答

什么是 Microsoft 安全 Copilot? 

Security Copilot是一种自然语言,是一种由 AI 提供支持的生成安全解决方案,可帮助提高防御者的效率和功能,以在计算机速度和规模上改进安全成果。 它从插件和数据中提取上下文来回答提示,以便安全专业人员和 IT 管理员可以帮助保护其组织的安全。

Security Copilot可以做什么? 

Security Copilot有助于用自然语言回答问题,以便你可以在几秒钟内收到常见安全和 IT 任务的可操作响应。

Microsoft Security Copilot在以下情况下有所帮助:

  • 安全调查和修正
    获取事件的上下文,以便通过分步响应指南将复杂的安全警报快速会审到可操作的摘要中,并更快地进行修正。

  • 脚本分析和 KQL 查询创建
    无需通过自然语言翻译手动编写查询语言脚本或反向工程恶意软件脚本,使每个团队成员都能执行技术任务。

  • 风险探索和安全态势管理
    全面了解你的环境以及优先级风险,以发现机会,以便更轻松地改善态势。

  • 更快地排查 IT 问题
    快速合成相关信息并接收可操作的见解,以快速识别和解决 IT 问题。

  • 安全策略创建和管理
    定义新策略,将其与其他策略交叉引用以用于冲突,并汇总现有策略,以便快速轻松地管理复杂的组织上下文。

  • 生命周期工作流配置
    使用分步指南生成组并设置访问参数,以确保无缝配置以防止安全漏洞。

  • 利益干系人报告
    获取一份简洁明了的报告,汇总了上下文和环境、未解决的问题以及为报表受众的语气和语言准备的保护措施。

Security Copilot的预期用途是什么? 

Security Copilot可帮助在事件响应、威胁搜寻、情报收集和态势管理等端到端方案中为安全专业人员提供支持。 有关详细信息,请参阅 用例和角色

如何评估Security Copilot? 哪些指标用于度量性能? 

Security Copilot在发布之前接受了大量测试。 测试包括红团队,这是严格测试产品以识别故障模式和方案的做法,这些模式和方案可能导致Security Copilot在其预期用途之外做或说出内容,或者不支持Microsoft AI 原则

发布后,用户反馈对于帮助 Microsoft 改进系统至关重要。 每当收到来自Security Copilot的输出时,你都可选择提供反馈。 如果响应不准确、不完整或不清楚,请使用“非目标”和“报告”按钮来标记任何令人反感的输出。 还可以使用“确认”按钮确认响应何时有用且准确。 这些按钮显示在每个Security Copilot响应的底部,你的反馈将直接转到Microsoft,以帮助我们提高平台的性能。

Security Copilot有哪些限制? 用户在使用系统时如何尽量减少Security Copilot限制的影响? 

  • 早期访问计划旨在让客户有机会提前访问Security Copilot并提供有关平台的反馈。 预览功能不适用于生产用途,其功能可能有限。 

  • 与任何 AI 驱动的技术一样,Security Copilot并不能让一切正常。 但是,可以通过使用平台内置的反馈工具提供观察结果来帮助改进响应。  

  • 如果未通过用户输入或插件为系统提供最新的数据,则系统可能会生成过时的响应。 若要获得最佳结果,请验证是否启用了正确的插件。

  • 该系统旨在响应与安全域相关的提示,例如事件调查和威胁情报。 安全范围之外的提示可能会导致响应不够准确和全面。

  • Security Copilot可能会生成代码或在响应中包含代码,如果不仔细使用,这些代码可能会暴露敏感信息或漏洞。 响应可能看起来合理,但实际上在语义上或语法上可能不正确,或者可能无法准确反映开发人员的意图。 如果编写代码时使用的材料不是独立创建的,用户都应采取与编写任何代码相同的预防措施,包括确保其适用性的预防措施。 其中包括严格的测试、IP 扫描和安全漏洞检查。

  • 与公共代码匹配:Security Copilot能够以概率方式生成新代码。 虽然它可能生成与训练集中代码匹配的代码的概率很低,但Security Copilot建议可能包含一些与训练集中代码匹配的代码片段。 如果编写代码时使用的材料不是独立创建的,用户应始终采取与编写任何代码相同的预防措施,包括确保其适用性的预防措施。 其中包括严格的测试、IP 扫描和安全漏洞检查。

  • 系统可能无法处理长提示,例如数十万个字符。

  • 平台的使用可能受使用限制或容量限制的约束。 即使使用较短的提示,选择插件、进行 API 调用、生成响应并在向用户显示之前对其进行检查,也可能需要花费时间 (长达几分钟) ,并且需要高 GPU 容量。 

  • 为了尽量减少错误,建议用户遵循提示指南。 

哪些操作因素和设置允许有效和负责任地使用Security Copilot? 

  • 你可以使用日常字词来描述你希望Security Copilot执行的操作。 例如:

    • “告诉我我的最新事件”或“汇总此事件”。
  • 当系统生成响应时,你就可以在流程日志中看到系统正在采取的步骤,从而有机会对其流程和来源进行双重检查。  

  • 在提示形成过程中,可以随时取消、编辑、重新运行或删除提示。 

  • 你可以提供有关响应质量的反馈,包括向 Microsoft 报告任何无法接受的内容。 

  • 可以固定、共享和导出响应 -- 帮助安全专业人员协作和共享观察结果。 

  • 管理员可以控制连接到 Security Copilot 的插件。   

  • 可以选择、个性化和管理与Security Copilot配合使用的插件。

  • Security Copilot创建的提示簿,这些提示是按顺序运行以完成特定工作流的一组提示。

Microsoft如何为Security Copilot实现负责任的 AI?

在 Microsoft,我们认真对待负责任 AI 的承诺。 Security Copilot是根据我们的 AI 原则开发的。 我们正在与 OpenAI 合作,以提供鼓励负责任使用的体验。 例如,我们已经并将继续与 OpenAI 合作开展基础模型工作。 我们设计了Security Copilot用户体验,以以人为本。 我们开发了一个安全系统,旨在通过有害内容注释、操作监视和其他安全措施来缓解故障并防止滥用。 仅限邀请的抢先体验计划也是我们实现负责任 AI 的一种方式。 我们正在从具有早期访问Security Copilot的用户那里获取用户反馈,以改进该工具,然后再使其广泛可用。

负责任 AI 是一个历程,我们将在此过程中不断改进我们的系统。 我们致力于使我们的 AI 更加可靠和可信,你的反馈将帮助我们做到这一点。

是否遵守欧盟 AI 法案?

我们致力于遵守欧盟 AI 法案。我们在定义、发展和实现负责任 AI 标准和内部治理方面所做的多年努力增强了我们的就绪性。

在 Microsoft,我们认识到合规性作为 AI 技术可信度和可靠性的基石的重要性。 我们致力于通过设计创建负责任的 AI。 我们的目标是开发和部署对社会产生有益的影响并赢得社会信任的 AI。

此工作遵循一系列核心原则:公平性、可靠性和安全性、隐私和安全性、包容性、透明度和责任性。 Microsoft的负责任 AI Standard采用这六项原则,并将其分解为我们提供的 AI 的目标和要求。

我们的负责任 AI 标准考虑了监管建议及其演变,包括欧盟 AI 法案的初始建议。我们在 AI 领域(如 Microsoft Copilot 和 Microsoft Azure OpenAI 服务)中开发了最新的产品和服务,以符合我们的负责任 AI 标准。 随着《欧盟 AI 法案》的最终要求得到更详细的定义,我们期待与决策者合作,确保规则的可行实施和应用,证明我们的合规性,并与客户和其他利益干系人互动,以支持整个生态系统的合规性。