Viva 中的 Microsoft 365 Copilot Insights 的数据、隐私和安全性
分析师和业务主管可以利用 Viva 中的 Microsoft 365 Copilot Insights 的许多功能,包括有关在查询中使用的指标、筛选器和属性的建议。
例如,Copilot 可以通过建议与其查询相关的有用指标来帮助分析师创建查询。 而且,Copilot 可以生成见解,帮助领导者更轻松地查看公司的员工工作效率趋势。
如何在后端工作?
Viva 中的 Copilot Insights 使用大型语言模型 (LLM) 技术,它允许用户使用其自然语言询问提示来执行基于语言的任务。
Microsoft使用这些 LLM 将用户的提示与一组指标和“情景”相匹配。“情景”是基于指标、聚合和其他变量的产品定义的一组计算。
Copilot 使用哪些数据来生成其响应?
Viva 中的 Copilot Insights 使用Viva Insights内已有的数据,以及客户在使用该功能时询问的提示。 它不会收集任何新数据。
Viva 中的 Copilot Insights 是否保存或存储它使用的任何数据?
Viva 中的 Copilot Insights 不会记录任何用户的提示。 它仅保存每个 API 调用的元数据,例如每个提示的日期和时间。 元日志只能由Viva Insights开发人员和受限用户访问。
Viva 中的 Copilot Insights 如何与 Microsoft Graph 和其他 Microsoft 365 服务交互?
Viva 中的 Copilot Insights 不会以任何方式与任何智能 Microsoft 365 Copilot 副驾驶®、Microsoft Graph 和其他Microsoft 365 服务进行交互。
Copilot 如何处理数据驻留、数据主体权限和数据删除?
Viva 中的 Copilot Insights 遵循目前为Microsoft Viva提供的数据驻留协议。 有关详细信息,请参阅Microsoft Viva的安全策略和Microsoft Viva合规性协议。
Viva 中的 Copilot见解如何遵守 GDPR 和其他隐私法规?
Viva 中的 Copilot Insights 遵循与 Viva Insights 相同的 GDPR 和隐私法规。 有关详细信息,请参阅组织见解Viva Insights隐私指南。
哪些作因素和设置允许在 Insights 中有效且负责任地使用 Copilot?
免责声明:“AI 生成的内容可能不正确”会在每次响应后向用户显示。
供用户提供 Thumbs 向上/向下并发表评论的选项。
Copilot 提供哪些安全措施来解决潜在的冒犯性问题、响应或其他敏感信息?
Viva 中的 Copilot Insights 设计有一个可靠的筛选系统,用于主动阻止攻击性语言,并防止在敏感上下文中生成建议。 我们对持续改进的承诺促使我们增强此筛选器系统,使其在检测和删除 Viva 中的 Copilot Insights 生成的冒犯性内容方面更加智能。 这包括处理有偏见、歧视性或滥用的输出。 我们鼓励用户在产品中直接使用 Viva 中的 Copilot Insights 时报告他们遇到的任何冒犯性建议。
我们旨在避免以下几种高风险使用和敏感情况:
敏感用例:由于Viva Insights可以提供的数据 & 见解属于敏感领域,因此很难客观地评估与员工绩效或工作场所行为模式相关的特定分析查询问题是否应由 Copilot 回答。 虽然我们预计 Copilot 会回答“中国员工如何协作?”这样的问题,但诸如“中国员工是否比美国员工更努力地工作?” 可能属于“公平”类别。 我们致力于通过阻止有助于做出“判断”的问题来解决这些复杂性,同时允许帮助用户获得“事实”的问题。
隐私问题:如果 AI 功能未得到充分保护,则可能会向未经授权的方公开用户数据(包括私人热门主题和个人信息)。 确保用户的最高隐私和安全级别是头等大事。
偏见:Viva 中的 Copilot Insights 等 AI 系统的公平性和公正性取决于它们所训练的数据的质量和偏见。 如果训练数据包含偏见,AI 功能可能会无意中生成反映这些偏见的内容,从而可能导致伤害或冒犯。 我们致力于解决 AI 系统中的偏见,并致力于提供更公平和更具包容性的输出。
通过积极解决这些高风险方案并与用户社区协作,我们致力于使用 Viva 中的 Copilot Insights 提供更安全、更负责任、更合乎道德的 AI 体验。