智能应用程序工作负载的负责任 AI 注意事项
智能应用程序工作负载必须遵守负责任的 AI 原则,以确保公平、问责、透明和道德行为。
设计 AI 系统以公平对待所有用户,让开发人员和用户对其性能负责,确保 AI 操作的透明度,并遵守道德标准。
At Microsoft 致力于以以人为本的原则推动 AI 的发展。 生成模型具有显著的潜在优势,但如果没有仔细的设计和周到的缓解措施,此类模型可能会生成不正确甚至有害的内容。 Microsoft 进行了大量投资来帮助防止滥用和意外伤害,其中包括 Incorporating Microsoft 负责任地 使用 AI 的原则、采用 行为准则、构建内容过滤器以支持客户,以及提供客户在使用生成式 AI 时应考虑的负责任的 AI 信息和指导 。
Power Platform Copilots 和生成式 AI 功能跟随一组核心安全和隐私实践以及负责任的 Microsoft AI 标准。 Power Platform 数据受到行业领先的全面合规性、安全性和隐私控制措施的保护。
了解详细信息:
- Microsoft AI 原理
- Microsoft 负责任的 AI 资源
- Microsoft Azure 有关负责任的 AI 的学习课程
- 负责任的 AI 常见问题解答 Copilot Studio
- Azure OpenAI 模型的负责任 AI 做法概述
负责任的 AI 的核心原则
负责任的 AI 核心原则包括公平、问责、透明度和道德。 确保按照这些核心原则构建的 Power Platform 智能应用程序工作负载涉及几个关键实践:
- 公平性:使用多样化且具有代表性的训练数据来最大限度地减少偏差。 定期更新培训数据并聘请审计师来验证公平性和公正性。
- 问责制:为参与 AI 项目的团队成员定义明确的角色和职责。 建立并遵守优先考虑公平和问责制的道德标准。
- 透明度:确保用户知道他们正在使用使用生成式 AI 功能的工作负载。 清楚地传达选择 AI 解决方案的原因、设计方式以及如何监控和更新。
- 道德规范:培养一支包容性的员工队伍,并在开发过程的早期寻求不同社区的意见。 定期评估和测试模型是否存在道德问题和绩效差异。 建立包括定期审计在内的治理框架。
将这些实践纳入您的开发和部署流程,以创建符合负责任 AI 核心原则的智能应用程序工作负载。
数据隐私和安全
确保数据隐私至关重要,尤其是在智能应用程序工作负载可能处理敏感数据的情况下。 在规划智能应用程序工作负载 Power Platform时,必须解决几个关键风险并实施有效的缓解策略:
- 平台功能:了解保护数据的本机控件和平台功能。 Microsoft Copilot 基于服务 Microsoft Azure OpenAI 构建 ,并完全在 Azure 云中运行。 Copilot 可将 OpenAI 模型与 Microsoft Azure 的所有安全功能结合使用。 Copilot 集成在 Dynamics 365 等服务中 Microsoft , Power Platform 并继承其安全、隐私和合规性策略和流程,例如多因素身份验证和合规性边界。
- 数据加密:服务端技术对静态和传输中的组织内容进行加密,以实现强大的安全性。 连接由传输图层安全性(TLS)保护,Dynamics 365 Power Platform 和 Azure OpenAI 之间的数据传输通过 Microsoft 主干网络进行,从而确保可靠性和安全性。 了解有关云 中加密的更多信息。 Microsoft
- 访问控制:根据当前用户的访问级别向 Copilot 提供数据。 使用 Microsoft Entra ID 实施基于角色的访问控制(RBAC),以确保只有授权用户才能访问数据。 应用最小权限原则以将访问权限限制为仅必要的内容。
- 监控和审计:通过定期监控 AI 系统的访问和使用情况,检测和响应潜在的安全事件。 维护详细的审计日志以跟踪数据访问和修改。
- 合规性和治理:确保遵守相关的数据隐私法规,例如 GDPR(一般数据保护条例)、HIPAA(Health Insurance Portability and Accountability Act)和 CCPA(加州消费者隐私法案)。 实施合乎道德的 AI 实践,以避免偏见并确保 AI 输出的公平性。
- 用户教育和培训:对用户进行安全最佳实践和数据隐私重要性的培训。 让用户了解安全策略和程序的更新和更改。
了解更多: Dynamics 365 和 Copilot 数据安全和隐私常见问题解答 Power Platform
偏差意识和缓解
认识到解决系统中偏见的重要性,并确保公平性,以避免 AI 响应中出现偏见。
- 多样化且具有代表性的数据:确保训练数据多样化并代表不同的人口统计数据,以最大限度地减少固有偏见。 定期审核数据是否存在偏差和不平衡,并根据需要采取纠正措施。
- 偏差检测和缓解工具:使用工具和技术检测 AI 模型中的偏差,例如统计分析和公平性指标。 实施去偏差技术,包括重采样、重新加权或对抗性去偏差,以减少模型中的偏差。
- 人机协同:整合人工审核和反馈循环,以识别和纠正 AI 可能引入的偏见。 建立道德委员会或治理委员会来监督 AI 的开发和部署,确保符合道德标准。
- 透明度和信任:确保用户知道他们正在使用使用生成式 AI 功能的工作负载。 清楚地传达选择 AI 解决方案的原因,并提供有关其设计方式以及如何监控和更新的信息。
- 持续监控和改进:持续监控 AI 系统是否存在偏差和性能问题,并根据需要更新模型。 通过使用更新和更多样化的数据定期重新训练模型,确保模型保持公平和公正。
持续监测和评估
继续改进您的智能应用程序工作负载。 建立持续监控和评估框架,并将用户反馈和不断发展的道德标准纳入更新。
- 反馈循环:建立反馈机制,用户可以在其中报告不准确之处,然后可以使用这些错误来改进和改进模型。
- 监控和审计:通过定期监控 AI 系统的访问和使用情况,检测和响应潜在的安全事件。 维护详细的审计日志以跟踪数据访问和修改。