智能应用程序工作负载的负责任 AI 注意事项
智能应用程序工作负载必须遵守负责任的 AI 原则,以确保公平性、问责制、透明度和道德行为。
设计 AI 系统以公平对待所有用户,让开发人员和用户对其性能负责,确保 AI 操作的透明度,并遵守道德标准。
在 Microsoft,我们致力于以人为本的原则推动人工智能的发展。 生成式模型具有显著的潜在优势,但如果没有精心设计和深思熟虑的缓解措施,此类模型可能会生成不正确甚至有害的内容。 Microsoft 已经进行大量投资,以帮助防范滥用和意外伤害,其中包括纳入 Microsoft 的负责任的人工智能使用原则、采用行为准则、构建内容过滤器以支持客户,以及提供客户在使用生成式人工智能时应考虑的负责任人工智能信息和指南。
Power Platform 助手和生成式 AI 功能遵循一组核心安全和隐私实践以及 Microsoft 负责任 AI 标准。 Power Platform 数据受到全面、行业领先的合规性、安全和隐私控制的保护。
了解详细信息:
- Microsoft 人工智能原则
- Microsoft 负责任 AI 资源
- 负责任的人工智能 Microsoft Azure 学习课程
- Copilot Studio 负责任的 AI 常见问题解答
- Azure OpenAI 模型的“负责任的人工智能”实践概述
负责任 AI 的核心原则
负责任的 AI 核心原则包括公平、问责、透明度和道德。 确保使用 Power Platform 构建的智能应用工作负载遵守这些核心原则涉及几个关键实践:
- 公平性:使用多样化、有代表性的训练数据,最大限度地减少偏见。 定期更新训练数据,并邀请审核人员验证公平性和公正性。
- 负责:明确参与人工智能项目的团队成员的角色和责任。 建立并遵守优先考虑公平和问责制的道德标准。
- 透明:确保用户知道他们正在使用的工作负载使用了生成式人工智能功能。 清楚地传达选择 AI 解决方案的原因、设计方式以及如何监控和更新解决方案。
- 道德:培养一支具有包容性的员工队伍,并在开发过程的早期征求不同社区的意见。 定期评估和测试模型中的道德问题和绩效差异。 建立包括定期审计在内的治理框架。
将这些做法整合到您的开发和部署流程中,以创建符合负责任 AI 核心原则的智能应用程序工作负载。
数据隐私与安全
确保数据隐私至关重要,尤其是在智能应用程序工作负载可能处理敏感数据的情况下。 在使用 Power Platform 规划智能应用工作负载时,必须解决几个关键风险并实施有效的缓解策略:
- 平台功能:了解保护数据安全的本地控制和平台功能。 Microsoft Copilot 基于 Microsoft Azure OpenAI 服务构建,并且完全在 Azure 云中运行。 Copilot 可将 OpenAI 模型与 Microsoft Azure 的所有安全功能结合使用。 Copilot 集成到了 Microsoft 服务(如 Dynamics 365 和 Power Platform)中,并继承了这些产品的安全性、隐私和合规性策略和流程,例如多重身份验证和合规性边界。
- 数据加密:服务端技术对静态和传输中的组织内容进行加密,以实现强大的安全性。 连接受到传输层安全性 (TLS) 的保护,Dynamics 365、Power Platform 和 Azure OpenAI 之间的数据传输通过 Microsoft 主干网络进行,从而确保可靠性和安全性。 了解有关 Microsoft Cloud 中的加密的详细信息。
- 访问控制:根据当前用户的访问级别向 Copilot(或自定义代理)提供数据。 使用 Microsoft Entra ID 实施基于角色的访问控制(RBAC),确保只有授权用户才能访问数据。 应用最小特权原则,将访问限制为仅必要的权限。
- 监控和审核:通过定期监控人工智能系统的访问和使用情况,检测并应对潜在的安全事件。 维护详细的审核日志,以跟踪数据访问和修改。
- 合规与治理:确保遵守相关数据隐私法规,如 GDPR(《通用数据保护条例》)、HIPAA(《健康保险流通与责任法案》)和 CCPA(《加州消费者隐私法案》)。 实施符合道德规范的 AI 实践,以避免偏见并确保 AI 输出的公平性。
- 用户教育和培训:对用户进行安全最佳实践和数据隐私重要性方面的培训。 让用户了解安全策略和过程的更新和更改。
了解更多:Dynamics 365 和 Power Platform 的 Copilot 数据安全和隐私常见问题解答
认识和减少偏见
认识到解决系统中偏见的重要性,并确保公平性,以避免人工智能响应中的偏见。
- 多样化和有代表性的数据:确保培训数据具有多样性和代表性,以尽量减少固有偏差。 定期审核数据是否存在偏差和不平衡,并根据需要采取纠正措施。
- 偏见检测和缓解工具:使用工具和技术来检测人工智能模型中的偏见,如统计分析和公平性指标。 实施去偏技术,包括重采样、重加权或对抗性去偏,以减少模型中的偏差。
- 人工介入:纳入人工审核和反馈回路,以识别和纠正人工智能可能引入的偏见。 建立伦理委员会或治理委员会来监督人工智能的开发和部署,确保符合伦理标准。
- 透明度和信任:确保用户知道他们正在使用的工作负载使用了生成式人工智能功能。 清楚地传达选择 AI 解决方案的原因,并提供有关其设计方式以及如何对其进行监控和更新的信息。
- 持续监控和改进:持续监控人工智能系统的偏见和性能问题,并根据需要更新模型。 通过定期使用更新和更多样化的数据重新训练模型,确保模型保持公平和公正。
持续监测和评估
持续改进您的智能应用程序工作负载。 建立持续监测和评估的框架,并将用户反馈和不断发展的道德标准纳入更新中。
- 反馈回路:建立反馈机制,让用户可以报告不准确之处,然后用于完善和改进模型。
- 监控和审核:通过定期监控人工智能系统的访问和使用情况,检测并应对潜在的安全事件。 维护详细的审核日志,以跟踪数据访问和修改。