지능형 애플리케이션 워크로드에 대한 책임 있는 AI 고려 사항
지능형 애플리케이션 워크로드는 공정성, 책임성, 투명성 및 윤리적 행동을 보장하기 위해 책임 있는 AI 원칙을 준수해야 합니다.
모든 사용자를 공정하게 대우하고, 개발자와 사용자가 성능에 대해 책임을 지도록 하고, AI 운영의 투명성을 보장하고, 윤리 표준을 준수하도록 AI 시스템을 설계합니다.
Microsoft에서는 사람을 최우선으로 하는 원칙에 따라 AI를 발전시키기 위해 최선을 다하고 있습니다. 생성형 모델에는 상당한 잠재적 이점이 있지만 신중한 설계와 신중한 완화 없이는 부정확하거나 유해한 콘텐츠를 생성할 가능성이 있습니다. Microsoft는 남용 및 의도치 않은 피해를 방지하기 위해 상당한 투자를 했습니다. 여기에는 Microsoft의 책임 있는 AI 사용에 대한 원칙을 통합하고, 행동 강령을 채택하고, 고객을 지원하기 위한 콘텐츠 필터를 구축하고, 고객이 생성 AI를 사용할 때 고려해야 할 책임 있는 AI 정보 및 지침을 제공하는 것이 포함됩니다.
Power Platform Copilot 및 생성형 AI 기능은 핵심 보안 및 개인 정보 보호 관행과 Microsoft 책임 있는 AI 표준을 따릅니다. Power Platform 데이터는 업계 최고의 포괄적인 규정 준수, 보안 및 개인 정보 보호 제어로 보호됩니다.
자세히 보기:
- Microsoft AI 원칙
- Microsoft 책임 있는 AI 리소스
- 책임 있는 AI에 대한 Microsoft Azure 학습 과정
- Copilot Studio의 책임 있는 AI FAQ
- Azure OpenAI 모델에 대한 책임 있는 AI 사례 개요
책임 있는 AI의 핵심 원칙
책임 있는 AI 핵심 원칙에는 공정성, 책임성, 투명성 및 윤리가 포함됩니다. Power Platform으로 빌드된 지능형 애플리케이션 워크로드가 이러한 핵심 원칙을 준수하도록 하려면 다음과 같은 몇 가지 주요 관행이 필요합니다.
- 공정성: 다양하고 대표성 있는 학습 데이터를 사용하여 편향을 최소화합니다. 교육 데이터를 정기적으로 업데이트하고 감사자를 참여시켜 공정성과 형평성을 검증합니다.
- 책임성: AI 프로젝트에 참여하는 팀 구성원의 역할과 책임을 명확하게 정의합니다. 공정성과 책임성을 우선시하는 윤리 기준을 수립하고 준수합니다.
- 투명성: 사용자가 생성형 AI 기능을 사용하는 워크로드를 사용하고 있음을 알 수 있도록 합니다. AI 솔루션을 선택한 이유, 설계 방법, 모니터링 및 업데이트 방법을 명확하게 전달합니다.
- 윤리: 포용적인 인력을 육성하고 개발 프로세스 초기에 다양한 커뮤니티의 의견을 구합니다. 윤리적 문제와 성능 격차에 대해 모델을 정기적으로 평가하고 테스트합니다. 정기 감사를 포함하는 거버넌스 프레임워크를 구축합니다.
이러한 사례를 개발 및 배포 프로세스에 통합하여 책임 있는 AI의 핵심 원칙을 준수하는 지능형 애플리케이션 워크로드를 만듭니다.
데이터 개인 정보 보호 및 보안
데이터 개인 정보 보호를 보장하는 것은 특히 지능형 애플리케이션 워크로드가 중요한 데이터를 처리할 수 있기 때문에 매우 중요합니다. Power Platform를 사용하여 지능형 애플리케이션 워크로드를 계획할 때 몇 가지 주요 위험을 해결하고 효과적인 완화 전략을 구현하는 것이 중요합니다.
- 플랫폼 기능: 데이터를 보호하는 기본 제어 및 플랫폼 기능을 이해합니다. Microsoft Copilot은 Microsoft Azure OpenAI Service를 기반으로 구축되었으며 Azure 클라우드 내에서 완전히 실행됩니다. Copilot은 Microsoft Azure의 보안 기능을 모두 갖춘 OpenAI 모델을 사용합니다. Copilot은 다단계 인증 및 규정 준수 경계와 같은 보안, 개인 정보 보호 및 규정 준수 정책과 프로세스를 계승하여 Dynamics 365 및 Power Platform과 같은 Microsoft 서비스에 통합되어 있습니다.
- 데이터 암호화: 서비스 측 기술은 강력한 보안을 위해 미사용 및 전송 중인 조직 콘텐츠를 암호화합니다. 연결은 전송 계층 보안(TLS)으로 보호되며, Dynamics 365, Power Platform 및 Azure OpenAI 간의 데이터 전송은 Microsoft 백본 네트워크를 통해 이루어지므로 안정성과 안전성이 모두 보장됩니다. Microsoft Cloud의 암호화에 대해 자세히 알아보세요.
- 액세스 제어: 데이터는 현재 사용자의 액세스 수준에 따라 Copilot(또는 사용자 지정 에이전트)에 제공됩니다. Microsoft Entra ID를 사용하여 RBAC(역할 기반 액세스 제어)를 구현하여 권한이 있는 사용자만 데이터에 액세스할 수 있도록 합니다. 최소 권한 원칙을 적용하여 필요한 항목에만 액세스를 제한합니다.
- 모니터링 및 감사: AI 시스템의 액세스 및 사용을 정기적으로 모니터링하여 잠재적인 보안 사고를 감지하고 대응합니다. 자세한 감사 로그를 유지 관리하여 데이터 액세스 및 수정 사항을 추적합니다.
- 규정 준수 및 거버넌스: GDPR(일반 데이터 보호 규정), HIPAA(Health Insurance Portability and Accountability Act) 및 CCPA(캘리포니아 소비자 개인 정보 보호법)와 같은 관련 데이터 개인 정보 보호 규정을 준수하도록 합니다. 편향을 피하고 AI 결과물의 공정성을 보장하기 위해 윤리적 AI 관행을 구현합니다.
- 사용자 교육 및 훈련: 보안 모범 사례 및 데이터 개인 정보 보호의 중요성에 대해 사용자에게 학습. 사용자에게 보안 정책 및 절차의 업데이트 및 변경 사항에 대한 정보를 제공합니다.
자세히 알아보기: Dynamics 365 및 Power Platform의 Copilot 데이터 보안 및 개인 정보 보호에 대한 FAQ
편향 인식 및 완화
시스템의 편향을 해결하는 것의 중요성을 인식하고 AI 응답의 편향을 방지하기 위해 공정성을 보장합니다.
- 다양하고 대표성 있는 데이터: 학습 데이터가 다양하고 다양한 인구 통계를 대표하는지 확인하여 내재된 편향을 최소화합니다. 편향과 불균형에 대해 데이터를 정기적으로 감사하고 필요에 따라 수정 조치를 취합니다.
- 편향 감지 및 완화 도구: 도구와 기술을 사용하여 통계 분석 및 공정성 메트릭과 같은 AI 모델의 편향을 감지합니다. 리샘플링, 가중치 재조정 또는 적대적 편향 해제를 포함한 편향 제거 기술을 구현하여 모델의 편향을 줄입니다.
- 루프 내 인적 검토: 인적 검토 및 피드백 루프를 통합하여 AI가 도입할 수 있는 편향을 식별하고 수정합니다. AI 개발 및 배포를 감독할 윤리 위원회 또는 거버넌스 위원회를 설립하여 윤리 기준이 충족되도록 합니다.
- 투명성 및 신뢰: 사용자가 생성형 AI 기능을 사용하는 워크로드를 사용하고 있음을 알 수 있도록 합니다. AI 솔루션을 선택한 이유를 명확하게 전달하고 설계 방법과 모니터링 및 업데이트 방법에 대한 정보를 제공합니다.
- 지속적인 모니터링 및 개선: AI 시스템에서 편향 및 성능 문제를 지속적으로 모니터링하고 필요에 따라 모델을 업데이트합니다. 업데이트되고 더 다양한 데이터로 모델을 정기적으로 재학습하여 모델이 공정하고 편향되지 않도록 합니다.
지속적인 모니터링 및 평가
지능형 애플리케이션 워크로드를 지속적으로 개선하세요. 지속적인 모니터링 및 평가를 위한 프레임워크를 구축하고 사용자 피드백과 진화하는 윤리 표준을 업데이트에 통합하세요.
- 피드백 루프: 사용자가 부정확성을 보고할 수 있는 피드백 메커니즘을 설정하여 모델을 정제하고 개선하는 데 사용할 수 있습니다.
- 모니터링 및 감사: AI 시스템의 액세스 및 사용을 정기적으로 모니터링하여 잠재적인 보안 사고를 감지하고 대응합니다. 자세한 감사 로그를 유지 관리하여 데이터 액세스 및 수정 사항을 추적합니다.