다음을 통해 공유


Microsoft 365 Copilot 위한 AI 보안

AI는 많은 분야에 혁명을 일으키고 전례 없는 기능과 효율성을 제공합니다. 예를 들어 AI 기반 생산성 도구인 Microsoft 365 Copilot 은 대규모 언어 모델(LLM), Microsoft Graph의 콘텐츠 및 microsoft 365 생산성 앱(예: Word, Excel, PowerPoint, Outlook, Teams, SharePoint 등)을 조정합니다. 이 통합은 실시간 지능형 지원을 제공하여 사용자가 창의성, 생산성, 기술 역량을 향상시킬 수 있도록 합니다.

고객은 이러한 기회를 탐색하기를 원하며, 함께 제공되는 보안의 중요한 측면을 신중하게 고려하고 있습니다. AI 변환 여정을 진행 중인 고객과의 상호 작용을 기반으로 데이터 보안, 개인 정보 보호, 모델 견고성 및 사이버 공격과 같은 topics 최우선이라는 것을 알고 있습니다.

Microsoft는 이러한 고려 사항이 얼마나 중요한지 이해하므로 보안 위험으로부터 Microsoft 365 Copilot 같은 생산성 도구를 보호하기 위해 강력한 심층 방어 전략을 사용합니다. 이 다층 접근 방식은 고급 위협 인텔리전스, 엄격한 보안 관행 및 사전 예방적 보호의 조합을 포함합니다. 예를 들어 Microsoft 365 Copilot 테스트하기 위한 자체 레드 팀 연습 외에도 Casaba Security를 사용하여 Microsoft 365 제품 제품군에서 9개의 Copilot 구현을 테스트했습니다. LLM에 대한 Open Worldwide Application Security Project(OWASP) 상위 10개와 애플리케이션 인프라를 지원하는 기존 보안 취약성을 식별하는 데 중점을 두는 테스트 결과를 즉시 해결하고 해결했습니다.

Microsoft는 Microsoft 365 Copilot 고객에 대한 기존 개인 정보 보호, 보안 및 규정 준수 약정을 준수하는지 확인하기 위해 광범위한 조치를 취합니다. 그리고 AI 기술과 사용 사례가 계속 발전함에 따라 Microsoft는 Copilot에 대한 보호를 지속적으로 발전시키고, 우리 시스템의 자체 모니터링 및 테스트에서 배우고, 고객, 파트너 및 광범위한 보안 업계와 협력하기 위해 최선을 다하고 있습니다.

이 문서에서는 MICROSOFT의 AI에 대한 전반적인 보안 태세와 다양한 Microsoft 보안 솔루션이 함께 작동하여 Microsoft 365 Copilot 및 기타 AI 애플리케이션에서 데이터와 상호 작용을 보호하는 방법에 대해 간략하게 설명합니다. 이 문서를 솔루션의 새로운 위험 및 혁신에 대한 새로운 정보로 업데이트합니다.

보안 Microsoft 365 Copilot

Microsoft에서 보안은 단지 우선 순위가 아닙니다. 그것은 우리가하는 모든 일의 기초입니다. 이 약속은 AI로 확장됩니다. Microsoft Office의 책임 있는 AI 가이드는 AI 여정에 대한 안전과 보안을 안내할 뿐만 아니라, 최근 확장된 Secure Future 이니셔티브 는 모든 사람에게 더 안전한 디지털 환경을 만들기 위한 우리의 헌신을 더욱 반영합니다.

AI에 대한 포괄적인 보안 태세에는 다음과 같은 핵심 요소가 있습니다.

  • 책임 있는 AI 개발: Microsoft 챔피언 은 책임 있는 AI 원칙을 지지합니다. 이러한 원칙은 AI 수명 주기 전반에 걸쳐 공정성, 안정성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임을 강조합니다.
  • 보안 모범 사례: Microsoft AI 제품으로 작업하는 개발자, 엔지니어 및 보안 전문가를 위한 맞춤형 리소스 및 모범 사례를 제공합니다. 이러한 리소스는 조직이 배포 중에 보안 조치를 이해하고 구현하는 데 도움이 됩니다.
  • SDL(보안 개발 수명 주기): 엄격한 SDL은 전체 AI 개발 프로세스 전반에 걸쳐 보안 고려 사항을 통합합니다. 이러한 사전 예방적 접근 방식을 통해 취약성을 처음부터 식별하고 완화할 수 있습니다.
  • 위협 연구, 탐지 및 완화: AI 모델에 대한 위협을 감지하고 완화하기 위한 전략에 적극적으로 투자합니다. 여기에는 잠재적인 공격에 대한 지속적인 취약성 모니터링 및 대응책 개발이 포함됩니다. 연구원의 글로벌 네트워크인 Microsoft Threat Intelligence는 AI 애플리케이션을 활용할 수 있는 위협 행위자 및 사이버 공격에 대한 위협 환경을 모니터링합니다.

Microsoft는 사용자 입력 단계부터 시스템 출력 단계까지 Microsoft 365 Copilot AI 기능에 대한 개인 정보 보호, 보안 및 안정성을 보호합니다. Microsoft 365 Copilot GDPR(일반 데이터 보호 규정) 및 EU(유럽 연합) 데이터 경계를 비롯한 기존 개인 정보 보호, 보안 및 규정 준수 약정을 준수합니다. 이러한 약정에 따라 Microsoft는 Copilot를 사용하여 입력한 프롬프트에서 정보를 처리하며 검색된 데이터와 생성된 응답은 고객 데이터로 보호되며 계약 데이터 처리 요구 사항에 따라 유지됩니다.

다음 섹션에서는 Microsoft가 Microsoft 365 Copilot 채택하기 위한 중요한 고객 고려 사항인 개인 정보 보호, 보안 및 규정 준수의 다양한 측면을 해결하는 방법을 설명합니다.

액세스 제어 및 권한 관리

Microsoft 365 Copilot 사용자를 대신하여 리소스에 액세스하므로 사용자가 이미 액세스 권한이 있는 리소스에만 액세스할 수 있습니다. 예를 들어 사용자가 문서에 액세스할 수 없는 경우 사용자를 대신하여 작업하는 Microsoft 365 Copilot 액세스 권한도 없습니다.

응답을 생성하는 데 사용하는 데이터는 전송 중 암호화, 개인 정보 보호 및 데이터 유출 방지 등 계약 데이터 처리 요구 사항에 따라 Microsoft에서 처리합니다. 또한 Microsoft Graph 및 SharePoint의 데이터를 포함한 Microsoft 365 데이터는 액세스 제어 및 감사 메커니즘을 준수합니다.

Microsoft 365 Copilot 정보 장벽, 조건부 액세스 및 민감도 레이블과 같은 사용자 액세스 및 권한을 추가로 제한하는 Microsoft 365, Microsoft Entra 및 Microsoft Purview 정책을 준수합니다.

Microsoft 365 Copilot Copilot에서 생성된 응답의 데이터 반출을 방지하기 위해 DLP(데이터 손실 방지) 정책을 상속합니다. 또한 이러한 응답에 민감도 레이블을 적용하여 데이터 보안을 향상시킵니다.

모델 학습 중 데이터 보호

Microsoft 365 Copilot Microsoft에서 호스트하는 미리 학습된 LLM 모델을 사용하며, 고객 데이터를 사용하여 이러한 모델을 학습하지 않습니다. 또한 프롬프트 및 접지 데이터는 AI 모델을 학습시키는 데 사용되지 않으며 OpenAI 또는 다른 타사와 공유되지 않습니다.

데이터 보존 요구 사항 준수

Microsoft는 Microsoft 제품 약관 및 데이터 보호 부록에 설명된 대로 데이터 보존 약정을 준수합니다. Microsoft ADR(Advanced Data Residency)Multi-Geo 기능 제품에는 2024년 3월 1일 기준 Microsoft 365 Copilot 고객을 위한 데이터 보존 약정이 포함됩니다. 유럽 연합(EU) 사용자의 경우 Microsoft는 EU 데이터 경계를 준수하기 위한 추가 보호 조치를 제공합니다. EU 트래픽은 EU 데이터 경계 내에 유지되고 전 세계 트래픽은 LLM 처리를 위해 EU 및 기타 국가 또는 지역에 전송될 수 있습니다.

AI 처리를 위해 전송되는 모든 데이터는 전송 중 및 미사용으로 암호화됩니다. 처리 수명 주기 동안 데이터를 안전하게 유지하기 위해 Microsoft 365는 BitLocker, 파일별 암호화, TLS(전송 계층 보안) 1.2 및 IPsec(인터넷 프로토콜 보안)을 포함하여 미사용 및 전송 중인 고객 콘텐츠를 암호화하는 FIPS 140-2 규격 서비스 쪽 기술을 사용합니다.

프롬프트 삽입에 대한 강화

Microsoft는 여러 계층의 콘텐츠 필터링, 엄격한 보안 프로토콜 및 지속적인 모니터링에 고급 기계 학습의 조합을 사용합니다. 간접 또는 교차 프롬프트 삽입 분류자는 여러 계층에서 프롬프트 삽입을 감지하고 차단합니다. 한편 다음과 같은 방어는 XPIA(크로스 프롬프트 삽입 공격)의 보안 영향을 최소화하는 데도 도움이 됩니다.

  • XPIA 분류자는 XPIA 인스턴스를 감지하고 줄이는 데 사용됩니다.

  • 전자 메일 메시지 보내기와 같이 콘텐츠를 변경하거나 송신할 수 있는 권한 있는 작업 및 작업에 대한 휴먼 인더 루프(사용자 시작 또는 승인된 작업)에 대한 요구 사항

  • 데이터 반출을 방지하기 위해 불필요한 데이터 송신 메커니즘이 제거됩니다.

또한 프롬프트 삽입 공격의 컨텍스트에서 공격자는 사용자가 액세스할 수 있는 범위까지만 데이터에 액세스할 수 있습니다. 즉, 공격자는 사용자가 시스템 내에 있는 권한 및 데이터로 제한됩니다. 이 제한은 사용자 권한의 scope 대한 프롬프트 주입 공격의 잠재적 손상을 포함하는 데 도움이 됩니다.

책임 있는 AI 원칙 준수

Microsoft 책임 있는 AI 원칙은 Microsoft 365 Copilot 개발 및 사용을 안내합니다. 예를 들어 Microsoft 365 Copilot Azure AI 콘텐츠 보안 사용할 수 있는 분류자와 메타프롬프팅을 구현하여 유해하거나 공격적이거나 폭력적인 콘텐츠의 위험을 줄입니다. Microsoft 365 Copilot AI 기반 분류자 및 콘텐츠 필터를 사용하여 사용자 프롬프트 또는 생성된 응답에서 다양한 유형의 잠재적으로 유해한 콘텐츠에 플래그를 지정합니다. 한편 메타프롬핑은 Microsoft의 AI 원칙 및 사용자 기대에 따라 시스템이 작동하는지 확인하는 등 모델 동작을 안내합니다.

또한 Microsoft는 랜섬웨어 및 기타 맬웨어 기반 공격에 Microsoft 365 Copilot 사용을 방지하기 위해 프롬프트 검사 기술 및 콘텐츠 필터를 적용합니다. 또한 SDL(보안 개발 수명 주기)을 사용하면 원격 코드 실행에서 Microsoft 365 Copilot 보호할 수 있습니다. 이 작업을 수행하는 한 가지 방법은 Copilot가 제한되지 않고 받은 편지하지 않은 코드를 실행하지 못하게 하는 것입니다.

비그라운드 콘텐츠를 방지하기 위해 Microsoft 365 Copilot Microsoft 365 테넌트 고객의 콘텐츠에 대한 정보를 제공할 수 있는 전용 의미 체계 데이터베이스를 사용하여 RAG(검색 보강 생성)를 구현합니다. Microsoft는 응답의 기초 수준에서 변경 내용을 지속적으로 신중하게 검토합니다. Microsoft 365 Copilot 변경 내용(프롬프트, 모델 또는 오케스트레이션 포함)의 경우 사용자에게 부정적인 영향을 줄 수 있는 회귀를 catch합니다.

Azure AI에는 AI 앱 개발자가 보다 안전한 AI 애플리케이션을 빌드할 수 있도록 지원하여 이러한 보호 기능을 더욱 강화하는 데 도움이 되는 새로운 도구가 있습니다.

Microsoft는 저작권 침해 소송이 발생할 경우 고객을 보호하고 불리한 판단을 보상하기 위한 업계 최초의 고객 저작권 약정 프로그램을 포함하여 보호된 콘텐츠 생성에 대한 기본 제공 보호를 제공합니다.

규정 요구 사항 충족

Microsoft 365 Copilot 몇 가지 메커니즘을 통해 eDiscovery, 감사 로깅 및 보존에 대한 규정 요구 사항을 충족합니다.

  • 보존 정책: Microsoft 365 Copilot 메시지는 Teams 채팅 및 코필로트 상호 작용이라는 보존 정책 위치에 자동으로 포함됩니다. 즉, 규정 준수를 위해 사용자 프롬프트 및 Copilot 응답을 보존하고 삭제할 수 있습니다. Copilot 메시지의 데이터는 규정 준수 관리자가 eDiscovery 도구를 사용하여 검색할 수 있는 Copilot를 실행하는 사용자의 사서함에 있는 숨겨진 폴더에 저장됩니다.

  • 감사 로깅: Microsoft 365 Copilot 생성된 감사 로그는 감사(Standard) 고객의 경우 최대 180일, 감사(프리미엄) 라이선스 소유자의 경우 최대 1년 동안 보존할 수 있으며, 최대 10년까지 연장할 수 있습니다.

  • Microsoft Purview 준수: Microsoft Purview는 Copilot와 같은 생성 AI 앱에 대한 데이터 보안 및 규정 준수 보호를 제공합니다. 현재 미리 보기로 제공되는 Microsoft Purview Data Security Posture Management for AI는 사용하기 쉬운 그래픽 도구 및 보고서를 제공하여 organization 내에서 AI 사용에 대한 인사이트를 빠르게 얻을 수 있습니다. 원클릭 정책은 데이터를 보호하고 규정 요구 사항을 준수하는 데 도움이 됩니다.

  • 관리 컨트롤: 관리자는 Microsoft Purview를 사용하여 저장된 데이터를 보고 관리하고, 보존 정책을 설정하고, eDiscovery 검색을 수행할 수 있습니다. 관리자 및 사용자가 시작한 삭제 옵션은 모두 Purview를 통해 사용할 수 있습니다.

질문과 대답

Microsoft 365 Copilot 결과가 신뢰할 수 있나요?

Microsoft 세이프가드는 모든 AI 애플리케이션과 마찬가지로 잘못된 정보와 손상에 대한 강력한 위협 완화를 제공하지만 Microsoft 365 Copilot 응답이 항상 정확하지는 않을 수 있습니다. 이러한 응답을 검사 위해 여전히 인간의 판단을 적용해야 합니다.

Microsoft는 내 프롬프트 및 응답을 어떻게 처리하나요?

Microsoft는 전자 메일, 문서 및 채팅과 같은 다른 전통적인 형태의 콘텐츠를 처리할 때 프롬프트와 응답을 처리하며 계약 약정은 동일합니다.

Microsoft 365 Copilot 데이터를 사용하여 AI 모델을 학습하나요?

Microsoft Graph를 통해 액세스되는 프롬프트, 응답 및 고객 데이터는 Microsoft 365 Copilot 사용하는 것을 포함하여 기초 LLM을 학습시키는 데 사용되지 않습니다. 제품 개선은 고객이 보고한 인시던트 및 가상 프롬프트 생성과 같은 기술을 통해 수행됩니다.

예기치 않거나 불쾌한 콘텐츠가 표시되면 어떻게 해야 하나요?

프롬프트 응답 옆에 있는 다운본트(엄지 손가락 아래로) 단추를 선택하여 불안하거나 의심스러운 콘텐츠를 즉시 보고합니다.

Microsoft 365 Copilot 취약성 평가 보고서에 액세스하는 방법은 무엇인가요?

Microsoft 365 Copilot 대한 타사 취약성 평가는 Service Trust Portal에서 다운로드할 수 있습니다.

Microsoft가 내 AI 애플리케이션에서 위험을 찾는 데 도움을 줄 수 있나요?

Microsoft는 보안 전문가 및 기계 학습 엔지니어가 자체 생성 AI 시스템에서 위험을 사전에 찾을 수 있도록 하는 개방형 액세스 자동화 프레임워크인 PyRIT(생성 AI)용 Python 위험 식별 도구 키트를 출시했습니다.

Microsoft 365 Copilot 콘텐츠를 접지할 때 없는 데이터에 액세스할 수 있나요?

Microsoft 365 Copilot 사용자를 대신하여 리소스에 액세스하므로 액세스 권한이 이미 있는 리소스에만 액세스할 수 있습니다.

접지 작업은 ID의 컨텍스트 내에서 발생하며, 의미 체계 인덱스 및 그래프 쿼리는 기본 콘텐츠에 대한 사용 권한에 따라 "보안 트리밍"됩니다. 이 프로세스는 권한 있는 콘텐츠만 접지 프로세스에 포함되도록 합니다.

Microsoft 365 Copilot 사용할 수 있는 데이터를 어떻게 제한할 수 있나요?

다음 단계는 관리자가 사용자 액세스를 제어하여 Microsoft 365 Copilot 사용할 수 있는 데이터를 제한하는 데 도움이 될 수 있습니다.

Microsoft 보안 솔루션을 사용하여 데이터 및 AI 애플리케이션 상호 작용을 보호하려면 어떻게 해야 하나요?

Microsoft는 항상 엔터프라이즈를 위한 강력한 보안 기반을 구축하는 것이 좋습니다. 제로 트러스트 보안 전략은 각 연결 및 리소스 요청을 제어되지 않은 네트워크 및 위협 행위자에서 시작된 것처럼 취급하기 때문에 이러한 기반에 대한 지침을 제공합니다. 요청이 시작되는 위치 또는 액세스하는 리소스에 관계없이 제로 트러스트 원칙을 사용합니다.

Microsoft Defender, Entra, Purview 및 Intune 포함한 포괄적인 보안 솔루션은 함께 작동하여 Microsoft 365 Copilot 및 기타 AI 애플리케이션에서 데이터와 상호 작용을 보호합니다. 이러한 제품에는 사용자와 팀이 다음을 수행할 수 있는 기능이 있습니다.

  • 중요한 데이터 유출 및 고위험 애플리케이션에 대한 무단 액세스와 같은 AI 사용과 관련된 잠재적 위험 식별

  • 프롬프트 및 응답을 포함하여 AI 애플리케이션 및 AI 애플리케이션이 처리하거나 생성하는 중요한 데이터를 보호합니다.

  • 상호 작용을 유지 및 로깅하고, 정책 위반을 감지하고, 인시던트 조사를 통해 AI 사용을 책임감 있게 관리합니다.

예를 들어, 최근 생성 AI 애플리케이션 및 해당 데이터의 강력한 보안 및 거버넌스를 위해 특별히 빌드된 도구를 제공하는 새로운 Microsoft Defender 및 Purview 기능을 도입했습니다. 또한 제품 간 Microsoft Security Copilot 원활하게 통합하면 보안 분석가의 전반적인 프로세스와 환경이 간소화됩니다. Microsoft는 보안의 우선 순위를 지정하고 이러한 고급 기능을 제공하여 조직에서 AI 애플리케이션이 제공하는 이점과 기회를 자신 있게 적용할 수 있도록 지원합니다.

Microsoft 365 Copilot 및 기타 AI 애플리케이션의 취약성은 어디에서 보고해야 하나요?

AI 플랫폼에서 새로운 취약성을 발견하는 경우 플랫폼 소유자에 대한 책임 있는 공개 사례를 따르는 것이 좋습니다. Microsoft 자체 프로시저(Copilot용)는 Microsoft AI 바운티 프로그램에 설명되어 있습니다.