다음을 통해 공유


Microsoft 365 Copilot 데이터, 개인 정보 보호 및 보안

Microsoft 365 Copilot은 다음 구성 요소를 조정하여 AI 기반 생산성 기능을 제공하는 정교한 처리 및 오케스트레이션 엔진입니다.

  • LLM(큰 언어 모델)
  • 액세스 권한이 있는 전자 메일, 채팅 및 문서와 같은 Microsoft Graph의 콘텐츠입니다.
  • Word 및 PowerPoint와 같이 매일 사용하는 Microsoft 365 생산성 앱입니다.

이러한 세 구성 요소가 함께 작동하는 방법에 대한 개요는 Microsoft 365 Copilot 개요를 참조하세요. Microsoft 365 Copilot와 관련된 다른 콘텐츠에 대한 링크는 Microsoft 365 Copilot 설명서를 참조하세요.

중요

  • Microsoft 365 Copilot은 GDPR(일반 데이터 보호 규정) 및 EU(유럽 연합) 데이터 경계를 포함하여 Microsoft 365 상용 고객에 대한 기존 개인 정보 보호, 보안 및 규정 준수 약정을 준수합니다.
  • Microsoft Graph를 통해 액세스되는 프롬프트, 응답 및 데이터는 Microsoft 365 Copilot 사용을 포함하여 기본 LLM을 학습시키는 데 사용되지 않습니다.
  • Microsoft 365 Copilot은 유해한 콘텐츠 차단, 보호된 자료 검색프롬프트 삽입(탈옥 공격) 차단을 포함하되 이에 제한되지 않는 여러 보호 기능으로 작동합니다.

이 문서의 정보는 다음 질문에 대한 답변을 제공하기 위한 것입니다.

참고

Microsoft 365 Copilot의 새로운 기능은 시간이 지남에 따라 계속 발전할 것입니다. Microsoft 365 Copilot에 대한 최신 정보를 확인하거나 질문하려면 Microsoft Tech Community의 Microsoft 365 Copilot 커뮤니티를 방문하세요.

Microsoft 365 Copilot은 독점 조직 데이터를 어떻게 사용하나요?

Microsoft 365 Copilot은 LLM을 조직 데이터에 연결하여 가치를 제공합니다. Microsoft 365 Copilot은 Microsoft Graph를 통해 콘텐츠 및 컨텍스트에 액세스합니다. 사용자 문서, 전자 메일, 일정, 채팅, 모임, 연락처 및 기타 비즈니스 데이터와 같은 고객의 비즈니스 콘텐츠에 고정된 응답을 생성할 수 있습니다. Microsoft 365 Copilot은 이 콘텐츠를 사용자의 작업 컨텍스트와 결합합니다. 예를 들어 현재 사용자가 있는 모임, 사용자가 토픽에서 수행한 전자 메일 교환 또는 사용자가 지난주에 했던 채팅 대화입니다. Microsoft 365 Copilot은 이 콘텐츠와 컨텍스트 조합을 사용하여 정확하고 관련성이 높고 상황에 맞는 응답을 제공합니다.

중요

Microsoft Graph를 통해 액세스되는 프롬프트, 응답 및 데이터는 Microsoft 365 Copilot 사용을 포함하여 기본 LLM을 학습시키는 데 사용되지 않습니다.

Microsoft 365 Copilot은 개별 사용자에게 최소한 보기 권한이 있는 조직 데이터만 표시합니다. SharePoint와 같은 Microsoft 365 서비스에서 사용할 수 있는 사용 권한 모델을 사용하여 올바른 사용자 또는 그룹이 조직 내에서 올바른 콘텐츠에 올바르게 액세스할 수 있도록 하는 것이 중요합니다. 여기에는 Microsoft Teams의 공유 채널과 같은 테넌트 간 공동 작업 솔루션을 통해 조직 외부의 사용자에게 제공하는 권한이 포함됩니다.

Microsoft 365 Copilot을 사용하여 프롬프트를 입력할 때 프롬프트에 포함된 정보, 검색한 데이터 및 생성된 응답은 현재 개인 정보, 보안 및 규정 준수 약정에 따라 Microsoft 365 서비스 경계 내에 유지됩니다. Microsoft 365 Copilot은 OpenAI의 공개적으로 사용 가능한 서비스 뿐만 아니라 Azure OpenAI를 서비스 처리에 사용합니다. Azure OpenAI는 고객 콘텐츠를 캐시하지 않으며 Copilot은 Microsoft 365 Copilot에 대한 프롬프트를 수정했습니다. 자세한 내용은 이 문서의 뒷부분에 있는 Microsoft 365 Copilot과 사용자 상호 작용에 대해 저장된 데이터 섹션을 참조하세요.

참고

  • Microsoft 365 Copilot이 더 관련성 높은 정보를 제공할 수 있도록 플러그인을 사용하는 경우, 플러그인의 개인정보처리방침 및 사용 약관을 확인하여 조직의 데이터를 어떻게 처리할지 결정하세요. 자세한 내용은 Microsoft 365 Copilot의 확장성을 참조하세요.
  • 웹 콘텐츠 플러그 인을 사용하면 Microsoft 365 Copilot은 사용자의 프롬프트를 구문 분석하고 웹 검색이 응답 품질을 향상시킬 수 있는 조건을 식별합니다. Copilot은 이러한 용어를 기반으로 검색 쿼리를 생성하여 Bing 검색 서비스로 전송합니다. 자세한 내용은 Microsoft 365 Copilot 및 Microsoft Copilot의 웹 쿼리에 대한 데이터, 개인 정보 및 보안을 참조하세요.

Azure OpenAI에서 콘텐츠에 대한 인적 검토를 포함한 남용 모니터링을 사용할 수 있지만 Microsoft 365 Copilot 서비스는 여기에서 제외되었습니다. 콘텐츠 필터링에 대한 자세한 내용은 Copilot이 유해한 콘텐츠를 어떻게 차단하나요?를 참조하세요. 이 문서의 뒷부분에 있는 섹션입니다.

참고

다른 Microsoft 365 서비스 및 Microsoft 365 생산성 앱을 개선하기 위해 고객 피드백을 사용하는 것처럼, 고객 피드백을 사용하여 Microsoft 365 Copilot을 개선하기 위해 선택 사항인 고객 피드백을 사용할 수 있습니다. 이 피드백은 Microsoft 365 Copilot에서 사용하는 기본 LLM을 학습시키는 데 사용되지 않습니다. 고객은 관리자 제어를 통해 피드백을 관리할 수 있습니다. 자세한 내용은 조직의 Microsoft 피드백 관리Microsoft 365 앱이 포함된 Microsoft Copilot에 대한 피드백 제공을 참조하세요.

사용자와 Microsoft 365 Copilot 간의 상호 작용에 관한 데이터

사용자가 word, PowerPoint, Excel, OneNote, Loop 또는 Whiteboard와 같은 앱을 사용하여 Microsoft 365 Copilot과 상호 작용할 때 이러한 상호 작용에 대한 데이터를 저장합니다. 저장된 데이터에는 Copilot의 응답의 기반이 되는 정보에 대한 인용을 포함하여 사용자의 프롬프트 및 Copilot의 응답이 포함됩니다. 해당 프롬프트에 대한 사용자의 프롬프트 및 Copilot의 응답을 "상호 작용 콘텐츠"라고 하며 이러한 상호 작용의 기록은 사용자의 Copilot 활동 기록입니다. 예를 들어 이 저장된 데이터는 사용자에게 Microsoft TeamsBusiness Chat 및 모임에서 Copilot 활동 기록을 제공합니다. 이 데이터는 조직의 다른 Microsoft 365 콘텐츠에 대한 계약 약정에 맞춰 처리 및 저장됩니다. 데이터는 저장되는 동안 암호화되며 Microsoft 365 Copilot에 사용되는 항목을 포함하여 기본 LLM을 학습시키는 데 사용되지 않습니다.

관리자는 콘텐츠 검색 또는 Microsoft Purview를 사용하여 이 저장된 데이터를 보고 관리할 수 있습니다. 관리자는 또한 Microsoft Purview를 사용하여 Copilot와의 채팅 상호 작용과 관련된 데이터에 대한 보존 정책을 설정할 수도 있습니다. 자세한 내용은 다음 문서를 참조하세요.

Copilot와의 Microsoft Teams 채팅의 경우 관리자는 Microsoft Teams 내보내기 API를 사용하여 저장된 데이터를 볼 수도 있습니다.

사용자와 Microsoft 365 Copilot 간의 상호 작용 기록 삭제

사용자는 내 계정 포털로 이동하여 Copilot가 반환하는 프롬프트 및 응답을 포함하는 Copilot 활동 기록을 삭제할 수 있습니다. 자세한 내용은 Microsoft 365 Copilot 활동 기록 삭제를 참조하세요.

Microsoft 365 Copilot 및 EU 데이터 경계

LLM에 대한 Microsoft 365 Copilot 호출은 해당 지역에서 가장 가까운 데이터 센터로 라우팅되지만 사용률이 높은 기간 동안 용량을 사용할 수 있는 다른 지역으로 호출할 수도 있습니다.

유럽 연합(EU) 사용자의 경우 EU Data Boundary를 준수하기 위한 추가 안전 장치가 있습니다. EU 트래픽은 EU 데이터 경계 내에 유지되고 전 세계 트래픽은 LLM 처리를 위해 EU 및 기타 국가 또는 지역에 전송될 수 있습니다.

Microsoft 365 Copilot 및 데이터 보존

Microsoft 365 Copilot은 Microsoft 제품 약관 및 데이터 보호 추록에 간략히 설명된 대로 데이터 보존 약정을 준수합니다. Microsoft 365 Copilot은 2024년 3월 1일 Microsoft 제품 약관의 데이터 보존 약정에 보장되는 워크로드로 추가되었습니다.

Microsoft ADR(Advanced Data Residency)Multi-Geo 기능 제품에는 2024년 3월 1일 기준 Microsoft 365 Copilot 고객을 위한 데이터 보존 약정이 포함됩니다. EU 고객의 경우 Microsoft 365 Copilot은 EU 데이터 경계 서비스입니다. EU 외부의 고객은 미국, EU 또는 기타 지역에서 쿼리가 처리될 수 있습니다.

Microsoft 365 Copilot의 확장성

Microsoft 365 Copilot은 이미 Microsoft 365 에코시스템 내에서 앱과 데이터를 사용할 수 있지만, 많은 조직은 여전히 작업 관리 및 협업을 위한 다양한 외부 도구 및 서비스에 의존합니다. Microsoft 365 Copilot 환경은 Microsoft Graph 커넥터 또는 플러그 인을 사용하여 사용자의 요청에 응답할 때 타사 도구 및 서비스를 참조할 수 있습니다. 사용자가 정보에 액세스할 수 있는 권한이 있는 경우 Graph 커넥터에서 가져온 데이터가 Microsoft 365 Copilot 응답에 반환됩니다.

플러그 인을 사용하도록 설정하면 Microsoft 365 Copilot은 사용자에게 관련성 있는 응답을 제공하는 데 도움이 되도록 특정 플러그 인을 사용해야 하는지 여부를 확인합니다. 플러그 인이 필요한 경우 Microsoft 365 Copilot은 사용자를 대신하여 플러그 인에 보낼 검색 쿼리를 생성합니다. 쿼리는 사용자의 프롬프트, Copilot 활동 기록 및 사용자가 Microsoft 365에서 액세스할 수 있는 데이터를 기반으로 합니다.

관리자는 Microsoft 365 관리 센터통합 앱 섹션에서 플러그 인에 필요한 사용 권한 및 데이터 액세스 권한뿐만 아니라 플러그 인의 사용 약관 및 개인정보처리방침을 볼 수 있습니다. 관리자는 조직에서 허용되는 플러그 인을 선택할 수 있는 모든 권한을 가지고 있습니다. 사용자는 관리자가 허용하고 본인이 설치하거나 할당받은 플러그 인에만 액세스할 수 있습니다. Microsoft 365 Copilot은 사용자가 설정한 플러그 인만 사용합니다.

자세한 내용은 다음 문서를 참조하세요.

Microsoft 365 Copilot은 조직 데이터를 어떻게 보호하나요?

Microsoft 365 테넌트 내의 권한 모델은 사용자, 그룹 및 테넌트 간에 데이터가 의도치 않게 누출되지 않도록 하는 데 도움이 될 수 있습니다. Microsoft 365 Copilot은 각 개인이 다른 Microsoft 365 서비스에서 사용되는 데이터 액세스에 동일한 기본 컨트롤을 사용하여 액세스할 수 있는 데이터만 제공합니다. 의미 체계 인덱스는 사용자 ID 기반 액세스 경계를 적용하여 접지 프로세스가 현재 사용자가 액세스할 수 있는 콘텐츠에만 액세스하도록 합니다. 자세한 내용은 Microsoft의 개인 정보 취급 방침 및 서비스 설명서를 참조하세요.

Microsoft Purview Information Protection을 통해 데이터가 암호화된 경우 Microsoft 365 Copilot은 사용자에게 허가된 사용 권한을 적용합니다. 이 암호화는 IRM(정보 권한 관리)을 사용하여 Microsoft 365 앱의 민감도 레이블 또는 제한된 권한을 통해 적용할 수 있습니다. Microsoft 365 Microsoft Copilot에서 Microsoft Purview를 사용하는 방법에 대한 자세한 내용은 생성형 AI 앱에 대한 Microsoft Purview 데이터 보안 및 규정 준수 보호를 참조하세요.

고객이 Microsoft 365 서비스 및 애플리케이션을 손상시키거나 다른 테넌트 또는 Microsoft 365 시스템 자체에 무단으로 액세스하지 못하도록 여러 형태의 보호를 이미 구현하고 있습니다. 다음은 이러한 보호 형식의 몇 가지 예입니다.

  • Microsoft 365 서비스의 각 테넌트 내에서 고객 콘텐츠의 논리적 격리는 Microsoft Entra 권한 부여 및 역할 기반 액세스 제어를 통해 이루어집니다. 자세한 내용은 Microsoft 365 격리 컨트롤을 참조하세요.

  • Microsoft는 엄격한 물리적 보안, 백그라운드 차단 및 다중 계층 암호화 전략을 사용하여 고객 콘텐츠의 기밀성과 무결성을 보호합니다.

  • Microsoft 365 BitLocker, 파일당 암호화, TLS(전송 계층 보안) 및 IPsec(인터넷 프로토콜 보안)을 포함하여 미사용 및 전송 중인 고객 콘텐츠를 암호화하는 서비스 기술을 사용합니다. Microsoft 365 암호화에 대한 자세한 내용은 Microsoft 클라우드 암호화를 참조하세요.

  • 귀하의 데이터 제어는 GDPR과 같은 광범위하게 적용되는 개인 정보 보호법 및 세계 최초의 클라우드 개인 정보 보호 규정인 ISO/IEC 27018과 같은 개인 정보 보호 표준을 준수하려는 Microsoft의 약정에 의해 강화됩니다.

  • Microsoft 365 Copilot 플러그 인을 통해 액세스하는 콘텐츠의 경우 암호화를 통해 프로그래밍 방식 액세스를 제외시켜 플러그 인이 콘텐츠에 액세스하지 못하도록 제한할 수 있습니다. 자세한 내용은 Azure Information Protection 사용 권한 구성을 참조하세요.

규정 준수 요구 사항 충족

AI 공간의 규제가 발전함에 따라 Microsoft는 향후 규정 요구 사항을 충족하기 위해 계속해서 적응하고 대응할 것입니다.

Microsoft 365 Copilot은 엔터프라이즈의 데이터 보안 및 개인 정보에 대한 Microsoft의 현재 약정을 기반으로 구축되었습니다. 이러한 약정은 변경되지 않습니다. Microsoft 365 Copilot은 Microsoft 365와 통합되며 Microsoft 365 상용 고객에 대한 기존의 모든 개인 정보 보호, 보안 및 규정 준수 약정을 준수합니다. 자세한 내용은 Microsoft 규정 준수를 참조 하세요.

규정을 준수하는 것 외에도 고객, 파트너 및 규제 기관과의 열린 대화의 우선 순위를 지정하여 문제를 더 잘 이해하고 해결할 수 있으므로 신뢰와 협력 환경을 조성할 수 있습니다. Microsoft는 개인 정보 보호, 보안 및 투명성은 기능뿐만 아니라 AI 기반 환경의 필수 구성 요소임을 인지하고 있습니다.

추가 정보

연결된 환경에 대한 Microsoft 365 Copilot 및 개인 정보 제어

Microsoft 365 앱의 연결된 환경에 대한 일부 개인 정보 제어는 Microsoft 365 Copilot 기능의 가용성에 영향을 줄 수 있습니다. 여기에는 콘텐츠를 분석하는 연결된 환경에 대한 개인 정보 보호 컨트롤과 선택적 연결된 환경에 대한 개인 정보 제어가 포함됩니다. 이러한 개인 정보 보호 컨트롤에 대한 자세한 내용은 엔터프라이즈용 Microsoft 365 앱의 개인정보 보호 컨트롤 개요를 참조하세요.

콘텐츠를 분석하는 연결된 환경에 대한 개인 정보 제어

organization 디바이스에서 콘텐츠를 분석하는 연결된 환경을 끄면 다음 앱에서 Microsoft 365 Copilot 기능을 사용할 수 없습니다.

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • Word

이는 Windows, Mac, iOS 또는 Android 디바이스에서 이러한 앱의 최신 버전을 실행하는 경우에 적용됩니다.

또한 콘텐츠를 분석하는 연결된 환경을 포함하여 연결된 모든 환경을 해제하는 개인 정보 제어도 있습니다. 해당 개인 정보 제어를 사용하는 경우 앱 및 위에서 설명한 디바이스에서 Microsoft 365 Copilot 기능을 사용할 수 없습니다.

선택적 연결 환경을 위한 개인 정보 제어

조직에서 선택적 연결된 환경을 끄면 선택적 연결된 환경인 Microsoft 365 Copilot 기능을 사용자가 사용할 수 없습니다. 예를 들어 선택적으로 연결된 환경을 해제하면 웹 검색의 가용성에 영향을 줄 수 있습니다.

또한 선택적 연결된 환경을 포함하여 연결된 모든 환경을 해제하는 개인 정보 제어도 있습니다. 해당 개인 정보 제어를 사용하는 경우 선택적 연결된 환경인 Microsoft 365 Copilot 기능을 사용할 수 없습니다.

Microsoft 365 Copilot가 만드는 콘텐츠 정보

생성 AI가 생성하는 응답은 100% 팩트가 보장되지 않습니다. Microsoft가 응답을 계속 개선하는 동안 사람들은 결과물을 다른 사용자에게 보내기 전에 여전히 자신의 판단을 사용하여 검토해야 합니다. Microsoft 365 Copilot 기능은 이러한 작업을 완전히 자동화하는 대신 생성된 AI를 검토할 수 있는 기회를 제공하면서 더 많은 성과를 달성하는 데 도움이 되는 유용한 초안과 요약을 제공합니다.

Microsoft는 잘못된 정보 및 잘못된 정보, 콘텐츠 차단, 데이터 안전, 책임 있는 AI 원칙에 따라 유해하거나 판별적인 콘텐츠의 홍보 방지와 같은 문제를 사전에 해결하기 위해 알고리즘을 계속 개선하고 있습니다.

Microsoft는 서비스 결과물에 대한 소유권을 주장하지 않습니다. 즉, 고객의 결과물이 다른 사용자에 대해 저작권으로 보호되거나 집행 가능한지 여부에 대해 판단하지 않습니다. 이는 생성형 AI 시스템이 여러 고객의 유사한 프롬프트 또는 쿼리에 유사한 응답을 생성할 수 있기 때문입니다. 따라서 여러 고객이 동일하거나 실질적으로 유사한 콘텐츠에 대한 권리를 보유하거나 주장할 수 있습니다.

제3자가 Microsoft의 Copilots 또는 생성된 결과물을 사용했다는 이유로 상업적 고객을 저작권 침해로 고소하는 경우, 고객이 당사 제품에 내장된 가드레일 및 콘텐츠 필터를 사용하는 한, 당사는 고객을 방어하고 소송으로 인한 불리한 판결 또는 합의 금액을 지불합니다. 자세한 내용은 Microsoft, 고객을 위한 새로운 Copilot 저작권 약정 발표를 참조하세요.

Copilot은 유해한 콘텐츠를 어떻게 차단하나요?

Azure OpenAI 서비스에는 핵심 모델과 함께 작동하는 콘텐츠 필터링 시스템이 포함되어 있습니다. 혐오 및 공정성, 성적, 폭력 및 자해 카테고리에 대한 콘텐츠 필터링 모델은 다양한 언어로 특별히 훈련되고 테스트되었습니다. 이 시스템은 유해한 콘텐츠의 출력을 식별하고 차단하도록 설계된 분류 모델을 통해 입력 프롬프트와 응답을 모두 실행하여 작동합니다.

증오심 및 공정성 관련 피해는 인종, 민족, 국적, 성 정체성 및 표현, 성적 지향, 종교, 이민 신분, 능력 상태, 외모, 신체 크기 등을 근거로 경멸적이거나 차별적인 언어를 사용하는 모든 콘텐츠를 의미합니다. 공정성은 AI 시스템이 기존의 사회적 불평등에 기여하지 않고 모든 그룹의 사람들을 공평하게 대우하도록 하는 것과 관련이 있습니다. 성적인 콘텐츠에는 인간의 생식 기관, 연인 관계, 에로틱하거나 애정 어린 표현으로 묘사된 행위, 임신, 성폭행 또는 강제 성폭력 행위로 묘사된 행위를 포함한 신체적 성적 행위, 매춘, 포르노, 학대에 대한 논의가 포함됩니다. 폭력은 행동, 무기 및 관련 개체를 포함하여 해를 입히거나 죽이려는 의도의 신체적 행동과 관련된 언어를 말합니다. 자해 언어는 자신을 다치게 하거나 죽이려는 의도적인 행동을 말합니다.

Azure OpenAI 콘텐츠 필터링에 대해 자세히 알아보세요.

Copilot는 보호된 자료 검색을 제공하나요?

예, Microsoft 365 Copilot는 저작권의 적용을 받는 텍스트와 라이선스 제한이 적용되는 코드를 포함하는 보호된 자료에 대한 검색을 제공합니다. 이러한 완화 방법이 모든 Microsoft 365 Copilot 시나리오에 적용되는 것은 아닙니다.

Copilot은 프롬프트 주입(탈옥 공격)을 차단하나요?

탈옥 공격은 생성형 AI 모델을 학습되지 않거나 준수하도록 지시된 규칙을 위반하는 방식으로 동작하도록 설계된 사용자 프롬프트입니다. Microsoft 365 Copilot은 프롬프트 주입 공격으로부터 보호하도록 설계되었습니다. 탈옥 공격에 대해 알아보고 Azure AI 콘텐츠 안전을 사용하여 이를 탐지하는 방법에 대해 자세히 알아보세요.

책임 있는 AI에 최선을 다하고 있습니다.

AI가 우리의 삶을 변화시킬 준비가 되었으므로 이 기술의 사용과 영향에 대한 새로운 규칙, 규범 및 사례를 전체적으로 정의해야 합니다. Microsoft는 2017년부터 책임 있는 AI를 구축하기 위한 여정을 진행해 왔으며, 이 기술이 사람들을 최우선으로 하는 윤리적 원칙에 의해 구동되는 방식으로 사용되도록 하기 위한 원칙과 접근 방식을 정의했습니다.

Microsoft는 AI 원칙책임 있는 AI 표준과 AI, 기반 및 개인 정보 보호 기계 학습에 대한 수십 년간의 연구를 기반으로 합니다. 연구원, 엔지니어 및 정책 전문가로 구성된 다분야 팀은 AI 시스템의 위험과 완화(학습 데이터 구체화, 유해한 콘텐츠, 쿼리 및 결과 차단)를 검토합니다. 또한 민감한 항목의 결과를 제한하고, 데이터 바이어스를 감지하고 수정하는 데 도움이 되는 InterpretMLFairlearn과 같은 Microsoft 기술을 적용합니다. Microsoft는 제한 사항에 유의하고, 원본에 연결하고, 사용자에게 주제별 전문 지식을 기반으로 콘텐츠를 검토, 팩트 확인 및 조정하라는 메시지를 표시하여 시스템이 어떻게 결정을 내리는지 명확하게 설명합니다. 자세한 내용은 거버넌스 AI: 미래의 청사진을 참조하세요.

Microsoft는 고객이 책임 있는 AI 제품을 사용하고, 학습을 공유하고, 신뢰 기반 파트너 관계를 구축할 수 있도록 돕는 것을 목표로 합니다. 이러한 새로운 서비스의 경우 고객에게 AI 플랫폼 서비스의 의도된 용도, 기능 및 제한 사항에 대한 정보를 제공하려고 하므로 책임 있는 배포를 선택하는 데 필요한 지식을 갖습니다. 또한 조직 내 개발자 및 ISV(독립 소프트웨어 공급업체)와 리소스 및 템플릿을 공유하여 효과적이고 안전하며 투명한 AI 솔루션을 빌드하는 데 도움을 줍니다.