다음을 통해 공유


Azure의 AI 워크로드에 대한 보안 권장 사항

이 문서에서는 Azure에서 AI 워크로드를 실행하는 조직에 대한 보안 권장 사항을 제공합니다. Azure AI Studio, Azure OpenAI, Azure Machine Learning 및 Azure AI Services를 비롯한 Azure AI PaaS(Platform-as-a-Service) 솔루션에 중점을 둡니다. 생성 및 비제전적 AI 워크로드를 모두 다룹니다.

AI가 비즈니스 운영에 더욱 통합됨에 따라 잠재적 위협으로부터 이러한 리소스를 보호하는 것은 데이터 무결성 및 규정 준수를 유지하는 데 매우 중요합니다. 표준화된 보안 기준을 적용하고 잘 설계된 프레임워크를 따르면 조직은 취약성으로부터 AI 인프라를 보호할 수 있습니다.

AI 리소스 보호

AI 리소스를 보호한다는 것은 Azure의 AI 워크로드에 사용되는 인프라를 보호하기 위해 보안 기준과 모범 사례를 적용하는 것을 의미합니다. 이 보호는 외부 위협으로부터 위험을 최소화하고 조직 전체에서 일관된 보안 태세를 보장합니다.

Azure AI 플랫폼을 보호합니다. 모든 AI 리소스에 대한 Azure 보안 기준 애플리케이션 을 표준화합니다 . Azure Well-Architected Framework 내의 Azure 서비스 가이드의 보안 권장 사항을 따릅니다.

Azure AI 플랫폼 보안 기준 Azure Well-Architected Framework 서비스 가이드
Azure Machine Learning Azure Machine Learning
Azure AI Studio
Azure OpenAI Azure OpenAI

AI 모델 보호

AI 모델 보안은 위협 방지 구현, 프롬프트 삽입 위험 모니터링, 모델 무결성 확인 및 거버넌스 중앙 집중화를 의미합니다. 이러한 사례를 통해 AI 모델은 악의적인 조작으로부터 안전하게 유지되고 안정성을 유지하며 정확한 결과를 제공합니다.

  • 모든 AI 모델에 대한 위협 방지를 구현합니다. 클라우드용 Microsoft Defender 사용하여 프롬프트 삽입 공격 및 모델 조작과 같은 위협으로부터 AI 모델을 보호합니다. 이 도구는 새로운 위협을 감지하고 방지하는 데 도움이 되는 AI 워크로드의 지속적인 모니터링을 제공합니다. 모든 워크로드에서 이 보호를 구현하면 조직 전체에서 일관된 보안 태세를 유지할 수 있습니다.

  • 출력을 모니터링하고 프롬프트 보호 적용 AI 모델에서 반환된 데이터를 정기적으로 검사하여 악의적이거나 예측할 수 없는 사용자 프롬프트와 관련된 위험을 감지하고 완화합니다. 프롬프트 쉴드를 구현하여 생성 Al 모델에 대한 사용자 입력 공격의 위험에 대한 텍스트를 검색합니다.

  • 모델 확인을 확인합니다. 사용 중인 모든 AI 모델이 합법적이고 안전한지 확인하기 위해 회사 차원의 확인 메커니즘을 설정합니다. 오픈 소스 모델을 사용하는 경우 모델 서명 또는 기타 확인 프로세스를 사용하여 AI 모델의 신뢰성을 확인하여 무단 또는 변조된 모델이 배포되지 않도록 방지합니다.

  • AI 게이트웨이를 사용하는 것이 좋습니다. APIM(Azure API Management )은 AI 워크로드에서 일관된 보안을 보장하는 데 도움이 될 수 있습니다. 트래픽 제어 및 보안 적용을 위한 기본 제공 정책을 사용합니다. APIM을 Microsoft Entra ID와 통합하여 인증 및 권한 부여를 중앙 집중화하고 권한 있는 사용자 또는 애플리케이션만 AI 모델과 상호 작용하도록 합니다. 역방향 프록시의 관리 ID에 대한 최소 권한 액세스를 구성해야 합니다. 자세한 내용은 APIM을 사용한 AI 인증을 참조하세요 .

AI 액세스 보호

AI 액세스 보안에는 관리 평면 및 AI 리소스에 대한 외부 액세스 모두에 대한 인증 및 권한 부여 제어 설정이 포함됩니다. 적절한 액세스 관리는 확인된 권한이 있는 사용자로만 리소스 사용을 제한합니다. AI 모델과의 무단 상호 작용 가능성을 줄입니다. 역할 기반 액세스 및 조건부 액세스 정책과 같은 강력한 액세스 제어는 중요한 데이터를 보호하고 보안 표준을 준수하는 데 도움이 됩니다.

  • 리소스 및 액세스 제어를 구성합니다. 고유한 작업 영역을 사용하여 데이터 세트, 모델 및 실험과 같은 AI 아티팩트 구성 및 관리 작업 영역은 리소스 관리를 중앙 집중화하고 액세스 제어를 간소화합니다. 예를 들어 Azure AI Studio 내의 프로젝트를 사용하여 리소스 및 권한을 효율적으로 관리하여 보안 경계를 유지하면서 공동 작업을 용이하게 합니다.

  • 인증을 위해 Microsoft Entra ID를 사용합니다. 가능하면 인증을 위해 Microsoft Entra ID를 위해 정적 API 키를 제거합니다. 이 단계에서는 중앙 집중식 ID 관리를 통해 보안을 강화하고 비밀 관리 오버헤드를 줄입니다. 또한 API 키의 배포를 제한합니다. 대신 인증을 위해 API 키보다 Microsoft Entra ID의 ID를 선호합니다. API 키 액세스 권한이 있는 개인 목록을 감사하여 최신인지 확인합니다. 인증 지침은 Azure AI Studio, Azure OpenAI, Azure AI 서비스, Azure Machine Learning을 참조하세요.

  • 인증을 구성합니다. MFA(다단계 인증)를 사용하도록 설정하고 중요한 계정에 대해 PIM(Privileged Identity Management)을 사용하여 보조 관리 계정 또는 Just-In-Time 액세스를 선호합니다. Azure Bastion과 같은 서비스를 프라이빗 네트워크에 대한 보안 진입점으로 사용하여 제어 평면 액세스를 제한합니다.

  • 조건부 액세스 정책을 사용합니다. 비정상적인 로그인 활동 또는 의심스러운 동작에 대응하는 위험 기반 조건부 액세스 정책을 구현합니다. 사용자 위치, 디바이스 상태 및 로그인 동작과 같은 신호를 사용하여 추가 확인 단계를 트리거합니다. 보안을 강화하기 위해 중요한 AI 리소스에 액세스하려면 MFA가 필요합니다. 지리적 위치 또는 신뢰할 수 있는 IP 범위에 따라 AI 인프라에 대한 액세스를 제한합니다. 규정 준수 디바이스(보안 요구 사항을 충족하는 디바이스)만 AI 리소스에 액세스할 수 있는지 확인합니다.

  • 최소 권한 액세스를 구성합니다. RBAC(역할 기반 액세스 제어)를 구현하여 최소 권한 액세스를 구성하여 데이터 및 서비스에 대한 액세스를 최소화합니다. 책임에 따라 사용자 및 그룹에 역할을 할당합니다. Azure RBAC를 사용하여 가상 머신 및 스토리지 계정과 같은 특정 리소스에 대한 액세스 제어를 미세 조정합니다. 사용자가 작업을 수행하는 데 필요한 최소 액세스 수준만 있는지 확인합니다. 권한 크리프 방지를 위해 정기적으로 사용 권한을 검토하고 조정합니다. 예를 들면 다음과 같습니다.

    역할 사용 권한 예제
    데이터 과학자 데이터 스토리지에 대한 읽기/쓰기 액세스, 학습 작업을 실행할 수 있는 권한 및 모델 학습 환경에 대한 액세스 권한입니다.
    AI 개발자 개발 환경, 배포 권한 및 AI 애플리케이션을 수정하는 기능에 대한 액세스.
    IT 관리자 인프라, 네트워크 구성 및 보안 정책을 관리할 수 있는 모든 권한.
  • Azure 서비스 간 상호 작용을 보호합니다. 관리 ID를 사용하여 Azure 서비스가 자격 증명을 관리하지 않고 서로 인증할 수 있도록 허용합니다.

  • AI 모델 엔드포인트에 대한 외부 액세스를 보호합니다. AI 모델 엔드포인트에 액세스할 때 클라이언트가 Microsoft Entra ID를 사용하여 인증하도록 요구합니다. AZURE API Management를 AI 모델 엔드포인트 앞에서 AI 게이트웨이로 사용하여 액세스 정책을 적용하고, 사용량을 제어하고, 모니터링 기능을 제공하는 것이 좋습니다.

보안 AI 실행

AI 실행 보안에는 가상 도우미 또는 자율 에이전트와 같은 AI 에이전트가 사용자 요청에 대한 응답으로 코드를 실행하는 프로세스를 보호하는 작업이 포함됩니다. 실행 환경을 격리하고, 코드 검토를 수행하고, 리소스 제한을 설정합니다. 이러한 조치는 이러한 실행이 시스템 안정성 또는 보안을 손상시키지 않도록 하는 데 도움이 됩니다. 이러한 사례는 악의적인 활동을 방지하고 AI 에이전트가 작동하는 시스템의 무결성을 보호하여 보안 프레임워크 내에서 안정적으로 작동할 수 있도록 합니다.

  • 격리 메커니즘을 구현합니다. Azure Container Apps의 동적 세션과 같은 동적 세션 관리를 활용하여 각 코드 실행이 사용 후 제거되는 새로 격리된 환경에서 수행되도록 합니다.

  • 보안 실행 코드입니다. AI 에이전트에서 실행할 스크립트를 배포하기 전에 철저한 코드 검토 및 테스트를 수행합니다. 이 프로세스는 잠재적인 취약성을 식별하고 완화하는 데 도움이 됩니다. 버전 제어 시스템을 사용하여 코드 변경 내용을 관리하고 승인된 버전의 스크립트만 실행되도록 합니다.

  • 리소스 제한을 구현합니다. 단일 실행이 과도한 리소스를 사용하고 다른 서비스를 방해할 수 없도록 코드 실행 환경에 대한 리소스 제한(CPU, 메모리, 디스크 사용량)을 설정합니다. 장기 실행 또는 잠재적으로 중단된 프로세스가 자동으로 종료되도록 실행 시간 제한을 정의합니다.

자세한 내용은 Azure OpenAI 서비스를 사용하여 도우미를 만드는 방법, Azure OpenAI Assistants 함수 호출을 사용하는 방법 및 에이전트 구현을 참조하세요.

다음 단계