Поделиться через


Рекомендации по безопасности для рабочих нагрузок ИИ в Azure

В этой статье содержатся рекомендации по безопасности для организаций, работающих с рабочими нагрузками искусственного интеллекта в Azure. Он посвящен решениям платформы ИИ Azure как службы (PaaS), включая Azure AI Studio, Azure OpenAI, Машинное обучение Azure и Службы ИИ Azure. Она охватывает как рабочие нагрузки генерирующих, так и негенеративных ИИ.

Поскольку ИИ становится более интегрированным в бизнес-операции, защита этих ресурсов от потенциальных угроз имеет решающее значение для поддержания целостности данных и соответствия требованиям. Применение стандартных базовых показателей безопасности и следующих хорошо спроектированных платформ помогает организациям защищать свою инфраструктуру искусственного интеллекта от уязвимостей.

Безопасные ресурсы искусственного интеллекта

Защита ресурсов ИИ означает применение базовых показателей безопасности и рекомендаций для защиты инфраструктуры, используемой для рабочих нагрузок ИИ в Azure. Эта защита сводит к минимуму риски от внешних угроз и обеспечивает согласованную безопасность во всей организации.

Защита платформ ИИ Azure. Стандартизируйте применение базовых показателей безопасности Azure для каждого ресурса ИИ. Следуйте рекомендациям по безопасности в руководствах по службе Azure в Azure Well-Architected Framework.

Базовые показатели безопасности платформы ИИ Azure Руководство по службе Azure Well-Architected Framework
Машинное обучение Azure Машинное обучение Azure
Azure AI Studio
Azure OpenAI Azure OpenAI

Защита моделей ИИ

Защита моделей ИИ относится к реализации защиты от угроз, мониторингу рисков внедрения запросов, проверке целостности модели и централизованному управлению. Эти методики гарантируют, что модели искусственного интеллекта остаются безопасными от вредоносных манипуляций, поддерживают их надежность и обеспечивают точные результаты.

  • Реализуйте защиту от угроз для всех моделей ИИ. Используйте Microsoft Defender для облака для защиты моделей ИИ от угроз, таких как атаки на внедрение запросов и манипуляции с моделями. Это средство обеспечивает непрерывный мониторинг рабочих нагрузок ИИ, помогая обнаруживать и предотвращать возникающие угрозы. Реализация этой защиты во всех рабочих нагрузках обеспечивает согласованную безопасность во всей организации.

  • Отслеживайте выходные данные и применяйте экранирование запросов. Регулярно проверяйте данные, возвращаемые моделями ИИ, чтобы обнаруживать и устранять риски, связанные с вредоносными или непредсказуемыми запросами пользователей. Реализуйте экраны запроса, чтобы проверить текст для риска атаки на входные данные пользователя на генерируемые модели Al.

  • Убедитесь, что проверка модели. Создайте механизмы проверки на уровне компании, чтобы гарантировать, что все используемые модели ИИ являются законными и безопасными. Если вы используете модели с открытым кодом, используйте подписи моделей или другие процессы проверки для подтверждения подлинности моделей ИИ, предотвращая несанкционированное или незаконное развертывание моделей.

  • Рассмотрите возможность использования шлюза ИИ. Azure Управление API (APIM) может помочь обеспечить согласованную безопасность в рабочих нагрузках ИИ. Используйте встроенные политики для контроля трафика и обеспечения безопасности. Интеграция APIM с идентификатором Microsoft Entra для централизованной проверки подлинности и авторизации и обеспечения взаимодействия только авторизованных пользователей или приложений с моделями ИИ. Убедитесь, что вы настраиваете минимальные привилегии для управляемого удостоверения обратного прокси-сервера. Дополнительные сведения см. в статье "Проверка подлинности искусственного интеллекта с помощью APIM"

Безопасный доступ к искусственному интеллекту

Защита доступа К ИИ включает создание элементов управления проверкой подлинности и авторизацией как для плоскости управления, так и для внешнего доступа к ресурсам ИИ. Надлежащее управление доступом ограничивает использование ресурсов только пользователям с проверенными разрешениями. Это снижает вероятность несанкционированного взаимодействия с моделями искусственного интеллекта. Строгие элементы управления доступом, такие как доступ на основе ролей и политики условного доступа, помогают защитить конфиденциальные данные и обеспечить соответствие стандартам безопасности.

  • Упорядочение ресурсов и элементов управления доступом. Используйте отдельные рабочие области для упорядочивания артефактов ИИ, таких как наборы данных, модели и эксперименты. Рабочие области централизируют управление ресурсами и упрощают управление доступом. Например, используйте проекты в Azure AI Studio для эффективного управления ресурсами и разрешениями, упрощая совместную работу при сохранении границ безопасности.

  • Используйте идентификатор Microsoft Entra для проверки подлинности. По возможности исключите статические ключи API в пользу идентификатора Microsoft Entra для проверки подлинности. Этот шаг повышает безопасность с помощью централизованного управления удостоверениями и снижает затраты на управление секретами. Также ограничивает распределение ключей API. Вместо этого предпочитайте удостоверения в идентификаторе Microsoft Entra по ключам API для проверки подлинности. Проверьте список лиц с доступом к ключу API, чтобы убедиться, что он текущий. Рекомендации по проверке подлинности см. в Azure AI Studio, Azure OpenAI, службах ИИ Azure, Машинное обучение Azure.

  • Настройте проверку подлинности. Включите многофакторную проверку подлинности (MFA) и предпочитайте вторичные административные учетные записи или JIT-доступ с помощью управление привилегированными пользователями (PIM) для конфиденциальных учетных записей. Ограничение доступа к плоскости управления с помощью таких служб, как Бастион Azure, как безопасные точки входа в частные сети.

  • Используйте политики условного доступа. Реализуйте политики условного доступа на основе рисков, которые отвечают на необычные действия входа или подозрительное поведение. Используйте такие сигналы, как расположение пользователя, состояние устройства и поведение входа, чтобы активировать дополнительные шаги проверки. Требовать многофакторную проверку подлинности для доступа к критически важным ресурсам ИИ для повышения безопасности. Ограничение доступа к инфраструктуре ИИ на основе географических расположений или доверенных диапазонов IP-адресов. Убедитесь, что доступ к ресурсам ИИ может получить только соответствующие устройства (те, которые соответствуют требованиям безопасности).

  • Настройте минимальный доступ к привилегиям. Настройте минимальный привилегированный доступ, реализуя управление доступом на основе ролей (RBAC), чтобы обеспечить минимальный доступ к данным и службам. Назначение ролей пользователям и группам в зависимости от их обязанностей. Используйте Azure RBAC для точной настройки управления доступом для определенных ресурсов, таких как виртуальные машины и учетные записи хранения. Убедитесь, что у пользователей есть только минимальный уровень доступа, необходимый для выполнения своих задач. Регулярно просматривайте и корректируйте разрешения, чтобы предотвратить ползук привилегий. Например,

    Роль Примеры разрешений
    Для специалистов по обработке и анализу данных Доступ на чтение и запись к хранилищу данных, разрешение на выполнение заданий обучения и доступ к средам обучения модели.
    Разработчики ИИ Доступ к средам разработки, разрешениям развертывания и возможности изменять приложения ИИ.
    Администраторы ИТ Полный доступ к управлению инфраструктурой, конфигурациями сети и политиками безопасности.
  • Защита взаимодействия между службами Azure. Используйте управляемое удостоверение , чтобы разрешить службам Azure проходить проверку подлинности друг другу без управления учетными данными.

  • Защита внешнего доступа к конечным точкам модели ИИ. Требовать от клиентов аутентификации с помощью идентификатора Microsoft Entra при доступе к конечным точкам модели ИИ. Рассмотрите возможность использования Azure Управление API в качестве шлюза искусственного интеллекта перед конечными точками модели ИИ для применения политик доступа, управления использованием и предоставления возможностей мониторинга.

Безопасное выполнение ИИ

Защита выполнения ИИ включает защиту процессов, с помощью которых агенты ИИ, такие как виртуальные помощники или автономные агенты, выполняют код в ответ на запросы пользователей. Изоляция сред выполнения, проверка кода и установка ограничений ресурсов. Эти меры помогают гарантировать, что эти выполнения не компрометирует стабильность системы или безопасность. Эти методики предотвращают вредоносные действия и защищают целостность систем, в которых работают агенты ИИ, что позволяет им надежно функционировать в безопасной платформе.

  • Реализуйте механизмы изоляции. Используйте динамическое управление сеансами, например динамические сеансы в приложениях контейнеров Azure, чтобы обеспечить выполнение каждого кода в свежей изолированной среде, которая уничтожается после использования.

  • Безопасный код выполнения. Проводите тщательные проверки кода и тестирование перед развертыванием скриптов для выполнения агентами ИИ. Этот процесс помогает выявлять и устранять потенциальные уязвимости. Используйте системы управления версиями для управления изменениями кода и убедитесь, что выполняются только утвержденные версии скриптов.

  • Реализуйте ограничения ресурсов. Установите ограничения ресурсов (ЦП, память, использование дисков) для сред выполнения кода, чтобы предотвратить однократное выполнение от чрезмерного использования ресурсов и потенциально нарушить другие службы. Определите время ожидания выполнения, чтобы обеспечить автоматическое завершение длительных или потенциально застрявших процессов.

Дополнительные сведения см. в статье "Создание помощников с помощью Службы OpenAI Azure", "Как использовать вызовы функций Azure OpenAI Assistants" и реализацию агента.

Следующий шаг