Рекомендации по безопасности для рабочих нагрузок ИИ в Azure
В этой статье содержатся рекомендации по безопасности для организаций, работающих с рабочими нагрузками искусственного интеллекта в Azure. Он посвящен решениям платформы ИИ Azure как службы (PaaS), включая Azure AI Studio, Azure OpenAI, Машинное обучение Azure и Службы ИИ Azure. Она охватывает как рабочие нагрузки генерирующих, так и негенеративных ИИ.
Поскольку ИИ становится более интегрированным в бизнес-операции, защита этих ресурсов от потенциальных угроз имеет решающее значение для поддержания целостности данных и соответствия требованиям. Применение стандартных базовых показателей безопасности и следующих хорошо спроектированных платформ помогает организациям защищать свою инфраструктуру искусственного интеллекта от уязвимостей.
Безопасные ресурсы искусственного интеллекта
Защита ресурсов ИИ означает применение базовых показателей безопасности и рекомендаций для защиты инфраструктуры, используемой для рабочих нагрузок ИИ в Azure. Эта защита сводит к минимуму риски от внешних угроз и обеспечивает согласованную безопасность во всей организации.
Защита платформ ИИ Azure. Стандартизируйте применение базовых показателей безопасности Azure для каждого ресурса ИИ. Следуйте рекомендациям по безопасности в руководствах по службе Azure в Azure Well-Architected Framework.
Базовые показатели безопасности платформы ИИ Azure | Руководство по службе Azure Well-Architected Framework |
---|---|
Машинное обучение Azure | Машинное обучение Azure |
Azure AI Studio | |
Azure OpenAI | Azure OpenAI |
Защита моделей ИИ
Защита моделей ИИ относится к реализации защиты от угроз, мониторингу рисков внедрения запросов, проверке целостности модели и централизованному управлению. Эти методики гарантируют, что модели искусственного интеллекта остаются безопасными от вредоносных манипуляций, поддерживают их надежность и обеспечивают точные результаты.
Реализуйте защиту от угроз для всех моделей ИИ. Используйте Microsoft Defender для облака для защиты моделей ИИ от угроз, таких как атаки на внедрение запросов и манипуляции с моделями. Это средство обеспечивает непрерывный мониторинг рабочих нагрузок ИИ, помогая обнаруживать и предотвращать возникающие угрозы. Реализация этой защиты во всех рабочих нагрузках обеспечивает согласованную безопасность во всей организации.
Отслеживайте выходные данные и применяйте экранирование запросов. Регулярно проверяйте данные, возвращаемые моделями ИИ, чтобы обнаруживать и устранять риски, связанные с вредоносными или непредсказуемыми запросами пользователей. Реализуйте экраны запроса, чтобы проверить текст для риска атаки на входные данные пользователя на генерируемые модели Al.
Убедитесь, что проверка модели. Создайте механизмы проверки на уровне компании, чтобы гарантировать, что все используемые модели ИИ являются законными и безопасными. Если вы используете модели с открытым кодом, используйте подписи моделей или другие процессы проверки для подтверждения подлинности моделей ИИ, предотвращая несанкционированное или незаконное развертывание моделей.
Рассмотрите возможность использования шлюза ИИ. Azure Управление API (APIM) может помочь обеспечить согласованную безопасность в рабочих нагрузках ИИ. Используйте встроенные политики для контроля трафика и обеспечения безопасности. Интеграция APIM с идентификатором Microsoft Entra для централизованной проверки подлинности и авторизации и обеспечения взаимодействия только авторизованных пользователей или приложений с моделями ИИ. Убедитесь, что вы настраиваете минимальные привилегии для управляемого удостоверения обратного прокси-сервера. Дополнительные сведения см. в статье "Проверка подлинности искусственного интеллекта с помощью APIM"
Безопасный доступ к искусственному интеллекту
Защита доступа К ИИ включает создание элементов управления проверкой подлинности и авторизацией как для плоскости управления, так и для внешнего доступа к ресурсам ИИ. Надлежащее управление доступом ограничивает использование ресурсов только пользователям с проверенными разрешениями. Это снижает вероятность несанкционированного взаимодействия с моделями искусственного интеллекта. Строгие элементы управления доступом, такие как доступ на основе ролей и политики условного доступа, помогают защитить конфиденциальные данные и обеспечить соответствие стандартам безопасности.
Упорядочение ресурсов и элементов управления доступом. Используйте отдельные рабочие области для упорядочивания артефактов ИИ, таких как наборы данных, модели и эксперименты. Рабочие области централизируют управление ресурсами и упрощают управление доступом. Например, используйте проекты в Azure AI Studio для эффективного управления ресурсами и разрешениями, упрощая совместную работу при сохранении границ безопасности.
Используйте идентификатор Microsoft Entra для проверки подлинности. По возможности исключите статические ключи API в пользу идентификатора Microsoft Entra для проверки подлинности. Этот шаг повышает безопасность с помощью централизованного управления удостоверениями и снижает затраты на управление секретами. Также ограничивает распределение ключей API. Вместо этого предпочитайте удостоверения в идентификаторе Microsoft Entra по ключам API для проверки подлинности. Проверьте список лиц с доступом к ключу API, чтобы убедиться, что он текущий. Рекомендации по проверке подлинности см. в Azure AI Studio, Azure OpenAI, службах ИИ Azure, Машинное обучение Azure.
Настройте проверку подлинности. Включите многофакторную проверку подлинности (MFA) и предпочитайте вторичные административные учетные записи или JIT-доступ с помощью управление привилегированными пользователями (PIM) для конфиденциальных учетных записей. Ограничение доступа к плоскости управления с помощью таких служб, как Бастион Azure, как безопасные точки входа в частные сети.
Используйте политики условного доступа. Реализуйте политики условного доступа на основе рисков, которые отвечают на необычные действия входа или подозрительное поведение. Используйте такие сигналы, как расположение пользователя, состояние устройства и поведение входа, чтобы активировать дополнительные шаги проверки. Требовать многофакторную проверку подлинности для доступа к критически важным ресурсам ИИ для повышения безопасности. Ограничение доступа к инфраструктуре ИИ на основе географических расположений или доверенных диапазонов IP-адресов. Убедитесь, что доступ к ресурсам ИИ может получить только соответствующие устройства (те, которые соответствуют требованиям безопасности).
Настройте минимальный доступ к привилегиям. Настройте минимальный привилегированный доступ, реализуя управление доступом на основе ролей (RBAC), чтобы обеспечить минимальный доступ к данным и службам. Назначение ролей пользователям и группам в зависимости от их обязанностей. Используйте Azure RBAC для точной настройки управления доступом для определенных ресурсов, таких как виртуальные машины и учетные записи хранения. Убедитесь, что у пользователей есть только минимальный уровень доступа, необходимый для выполнения своих задач. Регулярно просматривайте и корректируйте разрешения, чтобы предотвратить ползук привилегий. Например,
Роль Примеры разрешений Для специалистов по обработке и анализу данных Доступ на чтение и запись к хранилищу данных, разрешение на выполнение заданий обучения и доступ к средам обучения модели. Разработчики ИИ Доступ к средам разработки, разрешениям развертывания и возможности изменять приложения ИИ. Администраторы ИТ Полный доступ к управлению инфраструктурой, конфигурациями сети и политиками безопасности. Защита взаимодействия между службами Azure. Используйте управляемое удостоверение , чтобы разрешить службам Azure проходить проверку подлинности друг другу без управления учетными данными.
Защита внешнего доступа к конечным точкам модели ИИ. Требовать от клиентов аутентификации с помощью идентификатора Microsoft Entra при доступе к конечным точкам модели ИИ. Рассмотрите возможность использования Azure Управление API в качестве шлюза искусственного интеллекта перед конечными точками модели ИИ для применения политик доступа, управления использованием и предоставления возможностей мониторинга.
Безопасное выполнение ИИ
Защита выполнения ИИ включает защиту процессов, с помощью которых агенты ИИ, такие как виртуальные помощники или автономные агенты, выполняют код в ответ на запросы пользователей. Изоляция сред выполнения, проверка кода и установка ограничений ресурсов. Эти меры помогают гарантировать, что эти выполнения не компрометирует стабильность системы или безопасность. Эти методики предотвращают вредоносные действия и защищают целостность систем, в которых работают агенты ИИ, что позволяет им надежно функционировать в безопасной платформе.
Реализуйте механизмы изоляции. Используйте динамическое управление сеансами, например динамические сеансы в приложениях контейнеров Azure, чтобы обеспечить выполнение каждого кода в свежей изолированной среде, которая уничтожается после использования.
Безопасный код выполнения. Проводите тщательные проверки кода и тестирование перед развертыванием скриптов для выполнения агентами ИИ. Этот процесс помогает выявлять и устранять потенциальные уязвимости. Используйте системы управления версиями для управления изменениями кода и убедитесь, что выполняются только утвержденные версии скриптов.
Реализуйте ограничения ресурсов. Установите ограничения ресурсов (ЦП, память, использование дисков) для сред выполнения кода, чтобы предотвратить однократное выполнение от чрезмерного использования ресурсов и потенциально нарушить другие службы. Определите время ожидания выполнения, чтобы обеспечить автоматическое завершение длительных или потенциально застрявших процессов.
Дополнительные сведения см. в статье "Создание помощников с помощью Службы OpenAI Azure", "Как использовать вызовы функций Azure OpenAI Assistants" и реализацию агента.