Управление ИИ — рекомендации для организаций, управляющих рабочими нагрузками ИИ в Azure
В этой статье описывается организационный процесс управления рабочими нагрузками ИИ. Он следует NIST Ai Intelligence Risk Management Framework (AI RMF) и NIST AI RMF Playbook. Она также соответствует платформе в caf Govern.
Это руководство поможет вам интегрировать управление рисками ИИ в более широкие стратегии управления рисками. Эта интеграция повышает согласованность обработки ИИ, кибербезопасности и рисков конфиденциальности для единого подхода к управлению.
Оценка рисков организации ИИ
Оценка рисков ИИ определяет и устраняет потенциальные риски, введенные технологиями ИИ. Этот процесс создает доверие к системам искусственного интеллекта и снижает непредвиденные последствия. Устранение рисков организации гарантирует, что развертывания искусственного интеллекта соответствуют значениям организации, терпимости к рискам и операционным целям.
Общие сведения о рабочих нагрузках ИИ. Чтобы снизить риски ИИ, необходимо понять рабочие нагрузки ИИ. Уточняя область и цель каждой рабочей нагрузки ИИ, можно сопоставить связанные риски. Это уточнение должно включать любые предположения и ограничения, связанные с рабочей нагрузкой ИИ.
Используйте принципы ответственного искусственного интеллекта для выявления рисков. Эти принципы предоставляют основу для оценки рисков ИИ. Используйте следующую таблицу для выявления и устранения рисков с помощью структурированной оценки принципов ИИ.
Принцип ответственного искусственного интеллекта Определение Вопрос о оценке рисков Конфиденциальность и безопасность ИИ Рабочие нагрузки ИИ должны соблюдать конфиденциальность и быть безопасными. Как рабочие нагрузки искусственного интеллекта обрабатывают конфиденциальные данные или становятся уязвимыми к нарушениям безопасности? Надежность и защита Рабочие нагрузки искусственного интеллекта должны безопасно и надежно выполняться. В каких ситуациях рабочие нагрузки ИИ не могут безопасно работать или создавать ненадежные результаты? Справедливость Рабочие нагрузки ИИ должны относиться к людям справедливо. Как рабочие нагрузки искусственного интеллекта могут привести к неравной обработке или непреднамеренного предвзятости в принятии решений? Инклюзивность Рабочие нагрузки ИИ должны быть инклюзивными и расширенными возможностями. Как некоторые группы могут быть исключены или недостатки в проектировании или развертывании рабочих нагрузок ИИ? Transparency Рабочие нагрузки ИИ должны быть понятными. Какие аспекты принятия решений ИИ могут быть трудными для пользователей, чтобы понять или объяснить? Отчетность Люди должны отвечать за рабочие нагрузки ИИ. Где может быть неясно или трудно установить подотчетность в разработке или использовании искусственного интеллекта? Определение рисков ИИ. Начните с оценки рисков безопасности рабочих нагрузок ИИ, включая потенциальные нарушения данных, несанкционированный доступ или неправильное использование. Обратитесь к заинтересованным лицам, чтобы выявить менее видимые риски, а также оценить как качественные, так и количественные последствия, включая репутационные риски, чтобы определить терпимость к рискам организации.
Определите риски от внешних зависимостей. Оцените риски, связанные с сторонними источниками данных, программным обеспечением и интеграцией. Решение таких проблем, как уязвимости безопасности, предвзятость и риски интеллектуальной собственности путем установления политик, которые обеспечивают соответствие стандартам конфиденциальности и соответствия организации.
Оцените риски интеграции. Оценка рабочих нагрузок ИИ интегрируется с существующими рабочими нагрузками и процессами. Задокументируйте потенциальные риски, такие как зависимость от других рабочих нагрузок, повышенная сложность или несовместимость, которые могут повлиять на функциональные возможности.
Документы политик управления ИИ
Политики управления ИИ предоставляют структурированную платформу для ответственного использования ИИ. Эти политики соответствуют действиям ИИ с этическими стандартами, нормативными требованиями и бизнес-целями. Политики документирования обеспечивают четкие рекомендации по управлению моделями ИИ, данными и операциями.
Область политики управления ИИ | Рекомендации по политике управления ИИ |
---|---|
Определение политик для выбора и подключения моделей | ▪ Установите политики для выбора моделей ИИ. Политики должны указать критерии выбора моделей, которые соответствуют организационным значениям, возможностям и ограничениям затрат. Ознакомьтесь с потенциальными моделями для выравнивания с допустимой вероятностью риска и требованиями к целевой задаче. ▪ Подключение новых моделей с структурированными политиками. Формальный процесс подключения модели поддерживает согласованность в оправдании модели, проверке и утверждении. Используйте среды песочницы для первоначальных экспериментов, а затем проверьте модели в рабочем каталоге, чтобы избежать дублирования. |
Определение политик для использования сторонних средств и данных | ▪ Задайте элементы управления для сторонних средств. Процесс проверки сторонних средств защищает от рисков безопасности, соответствия и выравнивания. Политики должны включать рекомендации по конфиденциальности данных, безопасности и этическим стандартам при использовании внешних наборов данных. ▪ Определите стандарты конфиденциальности данных. Сохранение конфиденциальных и общедоступных данных важно для устранения рисков ИИ. Создайте политики для обработки и разделения данных. ▪ Определите стандарты качества данных. "Золотой набор данных" обеспечивает надежный тест для тестирования и оценки моделей ИИ. Установите четкие политики для согласованности и качества данных, чтобы обеспечить высокую производительность и надежные выходные данные. |
Определение политик для обслуживания и мониторинга моделей | ▪ Укажите частоту переобучения по варианту использования. Частое переобучение поддерживает точность рабочих нагрузок искусственного интеллекта с высоким риском. Определите рекомендации, которые рассматривают вариант использования и уровень риска каждой модели, особенно для таких секторов, как здравоохранение и финансы. ▪ Мониторинг снижения производительности. Мониторинг производительности модели с течением времени помогает обнаруживать проблемы, прежде чем они влияют на результаты. Тесты документов и снижение производительности модели инициируют процесс переобучения или проверки. |
Определение политик соответствия нормативным требованиям | ▪ Соблюдайте региональные юридические требования. Понимание региональных законов гарантирует, что операции искусственного интеллекта остаются совместимыми в разных расположениях. Исследования применимых правил для каждой области развертывания, таких как законы о конфиденциальности данных, этические стандарты и отраслевые нормативные акты. ▪ Разработка политик, относящихся к регионам. Адаптация политик искусственного интеллекта к региональным соображениям поддерживает соответствие местным стандартам. Политики могут включать поддержку языка, протоколы хранения данных и культурные адаптации. ▪ Адаптация ИИ для региональной изменчивости. Гибкость в рабочих нагрузках искусственного интеллекта позволяет настраивать функциональные возможности для конкретных расположений. Для глобальных операций адаптации для конкретных регионов документов, таких как локализованные обучающие данные и ограничения функций. |
Определение политик для поведения пользователей | ▪ Определите стратегии устранения рисков для неправильного использования. Политики предотвращения неправильного использования помогают защитить от преднамеренного или непреднамеренного ущерба. Очертите возможные сценарии неправильного использования и включите элементы управления, такие как ограниченные функциональные возможности или функции обнаружения неправильного использования. ▪ Задайте правила поведения пользователей. Пользовательские соглашения уточняют допустимое поведение при взаимодействии с рабочей нагрузкой ИИ, что снижает риск неправильного использования. Проект четких условий использования для общения стандартов и поддержки ответственного взаимодействия с ИИ. |
Определение политик интеграции и замены ИИ | ▪ Структура политик интеграции. Рекомендации по интеграции гарантируют, что рабочие нагрузки ИИ поддерживают целостность данных и безопасность во время взаимодействия с рабочей нагрузкой. Укажите технические требования, протоколы обмена данными и меры безопасности. ▪ Планирование перехода и замены. Политики перехода предоставляют структуру при замене старых процессов рабочими нагрузками ИИ. Инструкции по поэтапному переходу к устаревшим процессам, обучению персонала и мониторингу производительности во время изменения. |
Применение политик управления ИИ
Применение политик управления ИИ обеспечивает согласованные и этические методики ИИ в организации. Автоматизированные средства и ручное вмешательство поддерживают соблюдение политики во всех развертываниях. Надлежащее применение помогает поддерживать соответствие требованиям и сводит к минимуму человеческие ошибки.
Автоматизируйте применение политик, где это возможно, платформы, такие как Политика Azure и Microsoft Purview, для автоматического применения политик в развертываниях ИИ, что снижает человеческую ошибку. Регулярно оценивать области, где автоматизация может улучшить соблюдение политики.
Принудительно применять политики искусственного интеллекта вручную. Предоставьте обучение по рискам и соответствию ИИ сотрудникам, чтобы убедиться, что они понимают свою роль в управлении ИИ. Регулярные семинары помогают сотрудникам обновлять политики ИИ, а периодические аудиты помогают отслеживать соблюдение и определять области для улучшения.
Используйте рекомендации по управлению рабочей нагрузкой. Подробные рекомендации по безопасности доступны для рабочих нагрузок ИИ в службах платформ Azure (PaaS) и инфраструктуре Azure (IaaS). Используйте это руководство для управления моделями ИИ, ресурсами и данными в этих типах рабочих нагрузок.
Мониторинг рисков организации искусственного интеллекта
Мониторинг рисков искусственного интеллекта позволяет организациям выявлять возникающие риски и оперативно устранять их. Регулярные оценки гарантируют, что рабочие нагрузки ИИ работают должным образом. Согласованный мониторинг помогает организациям адаптироваться к изменяющимся условиям и предотвращать негативные последствия от систем искусственного интеллекта.
Создайте процедуры для текущей оценки рисков. Настройте регулярные проверки для выявления новых рисков, привлечения заинтересованных лиц к оценке более широких последствий искусственного интеллекта. Разработайте план реагирования на проблемы, которые возникают, чтобы обеспечить повторное получение рисков и необходимые корректировки.
Разработка плана измерения. Четкий план измерения обеспечивает согласованную сбор и анализ данных. Определите методы сбора данных, такие как автоматическое ведение журнала для операционных метрик и опросов для качественной обратной связи. Установите частоту и область измерений, сосредоточьтесь на областях высокого риска и создайте циклы обратной связи для уточнения оценок рисков на основе входных данных заинтересованных лиц.
Квалифицируйте и квалифицируйте риски ИИ. Выберите количественные метрики (ставки ошибок, точность) и качественные индикаторы (отзывы пользователей, этические проблемы), которые соответствуют цели рабочей нагрузки. Показатели производительности по отраслевым стандартам для отслеживания влияния ИИ, надежности и производительности.
Результаты измерения документа и отчета. Обычная документация и отчеты повышают прозрачность и подотчетность. Создайте стандартизированные отчеты, которые суммируют метрики, результаты и любые аномалии для руководства по принятию решений. Поделитесь этими аналитическими сведениями с заинтересованными лицами, используя их для уточнения стратегий устранения рисков и улучшения будущих развертываний.
Создание процессов независимой проверки. Регулярные независимые проверки обеспечивают целевую оценку рисков ИИ и соответствия требованиям, используя внешних или неуправляемых внутренних рецензентов. Используйте результаты для укрепления оценок рисков и уточнения политик управления.
Следующий шаг
Примеры устранения рисков искусственного интеллекта
В следующей таблице перечислены некоторые распространенные риски ИИ, а также стратегия устранения рисков и пример политики для каждой из них. Таблица не содержит полный набор рисков.
Идентификатор риска | Риск искусственного интеллекта | Исправление | Политика |
---|---|---|---|
R001 | Несоответствие законам о защите данных | Используйте Microsoft Purview Compliance Manager для оценки соответствия данным. | Жизненный цикл разработки безопасности должен быть реализован, чтобы все разработки и развертывания ИИ соответствовали законам о защите данных. |
R005 | Отсутствие прозрачности в принятии решений искусственного интеллекта | Применение стандартизованной платформы и языка для повышения прозрачности в процессах и принятии решений искусственного интеллекта. | Платформа NIST AI Risk Management Framework должна быть принята, и все модели ИИ должны быть тщательно документированы для обеспечения прозрачности всех моделей ИИ. |
R006 | Неточные прогнозы | Используйте Azure Управление API для отслеживания метрик модели ИИ для обеспечения точности и надежности. | Непрерывный мониторинг производительности и обратная связь с людьми должны использоваться для обеспечения точности прогнозов модели искусственного интеллекта. |
R007 | Атака состязательности | Используйте PyRIT для тестирования рабочих нагрузок ИИ для уязвимостей и укрепления защиты. | Жизненный цикл разработки безопасности и тестирование красной команды ИИ необходимо использовать для защиты рабочих нагрузок искусственного интеллекта от состязательной атаки. |
R008 | Угрозы для предварительной оценки | Используйте идентификатор Microsoft Entra для применения строгих элементов управления доступом, основанных на ролях и членстве в группах, чтобы ограничить доступ к конфиденциальным данным. | Для устранения внутренних угроз необходимо использовать строгое управление удостоверениями и доступом и непрерывный мониторинг. |
R009 | Непредвиденные затраты | Управление затратами Майкрософт позволяет отслеживать использование ЦП, GPU, памяти и хранилища, чтобы обеспечить эффективное использование ресурсов и предотвратить пики затрат. | Мониторинг и оптимизация использования ресурсов и автоматическое обнаружение перерасхода затрат необходимо использовать для управления непредвиденными затратами. |
R010 | Недоиспользуние ресурсов ИИ | Отслеживайте метрики службы ИИ, такие как частоты запросов и время отклика, для оптимизации использования. | Метрики производительности и автоматизированная масштабируемость должны использоваться для оптимизации использования ресурсов ИИ. |