Поделиться через


Внедрение принципов ответственного и доверенного ИИ

Шесть ключевых принципов ответственного ИИ в Корпорации Майкрософт включают справедливость, надежность и безопасность, конфиденциальность и безопасность, инклюзивность, прозрачность и подотчетность. Используйте эти принципы, чтобы создать ответственный и надежный ИИ, как вы интегрируете его в основные продукты и службы на протяжении всего пути внедрения ИИ.

Важные принципы искусственного интеллекта

Корпорация Майкрософт берет на себя обязательства по расширению возможностей ответственной практики искусственного интеллекта.

Шесть ключевых принципов определяют ответственный ИИ:

  • Справедливость: системы ИИ должны относиться ко всем одинаково и предоставлять одинаковые рекомендации всем отдельным лицам. Справедливость в системах ИИ предотвращает дискриминацию на основе личных характеристик.

  • Надежность и безопасность: системы ИИ должны работать надежно, безопасно и согласованно в различных условиях, чтобы помочь построить доверие.

  • Конфиденциальность и безопасность: системы ИИ должны соблюдать конфиденциальность и поддерживать безопасность, защищая частную и конфиденциальную информацию. Они также должны противостоять атакам и попыткам повреждения или компрометации системы.

  • Инклюзивность: системы ИИ должны иметь возможность и привлекать всех. Инклюзивное проектирование может помочь разработчикам системы ИИ понять и устранить потенциальные барьеры исключения в продукте или службе. Инклюзивность способствует инновациям и помогает дизайну опыта, которые помогают всем.

  • Прозрачность: системы ИИ должны быть прозрачными и понятными. Системы искусственного интеллекта могут информировать решения, которые могут глубоко повлиять на жизнь людей, поэтому важно, чтобы люди понимали, как система принимает эти решения.

  • Подотчетность: системы ИИ и их разработчики должны отвечать и отвечать.

Включите ответственные принципы ИИ на протяжении всего процесса внедрения ИИ, от стратегии и планирования до реализации. Убедитесь, что эти принципы применяются при защите, управлении и управлении инициативами искусственного интеллекта.

Схема, показывающая, как ответственный ИИ является основой для всех методов ИИ в Cloud Adoption Framework для Azure.

В этом руководстве по внедрению ИИ приведены примеры использования Cloud Adoption Framework для Azure для реализации ответственных методик ИИ. Принципы ответственного ИИ интегрируются в рекомендации и рекомендации на протяжении всего этого пути внедрения ИИ.

Важность ответственного ИИ

Ответственный ИИ помогает устранить следующие риски:

  • Непредвиденные последствия: планирование и надзор за ответственной реализацией искусственного интеллекта для снижения риска непредвиденных последствий, которые имеют этические последствия.

  • Развивающиеся угрозы: новые угрозы регулярно возникают по мере развития технологий ИИ. Чтобы помочь устранить и оставаться перед этими угрозами, придерживайтесь принципов ответственного ИИ.

  • Предвзятость: устранение предвзятости в ИИ может быть сложной задачей, но необходимо, чтобы системы ИИ были справедливыми и беспристрастными. Используйте принципы ответственного ИИ, чтобы помочь вам.

  • Конфиденциальные технологии: такие технологии, как распознавание лиц, можно рассматривать как конфиденциальную технологию из-за риска фундаментальных свобод и прав человека. Рассмотрим последствия этих технологий, чтобы обеспечить их ответственное использование.

Упрощение функций Azure

Microsoft Azure предоставляет ряд средств, служб и ресурсов, которые помогают создавать ответственные системы ИИ.

Использование безопасности содержимого ИИ Microsoft Azure для создания безопасных систем

Используйте microsoft Azure AI Content Safety , чтобы обнаружить вредное содержимое, созданное пользователем и ими, в приложениях и службах. Безопасность содержимого помогает анализировать созданное содержимое в приложениях ИИ, включая текст и изображения, чтобы обеспечить безопасность и безопасность пользователей. Безопасность содержимого предоставляет следующие возможности:

  • Экраны запроса сканируют текст и документы для риска атаки ввода пользователем или взлома в крупной языковой модели (LLM).

  • Обнаружение заземления обнаруживает, находятся ли текстовые ответы LLM в исходных материалах, предоставляемых пользователями.

  • Защищенное обнаружение материалов определяет, содержат ли текстовые ответы LLM защищенные материалы, такие как авторские права, текст песни, статьи и веб-содержимое.

  • API пользовательских категорий (быстрых) определяет новые вредоносные шаблоны содержимого и сканирует текст и изображения для совпадений.

  • API анализа текста анализирует потенциально вредное текстовое содержимое. Как правило, он определяет такие категории, как ненависть, самоповредение и сексуальное или насильственное содержимое.

  • API анализа изображений анализирует потенциально вредное содержимое изображения. Как правило, он определяет такие категории, как ненависть, самоповредение и сексуальное или насильственное содержимое.

Использование ИИ ответственно в службах ИИ Azure

Корпорация Майкрософт предоставляет список заметок прозрачности для служб Azure, относящихся к искусственному интеллекту. Список включает службы в наборе служб ИИ Azure. Дополнительные сведения см. в статье "Ответственное использование ИИ" с службами ИИ Azure.

Использование панели мониторинга ответственного ИИ для Машинное обучение Azure

Если вы создаете системы с Машинное обучение Azure, вы можете использовать панель мониторинга ответственного ИИ для оценки систем ИИ. Панель мониторинга ответственного искусственного интеллекта предоставляет единый интерфейс для реализации ответственных принципов ИИ. К некоторым функциям ответственного ИИ относятся:

  • Анализ данных: понимание и изучение дистрибутивов и статистики набора данных.

  • Обзор модели и оценка справедливости: оцените производительность модели и проблемы с справедливостью группы вашей модели.

  • Анализ ошибок. Просмотр и понимание распределения ошибок в наборе данных.

  • Интерпретация модели. Понимание прогнозов модели и способов создания отдельных и общих прогнозов модели.

  • Контрфактуальный анализ того, что если анализ: обратите внимание на то, как изменения в функциях могут повлиять на прогнозы модели.

  • Причинный анализ: используйте исторические данные для просмотра причинных последствий лечения в реальных результатах.

Разработка ИИ ответственно

Ресурс Description
Практические инструменты для создания эффективных возможностей человеческого ИИ (HAXs) Используйте набор средств HAX в начале процесса разработки, чтобы поучить, что делает система ИИ и как она работает. Используйте набор средств HAX для продуктов искусственного интеллекта для пользователей.
Интерактивные рекомендации по искусственному интеллекту Разработка ботов таким образом, чтобы заработать доверие других, чтобы помочь людям и обществу реализовать свой полный потенциал. Используйте эти рекомендации для создания бота, который создает доверие к компании и службе, которую он представляет.
Рекомендации по проектированию инклюзивного искусственного интеллекта Используйте эти рекомендации, чтобы помочь вам разработать ИИ, который является инклюзивным и доступным для всех.
Контрольный список по справедливости ИИ Используйте контрольный список справедливости ИИ, чтобы определить, является ли ваша система ИИ справедливой и беспристрастной.
Ответственный ИИ в Машинное обучение Просмотрите эти ответственные ресурсы ИИ, если вы используете Машинное обучение для создания систем ИИ.

Следующий шаг