Поделиться через


Краткое руководство. Azure AI Content Safety Studio

В этой статье объясняется, как приступить к работе со службой безопасности содержимого Azure с помощью Content Safety Studio в браузере.

Внимание

Некоторые примеры содержимого, предоставляемые Content Safety Studio, могут быть оскорбительными. Примеры изображений по умолчанию размыты. Рекомендуется использовать усмотрение пользователя.

Необходимые компоненты

  • Учетная запись Azure. Если у вас нет учетной записи, вы можете создать ее бесплатно.
  • Ресурс Azure для обеспечения безопасности содержимого.
  • Назначьте роль пользователя Cognitive Services вашей учетной записи. Перейдите к портал Azure, перейдите к ресурсу безопасности содержимого или ресурсу Служб искусственного интеллекта Azure и выберите контроль доступа на панели навигации слева, а затем нажмите кнопку "Добавить назначение ролей", выберите роль пользователя Cognitive Services и выберите участника учетной записи, которой нужно назначить эту роль, а затем проверить и назначить. Для принятия в силу назначения может потребоваться несколько минут.
  • Войдите в Content Safety Studio с помощью подписки Azure и ресурса безопасности контента.

Внимание

Для использования студии необходимо назначить роль пользователя Cognitive Services учетной записи Azure. Перейдите к портал Azure, перейдите к ресурсу безопасности содержимого или ресурсу Служб искусственного интеллекта Azure и выберите контроль доступа на панели навигации слева, а затем нажмите кнопку "Добавить назначение ролей", выберите роль пользователя Cognitive Services и выберите участника учетной записи, которой нужно назначить эту роль, а затем проверить и назначить. Для принятия в силу назначения может потребоваться несколько минут.

Анализ текстового содержимого

Страница "Умеренное текстовое содержимое " предоставляет возможность быстро попробовать модерацию текста.

Снимок экрана: панель анализа текста.

  1. Выберите панель "Умеренное текстовое содержимое".
  2. Добавьте текст в поле ввода или выделите пример текста на панели на странице.

    Совет

    Размер текста и степень детализации. См . требования к входным данным для ограничения максимальной длины текста.

  3. Выберите Запустить тест.

Служба возвращает все обнаруженные категории с уровнем серьезности для каждого: 0-Safe, 2-Low, 4-Medium, 6-High. Он также возвращает двоичный результат "Принято отклонено/" на основе настроенных фильтров. Используйте матрицу на вкладке "Настройка фильтров" , чтобы задать допустимые или запрещенные уровни серьезности для каждой категории. Затем вы можете снова запустить текст, чтобы узнать, как работает фильтр.

Вкладка "Использовать блок-список" позволяет создавать, изменять и добавлять список блокировок в рабочий процесс модерации. Если при выполнении теста включен список блокировок, в разделе "Результаты" вы получите панель обнаружения списка блокировок. Он сообщает о любых совпадениях со списком блокировок.

Обнаружение атак ввода пользователем

Панель "Экраны запросов" позволяет попробовать обнаружение рисков ввода пользователем. Обнаружение запросов пользователей, предназначенных для того, чтобы спровоцировать модель генерированного ИИ на отображение поведения, которое было обучено, чтобы избежать или нарушить набор правил, заданных в системном сообщении. Эти атаки могут отличаться от сложных ролей до тонкой подражания цели безопасности.

Снимок экрана: студия безопасности содержимого с выбранной панелью

  1. Выберите панель "Экраны запроса".
  2. Выберите пример текста на странице или введите собственное содержимое для тестирования. Вы также можете отправить CSV-файл для выполнения пакетного теста.
  3. Выберите Запустить тест.

Служба возвращает флаг риска и тип для каждого примера.

Дополнительные сведения см. в концептуальном руководстве по экранированию запросов.

Анализ графического содержимого

Страница содержимого умеренного изображения предоставляет возможность быстро попробовать модерацию изображений.

Снимок экрана: панель

  1. Выберите панель содержимого умеренного изображения.
  2. Выберите образ из панелей на странице или отправьте собственное изображение. Максимальный размер отправки изображений составляет 4 МБ, а размеры изображения должны составлять от 50 x 50 пикселей до 2 048 x 2048 пикселей. Изображения могут быть в форматах JPEG, PNG, GIF, BMP, TIFF или WEBP.
  3. Выберите Запустить тест.

Служба возвращает все обнаруженные категории с уровнем серьезности для каждого: 0-Safe, 2-Low, 4-Medium, 6-High. Он также возвращает двоичный результат "Принято отклонено/" на основе настроенных фильтров. Используйте матрицу на вкладке "Настройка фильтров" справа, чтобы задать допустимые или запрещенные уровни серьезности для каждой категории. Затем вы можете снова запустить текст, чтобы узнать, как работает фильтр.

Просмотр и экспорт кода

Для просмотра и копирования примера кода можно использовать функцию "Анализ текста" или "Анализ содержимого изображения", которая включает конфигурацию для фильтрации серьезности, блок-списков и функций модерации. Затем вы можете развернуть код в конце.

Снимок экрана: окно представления кода.

Мониторинг активности в Интернете

Панель действий "Монитор в сети" позволяет просматривать тенденции использования и использования API.

Снимок экрана: панель мониторинга.

Вы можете выбрать тип носителя для отслеживания. Можно также указать диапазон времени, который требуется проверить, выбрав "Показать данные" для последнего ___.

На диаграмме "Отклонение " для каждой категории можно также настроить пороговые значения серьезности для каждой категории.

Снимок экрана: таблица пороговых значений серьезности.

Вы также можете изменить списки блокировок, если вы хотите изменить некоторые термины на основе диаграммы 10 заблокированных терминов .

Управление ресурсом

Чтобы просмотреть сведения о ресурсах, например имя и ценовую категорию, щелкните значок "Параметры " в правом верхнем углу домашней страницы Content Safety Studio и перейдите на вкладку "Ресурс ". Если у вас есть другие ресурсы, вы также можете переключить ресурсы здесь.

Снимок экрана: управление ресурсом.

Очистка ресурсов

Если вы хотите очистить и удалить ресурс служб искусственного интеллекта Azure, можно удалить ресурс или группу ресурсов. При удалении группы ресурсов также удаляются все связанные с ней ресурсы.

Следующий шаг

Затем начните использовать безопасность содержимого ИИ Azure с помощью REST API или клиентского пакета SDK, чтобы вы могли легко интегрировать службу в приложение.