Вопросы и ответы об ответственном применении ИИ для Copilot в Customer Service
Относится к: Dynamics 365 Contact Center — встроенный, Dynamics 365 Contact Center — автономный и Dynamics 365 Customer Service
Эта статья часто задаваемых вопросов поможет ответить на вопросы об ответственном использовании ИИ в функциях помощника в Customer Service.
Каковы возможности Copilot в Dynamics 365 Customer Service?
Copilot для Customer Service — это инструмент, который преобразует работу агентов в Dynamics 365 Customer Service. Он предоставляет помощь на базе ИИ в режиме реального времени, которая позволяет агентам быстрее решать проблемы, более эффективно обрабатывать обращения и автоматизировать трудоемкие задачи. Затем агенты могут сосредоточиться на предоставлении высококачественных услуг своим клиентам.
Каковы возможности этой системы?
Copilot предлагает следующие основные возможности:
Задайте вопрос. Это первая вкладка, которую видят агенты, когда они активируют область справки Copilot. Это диалоговый интерфейс с Copilot, который помогает предоставлять контекстные ответы на вопросы агентов. Ответы Copilot основаны как на внутренних, так и на внешних источниках базы знаний, предоставленных вашей организацией во время установки.
Написание электронного письма. Вторая вкладка в области справки Copilot помогает агентам быстро создавать ответы по электронной почте в зависимости от контекста обращения, сокращая время, необходимое пользователям для создания электронных писем.
Составление черновика ответа в чате. Позволяет агентам одним щелчком мыши создать ответ на сообщение в текущем разговоре на основе источников знаний, настроенных вашей организацией.
Составление сводки по обращению. Copilot предоставляет агентам сводку по обращению прямо в форме обращения, чтобы они могли быстро ознакомиться с важными деталями обращения.
Составление сводки по разговору. Copilot предоставляет агентам сводку разговора по ключевым моментам цикла взаимодействия с клиентом, таким как передача виртуального агента, переключения и выполнение задач по требованию.
Создать черновик статьи базы знаний из обращения (предварительная версия): Copilot создает черновик статьи базы знаний как предложение, основанное на информации из обращения. Агенты могут просматривать и дорабатывать черновик, давая инструкции по внесению изменений Copilot, затем сохраняя его.
Сводка по пользовательской записи: Copilot предоставляет агентам сводку записи на основе полей, которые администратор настраивает для настраиваемой таблицы, чтобы агенты могли быстро получить важные сведения о записи поддержки.
Создание заметок о разрешении: Copilot предоставляет агентам сводку со сведениями об обращении, а также сводку электронных писем и заметок, связанных с обращением, на вкладке Задать вопрос, чтобы они могли быстрее закрыть обращение или инцидент.
Каково предназначение системы?
Copilot в Customer Service призван помочь операторам отдела обслуживания клиентов работать более эффективно и результативно. Операторы отдела обслуживания клиентов могут использовать основанные на базе знаний ответы Copilot, чтобы сэкономить время на поиск статей базы знаний и составление ответов. Сводки Copilot предназначены для того, чтобы помочь агентам быстро наращивать количество обращений и разговоров. Контент, созданный Copilot в Customer Service, не предназначен для использования без проверки или контроля со стороны человека.
Как оценивается Copilot в Customer Service? Какие метрики используются для измерения ее производительности?
Copilot в Customer Service оценивался в сравнении с реальными сценариями с клиентами по всему миру на каждом этапе его проектирования, разработки и выпуска. Используя сочетание научных исследований и изучения влияния на бизнес, мы оценили различные количественные и качественные показатели Copilot, включая его точность, полезность и доверие агентов. Дополнительные сведения см. в разделе Отчет о прозрачности ответственного использования ИИ.
Каковы ограничения Copilot in Customer Service? Как пользователи могут свести к минимуму влияние ограничений Copilot?
Основанные на базе знаний возможности Copilot, который заключаются в том числе в том, как задать вопрос, написать электронное письмо и подготовить ответ в чате, зависят от высококачественных и актуальных статей базы знаний. Без этих статей базы знаний пользователи с большей вероятностью столкнутся с ответами Copilot, которые не основаны на фактах.
Чтобы свести к минимуму вероятность получения нерелевантных ответов от Copilot, важно, чтобы Microsoft использовала надежные методы управления знаниями, чтобы гарантировать, что бизнес-знания, связанные с Copilot, являются качественными и актуальными.
Какие рабочие факторы и настройки позволяют эффективно и ответственно использовать систему?
Всегда проверяйте результаты Copilot
Copilot основан на технологии большой языковой модели, которая носит вероятностный характер. При представлении фрагмента входного текста модель вычисляет вероятность каждого слова в этом тексте с учетом слов, которые были до него. Затем модель выбирает слово, которое, скорее всего, последует за ним. Однако, поскольку модель основана на вероятностях, она не может с абсолютной уверенностью сказать, каким должно быть следующее правильное слово. Вместо этого он дает нам лучшее предположение, основанное на распределении вероятностей, которые получены из данных, на которых Copilot обучался. Copilot использует подход, называемый обоснование, который подразумевает добавление дополнительной информации к входным данным для контекстуализации выходных данных для вашей организации. Он использует семантический поиск для понимания входных данных и извлечения соответствующих внутренних документов организации и надежных общедоступных результатов веб-поиска, а также использует языковую модель для предоставления ответа на основе этого содержимого. Обеспечение соответствия ответов Copilot данным организации и имеет большое значение, но при этом важно всегда проверять результаты, полученные Copilot перед их использованием.
Используйте возможности Copilot по максимуму
Когда вы взаимодействуете с Copilot, важно помнить, что структура вопросов может сильно повлиять на ответ, который дает Copilot. Для эффективного взаимодействия с Copilot крайне важно задавать четкие и конкретные вопросы, предоставлять контекст, чтобы помочь ИИ лучше понять ваши намерения, задавать по одному вопросу за раз и избегать технических терминов для ясности и понятности.
Задавайте четкие и конкретные вопросы
Ясное намерение важно при составлении вопросов, так как оно напрямую влияет на качество ответа. Например, общий вопрос вроде «Почему кофемашина клиента не запускается?» с меньшей вероятностью приведет к полезному ответу по сравнению с более конкретным вопросом, например «Какие шаги я могу предпринять, чтобы определить, почему кофемашина клиента не запускается?».
Однако если задать еще более конкретный вопрос, например «Какие шаги я могу предпринять, чтобы определить, почему кофемашина Contoso 900 с давлением 5 бар не запускается?» это сужает область проблемы и предоставляет больше контекста, что приводит к более точным и конкретным ответам.
Добавляйте контекст
Добавление контекста помогает системе разговорного ИИ лучше понимать намерения пользователя и давать более точные и релевантные ответы. Без контекста система может неправильно понять вопрос пользователя или дать общие или не относящиеся к делу ответы.
Например, вопрос «Почему кофемашина не запускается?» приведет к общему ответу по сравнению с вопросом с контекстом, например: «Недавно клиент запустил режим удаления накипи на своей кофемашине и успешно завершил удаление накипи. В конце были три вспышки индикатора питания, что подтверждает, что удаление накипи было завершено. Почему не удается запустить кофемашину?»
Добавление подобного контекста очень важно, потому что это помогает Copilot лучше понимать намерения пользователя и давать более точные и релевантные ответы.
По возможности избегайте технических терминов
Мы рекомендуем вам избегать использования сложных технических терминов и названий ресурсов при взаимодействии с Copilot, потому что система не всегда может правильно их понимать. Использование более простого естественного языка помогает системе правильно понимать намерения пользователя и давать четкие и полезные ответы. Например:
«Клиент не может подключиться к виртуальной машине по SSH после изменения конфигурации брандмауэра».
Вместо этого вы можете перефразировать это таким образом:
«Клиент изменил правила брандмауэра на своей виртуальной машине. Однако он больше не может подключиться с помощью Secure Shell (SSH). Вы можете помочь?»
Следуя рекомендациям, агенты могут улучшить свое взаимодействие с Copilot и повысить вероятность получения от него точных и достоверных ответов.
Подведение итогов или расширение ответа
Иногда ответ Copilot может быть длиннее, чем ожидалось. Это может быть тот случай, когда агент находится в чате с клиентом и ему необходимо отправить краткие ответы вместо отправки ответа по электронной почте. В таких случаях, попросив Copilot «обобщить ответ», вы получите краткий ответ на вопрос. Точно так же, если есть необходимость в более подробной информации, попросите Copilot «предоставить более подробную информацию», что приведет к более детальному ответу на ваш вопрос. Если ответ усечен, при вводе «продолжить» отобразится оставшаяся часть ответа.
Как я могу повлиять на ответы помощника? Могу ли я точно настроить большую языковую модель (LLM)?
Невозможно настроить большую языковую модель (LLM) напрямую. На ответы Copilot можно повлиять, если обновлять исходную документацию. Все содержимое отзывов по ответам Copilot сохраняется. Используя эти данные, можно создавать отчеты для определения источников данных, которые необходимо обновить. Рекомендуется внедрить процессы для периодической проверки данных отзывов и обеспечения того, чтобы статьи базы знаний предоставляли Copilot самую лучшую и самую актуальную информацию.
Какая модель безопасности данных используется для Copilot?
Copilot применяет определенные элементы управления доступом на основе ролей (RBAC) при соблюдении всех существующих конструкций безопасности. Таким образом, агенты не могут просматривать данные, к которым у них нет доступа. Кроме того, для формирования ответа помощника используются только те источники данных, к которым у агента есть доступ.
Как Copilot определяет, является ли контент оскорбительным или вредным?
Copilot определяет, является ли контент вредоносным, с помощью системы оценки серьезности, основанной на различных категориях нежелательного контента. Вы можете узнать больше в разделе Категории вреда в безопасности контента ИИ Azure.
Где происходит обработка и получения данных для генерации ответов помощника?
Copilot не вызывает публичную службу OpenAI, на которой работает ChatGPT. Copilot в Customer Service использует Службу Microsoft Azure OpenAI в клиенте, управляемом Майкрософт. Вся обработка и извлечение данных происходит в клиентах, управляемых Майкрософт. Кроме того, данные клиентов не распространяются и не передаются обратно в общедоступные модели.
Каковы языковые ограничения для сводок, которые Copilot создает из обращений и разговоров?
В создаваемых Copilot сводках по обращениям и разговорам поддерживается множество языков. Ожидается, что качество этих резюме будет самым высоким на английском языке, в то время как на других языках, как ожидается, качество со временем улучшится. Сведения о поддерживаемых языках см. в статье Языковая поддержка функций Copilot
Тестируется ли модель и контролируется ли она на постоянной основе? Если да, то как часто? Какое тестирование проводится?
Модель проверяется на качество и наличие вредного контента каждый раз, когда происходит изменение взаимодействия или версии модели. Подробнее см. в отчете об ответственном применении ИИ.
Как часто выполняется мониторинг модели для обнаружения снижения производительности?
Модель GPT генеративного ИИ размещается и управляется Azure OpenAI. Использование этой модели в сценариях обслуживания клиентов обусловлено принципами ответственного применения ИИ и проверками Совета по безопасности развертывания. Любые изменения в версиях модели или базовых запросах проверяются на качество и вредный контент. Дополнительные сведения см. в разделе Отчет о прозрачности ответственного использования ИИ.
Используется ли в продукте или услуге более одной модели или системы взаимозависимых моделей?
Различные функции в системе могут использовать разные версии моделей службы Azure OpenAI. Подробнее см. в разделе Модели службы Azure OpenAI.
Использует ли Copilot модельный продукт или службу сторонних производителей и доступна ли документация по этой модели?
Copilot создан с использованием Azure OpenAI — полностью управляемой службы ИИ, которая интегрирует OpenAI с разработанными корпорацией Майкрософт моделями фильтрации контента и обнаружения злоупотреблений. Подробнее см. в разделе Примечание о прозрачности для Azure OpenAI.
Существует ли установленный процесс для информирования о любых изменениях в моделях, вышестоящих моделях или выходных данных, используемых из других решений ИИ/МО или моделей?
Обо всех запланированных изменениях в функциях Copilot сообщается через общедоступную документацию. Однако изменения, связанные с версией модели или запросами, регулируются внутренними процессами ответственного применения ИИ. Об этих изменениях не сообщается, так как они являются постепенными и постоянными функциональными улучшениями.
Доступны ли дословные отзывы пользователей Microsoft для улучшения продукта?
№
Есть ли у Microsoft политики и процедуры, определяющие и дифференциирующие различные роли и обязанности людей при взаимодействии с системами ИИ или мониторинге их?
Да. В процессе ответственного применения ИИ учитываются все заинтересованные стороны и пользователи, а также обсуждается их использование или нецелевое использование системы. На основе выявленных сценариев необходимые меры по устранению рисков вносятся в продукт или с помощью документации. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Определяет ли Microsoft и документирует ли он подходы к привлечению, сбору и учету мнений других конечных пользователей и ключевых заинтересованных сторон для оказания помощи в непрерывном мониторинге потенциальных воздействий и возникающих рисков?
Да. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Документирует ли Microsoft планы реагирования на инциденты, связанные с системами ИИ, включая измерение времени реагирования и простоя?
Да. Процесс ответственного применения ИИ требует, чтобы у команды был план реагирования на инциденты для проблем с ИИ, аналогичный тому, что делается для функциональных проблем. Специализированные группы постоянно следят за производительностью и надежностью системы. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Устанавливает ли Microsoft процедуры обмена информацией о частоте ошибок и их негативных последствиях с соответствующими заинтересованными сторонами, операторами, практиками, пользователями затрагиваемыми сторонами?
Да. В случае проблем с высокой степенью серьезности специализированные группы должны сообщить о сбое затронутым клиентам.
Измеряет ли Microsoft производительность системы и отслеживает ее в режиме реального времени, чтобы обеспечить быстрое реагирование при обнаружении системного инцидента ИИ?
Да. Специализированные группы постоянно следят за производительностью и надежностью системы.
Проверяет ли Microsoft качество объяснений систем с конечными пользователями и другими заинтересованными сторонами?
Да. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Есть ли у Microsoft установленные политики и процедуры для мониторинга и устранения показателей производительности и надежности модельных систем, включая предвзятость и проблемы безопасности на протяжении всего жизненного цикла модели, при оценке систем ИИ с точки зрения негативных рисков и преимуществ?
Да. Дополнительные сведения см. в разделе Отчет о прозрачности ответственного использования ИИ.
Проводит ли Microsoft оценку справедливости для управления вычислительными и статистическими формами систематической ошибки?
Да. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Отслеживает ли Microsoft системные выходные данные на предмет проблем с производительностью или смещением?
Да. Фильтры модерации применяются на нескольких уровнях, в том числе на выходных данных, чтобы убедиться, что в ответе нет вредоносного контента. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Каков уровень отказоустойчивости в работе модели? Например, существует ли план аварийного восстановления и непредвиденных обстоятельств для случаев, когда модель недоступна?
Как и во всех службах Azure, резервное копирование и восстановление поддерживаются несколькими центрами обработки данных для обеспечения высокой доступности.
Является ли модель зависимой от сторонних инструментов или решений, встроенных в них, что затрудняет перенос модели в другую среду (включая такие переменные, как хостинг-провайдер, оборудование, программные системы), что мешает интерпретируемости модели?
№
Существует ли установленная политика управления моделью?
Да, существует установленная политика управления моделью, поддерживаемая Azure OpenAI. Дополнительные сведения см. в отчете об ответственном применении ИИ.
Существуют ли установленные и задокументированные протоколы (авторизация, продолжительность, тип) и средства управления доступом для обучающих или производственных наборов данных, содержащих персональные данные, в соответствии с политиками конфиденциальности и управления данными?
В настоящее время обучение модели не проводится, следовательно, нет никаких требований, связанных с набором данных. Однако, когда оператор отдела обслуживания клиентов взаимодействует с Copilot, в зависимости от функции, для генерации ответа используются контекстные данные (обращение или чат).
Отслеживается ли раскрытие персональных данных и выводы о конфиденциальных или охраняемых законом атрибутах?
Да, проверка конфиденциальности проводится для каждой функции.
Есть ли у Microsoft процесс рассмотрения правовых и нормативных вопросов и требований, характерных для отрасли, бизнес-целей и среды применения развернутых систем ИИ?
Да. Юридическая проверка проводится для каждой функции, чтобы помочь с нормативными требованиями и другими юридическими вопросами.
Дополнительные сведения
Использование функций Copilot
Использование Copilot для создания черновиков статей базы знаний из обращений
Доступность Copilot в регионах
Вопросы и ответы по безопасности и конфиденциальности данных Copilot в Microsoft Power Platform