Compartir vía


Preguntas frecuentes de IA responsable para Copilot en Customer Service

Se aplica a: Dynamics 365 Contact Center - insertado, Dynamics 365 Contact Center -independiente y Dynamics 365 Customer Service

Este artículo de preguntas frecuentes ayuda a responder a las dudas sobre el uso responsable de la IA en las características de copiloto en Customer Service.

¿Qué es Copilot en Dynamics 365 Customer Service?

Copilot es una herramienta impulsada por IA que transforma la experiencia del agente en Dynamics 365 Customer Service. Proporciona asistencia en tiempo real impulsada por IA que ayudará a los agentes a resolver los problemas con mayor rapidez, manejar los casos con más eficacia y automatizar las tareas que consumen mucho tiempo. Así, los agentes podrán centrarse en ofrecer un servicio de alta calidad a sus clientes.

¿Cuáles son las capacidades del sistema?

Copilot ofrece las siguientes características principales:

  • Formular una pregunta: es la primera pestaña que ven los agentes cuando activan el panel de ayuda de Copilot. Se trata de una interfaz conversacional con Copilot, que ayuda a proporcionar respuestas contextuales a las preguntas de los agentes. Las respuestas de Copilot se basan en orígenes de conocimiento tanto internos como externos proporcionados por su organización durante la configuración.

  • Escribir un correo electrónico: es la segunda pestaña del panel de ayuda de Copilot que ayuda a los agentes a crear rápidamente respuestas de correo electrónico basadas en el contexto del caso, lo que reduce el tiempo que los usuarios deben dedicar a crear correos electrónicos.

  • Redactar una respuesta de chat: habilita a los agentes a crear una respuesta en un solo clic a la conversación de mensajería digital en curso a partir de los orígenes de conocimiento configurados por su organización.

  • Resumir un caso: Copilot proporciona a los agentes un resumen de un caso directamente en el formulario del mismo, para que puedan ponerse al día rápidamente sobre los detalles importantes de un caso.

  • Resumir una conversación: Copilot proporciona a los agentes un resumen de una conversación en puntos clave a lo largo del recorrido del cliente, como traspasos de agentes virtuales, transferencias y bajo demanda.

  • Generar borrador de conocimiento a partir del caso (versión preliminar): Copilot genera un borrador de artículo de conocimiento como una propuesta basada en información del caso. Los agentes pueden revisar y perfeccionar el borrador dándole instrucciones de revisión a Copilot y luego guardarlo.

  • Resumir un registro personalizado: Copilot proporciona a los agentes un resumen de un registro en función de los campos que el administrador configura para la tabla personalizada, de modo que los agentes puedan ponerse al día rápidamente con los detalles importantes de un registro de soporte.

  • Generar notas de resolución: Copilot proporciona a los agentes un resumen de los detalles del caso, correos electrónicos y notas vinculadas al caso en la pestaña Hacer una pregunta, para que puedan cerrar rápidamente el caso o incidente.

¿Cuál es el uso previsto del sistema?

Copilot en Customer Service está diseñado para ayudar a los representantes de servicio al cliente a trabajar de forma más eficiente y eficaz. Los representantes del servicio al cliente pueden usar las respuestas basadas en el conocimiento de Copilot para ahorrar tiempo de búsqueda de artículos de conocimiento y redacción de respuestas. Los resúmenes de Copilot están diseñados para ayudar a los agentes a resumir rápidamente los casos y las conversaciones. El contenido generado por Copilot en Customer Service no está pensado para ser usado sin revisión o supervisión humana.

¿Cómo se evalúa el Copilot en Customer Service? ¿Qué métricas se utilizan para medir el rendimiento?

Copilot en Customer Service se ha evaluado en escenarios del mundo real con clientes de todo el mundo a través de cada fase de su diseño, desarrollo y lanzamiento. Mediante una combinación de investigación y estudios de impacto empresarial, hemos evaluado varias métricas cuantitativas y cualitativas sobre Copilot, como su precisión, utilidad y confianza de los agentes. Obtenga más información en el Informe de transparencia de IA responsable.

¿Cuáles son las limitaciones de Copilot en Customer Service? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de Copilot?

Las capacidades de Copilot basadas en el conocimiento, como formular una pregunta, escribir un correo electrónico y redactar una respuesta de chat, dependen de artículos de conocimiento actualizados y de alta calidad para su fundamentación. Sin estos artículos de conocimiento, es más probable que los usuarios se encuentren con respuestas de Copilot que no se ajustan a la realidad.

Para minimizar la probabilidad de ver respuestas no objetivas de Copilot, es importante que Microsoft emplee prácticas sólidas de gestión del conocimiento para garantizar que el conocimiento empresarial que se conecta con Copilot sea de alta calidad y esté actualizado.

¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable del sistema?

Revise siempre los resultados de Copilot

Copilot se basa en la tecnología de modelo de lenguaje extenso, de naturaleza probabilística. Cuando se le presenta un texto de entrada, el modelo calcula la probabilidad de cada palabra de ese texto teniendo en cuenta las palabras que le preceden. A continuación, el modelo elige la palabra que tiene más probabilidades de seguirle. Sin embargo, como el modelo se basa en probabilidades, no puede decir con absoluta certeza cuál es la siguiente palabra correcta. En su lugar, nos da su mejor estimación basada en la distribución de probabilidad que ha aprendido de los datos con los que se entrenó. Copilot usa un enfoque llamado fundamentación, que consiste en agregar información adicional a la entrada para contextualizar la salida a su organización. Usa la búsqueda semántica para comprender la entrada y recuperar documentos internos relevantes de la organización y resultados de búsqueda en la web pública de confianza, y guía el modelo lingüístico para que responda basándose en ese contenido. Aunque esto es útil para garantizar que las respuestas de Copilot se ajustan a los datos de la organización, es importante revisar siempre los resultados producidos por Copilot antes de usarlos.

Sacar el máximo partido a Copilot

Cuando interactúe con Copilot, es importante que tenga en cuenta que la estructura de las preguntas puede afectar en gran medida a la respuesta que dé Copilot. Para interactuar con Copilot de forma eficaz, es crucial formular preguntas claras y específicas, proporcionar contexto para ayudar a la IA a entender mejor su intención, hacer una pregunta cada vez y evitar términos técnicos para mayor claridad y accesibilidad.

Formular preguntas claras y concretas

Una intención clara es esencial a la hora de formular preguntas, ya que repercute directamente en la calidad de la respuesta. Por ejemplo, hacer una pregunta amplia como "¿Por qué no se pone en marcha la cafetera del cliente?" tiene menos probabilidades de dar una respuesta útil en comparación con una pregunta más específica, como "¿Qué pasos puedo dar para determinar por qué la cafetera del cliente no se pone en marcha?".

Sin embargo, hacer una pregunta aún más detallada como "¿Qué pasos puedo seguir para determinar por qué una cafetera Contoso 900 con una presión nominal de 5 bares no se pone en marcha?" acota el alcance del problema y proporciona más contexto, lo que conduce a respuestas más precisas y específicas.

Agregar contexto

Agregar contexto ayuda al sistema de IA conversacional a comprender mejor la intención del usuario y proporcionar respuestas más precisas y pertinentes. Sin contexto, el sistema podría malinterpretar la pregunta del usuario o proporcionar respuestas genéricas o irrelevantes.

Por ejemplo, "¿Por qué no se pone en marcha la cafetera?" dará lugar a una respuesta genérica en comparación con una pregunta con más contexto como "Recientemente, el cliente inició el modo de descalcificación en su cafetera y completó la descalcificación correctamente. Incluso vio tres destellos de la luz de encendido al final para confirmar que la descalcificación se había completado. ¿Por qué ya no puede poner en marcha la cafetera?".

Agregar contexto de esta manera es importante porque ayuda a Copilot a comprender mejor la intención del usuario y proporcionar respuestas más precisas y pertinentes.

Evitar los términos técnicos si es posible

Le recomendamos que evite usar términos y nombres de recursos extremadamente técnicos cuando interactúe con Copilot, ya que es posible que el sistema no siempre los entienda de forma precisa o adecuada. Usar un lenguaje más sencillo y natural ayuda a garantizar que el sistema pueda entender correctamente la intención del usuario y ofrecer respuestas claras y útiles. Por ejemplo:

"El cliente no puede acceder por SSH a la máquina virtual después de haber cambiado la configuración del firewall".

En su lugar, puede reformularlo como:

"El cliente cambió las reglas del firewall en su máquina virtual. Sin embargo, ya no puede conectarse mediante Secure Shell (SSH). ¿Me puede ayudar?".

Si siguen las sugerencias, los agentes pueden mejorar sus interacciones con Copilot y aumentar la probabilidad de recibir respuestas precisas y seguras de él.

Resumir o expandir una respuesta

A veces la respuesta de Copilot puede ser más larga de lo esperado. Este podría ser el caso cuando el agente está en una conversación de chat en directo con un cliente y necesita enviar respuestas concisas en comparación con el envío de una respuesta por correo electrónico. En estos casos, pedir a Copilot que "resuma la respuesta" dará como resultado una respuesta concisa a la pregunta. Del mismo modo, si necesita más detalles, si pide a Copilot que "Proporcione más detalles" obtendrá una respuesta más detallada a su pregunta. Si la respuesta está truncada, al escribir "continuar" aparecerá la parte restante de la respuesta.

¿Cómo puedo influir en las respuestas generadas por el copiloto? ¿Puedo ajustar el LLM subyacente?

No es posible personalizar directamente el modelo de lenguaje extenso (LLM). Se puede influir en las respuestas de Copilot actualizando la documentación de origen. Se almacena todo el contenido de las respuestas de Copilot. Se pueden crear informes mediante estos datos para determinar los orígenes de datos que deben actualizarse. Es una buena idea contar con procesos para revisar periódicamente los datos de los comentarios y asegurarse de que los artículos de conocimiento están proporcionando la mejor y más actualizada información a Copilot.

¿Cuál es el modelo de seguridad de datos de Copilot?

Copilot aplica los controles de acceso basados en roles (RBAC) definidos y se adhiere a todas las creaciones de seguridad existentes. Por lo tanto, los agentes no pueden ver datos a los que no tienen acceso. Además, solo se usan para la generación de respuestas del copiloto los orígenes de datos a los que tiene acceso el agente.

¿Cómo determina Copilot si el contenido es ofensivo o dañino?

Copilot determina si el contenido es dañino a través de un sistema de clasificación de gravedad basado en distintas categorías de contenido objetable. Puede obtener más información en Categorías de daños en la Seguridad del contenido de Azure AI.

¿Dónde se procesan y recuperan los datos para generar las respuestas del copiloto?

Copilot no está llamando al servicio público OpenAI que impulsa ChatGPT. Copilot en Customer Service usa el servicio Microsoft Azure OpenAI en un inquilino administrado por Microsoft. Todo el procesamiento y recuperación de datos se produce en los inquilinos administrados por Microsoft. Además, los datos de los clientes no se comparten y no se retroalimentan en modelos públicos.

¿Cuáles son las limitaciones de idioma para los resúmenes que Copilot genera a partir de casos y conversaciones?

Los resúmenes generados por Copilot a partir de casos y conversaciones admiten muchos idiomas. Se espera que la calidad de estos resúmenes sea la más alta en inglés, mientras que en los demás idiomas se espera que la calidad mejore con el tiempo. Más información sobre los idiomas admitidos en Compatibilidad de idiomas para características de Copilot

¿El modelo se prueba y supervisa de forma continua? Si es así, ¿con qué frecuencia? ¿Qué pruebas se realizan?

El modelo se somete a pruebas de calidad y contenido dañino cada vez que se produce un cambio en la interacción o versión del modelo. Obtenga más información en el Informe de transparencia de IA responsable.

¿Con qué frecuencia se supervisa el modelo para detectar la degradación del rendimiento?

El modelo GPT de IA generativa está alojado y administrado por Azure OpenAI. El uso del modelo en escenarios de servicio al cliente está sujeto a prácticas de IA responsables y comprobaciones del Consejo de seguridad de implementación. Cualquier cambio en las versiones del modelo o en las indicaciones subyacentes se valida en cuanto a la calidad y el contenido peligroso. Obtenga más información en el Informe de transparencia de IA responsable.

¿El producto o servicio emplea más de un modelo o un sistema de modelos interdependientes?

Diferentes características del sistema podrían estar usando diferentes versiones de los modelos de Azure OpenAI Service. Más información en Modelos de servicio de Azure OpenAI.

¿Usa Copilot un producto o servicio de modelo que no es de Microsoft y hay documentación disponible para este modelo?

Copilot se crea con Azure OpenAI, un servicio de IA totalmente administrado que integra OpenAI con los modelos de detección de abusos y filtrado de contenido desarrollados por Microsoft. Obtenga más información en la Nota de transparencia para Azure OpenAI.

¿Existe un proceso establecido para comunicar cualquier cambio en los modelos, los modelos ascendentes o las salidas que se utilizan desde otras soluciones de IA/ML o modelos?

Cualquier cambio planificado en las características de Copilot se comunica a través de documentación pública. Sin embargo, los cambios con respecto a la versión del modelo o las solicitudes se rigen por los procesos internos de IA responsable. Estos cambios no se comunican, ya que son mejoras funcionales incrementales y continuas.

¿Los comentarios literales de los usuarios están disponibles para Microsoft para mejorar el producto?

No.

¿Tienen Microsoft políticas y procedimientos que definan y diferencien las diversas funciones y responsabilidades humanas cuando interactúan con los sistemas de IA o los supervisan?

Sí. En el proceso de IA responsable, se tienen en cuenta todas las partes interesadas y los usuarios implicados, y se discute su uso o uso no intencionado del sistema. En función de los escenarios identificados, las mitigaciones necesarias se introducen en el producto o a través de la documentación. Obtenga más información en el Informe de transparencia de IA responsable.

¿Microsoft identifica y documenta enfoques para involucrar, capturar e incorporar aportes de otros usuarios finales y partes interesadas clave para ayudar con el monitoreo continuo de posibles impactos y riesgos emergentes?

Sí. Obtenga más información en el Informe de transparencia de IA responsable.

¿Microsoft documenta, practica y mide los planes de respuesta a incidentes para incidentes del sistema de IA, incluida la medición de los tiempos de respuesta y de inactividad?

Sí. El proceso de IA responsable requiere que el equipo tenga un plan de respuesta a incidentes para los problemas de IA, similar a lo que se hace para los problemas funcionales. Los equipos de funciones supervisan continuamente el rendimiento y la confiabilidad del sistema. Obtenga más información en el Informe de transparencia de IA responsable.

¿Microsoft establece procedimientos para compartir información sobre incidencias de errores e impactos negativos con las partes interesadas, operadores, profesionales, usuarios y partes afectadas relevantes?

Sí. Para problemas de alta gravedad, los equipos de funciones deben comunicar la interrupción a los clientes afectados.

¿Microsoft mide y supervisa el rendimiento del sistema en tiempo real para permitir una respuesta rápida cuando se detecta un incidente en el sistema de IA?

Sí. Los equipos de funciones supervisan continuamente el rendimiento y la confiabilidad del sistema.

¿Microsoft prueba la calidad de las explicaciones de los sistemas con los usuarios finales y otras partes interesadas?

Sí. Obtenga más información en el Informe de transparencia de IA responsable.

¿Ha establecido Microsoft directivas y procedimientos para supervisar y abordar el rendimiento y la fiabilidad del sistema modelo, incluidos los problemas de sesgo y seguridad a lo largo del ciclo de vida del modelo, al evaluar los riesgos negativos y beneficios de los sistemas de IA?

Sí. Obtenga más información en el Informe de transparencia de IA responsable.

¿Microsoft lleva a cabo evaluaciones de equidad para gestionar las formas de sesgo computacional y estadístico?

Sí. Obtenga más información en el Informe de transparencia de IA responsable.

¿Microsoft supervisa las salidas del sistema para detectar problemas de rendimiento o sesgo?

Sí. Los filtros de moderación se aplican en varias capas, incluso en la salida, para asegurarse de que no haya contenido dañino en la respuesta. Obtenga más información en el Informe de transparencia de IA responsable.

¿Cuál es el nivel de resistencia en el funcionamiento del modelo? Por ejemplo, ¿existe un plan de contingencia y recuperación ante desastres para los casos en que el modelo no esté disponible?

Al igual que todos los servicios Azure, la copia de seguridad y la recuperación se admiten a través de múltiples centros de datos para una alta disponibilidad.

¿El modelo depende, está integrado en herramientas o soluciones de terceros que dificultan la migración del modelo a un entorno diferente (incluidas variables como el proveedor de alojamiento, el hardware o los sistemas de software) que impedirían la explicabilidad del modelo?

No.

¿Existe un modelo establecido de política de gobernanza?

Sí, hay una directiva de gobernanza establecida respaldada por Azure OpenAI. Obtenga más información en el Informe de transparencia de IA responsable.

¿Existen protocolos (autorización, duración, tipo) y controles de acceso establecidos y documentados para conjuntos de datos de entrenamiento o producción que contienen PII de acuerdo con las políticas de privacidad y gobernanza de datos?

Actualmente, no hay entrenamiento de modelos, por lo tanto, no hay ningún requisito en torno al conjunto de datos. Sin embargo, cuando un representante del servicio al cliente interactúa con Copilot, dependiendo de la función, los datos de contexto (caso o chat) se utilizan para generar una respuesta.

¿Se supervisan las divulgaciones de PII y la inferencia de atributos confidenciales o protegidos legalmente?

Sí, la revisión de privacidad se realiza para cada característica.

Sí. Se realiza una revisión legal para cada característica para ayudar con los requisitos reglamentarios y otros asuntos legales.

Utilizar funciones de Copilot
Utilizar Copilot para generar borradores de conocimientos a partir de casos
Disponibilidad regional de Copilot
Preguntas frecuentes sobre la seguridad y privacidad de los datos de Copilot en Microsoft Power Platform