Compartir vía


Preguntas frecuentes sobre la experiencia de creación de agente

Estas preguntas frecuentes (FAQ) describen el efecto de la IA de la experiencia conversacional de creación de agente en Copilot Studio.

¿Qué es la experiencia de creación de agentes conversacionales?

La experiencia conversacional de creación de agente se utiliza para ayudarle a crear un agente personalizado o un agente de Copilot. A través de la conversación, predice el nombre, la descripción, las instrucciones, cualquier fuente de conocimiento web añadida y las indicaciones de inicio (para agentes de Copilot)

¿Cuáles son las capacidades de la experiencia de creación de agentes conversacionales?

Puede comenzar rápidamente con la configuración del agente personalizado o del agente de Copilot a través de una interfaz de lenguaje natural. El sistema actualizará la configuración en función de las entradas del creador durante la conversación.

¿Cuál es el uso previsto de la experiencia de creación de agentes conversacionales?

Puede utilizar esta experiencia para comenzar la configuración inicial del agente.

¿Cómo se evaluó la experiencia de creación del agente conversacional y qué métricas se utilizan para medir el rendimiento?

Evaluamos la precisión del sistema en cuanto a qué tan bien la configuración predicha representaba las solicitudes a través de la conversación para garantizar la calidad. También probamos para garantizar que el sistema no produzca contenido dañino o malicioso.

¿Cuáles son las limitaciones de la experiencia de creación del agente conversacional y cómo pueden los usuarios minimizar el impacto de las limitaciones al usarla?

  • La experiencia conversacional de creación de agente solo admite ciertos idiomas. Es posible que pueda usar otros idiomas, pero las respuestas generadas pueden ser incoherentes y es posible que el agente no responda correctamente o como espera.

  • Esta experiencia no puede ayudarlo a probar su agente y solo se puede usar para configurar:

    • El nombre
    • La descripción
    • Instrucciones que crean el agente
    • Fuentes de conocimiento en Internet
    • Indicaciones de inicio para agentes de Copilot
  • Consulte las Preguntas frecuentes sobre IA responsable para respuestas generativas para conocer consideraciones y limitaciones adicionales al usar respuestas generativas en los agentes que cree con esta función.

¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable de la experiencia de creación de agentes conversacionales?

Puede usar lenguaje natural para conversar con el sistema a través del chat, o puede editar directamente la configuración manualmente en el panel lateral. Si edita manualmente, el sistema puede actualizarse con información adicional a medida que continúa la conversación.

¿Qué protecciones existen en Copilot Studio para la IA responsable?

Las respuestas generativas incluyen varias protecciones para garantizar que los administradores, creadores y usuarios disfruten de una experiencia segura y conforme a las normas. Los administradores tienen control total sobre las características de su inquilino y siempre pueden desactivar la capacidad de publicar agentes con respuestas generativas en su organización. Los creadores pueden agregar instrucciones personalizadas para influir en los tipos de respuestas que devuelven sus agentes. Para obtener más información acerca de los procedimientos recomendados para escribir instrucciones personalizadas, consulte Usar modificación de indicaciones para proporcionar instrucciones personalizadas a su agente.

Los creadores también pueden limitar las fuentes de conocimiento que los agentes pueden utilizar para responder preguntas. Para permitir que los agentes respondan preguntas fuera del alcance de sus fuentes de conocimiento configuradas, los creadores pueden activar la característica Conocimiento general de IA. Para limitar a los agentes a responder solo preguntas en el ámbito de sus fuentes de conocimiento configuradas, los creadores deben desactivar esta característica.

Copilot Studio también aplica políticas de moderación de contenido en todas las solicitudes de IA generativa para proteger a los administradores, creadores y usuarios contra contenido ofensivo o dañino. Estas directivas de moderación de contenido también se extienden a los intentos maliciosos de liberación, inyección de avisos, exfiltración de avisos e infracción de derechos de autor. Todo el contenido se comprueba dos veces: primero durante la entrada del usuario y de nuevo cuando el agente está a punto de responder. Si el sistema encuentra contenido dañino, ofensivo o malintencionado, impide que el agente responda.

Por último, se recomienda comunicar a los usuarios que el agente utiliza inteligencia artificial, por lo que el siguiente mensaje predeterminado informa a los usuarios: "Solo para que lo tenga en cuenta, a veces utilizo IA para responder a sus preguntas".