Preguntas frecuentes sobre capacidades de generación de texto y solicitudes
Estas preguntas frecuentes (FAQ) describen el impacto de la IA de la característica de prompts de AI Builder.
¿Qué son los prompts?
La función de prompts en AI Builder ofrece a los usuarios una capacidad versátil para desarrollar flujos de trabajo, aplicaciones, transformación de datos y personalización de copilotos impulsados por IA. Permite la creación de flujos de trabajo y aplicaciones que resumen documentos, crean borradores de respuestas, clasifican texto y traducen idiomas. Esta capacidad está impulsada por Azure OpenAI Service, que utiliza la tecnología Generative Pre-trained Transformer (GPT). Estos modelos se entrenaron con grandes cantidades de datos de texto, lo que les permitió generar texto que se asemeja al contenido escrito por humanos.
Para obtener más información, consulte la Nota de Transparencia para el Servicio Azure de OpenAI
¿Cuáles son los casos de uso previstos para los prompts?
Los prompts en AI Builder le permiten crear aplicaciones inteligentes, flujos de trabajo y ampliar copilotos. Aprovechan las capacidades de los modelos de GPT preentrenados, lo que elimina la necesidad de entrenar el modelo personalizado. Por ejemplo, la intención podría ser crear un flujo de trabajo que resuma las quejas entrantes de los clientes. Luego, crea un ticket en una herramienta de gestión de incidentes según la categoría de la queja entrante. En este ejemplo, los creadores pueden indicar al modelo que clasifique y resuma la queja entrante para crear un nuevo incidente.
La siguiente lista contiene los casos de uso más populares de este servicio:
- Resumen de correos electrónicos, conversaciones, transcripciones, documentos y más.
- Sugerencias de borradores de respuestas a consultas de clientes, quejas, correo electrónico y más.
- Extracción de información de contratos, correos electrónicos, facturas, pedidos y más.
- Clasificación del contenido en las categorías deseadas (por ejemplo, si un correo electrónico es un pedido, una queja o una devolución).
- Análisis de sentimiento de un texto dado (por ejemplo, identificación del sentimiento de una reseña de producto).
En todos estos casos, los usuarios son responsables del resultado final del sistema. Deben revisar el contenido generado para detectar posibles imprecisiones o falta de integridad antes de usarlo.
¿Cómo se evaluó la disponibilidad de la función de indicaciones? ¿Qué métricas se utilizan para medir el rendimiento?
La evaluación de esta característica implica la realización de pruebas exhaustivas en una serie de parámetros de seguridad. Estas pruebas garantizan que la característica se alinee con los estándares y principios de IA responsable de nuestra organización. El servicio también se evalúa continuamente para detectar posibles vulnerabilidades. Las métricas de rendimiento que usamos implican principalmente la eficacia del filtrado de contenidos y el grado de acuerdo entre el ser humano y la máquina sobre el contenido filtrado frente al no filtrado.
¿Qué tipo de moderación de contenido se implementa para las indicaciones?
Los modelos GPT se entrenan con datos de Internet, lo cual es excelente para construir un modelo mundial general. Al mismo tiempo, puede heredar contenido tóxico, dañino y sesgado de las mismas fuentes. Los modelos están capacitados para comportarse de manera segura y no producir contenido dañino, pero a veces puede generar resultados tóxicos. Los prompts de AI Builder aprovechan el servicio Azure AI Content Satefy para crear capacidades de moderación de contenido de última generación dentro de los mensajes de IA. Esto incluye servicios para analizar la salida generada con escáneres de texto de gravedad múltiple y seguridad contra ataques de inyección rápida. La salida también se escanea en busca de regurgitación de material protegido.
¿Cuáles son las limitaciones de la característica de prompts? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de los prompts cuando usan el sistema?
El uso de esta tecnología debe ajustarse a los requisitos del Código de conducta de Azure OpenAI Service. Esta tecnología no debe usarse para generar contenidos asociados a propaganda política, incitación al odio, desinformación, autolesiones, discriminación, material sexual explícito u otros contenidos prohibidos por el Código de conducta. Entre las aplicaciones no admitidas de esta tecnología se incluyen la prestación de asesoramiento, el uso para orientación legal, financiera, relacionada con la salud o predicciones futuras, así como cálculos financieros, científicos o matemáticos, y cualquier otro uso no admitido mencionado en la nota de transparencia de Azure OpenAI Service. En la actualidad, el servicio se presta exclusivamente en Estados Unidos y solo está disponible en inglés.
Los contenidos generados por IA pueden tener errores, por lo que los fabricantes deben informar a los usuarios finales de su solución de que la generación de contenidos por este modelo está creada por IA de forma transparente. La comunicación clara del contenido generado ayuda a evitar la dependencia excesiva. Los creadores también deben infundir la posibilidad de un paso de revisión manual para asegurarse de que el contenido generado por la IA es preciso y apropiado antes de usarlo.
¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable del sistema?
El contenido generado por el modelo de IA es de naturaleza probabilística, por lo que las respuestas del modelo podrían variar para una misma pregunta. La respuesta generada podría ser incorrecta o engañosa y podría provocar resultados no deseados del flujo o la aplicación. Por ejemplo, los clientes empresariales podrían recibir información, recomendaciones o soporte erróneos o incorrectos. Los creadores deben implementar una supervisión humana significativa en sus flujos y aplicaciones, y probar sus indicaciones para detectar el potencial de generar comportamientos dañinos o contenido prohibido, tal como se indica en el Código de conducta de Microsoft. Los desarrolladores con poco código también deben ser transparentes sobre el uso de la IA en sus aplicaciones y flujos para informar al usuario empresarial, indicando que el contenido está generado por la IA. Además, es posible que las respuestas generadas no se ajusten a las expectativas del desarrollador con poco código debido a restricciones de longitud, filtrado de contenidos o selección de modelos.
¿Cómo se llama el modelo GPT, dónde está alojado y cómo puedo acceder a él?
AI Builder admite la familia de GPT 4o modelos, que se hospeda en Azure OpenAI Service. Puede acceder a estos modelos a través de los avisos en toda la Power Platform, en sus aplicaciones, flujos y copilotos.
Para obtener más información, vaya a ¿Qué hay de nuevo en el servicio Azure OpenAI?
¿Se utilizan mis datos para entrenar o mejorar los modelos de lenguaje grande disponibles en AI Builder?
Las solicitudes de AI Builder se ejecutan en el Azure OpenAI Service alojado por Microsoft. Los datos proporcionados por los clientes no se utilizan para entrenar ni mejorar los modelos base del Azure OpenAI Service. Microsoft no comparte los datos de sus clientes con terceros a menos que usted haya otorgado permiso para hacerlo. Ni las solicitudes del cliente (entrada) con sus datos de apoyo ni las respuestas del modelo (salida) se usan para entrenar o mejorar los modelos básicos del Servicio Azure OpenAI.
¿El contenido agregado a la acción "Crear texto con GPT mediante un mensaje" es de acceso público?
La pestaña Acerca de para la acción dice: Esta acción proporciona acceso a sus mensajes aprovechando el modelo GPT que se ejecuta en el servicio OpenAI de Azure.
Las indicaciones que agrega a la acción Crear texto con GPT usando una solicitud en Power Automate son privadas de forma predeterminada. Solo son visibles y utilizables dentro de su organización, no accesibles para el mundo. Las indicaciones son privadas y están destinadas al uso interno de su empresa.
Las preguntas recién creadas son privadas de forma predeterminada. Esto significa que son visibles y utilizables en Power Automate, Power Apps y Microsoft Copilot Studio solo por la persona que las creó. Esto permite al fabricante disponer del tiempo necesario para probarlas y evaluarlas en aplicaciones o flujos de trabajo y garantizar su exactitud antes de compartirlas.
Si desea que otros usuarios del entorno o grupos usen su pregunta en Power Apps o Power Automate, deberá compartirla.
Obtenga más información en Compartir su solicitud.
¿Cómo se procesan las imágenes de personas en solicitudes de AI Builder?
AI Builder no está diseñado para ser utilizado para identificar a personas en función de rasgos faciales o datos biométricos. Cuando envía imágenes que contienen personas en el AI Builder, el sistema aplica automáticamente una función de difuminado facial antes de analizar las imágenes para proteger la privacidad individual. Este paso de difuminado ayuda a abordar los problemas de privacidad al evitar la identificación basada en los rasgos faciales. Con el desenfoque, no interviene el reconocimiento facial ni la coincidencia de plantillas faciales. En cambio, cualquier identificación de personas conocidas se basa en señales contextuales, como uniformes o escenarios únicos, no en sus rostros. Esta medida de privacidad no debería afectar a la calidad de los resultados que recibe. El difuminado de rostros podría ser ocasionalmente mencionado en las respuestas del sistema.
Obtén más información en Desenfoque facial.
¿Qué son los prompts personalizados y las funciones de IA?
Avisos personalizados
Las solicitudes personalizadas brindan a los creadores la libertad de indicar al modelo de lenguaje grande (LLM) que se comporte de cierta manera o que realice una tarea específica. Al elaborar cuidadosamente un mensaje, puede generar respuestas que se adapten a sus necesidades comerciales específicas. Esto transforma el modelo LLM en una herramienta flexible para realizar diversas tareas.
Ejemplo
Con un modelo de lenguaje, un mensaje personalizado puede guiar al modelo para responder una pregunta, completar texto, traducir idiomas, resumir un documento e identificar tareas, tareas pendientes y elementos de acción en el texto. La complejidad de un mensaje personalizado puede variar desde una sola oración hasta algo más complejo, según la tarea.
Funciones de IA
Las funciones de IA son prompts preconfigurados creadas por el equipo de Microsoft para ayudar a los creadores a realizar tareas comunes fácilmente. Ofrecen capacidades de IA listas para usar en varios casos de uso, lo que simplifica la experiencia del fabricante para infundir inteligencia en sus soluciones.
Ejemplo
El mensaje prediseñado de un modelo de lenguaje podría verse así:
Extraiga como una lista numerada los puntos de acción de: [TextToExtract]
En este caso, el usuario sólo necesita proporcionar el texto en [TextToExtract]
del que desea extraer puntos de acción. El mensaje prediseñado se encarga del resto.