Compartir a través de


Conexión a servicios de Azure AI desde flujos de trabajo en Azure Logic Apps

Se aplica a: Azure Logic Apps (consumo + estándar)

Para integrar servicios empresariales, sistemas y datos con tecnologías de inteligencia artificial, los flujos de trabajo de la aplicación lógica pueden conectarse a los recursos de Azure OpenAI y Búsqueda de Azure AI que usa para estos escenarios de integración.

En esta guía se proporciona información general y ejemplos que muestran cómo usar las operaciones del conector de Azure OpenAI y Búsqueda de Azure AI en el flujo de trabajo.

¿Por qué usar Azure Logic Apps con los servicios de IA?

Normalmente, la creación de soluciones de inteligencia artificial implica varios pasos clave y requiere algunos bloques de creación. Principalmente, debe tener una canalización de ingesta dinámica y una interfaz de chat que pueda comunicarse con modelos de lenguaje grandes (LLM) y bases de datos vectoriales.

Sugerencia

Para más información, puede hacerle estas preguntas a Azure Copilot:

  • ¿Qué es una canalización de ingesta dinámica en IA?
  • ¿Qué es una base de datos vectorial en IA?

Para buscar Azure Copilot, en la barra de herramientas de Azure Portal, seleccione Copilot.

Puede ensamblar varios componentes, no solo para realizar la ingesta de datos, sino también para proporcionar un back-end sólido para la interfaz de chat. Este back-end facilita la entrada de mensajes y genera respuestas confiables durante las interacciones. Sin embargo, crear el código para administrar y controlar todos estos elementos puede plantear dificultades, como ocurre con la mayoría de las soluciones.

Azure Logic Apps ofrece un enfoque de código bajo y simplifica la administración de back-end proporcionando conectores pre compilados que se usan como bloques de creación para simplificar el proceso de back-end. Este enfoque le permite centrarse en el origen de los datos y asegurarse de que los resultados de búsqueda proporcionan información actual y relevante. Con estos conectores de IA, el flujo de trabajo actúa como un motor de orquestación que transfiere datos entre los servicios de inteligencia artificial y otros componentes que desea integrar.

Para obtener más información, consulte los siguientes recursos:

Requisitos previos

  • Una cuenta y una suscripción de Azure. Si no tiene una suscripción de Azure, regístrese para obtener una cuenta gratuita de Azure.

  • Los recursos de Búsqueda de Azure AI y Azure OpenAI para acceder y usar en el flujo de trabajo, incluida la información de conexión:

  • Un flujo de trabajo de aplicación lógica en el que desea acceder a los recursos de Azure OpenAI y Búsqueda de Azure AI.

    Actualmente, los conectores de estos servicios solo proporcionan acciones, no desencadenadores. Para poder agregar una acción del conector de Azure AI, asegúrese de que el flujo de trabajo comienza con el desencadenador adecuado para su escenario.

Referencia técnica del conector

En los flujos de trabajo de consumo, los conectores administrados o "compartidos" de Azure OpenAI y Búsqueda de Azure AI se encuentran actualmente en versión preliminar y están sujetos a las Condiciones de uso suplementarias para las versiones preliminares de Microsoft Azure.

Azure OpenAI

Azure OpenAI Service proporciona acceso a los Modelos de lenguaje de OpenAI, que incluyen GPT-4, GPT-4 Turbo con Vision, GPT-3.5-Turbo y la serie de modelos Embeddings. Con el conector de Azure OpenAI, el flujo de trabajo puede conectarse a Azure OpenAI Service y obtener incrustaciones de OpenAI para los datos o generar finalizaciones de chat.

Sugerencia

Para más información, puede hacerle estas preguntas a Azure Copilot:

  • ¿Qué es una inserción en IA?
  • ¿Qué es una finalización de chat en IA?

Para buscar Azure Copilot, en la barra de herramientas de Azure Portal, seleccione Copilot.

El conector de Azure OpenAI tiene diferentes versiones, en función del tipo de aplicación lógica y del modelo de hospedaje:

Aplicación lógica Entorno Versión del conector
Consumo Azure Logic Apps multiinquilino Conector administrado hospedado en Azure, que aparece en la galería de conectores en Runtime>Compartido.

Para obtener más información, consulte Referencia del conector administrado de Azure OpenAI.
Estándar Azure Logic Apps de inquilino único, App Service Environment v3 (solo planes de Windows) o implementación híbrida, que es su propia infraestructura. Conector integrado, que aparece en la galería de conectores en Runtime>En la app y está basado en el proveedor de servicios. El conector integrado tiene, entre otras, las siguientes funcionalidades:

- Compatibilidad con varios tipos de autenticación

- Acceso directo a recursos en redes virtuales y puntos de conexión de Azure para Azure OpenAI detrás de firewalls.

Para obtener más información, consulte Referencia del conector integrado de Azure OpenAI.

Búsqueda de Azure AI es una plataforma para la recuperación de información con tecnología de inteligencia artificial que ayuda a los desarrolladores a crear experiencias de búsqueda enriquecidas y aplicaciones de IA generativas mediante la combinación de modelos de lenguaje grandes con datos empresariales. Con el conector de Búsqueda de Azure AI, el flujo de trabajo puede conectarse a Búsqueda de Azure AI para indexar documentos y realizar búsquedas vectoriales en los datos.

El conector de Búsqueda de Azure AI tiene diferentes versiones, en función del tipo de aplicación lógica y del modelo de hospedaje:

Aplicación lógica Entorno Versión del conector
Consumo Azure Logic Apps multiinquilino Conector administrado hospedado en Azure, que aparece en la galería de conectores en Runtime>Compartido.

Para más información, consulte Referencia del conector administrado de Búsqueda de Azure AI.
Estándar Azure Logic Apps de inquilino único, App Service Environment v3 (solo planes de Windows) o implementación híbrida, que es su propia infraestructura. Conector integrado, que aparece en la galería de conectores en Runtime>En la app y está basado en el proveedor de servicios. El conector integrado tiene, entre otras, las siguientes funcionalidades:

- Compatibilidad con varios tipos de autenticación

- Acceso directo a recursos en redes virtuales y puntos de conexión de Azure para Azure OpenAI detrás de firewalls.

Para más información, consulte Referencia del conector integrado de Búsqueda de Azure AI.

Autenticación

Los conectores administrados por IA requieren una clave de API para la autenticación. Sin embargo, los conectores integrados de IA admiten varios tipos de autenticación para el punto de conexión de servicio de IA. Estas opciones proporcionan una autenticación sólida que satisface las necesidades de la mayoría de los clientes. Ambos conectores integrados también pueden conectarse directamente a los recursos de Azure OpenAI y Búsqueda de Azure AI dentro de redes virtuales o detrás de firewalls.

En la siguiente tabla se describen las opciones de autenticación del conector integrado, todas las cuales requieren que proporcione la URL del punto de conexión de servicio de IA:

Tipo de autenticación Descripción
Dirección URL y autenticación basada en claves Proporcione la clave de API o el administrador generados por el servicio de IA.
OAuth de Active Directory (Microsoft Entra ID) Proporcione información como el inquilino de Entra, el identificador de cliente y la contraseña para autenticarse como usuario de Entra.
Identidad administrada Después de configurar la autenticación de identidad administrada en el recurso del servicio de IA y el recurso de la aplicación lógica, puede usar esa identidad para autenticar el acceso para el conector.

Importante

Para obtener una seguridad óptima, use Microsoft Entra ID con identidades administradas para la autenticación siempre que sea posible. Este método proporciona seguridad superior sin tener que proporcionar credenciales. Azure administra esta identidad y ayuda a mantener la información de autenticación segura para que no tenga que administrar esta información confidencial usted mismo. Para establecer una identidad administrada para Azure Logic Apps, consulte Autenticación del acceso y las conexiones a los recursos de Azure con identidades administradas en Azure Logic Apps.

Si tiene que usar otro tipo de autenticación, use la siguiente opción de seguridad de nivel más alto disponible. Por ejemplo, supongamos que tiene que crear una conexión mediante una cadena de conexión en su lugar. Una cadena de conexión incluye la información de autorización necesaria para que la aplicación acceda a un recurso, servicio o sistema específico. La clave de acceso de la cadena de conexión es similar a una contraseña raíz.

En entornos de producción, proteja siempre información confidencial y secretos, como credenciales, certificados, huellas digitales, claves de acceso y cadenas de conexión. Asegúrese de almacenar de forma segura dicha información mediante Microsoft Entra ID y Azure Key Vault. Evite codificar de forma rígida esta información, compartirla con otros usuarios o guardarla en texto sin formato en cualquier lugar al que otros puedan acceder. Cambie los secretos lo antes posible si cree que esta información podría estar en peligro. Para obtener más información, consulte Acerca de Azure Key Vault.

Para obtener más información, consulte los siguientes recursos:

Adición de una acción de Azure OpenAI o Búsqueda de Azure AI al flujo de trabajo

Actualmente, los conectores para Azure OpenAI y Búsqueda de Azure AI solo proporcionan acciones, no desencadenadores. Puede iniciar el flujo de trabajo con cualquier desencadenador que se adapte a su escenario o necesidades. En función de si tiene un flujo de trabajo de consumo o estándar, puede seguir estos pasos generales para agregar acciones para Azure OpenAI, Búsqueda de Azure AI y otras operaciones.

Escenarios

En los escenarios siguientes se describen solo dos de las muchas maneras de usar las operaciones del conector de IA en los flujos de trabajo:

Creación de una knowledge base para los datos empresariales

Azure Logic Apps proporciona más de 1400 conectores administrados por Microsoft y ejecuta conectores integrados de forma nativa para que el flujo de trabajo se conecte de forma segura con casi cualquier origen de datos, como SharePoint, Oracle DB, Salesforce, OneDrive, Dropbox, SAP, IBM, etc. Cada conector proporciona operaciones, que incluyen desencadenadores, acciones o ambos, para que los use en el flujo de trabajo.

Por ejemplo, puede seleccionar entre muchos tipos de desencadenadores para que el flujo de trabajo automatizado se ejecute según una programación o en función de eventos específicos, como la carga de nuevos documentos en un sitio de SharePoint. Con tantas operaciones para elegir, puede crear una knowledge base y crear fácilmente una canalización de ingesta de documentos mediante incrustaciones de vectores para estos documentos en Búsqueda de Azure AI.

Para obtener más información, consulte los siguientes recursos:

Generar finalizaciones

Un flujo de trabajo de Azure Logic Apps puede aceptar entradas, mientras que Azure OpenAI Service puede realizar operaciones de finalización. Estas funcionalidades significan que el flujo de trabajo puede ingerir preguntas en tiempo real, generar respuestas sobre los datos o enviar respuestas automatizadas mediante Azure OpenAI. Puede enviar inmediatamente las respuestas al cliente o a un flujo de trabajo de aprobación para la comprobación.

Para obtener más información, consulte los siguientes recursos:

Escenario de ejemplo con código de ejemplo: Ingesta de datos y creación de interacciones de chat

En este ejemplo de flujo de trabajo estándar se muestra cómo usar los conectores integrados de Azure OpenAI y Búsqueda de Azure AI para desglosar la lógica de back-end para ingerir datos y realizar conversaciones de chat sencillas en dos flujos de trabajo clave. Para un rendimiento más rápido, cree flujos de trabajo sin estado que, de forma predeterminada, no guarde y almacene el historial de cada ejecución.

Código de ejemplo

Creación de un chat mediante datos ingeridos

Otros requisitos previos

  • Un flujo de trabajo de aplicación lógica estándar

  • Consulte los requisitos de código de ejemplo.

  • Las operaciones de flujo de trabajo de este ejemplo también usan los siguientes valores de parámetro entre entornos:

    Nombre de parámetro Descripción
    aisearch_admin_key La clave de administrador de Búsqueda de Azure AI
    aisearch_endpoint Dirección URL del punto de conexión del ejemplo de Búsqueda de Azure AI
    aisearch_index_name Índice que se va a usar para el ejemplo de Búsqueda de Azure AI
    openapi_api_key La clave de API para Azure OpenAI
    openai_deployment_id El id. De implementación del ejemplo de Azure OpenAI
    openai_endpoint Dirección URL del punto de conexión para el ejemplo de Azure OpenAI
    tokenize_function_url La dirección URL de una función personalizada de Azure que agrupa por lotes y tokeniza los datos, lo que es necesario para que Azure OpenAI cree correctamente incrustaciones para este ejemplo.

    Para obtener más información sobre esta función, consulte el código de ejemplo para "Crear un chat mediante datos ingeridos".

Vídeo: Aprenda a compilar aplicaciones de IA mediante aplicaciones lógicas

Aprenda a compilar aplicaciones de IA mediante aplicaciones lógicas

Ingesta de flujo de trabajo de datos

Para ahorrar mucho tiempo y esfuerzo al crear una canalización de ingesta, implemente el siguiente patrón con cualquier origen de datos. Este patrón encapsula todas las ventajas y ventajas que ofrecen actualmente los flujos de trabajo estándar en Azure Logic Apps de inquilino único.

Cada paso de este patrón garantiza que la inteligencia artificial extraiga sin problemas toda la información crucial de los archivos de datos. Si se ejecuta como un flujo de trabajo sin estado, este patrón también proporciona un rendimiento más rápido. Este enfoque simplifica no solo el aspecto de codificación, sino que también garantiza que los flujos de trabajo tengan procesos de autenticación, supervisión e implementación eficaces.

Recorte de pantalla que muestra Azure Portal, el diseñador de flujos de trabajo estándar y las operaciones de flujo de trabajo que implementan la funcionalidad de ingesta de datos.

Paso Tarea Operaciones subyacentes Descripción
1 Compruebe si hay nuevos datos. Cuando se recibe una solicitud HTTP Desencadenador que sondea o espera a que lleguen nuevos datos, ya sea en función de una periodicidad programada o en respuesta a eventos específicos, respectivamente. Este evento puede ser un nuevo archivo que se carga en un sistema de almacenamiento específico, como SharePoint, OneDrive o Azure Blob Storage.

En este ejemplo, la operación de desencadenador Solicitud espera una solicitud HTTP o HTTPS enviada desde otro punto de conexión. La solicitud incluye la dirección URL de un nuevo documento cargado.
2 Obtener los datos. HTTP Acción HTTP que recupera el documento cargado mediante la dirección URL del archivo de la salida del desencadenador.
3 Redactar detalles del documento. Compose Acción Operaciones de datos que concatena varios elementos.

En este ejemplo se concatena información de clave-valor sobre el documento.
4 Cree una cadena de token. Analizar un documento Una acción de Operaciones de datos que genera una cadena de token mediante la salida de la acción Redactar.
5 Cree fragmentos de contenido. Fragmento de texto Una acción de Operaciones de datos que divide la cadena de token en partes, en función del número de caracteres o tokens por fragmento de contenido.
6 Conversión de datos con token en JSON. Análisis del archivo JSON Una acción de Operaciones de datos que convierte los fragmentos de cadena de token en una matriz JSON.
7 Seleccione elementos de matriz JSON. Seleccione Acción Operaciones de datos que selecciona varios elementos de la matriz JSON.
8 Genere las incrustaciones. Obtención de varias incrustaciones Una acción de Azure OpenAI que crea incrustaciones para cada elemento de matriz JSON.
9 Seleccione Incrustaciones y otra información. Seleccione Acción Operaciones de datos que selecciona incrustaciones y otra información del documento.
10 Indexe los datos. Indexar documentos Una acción de Búsqueda de Azure AI que indexa los datos en función de cada inserción seleccionada.

Flujo de trabajo de chat

A medida que las bases de datos vectoriales continúan ingiriendo datos, asegúrese de que los datos se pueden buscar fácilmente para que cuando un usuario haga una pregunta, el flujo de trabajo de la aplicación lógica estándar de back-end puede procesar el mensaje y generar una respuesta confiable.

El siguiente patrón es solo un ejemplo que muestra cómo podría tener un flujo de trabajo de chat:

Recorte de pantalla que muestra Azure Portal, el diseñador de flujos de trabajo estándar y las operaciones de flujo de trabajo que implementan una interacción de chat.

Paso Tarea Operaciones subyacentes Descripción
1 Espere a que se le solicite la entrada. Cuando se recibe una solicitud HTTP Desencadenador que sondea o espera a que lleguen nuevos datos, ya sea en función de una periodicidad programada o en respuesta a eventos específicos, respectivamente.

En este ejemplo, el desencadenador Solicitud espera y captura la pregunta del cliente.
2 Mensaje del sistema de entrada para el modelo. Compose Acción Operaciones de datos que proporciona entrada para entrenar el modelo.
3 Preguntas y respuestas de ejemplo de entrada. Compose Acción Operaciones de datos que proporciona preguntas de cliente de ejemplo y roles asociados para entrenar el modelo.
4 Mensaje del sistema de entrada para la consulta de búsqueda. Compose Acción Operaciones de datos que proporciona entrada de consulta de búsqueda para entrenar el modelo.
5 Generar consulta de búsqueda. Ejecutar código de JavaScript Una acción Código insertado que usa JavaScript para crear una consulta de búsqueda para el almacén de vectores, en función de las salidas de las acciones de Compose anteriores.
6 Convierta la consulta en inserción. Obtener finalizaciones de chat Una acción de Azure OpenAI que se conecta a la API de finalización de chat, que garantiza respuestas confiables en conversaciones de chat.

En este ejemplo, la acción acepta consultas y roles de búsqueda como entrada en el modelo y devuelve incrustaciones vectoriales como salida.
7 Obtenga una inserción. Obtener una inserción Una acción de Azure OpenAI que obtiene una inserción de vector único.
8 Busque en la base de datos vectorial. Vectores de búsqueda Una acción de Búsqueda de Azure AI que ejecuta búsquedas en el almacén de vectores.
9 Crear solicitud. Ejecutar código de JavaScript Una acción Código insertado que usa JavaScript para compilar mensajes.
10 Realice la finalización del chat. Obtener finalizaciones de chat Una acción de Azure OpenAI que se conecta a la API de finalización de chat, que garantiza respuestas confiables en conversaciones de chat.

En este ejemplo, la acción acepta mensajes y roles como entrada en el modelo y devuelve respuestas generadas por el modelo como salida.
11 Devolución de respuesta. Respuesta Una acción Solicitud que devuelve los resultados al autor de la llamada cuando se usa el desencadenador Solicitud.