Compartir vía


Importación de DAG mediante Azure Blob Storage

Nota:

Esta característica está en versión preliminar pública. El Administrador de orquestación de flujo de trabajo cuenta con la tecnología de Apache Airflow.

En este artículo se muestran instrucciones paso a paso sobre cómo importar grafos acíclicos dirigidos (DAG) en el Administrador de orquestación de flujo de trabajo mediante Azure Blob Storage.

Requisitos previos

Durante la versión preliminar no se admite Blob Storage detrás de las redes virtuales. La configuración de Azure Key Vault en storageLinkedServices no se admite para importar DAG.

Importación de DAG

  1. Copie Sample Apache Airflow v2.x DAG o Sample Apache Airflow v1.10 DAG en función del entorno de Airflow que haya configurado. Pegue el contenido en un nuevo archivo con el nombre tutorial.py.

    Cargue el archivo tutorial.py en Blob Storage. Para obtener más información, consulte Cargar un archivo en un blob.

    Nota:

    Tiene que seleccionar una ruta de acceso de directorio de una cuenta de Blob Storage que contenga carpetas denominadas dags y plugins para importarlos en el entorno de Airflow. Los complementos no son obligatorios. También puede tener un contenedor denominado dags y cargar todos los archivos de Airflow en él.

  2. En el centro Administrar, seleccione Airflow de Apache. Después, mantenga el puntero sobre el entorno de Airflow creado anteriormente y seleccione Importar archivos para importar todos los DAG y dependencias en el entorno de Airflow.

    Captura de pantalla que muestra la importación de archivos en el centro de administración.

  3. Cree un servicio vinculado a la cuenta de almacenamiento accesible mencionada en la sección Requisito previo. También puede usar uno existente si los tiene.

    Captura de pantalla en la que se muestra cómo crear un servicio vinculado.

  4. Use la cuenta de almacenamiento donde cargó el DAG. (Compruebe la sección Requisitos previos). Pruebe la conexión y seleccione Crear.

    Captura de pantalla en la que se muestran algunos detalles del servicio vinculado.

  5. Busque y seleccione airflow si usa la dirección URL de SAS de ejemplo. También puede seleccionar la carpeta que contiene la carpeta dags con archivos DAG.

    Nota:

    Puede importar DAG y sus dependencias mediante esta interfaz. Tiene que seleccionar una ruta de acceso de directorio de una cuenta de Blob Storage que contenga carpetas denominadas dags y plugins para importarlos en el entorno de Airflow. Los complementos no son obligatorios.

    Captura de pantalla que muestra el botón Examinar almacenamiento en la pantalla Importar archivos.

    Captura de pantalla en la que se muestra la carpeta raíz de airflow en Examinar.

  6. Seleccione Importar para importar archivos.

    Captura de pantalla que muestra el botón Importar en la pantalla Importar archivos.

    Captura de pantalla que muestra la importación de DAG.

La importación de DAG puede tardar un par de minutos durante la versión preliminar. Puede usar el centro de notificaciones (icono de campana en la interfaz de usuario de Data Factory) para realizar un seguimiento de las actualizaciones del estado de la importación.