Ejecución del trabajo de Azure Databricks con proceso sin servidor para flujos de trabajo
Importante
Dado que el proceso sin servidor para flujos de trabajo no admite el control del tráfico de salida, los trabajos tienen acceso total a Internet.
El proceso sin servidor para flujos de trabajo permite ejecutar el trabajo de Azure Databricks sin configurar e implementar la infraestructura. Con el proceso sin servidor, se centra en implementar las canalizaciones de procesamiento de datos y análisis, y Azure Databricks administra eficazmente los recursos de proceso, incluida la optimización y el escalado del proceso para las cargas de trabajo. El escalado automático y Photon se habilitan automáticamente para los recursos de proceso que ejecutan el trabajo.
El proceso sin servidor para flujos de trabajo optimiza automáticamente y continuamente la infraestructura, como los tipos de instancia, la memoria y los motores de procesamiento, para garantizar el mejor rendimiento en función de los requisitos de procesamiento específicos de las cargas de trabajo.
Databricks actualiza automáticamente la versión de Databricks Runtime para admitir mejoras y actualizaciones en la plataforma, a la vez que garantiza la estabilidad de los trabajos de Azure Databricks. Para ver la versión actual de Databricks Runtime que usa el proceso sin servidor para flujos de trabajo, consulte Notas de la versión de proceso sin servidor.
Dado que no se requiere el permiso de creación de clústeres, todos los usuarios del área de trabajo pueden usar el proceso sin servidor para ejecutar sus flujos de trabajo.
En este artículo se describe el uso de la interfaz de usuario de trabajos de Azure Databricks para crear y ejecutar trabajos que usan proceso sin servidor. También puede automatizar la creación y ejecución de trabajos que usan el proceso sin servidor con Jobs API, Databricks Asset Bundles y el SDK de Databricks para Python.
- Para obtener información sobre el uso de la API de trabajos para crear y ejecutar trabajos que usan el proceso sin servidor, consulte Trabajos en la referencia de la API de REST.
- Para obtener más información sobre el uso de Conjuntos de recursos de Databricks para crear y ejecutar trabajos que usan proceso sin servidor, consulte Desarrollo de un trabajo en Azure Databricks mediante conjuntos de recursos de Databricks.
- Para más información sobre el uso del SDK de Databricks para Python para crear y ejecutar trabajos que usan proceso sin servidor, consulte SDK de Databricks para Python.
Requisitos
El área de trabajo de Azure Databricks debe tener habilitado Unity Catalog.
Dado que el proceso sin servidor para flujos de trabajo usa modo de acceso compartido, las cargas de trabajo deben admitir este modo de acceso.
El área de trabajo de Azure Databricks debe estar en una región compatible. Consulte Características con disponibilidad regional limitada.
La cuenta de Azure Databricks debe tener habilitado el proceso sin servidor. Consulte Habilitación del proceso sin servidor.
Creación de un trabajo mediante proceso sin servidor
Nota:
Dado que el proceso sin servidor para flujos de trabajo garantiza que se aprovisionen recursos suficientes para ejecutar las cargas de trabajo, es posible que experimente un aumento de los tiempos de inicio al ejecutar un trabajo de Azure Databricks que requiera grandes cantidades de memoria o que incluya muchas tareas.
El proceso sin servidor se admite con los tipos de tareas notebook, script de Python, dbt y Python tipos de tareas. De manera predeterminada, el proceso sin servidor se selecciona como el tipo de proceso al crear un nuevo trabajo y agregar uno de estos tipos de tareas admitidos.
Databricks recomienda usar el proceso sin servidor para todas las tareas de trabajo. También puede especificar diferentes tipos de proceso para las tareas de un trabajo, lo que podría ser necesario si un tipo de tarea no es compatible con el proceso sin servidor para los flujos de trabajo.
Configuración de un trabajo existente para usar el proceso sin servidor
Puede cambiar un trabajo existente para usar el proceso sin servidor para los tipos de tareas admitidos al editar el trabajo. Para cambiar al proceso sin servidor, haga lo siguiente:
- En el panel lateral Detalles del trabajo, haga clic en Intercambiar en Compute, haga clic en Nuevo, escriba o actualice cualquier configuración y haga clic en Actualizar.
- Haga clic en el menú desplegable Compute y seleccione Serverless.
Programación de un cuaderno mediante proceso sin servidor
Además de usar la interfaz de usuario de trabajos para crear y programar un trabajo mediante proceso sin servidor, puede crear y ejecutar un trabajo que use proceso sin servidor directamente desde un cuaderno de Databricks. Consulte Creación y administración de trabajos de cuaderno programados.
Selección de una directiva de presupuesto para el uso sin servidor
Importante
Esta característica está en versión preliminar pública.
Las directivas de presupuesto permiten a su organización aplicar etiquetas personalizadas en el uso sin servidor para la atribución de facturación pormenorizadas.
Si el área de trabajo usa directivas presupuestarias para atribuir el uso sin servidor, puede seleccionar la directiva de presupuesto del trabajo mediante la configuración de directiva de presupuesto en la interfaz de usuario de detalles del trabajo. Si solo se le asigna una directiva de presupuesto, la directiva se selecciona automáticamente para los nuevos trabajos.
Nota:
Después de asignar una directiva de presupuesto, los trabajos existentes no se etiquetan automáticamente con la directiva. Debe actualizar manualmente los trabajos existentes si desea adjuntar una directiva a ellos.
Para obtener más información sobre las directivas de presupuesto, consulte Atributos de uso sin servidor con directivas de presupuesto.
Establecer parámetros de configuración de Spark
Para automatizar la configuración de Spark en el proceso sin servidor, Databricks permite establecer solo parámetros específicos de configuración de Spark. Para ver la lista de parámetros permitidos, consulte Parámetros de configuración de Spark admitidos.
Solo se pueden establecer parámetros de configuración de Spark a nivel de sesión. Para ello, establézcalos en un cuaderno y agréguelo a una tarea incluida en el mismo trabajo que usa los parámetros. Consulte Obtener y establecer las propiedades de configuración de Apache Spark en un cuaderno.
Configurar entornos y dependencias
Para obtener información sobre cómo instalar bibliotecas y dependencias mediante el proceso sin servidor, consulte Instalación de dependencias de cuadernos.
Configuración de la optimización automática de proceso sin servidor para no permitir reintentos
El proceso sin servidor para la optimización automática de flujos de trabajo optimiza automáticamente el proceso usado para ejecutar los trabajos y las tareas de reintento con errores. La optimización automática está habilitada de manera predeterminada y Databricks recomienda dejarla habilitada para garantizar que las cargas de trabajo críticas se ejecuten correctamente al menos una vez. Sin embargo, si tiene cargas de trabajo que se deben ejecutar como máximo una vez, por ejemplo, trabajos que no son idempotentes, puede desactivar la optimización automática al agregar o editar una tarea:
- Junto a Reintentos, haga clic en Agregar (o si ya existe una directiva de reintento).
- En el cuadro de diálogo Directiva de reintento, desactive Habilitar la optimización automática sin servidor (puede incluir reintentos adicionales).
- Haga clic en Confirmar.
- Si va a agregar una tarea, haga clic en Crear tarea. Si va a editar una tarea, haga clic en Guardar tarea.
Supervisión del costo de los trabajos que usan el proceso sin servidor para los flujos de trabajo
Puede supervisar el costo de los trabajos que usan el proceso sin servidor para los flujos de trabajo consultando la tabla del sistema de uso facturable. Esta tabla se actualiza para incluir atributos de usuario y carga de trabajo sobre los costos sin servidor. Consulte Referencia de tabla del sistema de utilización facturable.
Para obtener información sobre los precios actuales y las promociones, consulte la página Precios de flujos de trabajo.
Visualización de los detalles de la consulta para ejecuciones de trabajos
Puede ver información detallada del entorno de ejecución de las instrucciones spark, como métricas y planes de consulta.
Para acceder a los detalles de la consulta desde la interfaz de usuario de trabajos, siga estos pasos:
Haga clic en Flujos de trabajo en la barra lateral.
Haga clic en el nombre del trabajo que desea ver.
Haga clic en la ejecución específica que desea ver.
Haga clic en Escala de tiempo para ver la ejecución como una escala de tiempo, dividida en tareas individuales.
Haga clic en la flecha situada junto al nombre de la tarea para mostrar las instrucciones de consulta y sus entornos de ejecución.
Haga clic en una instrucción para abrir el panel de detalles de la consulta. Consulte Ver los detalles de la consulta para obtener más información sobre la información disponible en este panel.
Para ver el historial de consultas de una tarea:
- En la sección Proceso del panel lateral Ejecución de tareas, haga clic en Historial de consultas.
- Se le redirigirá al Historial de consultas, prefiltrado en función del identificador de ejecución de la tarea en la que estaba.
Para obtener información sobre el uso del historial de consultas, consulte Historial de consultas de access para canalizaciones de Delta Live Tables e Historial de consultas.
Limitaciones
Para obtener una lista de los procesos sin servidor para las limitaciones de los flujos de trabajo, consulte Limitaciones de proceso sin servidor en las notas de la versión de proceso sin servidor.