Compartir a través de


Junio de 2022

Estas características y mejoras de la plataforma Azure Databricks se publicaron en junio de 2022.

Nota:

Las versiones se lanzan en fases. Es posible que su cuenta de Azure Databricks no se actualice hasta después de una semana o más de la fecha de lanzamiento inicial.

ALTER TABLECambios de permisos en Unity Catalog

30 de junio de 2022

En Unity Catalog, ha habido una actualización de los privilegios necesarios para ejecutar instrucciones ALTER TABLE. Anteriormente, era necesario que OWNERSHIP de una tabla ejecutara todas las instrucciones ALTER TABLE. Ahora OWNERSHIP de la tabla solo se necesita para cambiar el propietario, conceder permisos en la tabla, cambiar el nombre de la tabla y modificar una definición de vista. Para todas las demás operaciones de metadatos de una tabla (por ejemplo, actualizar comentarios, propiedades o columnas), puede realizar actualizaciones si tiene el permiso MODIFY de la tabla.

Consulte ALTER TABLE y ALTER TABLE.

Se ha alcanzado la finalización del soporte técnico extendido de Databricks Runtime 6.4

30 de junio de 2022

La compatibilidad con el soporte extendido de Databricks Runtime 6.4 finalizó el 30 de junio. Consulte Ciclo de vida del soporte técnico de Databricks.

Fin del soporte técnico de la serie 10.2 de Databricks Runtime

22 de junio de 2022

El soporte técnico de Databricks Runtime 10.2 y Databricks Runtime 10.2 para Machine Learning finalizó el 22 de junio. Consulte Ciclo de vida del soporte técnico de Databricks.

Controlador ODBC de Databricks 2.6.24

22 de junio de 2022

Se ha publicado la versión 2.6.24 del controlador ODBC de Databricks (descargar). Esta versión agrega compatibilidad para configurar la traducción de consultas para la sintaxis de CTAS, permite a los usuarios reemplazar SQL_ATTR_QUERY_TIMEOUT en el conector y actualizar la biblioteca OpenSSL.

En esta versión se resuelven también los siguientes problemas:

  • El conector no permite el uso de certificados intermedios y de servidor que no tienen una entrada de puntos de distribución de CRL.
  • Cuando se usa un proxy, el conector establece el nombre de host incorrecto para la indicación de nombre del servidor SSL (SNI).

El proveedor de Databricks Terraform ahora está en versión GA

22 de junio de 2022

El proveedor de Databricks Terraform ya está disponible con carácter general.

Terraform le permite automatizar completamente la implementación de las plataformas de datos con los procesos de infraestructura como código (IaC) existentes de Terraform.

El proveedor de Databricks Terraform se puede usar no solo para definir recursos en áreas de trabajo de Azure Databricks, como clústeres y trabajos, sino también para aplicar el control de acceso mediante permisos para usuarios, grupos y entidades de servicio.

El proveedor de Databricks Terraform proporciona una pista de auditoría completa de las implementaciones. El proveedor de Databricks Terraform se puede usar como red troncal para las estrategias de recuperación ante desastres y continuidad empresarial.

El proveedor de Databricks Terraform también admite Unity Catalog (versión preliminar), lo que le permite implementar esta característica de gobernanza clave con facilidad y a escala.

Databricks Runtime 11.0 y 11.0 ML están disponibles con carácter general; 11.0 Photon está disponible en versión preliminar pública

16 de junio de 2022

Databricks Runtime 11.0 y Databricks Runtime 11.0 ML ahora están disponibles con carácter general. Databricks Runtime 11.0 Photon está disponible en versión preliminar pública.

Consulte Databricks Runtime 11.0 (EoS) y Databricks Runtime 11.0 for Machine Learning (EoS).

Cambie a Repos el directorio de trabajo predeterminado de Databricks Runtime 11.0

16 de junio de 2022

El directorio de trabajo de Python para los cuadernos de un repositorio tiene como valor predeterminado el directorio que contiene los cuadernos. Por ejemplo, en lugar de /databricks/driver, el directorio de trabajo predeterminado es /Workspace/Repos/<user>/<repo>/<path-to-notebook>. Esto permite importar y leer desde Files en Repos para funcionar de forma predeterminada en clústeres de Databricks Runtime 11.0.

Esto también significa que se produce un error al escribir en el directorio de trabajo actual con un mensaje de error Read-only filesystem. Si desea seguir escribiendo en el sistema de archivos local de un clúster, escriba en /tmp/<filename> o /databricks/driver/<filename>.

Fin del soporte técnico de la serie 10.1 de Databricks Runtime

14 de junio de 2022

El soporte técnico de Databricks Runtime 10.1 y Databricks Runtime 10.1 para Machine Learning finalizó el 14 de junio. Consulte Ciclo de vida del soporte técnico de Databricks.

Delta Live Tables admite ya el tipo 2 de SCD

13-21 de junio de 2022: versión 3.74

Las canalizaciones de Delta Live Tables ahora pueden usar el tipo 2 de SCD para capturar los cambios en los datos de origen y conservar el historial completo de actualizaciones de los registros. Esto mejora la compatibilidad existente de Delta Live Tables con el tipo 1 de SCD. Consulte API APPLY CHANGES: simplificación de la captura de datos modificados con Delta Live Tables.

Creación de canalizaciones de Delta Live Tables directamente en la interfaz de usuario de Azure Databricks

13-21 de junio de 2022: versión 3.74

Ahora puede crear una canalización de Delta Live Tables en el menú Crear de la barra lateral de la interfaz de usuario de Azure Databricks.

Selección del canal Delta Live Tables al crear o editar una canalización

13-21 de junio de 2022: versión 3.74

Ahora puede configurar el canal para la canalización de Delta Live Tables con los cuadros de diálogo Crear canalización y Editar configuración de la canalización. Anteriormente, configurar el canal requería la edición de los valores de la configuración JSON de la canalización.

Comunicación entre tareas de los trabajos de Azure Databricks con los valores de tarea

13 de junio de 2022

Ahora puede comunicar valores entre tareas de los trabajos de Azure Databricks con valores de tarea. Por ejemplo, puede usar valores de tarea para pasar la salida de un modelo de Machine Learning a tareas de nivel inferior en la misma ejecución de trabajo. Consulte Utilidad secundaria taskValues (dbutils.jobs.taskValues).

Habilitación del cambio de cuenta en la interfaz de usuario de Databricks

8 de junio de 2022

Si los usuarios pertenecen a más de una cuenta, ahora pueden cambiar entre cuentas en la interfaz de usuario de Databricks. Para usar el conmutador de cuenta, haga clic en su dirección de correo electrónico en la parte superior de la interfaz de usuario de Databricks y, a continuación, mantenga el puntero sobre Cambiar cuenta. A continuación, seleccione la cuenta a la que desea ir.