Configuración de las credenciales de almacenamiento de Delta
Nota:
Para configurar las credenciales de almacenamiento Delta, consulte Configuración del acceso al almacenamiento de objetos en la nube de Azure Databricks. Databricks ya no recomienda pasar credenciales de almacenamiento a través de opciones de DataFrame, como se describe en este artículo.
Azure Databricks almacena datos para tablas de Delta Lake en el almacenamiento de objetos en la nube. La configuración del acceso al almacenamiento de objetos en la nube requiere permisos dentro de la cuenta en la nube que contiene su cuenta de almacenamiento.
Pasar las credenciales de almacenamiento como opciones de DataFrame
Delta Lake admite la especificación de credenciales de almacenamiento como opciones para DataFrameReader y DataFrameWriter. Puede usarla si necesita interactuar con los datos de varias cuentas de almacenamiento reguladas por claves de acceso diferentes.
Nota:
Esta característica está disponible en Databricks Runtime 10.4 LTS y versiones posteriores.
Por ejemplo, puede pasar las credenciales de almacenamiento a través de las opciones de DataFrame:
Python
df1 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
.read("...")
df2 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
.read("...")
df1.union(df2).write \
.mode("overwrite") \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
.save("...")
Scala
val df1 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
.read("...")
val df2 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
.read("...")
df1.union(df2).write
.mode("overwrite")
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
.save("...")