Konfigurera autentiseringsuppgifter för Delta Storage
Notera
Information om hur du konfigurerar Delta Storage-autentiseringsuppgifter finns i Konfigurera åtkomst till molnobjektlagring för Azure Databricks. Databricks rekommenderar inte längre att du skickar autentiseringsuppgifter för lagring via DataFrame-alternativ enligt beskrivningen i den här artikeln.
Azure Databricks lagrar data för Delta Lake-tabeller i molnobjektlagring. För att konfigurera åtkomst till molnobjektlagring krävs behörigheter inom det molnkonto som innehåller ditt lagringskonto.
Skicka lagringsuppgifter som alternativ för DataFrame
Delta Lake har stöd för att ange autentiseringsuppgifter för lagring som alternativ för DataFrameReader och DataFrameWriter. Du kan använda detta om du behöver interagera med data i flera lagringskonton som styrs av olika åtkomstnycklar.
Notera
Den här funktionen är tillgänglig i Databricks Runtime 10.4 LTS och senare.
Du kan till exempel skicka dina autentiseringsuppgifter för lagring via DataFrame-alternativ:
Python
df1 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
.read("...")
df2 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
.read("...")
df1.union(df2).write \
.mode("overwrite") \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
.save("...")
Scala
val df1 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
.read("...")
val df2 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
.read("...")
df1.union(df2).write
.mode("overwrite")
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
.save("...")