Dela via


Konfigurera autentiseringsuppgifter för Delta Storage

Notera

Information om hur du konfigurerar Delta Storage-autentiseringsuppgifter finns i Konfigurera åtkomst till molnobjektlagring för Azure Databricks. Databricks rekommenderar inte längre att du skickar autentiseringsuppgifter för lagring via DataFrame-alternativ enligt beskrivningen i den här artikeln.

Azure Databricks lagrar data för Delta Lake-tabeller i molnobjektlagring. För att konfigurera åtkomst till molnobjektlagring krävs behörigheter inom det molnkonto som innehåller ditt lagringskonto.

Skicka lagringsuppgifter som alternativ för DataFrame

Delta Lake har stöd för att ange autentiseringsuppgifter för lagring som alternativ för DataFrameReader och DataFrameWriter. Du kan använda detta om du behöver interagera med data i flera lagringskonton som styrs av olika åtkomstnycklar.

Notera

Den här funktionen är tillgänglig i Databricks Runtime 10.4 LTS och senare.

Du kan till exempel skicka dina autentiseringsuppgifter för lagring via DataFrame-alternativ:

Python

df1 = spark.read \
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
  .read("...")
df2 = spark.read \
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
  .read("...")
df1.union(df2).write \
  .mode("overwrite") \
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
  .save("...")

Scala

val df1 = spark.read
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
  .read("...")
val df2 = spark.read
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
  .read("...")
df1.union(df2).write
  .mode("overwrite")
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
  .save("...")