Konfigurowanie poświadczeń usługi Delta Storage
Notatka
Aby skonfigurować poświadczenia magazynu Delta, zobacz temat Konfigurowanie dostępu do magazynu obiektów w chmurze dla usługi Azure Databricks. Usługa Databricks odradza już przekazywanie poświadczeń magazynu za pośrednictwem opcji DataFrame zgodnie z opisem w tym artykule.
Usługa Azure Databricks przechowuje dane dla tabel usługi Delta Lake w magazynie obiektów w chmurze. Skonfigurowanie dostępu do magazynu obiektów w chmurze wymaga uprawnień w ramach konta w chmurze zawierającego konto magazynu.
Przekaż poświadczenia magazynu jako opcje dla DataFrame
Delta Lake obsługuje określanie danych uwierzytelniających magazynu jako opcji dla DataFrameReader i DataFrameWriter. Możesz użyć tego, jeśli musisz pracować z danymi na kilku kontach magazynowych zarządzanych przez różne klucze dostępu.
Notatka
Ta funkcja jest dostępna w środowisku Databricks Runtime 10.4 LTS lub nowszym.
Możesz na przykład przekazać poświadczenia magazynu za pomocą opcji DataFrame.
Pyton
df1 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
.read("...")
df2 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
.read("...")
df1.union(df2).write \
.mode("overwrite") \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
.save("...")
Scala
val df1 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
.read("...")
val df2 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
.read("...")
df1.union(df2).write
.mode("overwrite")
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
.save("...")