Dela via


Använd Delta Live Tables-pipelines med äldre Hive-metaarkiv

Den här artikeln beskriver konfigurationer och varningar som är specifika för Delta Live Tables-pipelines som konfigurerats för att publicera data till det äldre Hive-metaarkivet. Databricks rekommenderar att du använder Unity Catalog för alla nya pipelines. Se Använda Unity Catalog med dina Delta Live Tables-pipelines.

Obs

I den här artikeln beskrivs funktioner för det aktuella standardpubliceringsläget för pipelines. Pipelines som skapats före den 5 februari 2025 kan använda det äldre publiceringsläget och LIVE virtuella schemat. Se LIVE-schema (äldre).

Hur man gör förfrågningar mot strömmande tabeller och materialiserade vyer i det gamla Hive-metaarkivet

När en uppdatering är klar kan du visa schemat och tabellerna, fråga efter data eller använda data i underordnade program.

När de har publicerats kan Delta Live Tables-tabeller frågas från valfri miljö med åtkomst till målschemat. Detta inkluderar Databricks SQL, notebooks och andra Delta Live Tables-pipelines.

Viktigt!

När du skapar en target konfiguration publiceras endast tabeller och associerade metadata. Vyer publiceras inte i metastore.

Konfigurera en pipeline för publicering till Hive-metaarkiv

När du skapar en ny pipeline kan du ange Hive-metaarkivet under alternativen för Storage att publicera till det äldre Hive-metaarkivet. Du måste ange ett standardmålschema när du publicerar till Hive-metaarkivet. Se Konfigurera en pipeline för Delta Live Tables.

Ange en lagringsplats

Du kan ange en lagringsplats för en pipeline som publicerar till Hive-metaarkivet. Den främsta motivationen för att ange en plats är att styra objektlagringsplatsen för data som skrivits av din pipeline. Databricks rekommenderar att du alltid anger en lagringsplats för att undvika att skriva till DBFS-roten.

Eftersom alla tabeller, data, kontrollpunkter och metadata för Delta Live Tables-pipelines hanteras fullständigt av Delta Live Tables sker de flesta interaktioner med Delta Live Tables-datauppsättningar via tabeller som är registrerade i Hive-metaarkivet eller Unity-katalogen.

Konfiguration av molnlagring

Om du vill komma åt Azure Storage-måste du konfigurera obligatoriska parametrar, inklusive åtkomsttoken, med hjälp av spark.conf inställningar i klusterkonfigurationerna. Ett exempel på hur du konfigurerar åtkomst till ett Azure Data Lake Storage Gen2-lagringskonto (ADLS Gen2) finns i Säker åtkomst till autentiseringsuppgifter för lagring med hemligheter i en pipeline.

Exempel på pipelinens källkodsanteckningsböcker för arbetsytor utan Unity Catalog

Du kan importera följande notebook-filer till en Azure Databricks-arbetsyta utan att Unity Catalog är aktiverat och använda dem för att distribuera en Delta Live Tables-pipeline. Importera anteckningsboken för det valda språket och ange sökvägen i fältet Källkod när du konfigurerar en pipeline med lagringsalternativet Hive-metaarkiv . Se Konfigurera en Delta Live Tables-pipeline.

Komma igång med Delta Live Tables Python Notebook

Hämta anteckningsbok

Kom igång med Delta Live Tables SQL Notebook

Hämta anteckningsbok