Informazioni di riferimento sulle proprietà delle tabelle Delta Live
Questo articolo fornisce informazioni di riferimento sulle specifiche delle impostazioni JSON delle tabelle Delta Live e sulle proprietà della tabella in Azure Databricks. Per altre informazioni sull'uso di queste varie proprietà e configurazioni, vedere i seguenti articoli:
Configurazioni della pipeline delle tabelle Delta Live
Campi |
---|
id Tipo: string Un identificatore univoco globale per questa pipeline. L'identificatore viene assegnato dal sistema e non può essere modificato. |
name Tipo: string Nome semplice da usare per questa pipeline. Il nome può essere usato per identificare i processi della pipeline nell'interfaccia utente. |
storage Tipo: string Percorso in DBFS o archiviazione cloud in cui vengono archiviati i dati di output e i metadati necessari per l'esecuzione della pipeline. Le tabelle e i metadati vengono archiviati nelle sottodirectory di questo percorso. Quando l'impostazione storage non è specificata, per impostazione predefinita il sistema verrà impostato su un percorso in dbfs:/pipelines/ .L'impostazione storage non può essere modificata dopo la creazione di una pipeline. |
configuration Tipo: object Elenco facoltativo di impostazioni da aggiungere alla configurazione Spark del cluster che eseguirà la pipeline. Queste impostazioni vengono lette dal runtime delle tabelle Delta Live e disponibili per le query della pipeline tramite la configurazione di Spark. Gli elementi devono essere formattati come coppie key:value . |
libraries Tipo: array of objects Matrice di notebook contenenti il codice della pipeline e gli artefatti necessari. |
clusters Tipo: array of objects Matrice di specifiche per i cluster per l'esecuzione della pipeline. Se non viene specificato, le pipeline selezioneranno automaticamente una configurazione cluster predefinita per la pipeline. |
development Tipo: boolean Flag che indica se eseguire la pipeline in modalità development o production .Il valore predefinito è true . |
notifications Tipo: array of objects Una matrice facoltativa di specifiche per le notifiche via e-mail quando un aggiornamento della pipeline viene completato, non funziona a causa di un errore ripetibile, non funziona a causa di un errore non ripetibile o un flusso non ha successo. |
continuous Tipo: boolean Flag che indica se eseguire la pipeline continuativamente. Il valore predefinito è false . |
target Tipo: string Nome di un database per rendere persistenti i dati di output della pipeline. La configurazione dell'impostazione target consente di visualizzare ed eseguire query sui dati di output della pipeline dall'interfaccia utente di Azure Databricks. |
channel Tipo: string La versione del runtime delle tabelle Delta Live da utilizzare. I valori supportati sono: - preview per testare la pipeline con le future modifiche alla versione di runtime.- current per usare la versione corrente del runtime.Il campo channel è facoltativo. Il valore predefinito ècurrent . Databricks consiglia l’uso della versione corrente del runtime per i carichi di lavoro di produzione. |
edition Digitare string Edizione del prodotto tabelle Delta Live per eseguire la pipeline. Questa impostazione consente di scegliere l'edizione del prodotto migliore in base ai requisiti della pipeline: - CORE per eseguire carichi di lavoro di inserimento in streaming.- PRO per eseguire carichi di lavoro di inserimento e change data capture (CDC) in streaming.- ADVANCED per eseguire carichi di lavoro di inserimento di streaming, carichi di lavoro CDC e carichi di lavoro che richiedono aspettative di tabelle Delta Live per applicare vincoli di qualità dei dati.Il campo edition è facoltativo. Il valore predefinito èADVANCED . |
photon Tipo: boolean Flag che indica se usare Che casa è Photon? per eseguire la pipeline. Photon è il motore Spark ad alte prestazioni di Azure Databricks. Le pipeline abilitate per Photon vengono fatturate a una tariffa diversa rispetto alle pipeline non Photon. Il campo photon è facoltativo. Il valore predefinito è false . |
pipelines.maxFlowRetryAttempts Tipo: int Numero massimo di tentativi di ripetizione di un flusso prima dell'esito negativo di un aggiornamento della pipeline quando si verifica un errore ripetibile. Il valore predefinito è due. Per impostazione predefinita, quando si verifica un errore ripetibile, il runtime delle tabelle Delta Live tenta di eseguire il flusso tre volte, incluso il tentativo originale. |
pipelines.numUpdateRetryAttempts Tipo: int Il numero massimo di tentativi di ripetizione di un aggiornamento prima di rifiutare l'aggiornamento quando si verifica un errore ripetibile. Il nuovo tentativo viene eseguito come aggiornamento completo. Il valore predefinito è cinque. Questo parametro si applica solo agli aggiornamenti attivati eseguiti in modalità di produzione. Non viene eseguito alcun nuovo tentativo quando la pipeline viene eseguita in modalità di sviluppo. |
Proprietà delle tabelle Delta Live
Oltre alle proprietà della tabella supportate da Delta Lake, è possibile impostare le seguenti proprietà della tabella.
Proprietà delle tabelle |
---|
pipelines.autoOptimize.managed Impostazione predefinita: true Abilita o disabilita l'ottimizzazione programmata automaticamente di questa tabella. |
pipelines.autoOptimize.zOrderCols Impostazione predefinita: nessuna Stringa facoltativa contenente un elenco delimitato da virgole di nomi di colonna in base all'ordine z di questa tabella. Ad esempio, pipelines.autoOptimize.zOrderCols = "year,month" |
pipelines.reset.allowed Impostazione predefinita: true Controlla se per questa tabella è consentito un aggiornamento completo. |
Intervallo di trigger delle pipeline
È possibile specificare un intervallo di trigger della pipeline per l'intera pipeline di tabelle Delta Live o come parte di una dichiarazione del set di dati. Vedere Impostare l'intervallo di trigger per le pipeline continue.
pipelines.trigger.interval |
---|
Il valore predefinito è basato sul tipo di flusso: - Cinque secondi per le query di streaming. - Un minuto per le query complete quando tutti i dati di input provengono da origini Delta. - Dieci minuti per le query complete quando alcune origini dati potrebbero non essere Delta. Il valore è un numero più l'unità temporale. Di seguito sono riportate le unità di tempo valide: - second , seconds - minute , minutes - hour , hours - day , days È possibile usare l'unità singolare o plurale quando si definisce il valore, ad esempio: - {"pipelines.trigger.interval" : "1 hour"} - {"pipelines.trigger.interval" : "10 seconds"} - {"pipelines.trigger.interval" : "30 second"} - {"pipelines.trigger.interval" : "1 minute"} - {"pipelines.trigger.interval" : "10 minutes"} - {"pipelines.trigger.interval" : "10 minute"} |
Attributi del cluster non impostabili dall'utente
Poiché le tabelle Delta Live gestiscono i cicli di vita dei cluster, molte impostazioni del cluster sono impostate dalle tabelle Delta Live e non possono essere configurate manualmente dagli utenti, né nella configurazione di una pipeline né in una politica del cluster utilizzata da una pipeline. Nella seguente tabella sono elencate queste impostazioni e il motivo per cui non possono essere impostate manualmente.
Campi |
---|
cluster_name Le tabelle Delta Live impostano i nomi dei cluster usati per eseguire gli aggiornamenti della pipeline. Questi nomi non possono essere sottoposti a override. |
data_security_mode access_mode Questi valori vengono impostati automaticamente dal sistema. |
spark_version I cluster Delta Live Table vengono eseguiti in una versione personalizzata di Databricks Runtime che viene costantemente aggiornata in modo da includere le funzionalità più recenti. La versione di Spark è in bundle con la versione di Databricks Runtime e non può essere sottoposta a override. |
autotermination_minutes Poiché le tabelle Delta Live gestiscono la terminazione automatica e la logica di riutilizzo del cluster, non è possibile eseguire l'override del tempo di terminazione automatica del cluster. |
runtime_engine Anche se è possibile controllare questo campo abilitando Photon per la pipeline, non è possibile impostare direttamente questo valore. |
effective_spark_version Questo valore viene impostato automaticamente dal sistema. |
cluster_source Questo campo viene impostato dal sistema ed è di sola lettura. |
docker_image Poiché le tabelle Delta Live gestiscono il ciclo di vita del cluster, non è possibile usare un contenitore personalizzato con cluster di pipeline. |
workload_type Questo valore viene impostato dal sistema e non può essere sottoposto a override. |