Giugno 2022
Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a giugno 2022.
Nota
Le versioni vengono gestite in staging. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.
ALTER TABLE
modifiche alle autorizzazioni per il catalogo Unity
30 giugno 2022
In Unity Catalog è stato eseguito un aggiornamento dei privilegi necessari per eseguire ALTER TABLE
le istruzioni. In precedenza, OWNERSHIP
di una tabella era necessario eseguire tutte le ALTER TABLE
istruzioni. Ora OWNERSHIP
nella tabella è necessario solo per modificare il proprietario, concedere le autorizzazioni per la tabella, modificare il nome della tabella e modificare una definizione di visualizzazione. Per tutte le altre operazioni sui metadati di una tabella , ad esempio l'aggiornamento di commenti, proprietà o colonne, è possibile apportare aggiornamenti se si dispone dell'autorizzazione MODIFY
per la tabella.
Vedere ALTER TABLE e ALTER TABLE.
Il supporto esteso di Databricks Runtime 6.4 raggiunge la fine del supporto
30 giugno 2022
Il supporto per Databricks Runtime 6.4 Extended è terminato il 30 giugno. Vedere Cicli di vita del supporto di Databricks.
Termine del supporto per Databricks Runtime serie 10.2
22 giugno 2022
Il supporto per Databricks Runtime 10.2 e Databricks Runtime 10.2 per Machine Learning è terminato il 22 giugno. Vedere Cicli di vita del supporto di Databricks.
Driver ODBC di Databricks 2.6.24
22 giugno 2022
È stata rilasciata la versione 2.6.24 del driver ODBC di Databricks (download). Questa versione aggiunge il supporto per configurare la conversione di query nella sintassi CTAS, consente agli utenti di eseguire l'override nel connettore SQL_ATTR_QUERY_TIMEOUT
e aggiorna la libreria OpenSSL.
Questa versione risolve anche i problemi seguenti:
- Il connettore non consente l'uso di certificati intermedi e server che non dispongono di una voce di punti di distribuzione CRL (CDP).
- Quando si usa un proxy, il connettore imposta il nome host non corretto per l'indicazione del nome del server SSL (SNI).
Provider Databricks Terraform
22 giugno 2022
Il provider Databricks Terraform è ora disponibile a livello generale.
Terraform consente di automatizzare completamente la distribuzione per le piattaforme dati con i processi IaC (Infrastructure-as-Code) esistenti di Terraform.
È possibile usare il provider Databricks Terraform per definire gli asset nelle aree di lavoro di Azure Databricks, ad esempio cluster e processi, e per applicare il controllo di accesso tramite autorizzazioni per utenti, gruppi e entità servizio.
Il provider Databricks Terraform fornisce un audit trail completo delle distribuzioni. È possibile usare il provider Databricks Terraform come backbone per le strategie di ripristino di emergenza e continuità aziendale.
Il provider Databricks Terraform supporta anche Unity Catalog (anteprima), consentendo di distribuire questa funzionalità di governance chiave con facilità e scalabilità.
Databricks Runtime 11.0 e 11.0 ML sono disponibili a livello generale; 11.0 Photon è anteprima pubblica
16 giugno 2022
Databricks Runtime 11.0 e Databricks Runtime 11.0 SONO ora disponibili a livello generale. Databricks Runtime 11.0 Photon è disponibile in anteprima pubblica.
Vedere Databricks Runtime 11.0 (EoS) e Databricks Runtime 11.0 per Machine Learning (EoS).
Passare alla directory di lavoro predefinita repos in Databricks Runtime 11.0
16 giugno 2022
Per impostazione predefinita, la directory di lavoro Python per i notebook in un repository è la directory contenente i notebook. Ad esempio, anziché , la directory di /databricks/driver
lavoro predefinita è /Workspace/Repos/<user>/<repo>/<path-to-notebook>
. In questo modo, l'importazione e la lettura da File in Repository possono funzionare per impostazione predefinita nei cluster Databricks Runtime 11.0.
Ciò significa anche che la scrittura nella directory di lavoro corrente non riesce con un Read-only filesystem
messaggio di errore. Se si vuole continuare a scrivere nel file system locale per un cluster, scrivere in /tmp/<filename>
o /databricks/driver/<filename>
.
Termine del supporto di Databricks Runtime serie 10.1
14 giugno 2022
Il supporto per Databricks Runtime 10.1 e Databricks Runtime 10.1 per Machine Learning è terminato il 14 giugno. Vedere Cicli di vita del supporto di Databricks.
Le tabelle live delta supportano ora SCD di tipo 2
13-21 giugno 2022: Versione 3.74
Le pipeline di tabelle live Delta possono ora usare il tipo 2 per acquisire le modifiche ai dati di origine e conservare la cronologia completa degli aggiornamenti ai record. In questo modo viene migliorato il supporto delle tabelle live Delta esistenti per il tipo 1. Vedere APPLICA MODIFICHE API: semplificare il Change Data Capture con Delta Live Tables.
Creare pipeline DLT (Delta Live Tables) nell’area di lavoro dell’interfaccia utente di Azure Databricks
13-21 giugno 2022: Versione 3.74
È ora possibile creare una pipeline delta live tables dal menu Crea sulla barra laterale dell'interfaccia utente di Azure Databricks.
Selezionare il canale Delta Live Tables quando si crea o si modifica una pipeline
13-21 giugno 2022: Versione 3.74
È ora possibile configurare il canale per la pipeline di tabelle live Delta con la finestra di dialogo Crea pipeline e Modifica impostazioni pipeline. In precedenza, la configurazione del canale richiedeva la modifica delle impostazioni nella configurazione JSON della pipeline.
Comunicare tra le attività nei processi di Azure Databricks con i valori delle attività
13 giugno 2022
È ora possibile comunicare valori tra le attività nei processi di Azure Databricks con i valori delle attività. Ad esempio, è possibile usare i valori delle attività per passare l'output di un modello di Machine Learning alle attività downstream nella stessa esecuzione del processo. Vedere sottoutilità taskValues (dbutils.jobs.taskValues)..
Abilitare il passaggio dell’account nell’interfaccia utente di Databricks
8 giugno 2022
Se gli utenti appartengono a più account, possono ora passare da un account all'altro nell'interfaccia utente di Databricks. Per usare lo switcher dell'account, fare clic sull'indirizzo di posta elettronica nella parte superiore dell'interfaccia utente di Databricks e quindi passare il puntatore del mouse su Cambia account. Selezionare quindi l'account a cui passare.