Condividi tramite


Giugno 2022

Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a giugno 2022.

Nota

Le versioni vengono gestite in staging. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.

ALTER TABLE modifiche alle autorizzazioni per Unity Catalog

30 giugno 2022

In Unity Catalog ci sono stati update ai privilegi necessari per eseguire le dichiarazioni ALTER TABLE. In precedenza, OWNERSHIP di un table era necessario per eseguire tutte le istruzioni ALTER TABLE. È ora necessario OWNERSHIP nel table solo per cambiare il proprietario, concedere le autorizzazioni su table, modificare il nome di table e cambiare una definizione di visualizzazione. Per tutte le altre operazioni sui metadati in un table (ad esempio, l'aggiornamento di commenti, proprietà o columns) è possibile apportare aggiornamenti se si dispone dell'autorizzazione MODIFY per l'table.

Vedere ALTER TABLE e ALTER TABLE.

Il supporto esteso di Databricks Runtime 6.4 raggiunge la fine del supporto

30 giugno 2022

Il supporto per Databricks Runtime 6.4 Extended è terminato il 30 giugno. Vedere Cicli di vita del supporto di Databricks.

Termine del supporto per Databricks Runtime serie 10.2

22 giugno 2022

Il supporto per Databricks Runtime 10.2 e Databricks Runtime 10.2 per Machine Learning è terminato il 22 giugno. Vedere Cicli di vita del supporto di Databricks.

Driver ODBC di Databricks 2.6.24

22 giugno 2022

È stata rilasciata la versione 2.6.24 del driver ODBC di Databricks (download). Questa versione aggiunge il supporto per configurare la conversione di query nella sintassi CTAS, consente agli utenti di eseguire l'override nel connettore SQL_ATTR_QUERY_TIMEOUT e aggiorna la libreria OpenSSL.

Questa versione risolve anche i problemi seguenti:

  • Il connettore non consente l'uso di certificati intermedi e server che non dispongono di una voce di punti di distribuzione CRL (CDP).
  • Quando si usa un proxy, il connettore imposta il nome host non corretto per l'indicazione del nome del server SSL (SNI).

Provider Databricks Terraform

22 giugno 2022

Il provider Databricks Terraform è ora disponibile a livello generale.

Terraform consente di automatizzare completamente la distribuzione per le piattaforme dati con i processi IaC (Infrastructure-as-Code) esistenti di Terraform.

È possibile usare il provider Databricks Terraform per definire gli asset nelle aree di lavoro di Azure Databricks, ad esempio cluster e processi, e per applicare il controllo di accesso tramite autorizzazioni per utenti, gruppi e entità servizio.

Il provider Databricks Terraform fornisce un audit trail completo delle distribuzioni. È possibile usare il provider Databricks Terraform come backbone per le strategie di ripristino di emergenza e continuità aziendale.

Il provider Databricks Terraform supporta anche Unity Catalog (anteprima), consentendo di distribuire questa funzionalità di governance chiave con facilità e scalabilità.

Databricks Runtime 11.0 e 11.0 ML sono disponibili a livello generale; 11.0 Photon è anteprima pubblica

16 giugno 2022

Databricks Runtime 11.0 e Databricks Runtime 11.0 SONO ora disponibili a livello generale. Databricks Runtime 11.0 Photon è disponibile in anteprima pubblica.

Vedere Databricks Runtime 11.0 (EoS) e Databricks Runtime 11.0 per Machine Learning (EoS).

Passare alla directory di lavoro predefinita repos in Databricks Runtime 11.0

16 giugno 2022

Per impostazione predefinita, la directory di lavoro Python per i notebook in un repository è la directory contenente i notebook. Ad esempio, anziché , la directory di /databricks/driverlavoro predefinita è /Workspace/Repos/<user>/<repo>/<path-to-notebook>. In questo modo, l'importazione e la lettura da File in Repository possono funzionare per impostazione predefinita nei cluster Databricks Runtime 11.0.

Ciò significa anche che la scrittura nella directory di lavoro corrente non riesce con un Read-only filesystem messaggio di errore. Se si vuole continuare a scrivere nel file system locale per un cluster, scrivere in /tmp/<filename> o /databricks/driver/<filename>.

Termine del supporto di Databricks Runtime serie 10.1

14 giugno 2022

Il supporto per Databricks Runtime 10.1 e Databricks Runtime 10.1 per Machine Learning è terminato il 14 giugno. Vedere Cicli di vita del supporto di Databricks.

Ora, Delta Live Tables supporta il tipo 2 di Slowly Changing Dimension (SCD)

13-21 giugno 2022: Versione 3.74

Le pipeline Delta Live Tables possono ora utilizzare il tipo SCD 2 per acquisire le modifiche ai dati di origine e conservare la cronologia completa degli aggiornamenti ai record. Viene migliorato il supporto esistente del Delta Live Tables per il tipo SCD 1. Consultare le API 'APPLY CHANGES': semplificare la cattura dei dati delle modifiche con Delta Live Tables.

Creare pipeline Delta Live Tables direttamente nell'interfaccia utente di Azure Databricks

13-21 giugno 2022: Versione 3.74

È ora possibile creare una pipeline di Delta Live Tables dal menu Crea nella barra laterale dell'interfaccia utente di Azure Databricks.

Select il canale Delta Live Tables quando si crea o si modifica una pipeline

13-21 giugno 2022: Versione 3.74

È ora possibile configurare il canale per la pipeline Delta Live Tables dalle finestre di dialogo Crea pipeline e Modifica le impostazioni della pipeline. In precedenza, la configurazione del canale richiedeva la modifica delle impostazioni nella configurazione JSON della pipeline.

Comunicare tra attività nei processi di Azure Databricks con attività values

13 giugno 2022

È ora possibile comunicare values tra le attività nei job di Azure Databricks con l'attività values. Ad esempio, è possibile usare l'attività values per passare l'output di un modello di apprendimento automatico alle attività successive nella stessa esecuzione del processo. Vedere sottoutilità taskValues (dbutils.jobs.taskValues)..

Abilitare il passaggio dell’account nell’interfaccia utente di Databricks

8 giugno 2022

Se gli utenti appartengono a più account, possono ora passare da un account all'altro nell'interfaccia utente di Databricks. Per usare lo switcher dell'account, fare clic sull'indirizzo di posta elettronica nella parte superiore dell'interfaccia utente di Databricks e quindi passare il puntatore del mouse su Cambia account. Quindi select l'account a cui si vuole passare.