Ottobre 2021
Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a ottobre 2021.
Nota
Le versioni vengono rilasciate gradualmente. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.
Termine del supporto per Databricks Runtime serie 8.2
22 ottobre 2021
Il supporto per Databricks Runtime 8.2 e Databricks Runtime 8.2 per Machine Learning è terminato il 22 ottobre. Consultare Cicli di vita del supporto di Databricks.
Databricks Runtime 10.0 e 10.0 ML sono disponibili a livello generale; 10.0 Photon è anteprima pubblica
20 ottobre 2021
Databricks Runtime 10.0 e 10.0 ML sono ora disponibili a livello generale. 10.0 Photon è disponibile in anteprima pubblica.
Vedere le note sulla versione di Databricks Runtime 10.0 (EoS) e Databricks Runtime 10.0 for ML (EoS).
Miglioramenti dell'interfaccia utente per DLT (anteprima pubblica)
18-25 ottobre 2021: versione 3.57
Questa versione include i miglioramenti seguenti all'interfaccia utente DLT:
- Viene ora visualizzato un messaggio Notebook non trovato nella finestra di dialogo Crea pipeline o nel pannello dei dettagli dei set di dati quando viene specificato un percorso notebook non valido.
- È ora possibile fornire commenti e suggerimenti su DLT facendo clic sul collegamento Invia commenti e suggerimenti nella pagina pipeline o nella pagina Dettagli pipeline. Quando si fa clic sul collegamento Invia feedback
, viene aperto un sondaggio per i commenti e suggerimenti dei clienti in una nuova finestra.
Specificare un cluster a dimensione fissa quando si crea una nuova pipeline in DLT (anteprima pubblica)
18-25 ottobre 2021: versione 3.57
È ora possibile creare un cluster per la pipeline DLT con un numero fisso di nodi di lavoro, fornendo un maggiore controllo sulle risorse del cluster usate dalla pipeline. Per creare un cluster con un numero fisso di nodi, disabilitare Abilita scalabilità automatica e immettere il numero di nodi nel Ruoli di lavoro quando si crea una nuova pipeline.
Visualizzare le metriche relative alla qualità dei dati per le tabelle nelle pipeline attivate da DLT (anteprima pubblica)
18-25 ottobre 2021: versione 3.57
È ora possibile visualizzare le metriche di qualità dei dati per le tabelle quando la pipeline viene eseguita in modalità attivata, incluso il numero di record scritti, il numero di record eliminati e il numero di record passati o non riusciti a ogni vincolo di qualità dei dati. Per visualizzare le metriche relative alla qualità dei dati, selezionare la tabella nella scheda Graph nella pagina Dettagli pipeline.
L’orchestrazione dei processi è ora disponibile a livello generale
14 ottobre 2021
Databricks è lieta di annunciare la disponibilità generale dell'orchestrazione dei processi di Azure Databricks. L'orchestrazione dei processi consente di definire ed eseguire un processo con più attività, semplificando la creazione, la pianificazione, l'esecuzione e il monitoraggio di applicazioni di machine learning e dati complessi. L'orchestrazione dei processi deve essere abilitata da un amministratore ed è disabilitata per impostazione predefinita. Vedere Panoramica dell'orchestrazione in Databricks.
Databricks è lieta anche di annunciare la disponibilità generale della versione 2.1 dell'API Jobs. Questa versione include aggiornamenti che supportano completamente l'orchestrazione di più task con i processi di Azure Databricks. Per informazioni sull'aggiornamento dei client per supportare processi che orchestrano più attività, vedere Aggiornamento dall'API Jobs da 2.0 a 2.1.
Connettore Databricks per Power BI
13 ottobre 2021
È ora disponibile una nuova versione del connettore Power BI. Questa versione aggiunge il supporto per la navigazione attraverso spazi dei nomi a tre livelli nel Unity Catalog, garantisce che l'esecuzione delle query possa essere annullata e abilita il pass-through di query native per ridurre la latenza in Databricks SQL e Databricks Runtime 8.3 e versioni successive.
Repos supporta ora tipi di file arbitrari
7 ottobre 2021
Oltre a sincronizzare i notebook con un repository Git remoto, File in Repos consente di sincronizzare qualsiasi tipo di file, ad esempio file di .py
, file di dati in formato .csv
o .json
o .yaml
file di configurazione. È possibile importare e leggere questi file all'interno di un repository di Databricks. È anche possibile visualizzare e modificare i file codificati in testo nell'interfaccia utente. Per ulteriori informazioni, vedere Integrazione Git per le cartelle Git di Databricks.
Output più dettagliato dell'esecuzione dei lavori con l'API Lavori
4-11 ottobre 2021: versione 3.56
La risposta alla richiesta dell'API Processi per ottenere l'output viene aggiornata con nuovi campi per restituire output aggiuntivo, registrazione dei log e dettagli degli errori per le esecuzioni.
Migliorata la leggibilità dei percorsi dei notebook nell'interfaccia utente dei Jobs
4-11 ottobre 2021: versione 3.56
I percorsi dei notebook vengono ora troncati a sinistra quando si visualizzano i dettagli del job nell'interfaccia utente dei job, garantendo la visibilità del nome del notebook. In precedenza, i percorsi dei notebook venivano troncati a destra, spesso nascondendo il nome del notebook.
Aprire la pipeline DLT in una nuova scheda o finestra
4-11 ottobre 2021: versione 3.56
I nomi delle pipeline sono ora visualizzati come collegamenti quando si visualizza l'elenco delle pipeline nell'interfaccia utente DLT, che forniscono l'accesso alle opzioni del menu contestuale, come ad esempio l'apertura dei dettagli della pipeline in una nuova scheda o finestra.
Nuova sequenza di escape per $
nei widget di input legacy in SQL
4-11 ottobre 2021: versione 3.56
Per eseguire l'escape del carattere $
nei widget di input legacy in SQL, usare \$
. Se è stato usato $\
nei widget esistenti, continua a funzionare, ma Databricks consiglia di aggiornare i widget per usare la nuova sequenza di escape. Vedere Widget di Databricks.
Distribuzione più rapida del modello con un notebook di inferenza batch generato automaticamente
4-11 ottobre 2021: versione 3.56
Dopo la registrazione di un modello nel Registro modelli, è possibile generare automaticamente un notebook per usare il modello per l'inferenza batch o creare un endpoint per usare il modello per la gestione in tempo reale. Per informazioni dettagliate, vedere Utilizzare il modello per l'inferenza.