Agosto 2021
Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a agosto 2021.
Nota
Le versioni vengono gestite in staging. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.
Disponibilità generale Azure Databricks Repos
31 agosto 2021
Databricks Repos è ora disponibile a livello generale. Con Repos è possibile clonare repository Git esistenti o crearne di nuovi in Azure Databricks, usare i notebook in questi repository, seguire le procedure consigliate per lo sviluppo e la collaborazione basate su Git e integrare i flussi di lavoro CI/CD con le API Repos. Databricks Repos si integra con GitHub, Bitbucket, GitLab e Azure DevOps. Per informazioni dettagliate, vedere Integrazione Git per le cartelle Git di Databricks e API Repos.
Aumento del timeout per i processi notebook a esecuzione prolungata
23 agosto - 30 agosto 2021: versione 3.53
È ora possibile eseguire processi del flusso di lavoro di notebook che richiedono fino a 30 giorni per il completamento. In precedenza erano supportati solo i processi del flusso di lavoro di notebook che richiedono fino a 48 ore. Per altre informazioni, vedere Eseguire un notebook di Databricks da un altro notebook.
Miglioramenti della stabilità e della scalabilità dei servizi per i processi
23 agosto - 30 agosto 2021: versione 3.53
Le modifiche seguenti aumentano la stabilità e la scalabilità del servizio Processi:
- A ogni nuovo processo ed esecuzione viene assegnato un identificatore più lungo, univoco, numerico, non sequenziale. I client che usano l'API Processi e dipendono da una lunghezza fissa dell'identificatore o da identificatori sequenziali o monotonici devono essere modificati per accettare identificatori più lunghi, non sequenziali e non ordinati. Il tipo di identificatore di
int64
rimane invariato e la compatibilità viene mantenuta per i client che usano numeri a virgola mobile IEEE 754 a 64 bit, ad esempio client JavaScript. - Il valore del campo
number_in_job
, incluso nella risposta ad alcune richieste API Processi, è ora impostato sullo stesso valore dirun_id
.
Nota
Questa funzionalità è stata posticipata a febbraio 2022.
I diritti utente concessi dall’appartenenza al gruppo vengono visualizzati nella console di amministrazione
23 agosto - 30 agosto 2021: versione 3.53
I diritti utente concessi dall’appartenenza al gruppo adesso sono visualizzati nella console di amministrazione.
Gestire le autorizzazioni dell’esperimento MLflow (anteprima pubblica)
23 agosto - 30 agosto 2021: versione 3.53
Adesso è possibile gestire le autorizzazioni di un esperimento MLflow dalla pagina dell'esperimento. Per informazioni dettagliate, vedere Modificare le autorizzazioni per l'esperimento.
Miglioramento della creazione di processi dai notebook
23 agosto - 30 agosto 2021: versione 3.53
Adesso è possibile modificare e clonare i processi associati a un notebook. Per informazioni dettagliate, vedere Creare e gestire processi di notebook pianificati.
Macchine virtuali serie Ddsv4 (anteprima pubblica)
23 agosto - 30 agosto 2021: versione 3.53
Azure Databricks supporta ora le macchine virtuali serie Ddsv4. Per altre informazioni su queste macchine virtuali, vedere Serie Ddv4 e Ddsv4.
Supporto migliorato per la compressione delle intestazioni dei notebook
23 agosto - 30 agosto 2021: versione 3.53
Adesso è possibile comprimere o espandere tutte le intestazioni comprimibili in un notebook. In precedenza, era possibile comprimere o espandere un'unica intestazione alla volta. Per informazioni dettagliate, vedere Intestazioni comprimibili.
Databricks Runtime 9.0 e 9.0 ML sono disponibili a livello generale; 9.0 Photon è anteprima pubblica
17 agosto 2021
Databricks Runtime 9.0 e 9.0 ML sono ora disponibili a livello generale. 9.0 Photon è disponibile in anteprima pubblica.
Per informazioni vedere le note sulla versione di Databricks Runtime 9.0 (EoS) e Databricks Runtime 9.0 for ML (EoS).
Databricks Runtime 9.0 (Beta)
10 agosto 2021
Databricks Runtime 9.0 e Databricks Runtime 9.0 ML sono ora disponibili come versioni beta.
Per informazioni vedere le note sulla versione di Databricks Runtime 9.0 (EoS) e Databricks Runtime 9.0 for ML (EoS).
Gestire i repository a livello di codice con la CLI di Databricks (anteprima pubblica)
9 agosto - 16 agosto 2021: versione 3.52
Adesso è possibile gestire repository Git remoti usando l'interfaccia della riga di comando (CLI) di Databricks. Vedere CLI di Databricks (legacy).
Gestire i repository a livello di codice con l’API REST di Databricks (anteprima pubblica)
9 agosto - 16 agosto 2021: versione 3.52
Adesso è possibile gestire repository Git remoti usando l'API REST di Databricks. Vedere API Repos.
Termine del supporto di Databricks Runtime serie 7.6
8 agosto 2021
L'8 agosto è terminato il supporto per Databricks Runtime 7.6, Databricks Runtime 7.6 per Machine Learning e Databricks Runtime 7.6 per Genomica. Vedere Cicli di vita del supporto di Databricks.
Gli eventi di controllo vengono registrati quando si interagisce con Databricks Repos
9 agosto - 13 agosto 2021: versione 3.52
Quando la registrazione di controllo è abilitata, un evento di controllo viene registrato quando si crea, si aggiorna o si elimina un repository di Databricks, quando si elencano tutti i repository Databricks associati a un'area di lavoro e quando si sincronizzano le modifiche tra un repository Databricks e un repository remoto. Per altre informazioni, vedere Eventi di una cartella Git.
Miglioramento del flusso di lavoro di creazione e gestione dei processi
9 agosto - 13 agosto 2021: versione 3.52
Adesso è possibile visualizzare e gestire i processi associati a un notebook. In particolare, è possibile avviare un'esecuzione del processo, visualizzare l'esecuzione corrente o più recente, sospendere o riprendere la pianificazione del processo ed eliminare il processo.
L'interfaccia utente di creazione del processo del notebook è stata modificata e sono state aggiunte nuove opzioni di configurazione. Per informazioni dettagliate, vedere Creare e gestire processi di notebook pianificati.
Runtime photon ora disponibili (anteprima pubblica)
9 agosto - 13 agosto 2021: versione 3.52
Photon è il nuovo motore vettorizzato nativo di Azure Databricks, direttamente compatibile con le API Apache Spark. Per effettuare il provisioning di cluster con Photon, è necessario usare un'immagine Photon.
Istruzioni semplificate per l’impostazione delle credenziali Git (anteprima pubblica)
9 agosto - 13 agosto 2021: versione 3.52
Le istruzioni nella scheda integrazione Git della pagina Impostazioni utente sono state semplificate.
Importare più notebook in formato .html
9 agosto - 13 agosto 2021: versione 3.52
Adesso è possibile importare più notebook in formato .html
in un file .zip
. In precedenza, era possibile importare un singolo notebook in formato .html
alla volta.
Il file .zip
può contenere cartelle e notebook in formato .html
o nel formato del file di origine (Python, Scala, SQL o R). Un file .zip
non può includere entrambi i formati.
Miglioramenti dell’usabilità per le tabelle Live Delta
9 agosto - 13 agosto 2021: versione 3.52
Questa versione include i seguenti miglioramenti per il runtime e l'interfaccia utente delle tabelle Live Delta:
- Quando si crea una pipeline, adesso è possibile specificare un database di destinazione per la pubblicazione di tabelle e metadati delle tabelle Live Delta. Per altre informazioni sulla pubblicazione di set di dati, vedere Usare pipeline di tabelle live Delta con il metastore Hive legacy.
- I notebook adesso supportano l'evidenziazione della sintassi per le parole chiave nelle definizioni dei set di dati SQL. È possibile usare questa evidenziazione della sintassi per garantire la correttezza delle istruzioni SQL di tabelle Live Delta. Consultare le informazioni di riferimento sul linguaggio SQL per maggiori dettagli sulla sintassi SQL delle tabelle Live Delta.
- Il runtime delle tabelle Live Delta adesso genera il grafico della pipeline prima di eseguire la pipeline, consentendo di visualizzare il grafico nell'interfaccia utente prima.
- Tutte le librerie Python configurate nei notebook vengono ora installate prima di eseguire qualsiasi codice Python, assicurandosi che le librerie siano accessibili a livello globale a qualsiasi notebook Python nella pipeline. Vedere [_]](.. /.. /.. /delta-live-tables/external-dependencies.md).