Limitazioni con Databricks Connect per Python
Nota
Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.
Questo articolo elenca le limitazioni con Databricks Connect per Python. Databricks Connect consente di connettere gli IDE, i server notebook e le applicazioni personalizzate più diffusi ai cluster Azure Databricks. Consultare Cos’è Databricks Connect?. Per la versione Scala di questo articolo, vedere Limitazioni con Databricks Connect per Scala.
Importante
A seconda della versione di Python, Databricks Runtime e Databricks Connect in uso, potrebbero essere previsti requisiti di versione per alcune funzionalità. Vedere Requisiti.
Disponibilità delle funzionalità
Non disponibile in Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive:
- Streaming
foreachBatch
- Creazione di dataframe di dimensioni superiori a 128 MB
- Query lunghe oltre 3600 secondi
Non disponibile:
- API
dataframe.display()
- Utilità di Databricks:
credentials
,library
,notebook workflow
,widgets
- Contesto Spark
- RDDs
- Librerie che usano RDDs, Spark Context o accedono alla JVM Spark sottostante, ad esempio Mosaic geospaziali, GraphFrames o GreatExpectations
-
CREATE TABLE <table-name> AS SELECT
(usare invecespark.sql("SELECT ...").write.saveAsTable("table")
) -
ApplyinPandas()
eCogroup()
con cluster condivisi - Modifica del livello di log log4j tramite
SparkContext
- Training di Machine Learning distribuito
- Sincronizzazione dell'ambiente di sviluppo locale con il cluster remoto
- Nel contesto del calcolo serverless, le funzioni definite dall'utente non possono includere librerie personalizzate.