Condividi tramite


Limitazioni con Databricks Connect per Python

Nota

Questo articolo illustra Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive.

Questo articolo elenca le limitazioni con Databricks Connect per Python. Databricks Connect consente di connettere gli IDE, i server notebook e le applicazioni personalizzate più diffusi ai cluster Azure Databricks. Consultare Cos’è Databricks Connect?. Per la versione Scala di questo articolo, vedere Limitazioni con Databricks Connect per Scala.

Importante

A seconda della versione di Python, Databricks Runtime e Databricks Connect in uso, potrebbero essere previsti requisiti di versione per alcune funzionalità. Vedere Requisiti.

Disponibilità delle funzionalità

Non disponibile in Databricks Connect per Databricks Runtime 13.3 LTS e versioni successive:

  • Streaming foreachBatch
  • Creazione di dataframe di dimensioni superiori a 128 MB
  • Query lunghe oltre 3600 secondi

Non disponibile:

  • API dataframe.display()
  • Utilità di Databricks: credentials, library, notebook workflow, widgets
  • Contesto Spark
  • RDDs
  • Librerie che usano RDDs, Spark Context o accedono alla JVM Spark sottostante, ad esempio Mosaic geospaziali, GraphFrames o GreatExpectations
  • CREATE TABLE <table-name> AS SELECT (usare invece spark.sql("SELECT ...").write.saveAsTable("table"))
  • ApplyinPandas() e Cogroup() con cluster condivisi
  • Modifica del livello di log log4j tramite SparkContext
  • Training di Machine Learning distribuito
  • Sincronizzazione dell'ambiente di sviluppo locale con il cluster remoto
  • Nel contesto del calcolo serverless, le funzioni definite dall'utente non possono includere librerie personalizzate.