Begränsningar med Databricks Connect för Python
Kommentar
Den här artikeln beskriver Databricks Connect för Databricks Runtime 13.3 LTS och senare.
Den här artikeln innehåller begränsningar med Databricks Connect för Python. Med Databricks Connect kan du ansluta populära IDE:er, notebook-servrar och anpassade program till Azure Databricks-kluster. Se Vad är Databricks Connect?. Scala-versionen av den här artikeln finns i Begränsningar med Databricks Connect för Scala.
Viktig
Beroende på vilken version av Python, Databricks Runtime och Databricks Connect du använder kan det finnas versionskrav för vissa funktioner. Se Krav.
Funktionstillgänglighet
Inte tillgängligt på Databricks Connect för Databricks Runtime 13.3 LTS och nedan:
- Direktuppspelning
foreachBatch
- Skapa dataramar som är större än 128 MB
- Långa frågor över 3 600 sekunder
Inte tillgängligt:
-
dataframe.display()
API - Databricks Utilities:
credentials
,library
,notebook workflow
,widgets
- Spark-kontext
- RDD:er
- Bibliotek som använder RDD:er, Spark-kontext eller åtkomst till underliggande Spark JVM, till exempel Mosaic geospatial, GraphFrames eller GreatExpectations
-
CREATE TABLE <table-name> AS SELECT
(användspark.sql("SELECT ...").write.saveAsTable("table")
i stället ) -
ApplyinPandas()
ochCogroup()
med delade kluster - Ändra log4j-loggnivån via
SparkContext
- Distribuerad ML-träning
- Synkronisera den lokala utvecklingsmiljön med fjärrklustret
- Vid serverlös beräkning kan UDF:er inte innehålla anpassade bibliotek.