Einschränkungen bei Databricks Connect für Python
Hinweis
Dieser Artikel behandelt Databricks Connect für Databricks Runtime Version 13.3 LTS und höher.
In diesem Artikel werden Einschränkungen für Databricks Connect für Python aufgeführt. Mit Databricks Connect können Sie beliebte IDEs, Notebookserver und benutzerdefinierte Anwendungen mit Azure Databricks-Clustern verbinden. Weitere Informationen finden Sie unter Was ist Databricks Connect?. Die Scala-Version dieses Artikels finden Sie unter Einschränkungen bei Databricks Connect für Scala.
Nicht verfügbar in Databricks Connect für Databricks Runtime 13.3 LTS und früher:
- Streaming von
foreachBatch
- Erstellen von DataFrames über 128 MB
- Lange Abfragen über 3.600 Sekunden
Nicht verfügbar:
- Dataset-API
- Typisierte Dataset-APIs (z. B.
reduce()
undflatMap()
) - Databricks-Hilfsprogramme:
credentials
,library
,notebook workflow
undwidgets
SparkContext
RDDs
- MLflow-Modellrückschluss:
pyfunc.spark_udf()
-API - Mosaik-Geodaten
CREATE TABLE <table-name> AS SELECT
(verwenden Sie stattdessenspark.sql("SELECT ...").write.saveAsTable("table")
)ApplyinPandas()
undCogroup()
mit freigegebenen Clustern- Ändern der log4j-Protokollebene durch
SparkContext
- Verteiltes ML-Training
- Synchronisieren der lokalen Entwicklungsumgebung mit dem Remotecluster