Databricks Runtime 14.0 (EoS)
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 14.0, unterstützt von Apache Spark 3.5.0.
Diese Version wurde von Databricks im September 2023 veröffentlicht.
Neue Features und Verbesserungen
- Zeilennachverfolgung ist GA
- Predictive I/O für Updates ist allgemein verfügbar (GA).
- Löschvektoren sind allgemein verfügbar (GA).
- Spark 3.5.0 ist GA
- Öffentliche Vorschau für benutzerdefinierte Tabellenfunktionen für Python
- Öffentliche Vorschau für Parallelität auf Zeilenebene
- Das aktuelle Standardarbeitsverzeichnis hat sich geändert
- Bekanntes Problem mit sparklyr
- Einführung von Spark Connect in der freigegebenen Clusterarchitektur
- Auflisten verfügbarer Spark-Versionen API-Update
Zeilennachverfolgung ist GA
Die Zeilennachverfolgung für Delta Lake ist jetzt allgemein verfügbar. Weitere Informationen finden Sie unter Verwenden der Zeilenverfolgung für Delta-Tabellen.
Predictive I/O für Updates ist allgemein verfügbar (GA).
Predictive I/O für Updates ist jetzt allgemein verfügbar. Siehe Was ist Predictive I/O?.
Löschvektoren sind allgemein verfügbar (GA).
Löschvektoren sind jetzt allgemein verfügbar. Weitere Informationen finden Sie unter Was sind Löschvektoren?.
Spark 3.5.0 ist GA
Apache Spark 3.5.0 ist jetzt allgemein verfügbar. Weitere Informationen finden Sie unterSpark Release 3.5.0.
Öffentliche Vorschau für benutzerdefinierte Tabellenfunktionen für Python
Mit benutzerdefinierten Tabellenfunktionen (User-Defined Table Functions, UDTFs) können Sie Funktionen registrieren, die Tabellen anstelle von Skalarwerten zurückgeben. Siehe Benutzerdefinierte Tabellenfunktionen (User-Defined Table Functions, UDTFs) in Python.
Öffentliche Vorschau für Parallelität auf Zeilenebene
Parallelität auf Zeilenebene reduziert Konflikte zwischen gleichzeitigen Schreibvorgängen, indem Änderungen auf Zeilenebene erkannt und konkurrierende Änderungen in gleichzeitigen Schreibvorgängen automatisch aufgelöst werden, die unterschiedliche Zeilen in derselben Datendatei aktualisieren oder löschen. Weitere Informationen finden Sie unter Schreibkonflikte mit Parallelität auf Zeilenebene.
Das aktuelle Standardarbeitsverzeichnis hat sich geändert
Das aktuelle Standardarbeitsverzeichnis (Current Working Directory, CWD) für lokal ausgeführten Code ist jetzt das Verzeichnis, das das ausgeführte Notebook oder Skript enthält. Dies umfasst Code wie %sh
und Python- oder R-Code, der Spark nicht verwendet. Weitere Informationen finden Sie unter Was ist das aktuelle Standardarbeitsverzeichnis?.
Bekanntes Problem mit sparklyr
Die installierte Version des sparklyr
-Pakets (Version 1.8.1) ist nicht kompatibel mit Databricks Runtime 14.0. Um sparklyr
zu verwenden, installieren Sie Version 1.8.3 oder höher.
Einführung von Spark Connect in der freigegebenen Clusterarchitektur
Mit Databricks Runtime 14.0 und höher verwenden freigegebene Cluster jetzt standardmäßig Spark Connect mit dem Spark-Treiber aus der Python-REPL. Auf interne Spark-APIs kann nicht mehr über Benutzercode zugegriffen werden.
Spark Connect interagiert jetzt mit dem Spark-Treiber aus der REPL statt mit der älteren REPL-Integration.
Auflisten verfügbarer Spark-Versionen API-Update
Aktivieren Sie Photon durch Festlegen von runtime_engine = PHOTON
, und aktivieren Sie aarch64
, indem Sie einen Graviton-Instanztyp auswählen. Azure Databricks legt die richtige Databricks-Runtime-Version fest. Zuvor gab die Spark-Versions-API implementierungsspezifische Runtimes für jede Version zurück. Siehe GET /api/2.0/clusters/spark-versions im REST-API-Verweis.
Aktuelle Änderungen
In Databricks Runtime 14.0 und höher verwenden Cluster mit freigegebenem Zugriffsmodus Spark Connect für die Client-Server-Kommunikation. Dies umfasst folgende Änderungen.
Weitere Informationen zu Einschränkungen im Modus für den gemeinsam genutzten Zugriff finden Sie unter Einschränkungen des Computezugriffsmodus für Unity-Katalog.
Python in Clustern mit freigegebenem Zugriffsmodus
sqlContext
ist nicht verfügbar. Azure Databricks empfiehlt die Verwendung derspark
-Variablen für dieSparkSession
-Instanz.- Spark Context (
sc
) ist in Notebooks oder bei Verwendung von Databricks Connect auf einem Cluster mit freigegebenem Zugriffsmodus nicht mehr verfügbar. Die folgendensc
-Funktionen sind nicht mehr verfügbar:emptyRDD
,range
,init_batched_serializer
,parallelize
,pickleFile
,textFile
,wholeTextFiles
,binaryFiles
,binaryRecords
,sequenceFile
,newAPIHadoopFile
,newAPIHadoopRDD
,hadoopFile
,hadoopRDD
,union
,runJob
,setSystemProperty
,uiWebUrl
,stop
,setJobGroup
,setLocalProperty
,getConf
- Das Feature „Datasetinformationen“ wird nicht mehr unterstützt.
- Für das Abfragen von Apache Spark besteht keine Abhängigkeit mehr von JVMs. Daher werden interne APIs im Zusammenhang mit JVMs wie
_jsc
,_jconf
,_jvm
,_jsparkSession
,_jreader
,_jc
,_jseq
,_jdf
,_jmap
und_jcols
nicht mehr unterstützt. - Beim Zugriff auf Konfigurationswerte mithilfe der
spark.conf
-Datei sind lediglich dynamische Laufzeitkonfigurationswerte verfügbar. - Analysebefehle von Delta Live Tables werden für freigegebene Cluster noch nicht unterstützt.
Delta in Clustern mit freigegebenem Zugriffsmodus
- In Python gibt es beim Abfragen von Apache Spark keine Abhängigkeit mehr von JVM. Interne APIs im Zusammenhang mit JVMs wie
DeltaTable._jdt
,DeltaTableBuilder._jbuilder
,DeltaMergeBuilder._jbuilder
undDeltaOptimizeBuilder._jbuilder
werden nicht mehr unterstützt.
SQL in Clustern mit freigegebenem Zugriffsmodus
DBCACHE
- undDBUNCACHE
-Befehle werden nicht mehr unterstützt.- Seltene Anwendungsfälle wie
cache table db as show databases
werden nicht mehr unterstützt.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- asttokens von 2.2.1 auf 2.0.5
- attrs von 21.4.0 auf 22.1.0
- botocore von 1.27.28 auf 1.27.96
- certifi von 2022.9.14 auf 2022.12.7
- cryptography von 37.0.1 auf 39.0.1
- debugpy von 1.6.0 auf 1.6.7
- docstring-to-markdown von 0.12 auf 0.11
- executing von 1.2.0 auf 0.8.3
- facets-overview von 1.0.3 auf 1.1.1
- googleapis-common-protos von 1.56.4 auf 1.60.0
- grpcio von 1.48.1 auf 1.48.2
- idna von 3.3 auf 3.4
- ipykernel von 6.17.1 auf 6.25.0
- ipython von 8.10.0 auf 8.14.0
- Jinja2 von 2.11.3 auf 3.1.2
- jsonschema von 4.16.0 auf 4.17.3
- jupyter-core von 4.11.2 auf 5.2.0
- kiwisolver von 1.4.2 auf 1.4.4
- MarkupSafe von 2.0.1 auf 2.1.1
- matplotlib von 3.5.2 auf 3.7.0
- nbconvert von 6.4.4 auf 6.5.4
- nbformat von 5.5.0 auf 5.7.0
- nest-asyncio von 1.5.5 auf 1.5.6
- notebook von 6.4.12 auf 6.5.2
- numpy von 1.21.5 auf 1.23.5
- packaging von 21.3 auf 22.0
- pandas von 1.4.4 auf 1.5.3
- pathspec von 0.9.0 auf 0.10.3
- patsy von 0.5.2 auf 0.5.3
- Pillow von 9.2.0 auf 9.4.0
- pip von 22.2.2 auf 22.3.1
- protobuf von 3.19.4 auf 4.24.0
- pytoolconfig von 1.2.2 auf 1.2.5
- pytz von 2022.1 auf 2022.7
- s3transfer von 0.6.0 auf 0.6.1
- seaborn von 0.11.2 auf 0.12.2
- setuptools von 63.4.1 auf 65.6.3
- soupsieve von 2.3.1 auf 2.3.2.post1
- stack-data von 0.6.2 auf 0.2.0
- statsmodels von 0.13.2 auf 0.13.5
- terminado von 0.13.1 auf 0.17.1
- traitlets von 5.1.1 auf 5.7.1
- typing_extensions von 4.3.0 auf 4.4.0
- urllib3 von 1.26.11 auf 1.26.14
- virtualenv von 20.16.3 auf 20.16.7
- wheel von 0.37.1 auf 0.38.4
- Aktualisierte R-Bibliotheken:
- arrow von 10.0.1 auf 12.0.1
- base von 4.2.2 auf 4.3.1
- blob von 1.2.3 auf 1.2.4
- broom von 1.0.3 bis 1.0.5
- bslib von 0.4.2 auf 0.5.0
- cachem von 1.0.6 auf 1.0.8
- caret von 6.0-93 auf 6.0-94
- chron von 2.3-59 auf 2.3-61
- class von 7.3-21 auf 7.3-22
- cli von 3.6.0 auf 3.6.1
- clock von 0.6.1 auf 0.7.0
- commonmark von 1.8.1 auf 1.9.0
- compiler von 4.2.2 auf 4.3.1
- cpp11 von 0.4.3 auf 0.4.4
- curl von 5.0.0 auf 5.0.1
- data.table von 1.14.6 auf 1.14.8
- datasets von 4.2.2 auf 4.3.1
- dbplyr von 2.3.0 auf 2.3.3
- digest von 0.6.31 auf 0.6.33
- downlit von 0.4.2 auf 0.4.3
- dplyr von 1.1.0 auf 1.1.2
- dtplyr von 1.2.2 auf 1.3.1
- evaluate von 0.20 auf 0.21
- fastmap von 1.1.0 auf 1.1.1
- fontawesome von 0.5.0 auf 0.5.1
- fs von 1.6.1 auf 1.6.2
- future von 1.31.0 auf 1.33.0
- future.apply von 1.10.0 auf 1.11.0
- gargle von 1.3.0 auf 1.5.1
- ggplot2 von 3.4.0 auf 3.4.2
- gh von 1.3.1 auf 1.4.0
- glmnet von 4.1-6 auf 4.1-7
- googledrive von 2.0.0 auf 2.1.1
- googlesheets4 von 1.0.1 auf 1.1.1
- graphics von 4.2.2 auf 4.3.1
- grDevices von 4.2.2 auf 4.3.1
- grid von 4.2.2 auf 4.3.1
- gtable von 0.3.1 auf 0.3.3
- hardhat von 1.2.0 auf 1.3.0
- haven von 2.5.1 auf 2.5.3
- hms von 1.1.2 auf 1.1.3
- htmltools von 0.5.4 auf 0.5.5
- htmlwidgets von 1.6.1 auf 1.6.2
- httpuv von 1.6.8 auf 1.6.11
- httr von 1.4.4 auf 1.4.6
- ipred von 0.9-13 auf 0.9-14
- jsonlite von 1.8.4 auf 1.8.7
- KernSmooth von 2.23-20 auf 2.23-21
- knitr von 1.42 auf 1.43
- later von 1.3.0 auf 1.3.1
- lattice von 0.20-45 auf 0.21-8
- lava von 1.7.1 auf 1.7.2.1
- lubridate von 1.9.1 auf 1.9.2
- markdown von 1.5 auf 1.7
- MASS von 7.3-58.2 auf 7.3-60
- Matrix von 1.5-1 auf 1.5-4.1
- methods von 4.2.2 auf 4.3.1
- mgcv von 1.8-41 auf 1.8-42
- modelr von 0.1.10 auf 0.1.11
- nnet von 7.3-18 auf 7.3-19
- openssl von 2.0.5 auf 2.0.6
- parallel von 4.2.2 auf 4.3.1
- parallelly von 1.34.0 auf 1.36.0
- pillar von 1.8.1 auf 1.9.0
- pkgbuild von 1.4.0 auf 1.4.2
- pkgload von 1.3.2 auf 1.3.2.1
- pROC von 1.18.0 auf 1.18.4
- processx von 3.8.0 auf 3.8.2
- prodlim von 2019.11.13 auf 2023.03.31
- profvis von 0.3.7 auf 0.3.8
- ps von 1.7.2 auf 1.7.5
- Rcpp von 1.0.10 auf 1.0.11
- readr von 2.1.3 auf 2.1.4
- readxl von 1.4.2 auf 1.4.3
- recipes von 1.0.4 auf 1.0.6
- rlang von 1.0.6 auf 1.1.1
- rmarkdown von 2.20 auf 2.23
- Rserve von 1.8-12 auf 1.8-11
- RSQLite von 2.2.20 auf 2.3.1
- rstudioapi von 0.14 auf 0.15.0
- sass von 0.4.5 auf 0.4.6
- shiny von 1.7.4 auf 1.7.4.1
- sparklyr von 1.7.9 auf 1.8.1
- SparkR von 3.4.1 auf 3.5.0
- splines von 4.2.2 auf 4.3.1
- stats von 4.2.2 auf 4.3.1
- stats4 von 4.2.2 auf 4.3.1
- survival von 3.5-3 auf 3.5-5
- sys von 3.4.1 auf 3.4.2
- tcltk von 4.2.2 auf 4.3.1
- testthat von 3.1.6 auf 3.1.10
- tibble von 3.1.8 auf 3.2.1
- tidyverse von 1.3.2 auf 2.0.0
- tinytex von 0.44 auf 0.45
- tools von 4.2.2 auf 4.3.1
- tzdb von 0.3.0 auf 0.4.0
- usethis von 2.1.6 auf 2.2.2
- utils von 4.2.2 auf 4.3.1
- vctrs von 0.5.2 auf 0.6.3
- viridisLite von 0.4.1 auf 0.4.2
- vroom von 1.6.1 auf 1.6.3
- waldo von 0.4.0 auf 0.5.1
- xfun von 0.37 auf 0.39
- xml2 von 1.3.3 auf 1.3.5
- zip von 2.2.2 auf 2.3.0
- Aktualisierte Java-Bibliotheken:
- com.fasterxml.jackson.core.jackson-annotations von 2.14.2 auf 2.15.2
- com.fasterxml.jackson.core.jackson-core von 2.14.2 auf 2.15.2
- com.fasterxml.jackson.core.jackson-databind von 2.14.2 auf 2.15.2
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor von 2.14.2 auf 2.15.2
- com.fasterxml.jackson.datatype.jackson-datatype-joda von 2.14.2 auf 2.15.2
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 von 2.13.4 auf 2.15.1
- com.fasterxml.jackson.module.jackson-module-paranamer von 2.14.2 auf 2.15.2
- com.fasterxml.jackson.module.jackson-module-scala_2.12 von 2.14.2 auf 2.15.2
- com.github.luben.zstd-jni von 1.5.2-5 auf 1.5.5-4
- com.google.code.gson.gson von 2.8.9 auf 2.10.1
- com.google.crypto.tink.tink von 1.7.0 auf 1.9.0
- commons-codec.commons-codec von 1.15 auf 1.16.0
- commons-io.commons-io von 2.11.0 auf 2.13.0
- io.airlift.aircompressor von 0.21 auf 0.24
- io.dropwizard.metrics.metrics-core von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-graphite von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-healthchecks von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-jetty9 von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-jmx von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-json von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-jvm von 4.2.10 auf 4.2.19
- io.dropwizard.metrics.metrics-servlets von 4.2.10 auf 4.2.19
- io.netty.netty-all von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-buffer von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-codec von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-codec-http von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-codec-http2 von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-codec-socks von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-common von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-handler von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-handler-proxy von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-resolver von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-transport von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-transport-classes-epoll von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-transport-classes-kqueue von 4.1.87.Final auf 4.1.93.Final
- io.netty.netty-transport-native-epoll von 4.1.87.Final-linux-x86_64 auf 4.1.93.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue von 4.1.87.Final-osx-x86_64 auf 4.1.93.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common von 4.1.87.Final auf 4.1.93.Final
- org.apache.arrow.arrow-format von 11.0.0 auf 12.0.1
- org.apache.arrow.arrow-memory-core von 11.0.0 auf 12.0.1
- org.apache.arrow.arrow-memory-netty von 11.0.0 auf 12.0.1
- org.apache.arrow.arrow-vector von 11.0.0 auf 12.0.1
- org.apache.avro.avro von 1.11.1 auf 1.11.2
- org.apache.avro.avro-ipc von 1.11.1 auf 1.11.2
- org.apache.avro.avro-mapred von 1.11.1 auf 1.11.2
- org.apache.commons.commons-compress von 1.21 auf 1.23.0
- org.apache.hadoop.hadoop-client-runtime von 3.3.4 auf 3.3.6
- org.apache.logging.log4j.log4j-1.2-api von 2.19.0 auf 2.20.0
- org.apache.logging.log4j.log4j-api von 2.19.0 auf 2.20.0
- org.apache.logging.log4j.log4j-core von 2.19.0 auf 2.20.0
- org.apache.logging.log4j.log4j-slf4j2-impl von 2.19.0 auf 2.20.0
- org.apache.orc.orc-core von 1.8.4-shaded-protobuf auf 1.9.0-shaded-protobuf
- org.apache.orc.orc-mapreduce von 1.8.4-shaded-protobuf auf 1.9.0-shaded-protobuf
- org.apache.orc.orc-shims von 1.8.4 auf 1.9.0
- org.apache.xbean.xbean-asm9-shaded von 4.22 auf 4.23
- org.checkerframework.checker-qual von 3.19.0 auf 3.31.0
- org.glassfish.jersey.containers.jersey-container-servlet von 2.36 auf 2.40
- org.glassfish.jersey.containers.jersey-container-servlet-core von 2.36 auf 2.40
- org.glassfish.jersey.core.jersey-client von 2.36 auf 2.40
- org.glassfish.jersey.core.jersey-common von 2.36 auf 2.40
- org.glassfish.jersey.core.jersey-server von 2.36 auf 2.40
- org.glassfish.jersey.inject.jersey-hk2 von 2.36 auf 2.40
- org.javassist.javassist von 3.25.0-GA auf 3.29.2-GA
- org.mariadb.jdbc.mariadb-java-client von 2.7.4 auf 2.7.9
- org.postgresql.postgresql von 42.3.8 auf 42.6.0
- org.roaringbitmap.RoaringBitmap von 0.9.39 auf 0.9.45
- org.roaringbitmap.shims von 0.9.39 auf 0.9.45
- org.rocksdb.rocksdbjni von 7.8.3 auf 8.3.2
- org.scala-lang.modules.scala-collection-compat_2.12 von 2.4.3 auf 2.9.0
- org.slf4j.jcl-over-slf4j von 2.0.6 auf 2.0.7
- org.slf4j.jul-to-slf4j von 2.0.6 auf 2.0.7
- org.slf4j.slf4j-api von 2.0.6 auf 2.0.7
- org.xerial.snappy.snappy-java von 1.1.10.1 auf 1.1.10.3
- org.yaml.snakeyaml von 1.33 auf 2.0
Apache Spark
Databricks Runtime 14.0. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 13.3 LTS enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-45109] [DBRRM-462][SC-142247][SQL][CONNECT] Beheben von aes_decrypt- und ln-Funktionen in Connect
- [SPARK-44980] [DBRRM-462][SC-141024][PYTHON][CONNECT] Beheben von geerbten namedtuples, sodass sie in createDataFrame funktionieren
- [SPARK-44795] [DBRRM-462] [SC-139720] [CONNECT] CodeGenerator-Cache sollte Classloader-spezifisch sein
- [SPARK-44861] [DBRRM-498] [SC-140716] [CONNECT] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44794] [DBRRM-462] [SC-139767] [CONNECT] Streaming-Abfragen sollen mit der Artefaktverwaltung von Connect funktionieren
- [SPARK-44791] [DBRRM-462] [SC-139623] [CONNECT] ArrowDeserializer soll mit REPL-generierten Klassen funktionieren
- [SPARK-44876] [DBRRM-480][SC-140431][PYTHON] Korrigieren der für Arrow optimierten Python-UDF in Spark Connect
- [SPARK-44877] [DBRRM-482][SC-140437][CONNECT][PYTHON] Unterstützen von Python-Protobuf-Funktionen für Spark Connect
- [SPARK-44882] [DBRRM-463][SC-140430][PYTHON][CONNECT] Entfernen der Funktion uuid/random/chr aus PySpark
- [SPARK-44740] [DBRRM-462][SC-140320][CONNECT][FOLLOW] Korrigieren von Metadatenwerten für Artefakte
- [SPARK-44822] [DBRRM-464][PYTHON][SQL] Festlegen von Python-UDTFs als standardmäßig nicht deterministisch
- [SPARK-44836] [DBRRM-468][SC-140228][PYTHON] Umgestalten von Arrow-Python-UDTF
- [SPARK-44738] [DBRRM-462][SC-139347][PYTHON][CONNECT] Hinzufügen fehlender Clientmetadaten zu Aufrufen
- [SPARK-44722] [DBRRM-462][SC-139306][CONNECT] ExecutePlanResponseReattachableIterator._call_iter: AttributeError: NoneType-Objekt weist kein message-Attribut auf
- [SPARK-44625] [DBRRM-396][SC-139535][CONNECT] SparkConnectExecutionManager zum Nachverfolgen aller Ausführungen
- [SPARK-44663] [SC-139020][DBRRM-420][PYTHON] Standardmäßiges Deaktivieren der Arrow-Optimierung für Python-UDTFs
- [SPARK-44709] [DBRRM-396][SC-139250][CONNECT] Ausführen von ExecuteGrpcResponseSender in erneut anfügbarer Ausführung in neuem Thread zum Korrigieren der Flusssteuerung
- [SPARK-44656] [DBRRM-396][SC-138924][CONNECT] Festlegen aller Iteratoren als CloseableIterators
- [SPARK-44671] [DBRRM-396][SC-138929][PYTHON][CONNECT] Wiederholen von ExecutePlan, falls Server im Python-Client mit der ersten Anforderung nicht erreicht wurde
- [SPARK-44624] [DBRRM-396][SC-138919][CONNECT] Wiederholen von ExecutePlan, falls Server mit der ersten Anforderung nicht erreicht wurde
- [SPARK-44574] [DBRRM-396][SC-138288][SQL][CONNECT] In sq/api verschobene Fehler müssen auch AnalysisException verwenden
- [SPARK-44613] [DBRRM-396][SC-138473][CONNECT] Hinzufügen von Encoders-Objekt
- [SPARK-44626] [DBRRM-396][SC-138828][SS][CONNECT] Nachverfolgung zur Beendigung von Streamingabfrage bei Clientsitzungstimeout für Spark Connect
- [SPARK-44642] [DBRRM-396][SC-138882][CONNECT] ReleaseExecute in ExecutePlanResponseReattachableIterator nach Fehler von Server
- [SPARK-41400] [DBRRM-396][SC-138287][CONNECT] Entfernen von Catalyst-Abhängigkeit von Connect-Client
- [SPARK-44664] [DBRRM-396][PYTHON][CONNECT] Freigeben der Ausführung beim Schließen des Iterators im Python-Client
- [SPARK-44631] [DBRRM-396][SC-138823][CONNECT][CORE][14.0.0] Entfernen des sitzungsbasierten Verzeichnisses bei Entfernung des isolierten Sitzungscache
- [SPARK-42941] [DBRRM-396][SC-138389][SS][CONNECT] Python StreamingQueryListener
- [SPARK-44636] [DBRRM-396][SC-138570][CONNECT] Vermeiden verwaister Iteratoren
- [SPARK-44424] [DBRRM-396][CONNECT][PYTHON][14.0.0] Python-Client zum erneuten Anfügen an eine vorhandene Ausführung in Spark Connect
- [SPARK-44637] [SC-138571] Synchronisieren von Zugriffen auf ExecuteResponseObserver
- [SPARK-44538] [SC-138178][CONNECT][SQL] Reaktivieren von Row.jsonValue und friends
- [SPARK-44421] [SC-138434][SPARK-44423][CONNECT] Wieder anfügbare Ausführung in Spark Connect
- [SPARK-44418] [SC-136807][PYTHON][CONNECT] Upgrade von Protobuf von 3.19.5 auf 3.20.3
- [SPARK-44587] [SC-138315][SQL][CONNECT] Erhöhen des Rekursionslimits für Protobuf-Marshaller
- [SPARK-44591] [SC-138292][CONNECT][SQL] Hinzufügen von jobTags zu SparkListenerSQLExecutionStart
- [SPARK-44610] [SC-138368][SQL] DeduplicateRelations sollten beim Erstellen einer neuen Instanz Alias-Metadaten beibehalten
- [SPARK-44542] [SC-138323][CORE] Eager Loading von SparkExitCode-Klasse im Ausnahmehandler
- [SPARK-44264] [SC-138143][PYTHON]E2E-Tests für Deepspeed
- [SPARK-43997] [SC-138347][CONNECT] Hinzufügen von Unterstützung für Java-UDFs
- [SPARK-44507] [SQL][CONNECT][14.x][14.0] Verschieben von AnalysisException zu sql/api
- [SPARK-44453] [SC-137013][PYTHON] Verwenden von difflib zum Anzeigen von Fehlern in assertDataFrameEqual
- [SPARK-44394] [SC-138291][CONNECT][WEBUI][14.0] Hinzufügen einer Spark-Benutzeroberflächenseite für Spark Connect
- [SPARK-44611] [SC-138415][CONNECT] Kein Ausschließen von scala-xml
- [SPARK-44531] [SC-138044][CONNECT][SQL][14.x][14.0] Verschieben von Encoderrückschluss zu sql/api
- [SPARK-43744] [SC-138289][CONNECT][14.x][14.0] Korrigieren von Problem beim Laden von Klassen...
- [SPARK-44590] [SC-138296][SQL][CONNECT] Entfernen des Limits für Arrow-Batcheinträge für SqlCommandResult
- [SPARK-43968] [SC-138115][PYTHON] Verbessern von Fehlermeldungen für Python-UDTFs mit falscher Anzahl von Ausgaben
- [SPARK-44432] [SC-138293][SS][CONNECT] Beenden von Streamingabfragen bei einem Sitzungstimeout in Spark Connect
- [SPARK-44584] [SC-138295][CONNECT] Festlegen von client_type-Informationen für AddArtifactsRequest und ArtifactStatusesRequest im Scala-Client
- [SPARK-44552] [14.0][SC-138176][SQL] Entfernen der
private object ParseState
-Definition ausIntervalUtils
- [SPARK-43660] [SC-136183][CONNECT][PS] Aktivieren von
resample
mit Spark Connect - [SPARK-44287] [SC-136223][SQL] Verwenden der PartitionEvaluator-API in den SQL-Operatoren RowToColumnarExec und ColumnarToRowExec
- [SPARK-39634] [SC-137566][SQL] Zulassen der Dateiaufteilung in Kombination mit der Zeilenindexgenerierung
- [SPARK-44533] [SC-138058][PYTHON] Hinzufügen von Unterstützung für Akkumulator-, Broadcast- und Spark-Dateien in Python-UDTF-Analyse
- [SPARK-44479] [SC-138146][PYTHON] Korrigieren von ArrowStreamPandasUDFSerializer, sodass Pandas-DataFrame ohne Spalten akzeptiert wird
- [SPARK-44425] [SC-138177][CONNECT] Überprüfen, ob die von Benutzer*innen bereitgestellte sessionId eine UUID ist
- [SPARK-44535] [SC-138038][CONNECT][SQL] Verschieben der erforderlichen Streaming-API zu sql/api
- [SPARK-44264] [SC-136523][ML][PYTHON] Schreiben einer Deepspeed-Klasse DeepspeedTorchDistributor für verteiltes Lernen
- [SPARK-42098] [SC-138164][SQL] Korrigieren des Problems, dass ResolveInlineTables den RuntimeReplaceable-Ausdruck nicht verarbeiten kann
- [SPARK-44060] [SC-135693][SQL] Codegenerierung für buildseitigen äußeren gemischten Hashjoin
- [SPARK-44496] [SC-137682][SQL][CONNECT] Verschieben der von SCSC benötigten Schnittstellen zu sql/api
- [SPARK-44532] [SC-137893][CONNECT][SQL] Verschieben von ArrowUtils zu sql/api
- [SPARK-44413] [SC-137019][PYTHON] Klären des Fehlers für nicht unterstützten Argumentdatentyp in assertDataFrameEqual
- [SPARK-44530] [SC-138036][CORE][CONNECT] Verschieben von SparkBuildInfo zu common/util
- [SPARK-36612] [SC-133071][SQL] Unterstützen des linken äußeren Joinbuilds links oder der rechten äußeren Joinbuilds rechts im gemischten Hashjoin
- [SPARK-44519] [SC-137728][CONNECT] SparkConnectServerUtils hat falsche Parameter für JAR-Dateien generiert
- [SPARK-44449] [SC-137818][CONNECT] Umwandeln in eine Basisklasse für direkte Arrow-Deserialisierung
- [SPARK-44131] [SC-136346][SQL] Hinzufügen von call_function und Einstufen von call_udf als veraltet für Scala-API
- [SPARK-44541] [SQL] Entfernen der nutzlosen Funktion
hasRangeExprAgainstEventTimeCol
ausUnsupportedOperationChecker
- [SPARK-44523] [SC-137859][SQL] maxRows/maxRowsPerPartition des Filters ist 0, wenn Bedingung FalseLiteral ist
- [SPARK-44540] [SC-137873][UI] Entfernen nicht verwendeter Stylesheet- und Javascript-Dateien von jsonFormatter
- [SPARK-44466] [SC-137856][SQL] Ausschließen von Konfigurationen aus modifiedConfigs, die mit
SPARK_DRIVER_PREFIX
undSPARK_EXECUTOR_PREFIX
beginnen - [SPARK-44477] [SC-137508][SQL] Behandeln von TYPE_CHECK_FAILURE_WITH_HINT als Fehlerunterklasse
- [SPARK-44509] [SC-137855][PYTHON][CONNECT] Hinzufügen einer Reihe von Auftragsabbruch-APIs im Spark Connect-Python-Client
- [SPARK-44059] [SC-137023] Hinzufügen der Analysetoolunterstützung benannter Argumente für integrierte Funktionen
- [SPARK-38476] [SC-136448][CORE] Verwenden der Fehlerklasse in org.apache.spark.storage
- [SPARK-44486] [SC-137817][PYTHON][CONNECT] Implementieren des PyArrow-Features
self_destruct
fürtoPandas
- [SPARK-44361] [SC-137200][SQL] Verwenden der PartitionEvaluator-API in MapInBatchExec
- [SPARK-44510] [SC-137652][UI] Aktualisieren von dataTables auf 1.13.5 und Entfernen einiger nicht erreichbarer PNG-Dateien
- [SPARK-44503] [SC-137808][SQL] Hinzufügen von SQL-Grammatik für PARTITION BY- und ORDER BY-Klausel nach TABLE-Argumenten für TVF-Aufrufe
- [SPARK-38477] [SC-136319][CORE] Verwenden der Fehlerklasse in org.apache.spark.shuffle
- [SPARK-44299] [SC-136088][SQL] Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_227[4-6,8]
- [SPARK-44422] [SC-137567][CONNECT] Differenzierter Spark Connect-Interrupt
- [SPARK-44380] [SC-137415][SQL][PYTHON] Unterstützung für Python-UDTF zum Analysieren in Python
- [SPARK-43923] [SC-137020][CONNECT] Posten von listenerBus-Ereignissen während…
- [SPARK-44303] [SC-136108][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2320-2324]
- [SPARK-44294] [SC-135885][UI] Korrigieren der unerwarteten Anzeige der HeapHistogram-Spalte mit select-all-box
- [SPARK-44409] [SC-136975][SQL] Behandeln von char/varchar in Dataset zum Gewährleisten von Konsistenz
- [SPARK-44334] [SC-136576][SQL][UI] Der Status in der REST-API-Antwort sollte für eine fehlgeschlagene DDL/DML ohne Aufträge FAILED und nicht COMPLETED lauten
- [SPARK-42309] [SC-136703][SQL] Einführen von
INCOMPATIBLE_DATA_TO_TABLE
und Unterklassen - [SPARK-44367] [SC-137418][SQL][UI] Anzeigen einer Fehlermeldung für jede fehlgeschlagene Abfrage auf der Benutzeroberfläche
- [SPARK-44474] [SC-137195][CONNECT] Erneutes Aktivieren von „Test observe response“ in SparkConnectServiceSuite
- [SPARK-44320] [SC-136446][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[1067,1150,1220,1265,1277]
- [SPARK-44310] [SC-136055][CONNECT] Das Connect Server-Startprotokoll sollte den Hostnamen und Port anzeigen
- [SPARK-44309] [SC-136193][UI] Anzeigen der Zeit für Hinzufügen/Entfernen von Executors auf der Registerkarte „Executors“
- [SPARK-42898] [SC-137556][SQL] Kennzeichnen, dass Zeichenfolgen-/Datumsumwandlungen keine Zeitzonen-ID benötigen
- [SPARK-44475] [SC-137422][SQL][CONNECT] Verschieben von DataType und Parser zu sql/api
- [SPARK-44484] [SC-137562][SS]Hinzufügen von batchDuration zur StreamingQueryProgress-JSON-Methode
- [SPARK-43966] [SC-137559][SQL][PYTHON] Unterstützen nicht deterministischer Tabellenwertfunktionen
- [SPARK-44439] [SC-136973][CONNECT][SS] Korrigieren von listListeners, sodass nur IDs an den Client zurückgesendet werden
- [SPARK-44341] [SC-137054][SQL][PYTHON] Definieren der Computinglogik über die PartitionEvaluator-API und Verwenden in WindowExec und WindowInPandasExec
- [SPARK-43839] [SC-132680][SQL] Konvertieren von
_LEGACY_ERROR_TEMP_1337
inUNSUPPORTED_FEATURE.TIME_TRAVEL
- [SPARK-44244] [SC-135703][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2305-2309]
- [SPARK-44201] [SC-136778][CONNECT][SS] Hinzufügen der Unterstützung für Streaminglistener in Scala für Spark Connect
- [SPARK-44260] [SC-135618][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[1215-1245-2329] und Verwenden von checkError() zum Überprüfen der Ausnahme in _CharVarchar_Suite
- [SPARK-42454] [SC-136913][SQL] SPJ: Kapseln aller SPJ-bezogenen Parameter in BatchScanExec
- [SPARK-44292] [SC-135844][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2315-2319]
- [SPARK-44396] [SC-137221][Connect] Direkte Arrow-Deserialisierung
- [SPARK-44324] [SC-137172][SQL][CONNECT] Verschieben von CaseInsensitiveMap zu sql/api
- [SPARK-44395] [SC-136744][SQL] Hinzufügen von Test zurück zu StreamingTableSuite
- [SPARK-44481] [SC-137401][CONNECT][PYTHON] Festlegen von pyspark.sql.is_remote als API
- [SPARK-44278] [SC-137400][CONNECT] Implementieren eines GRPC-Serverinterceptors zum Bereinigen lokaler Threadeigenschaften
- [SPARK-44264] [SC-137211][ML][PYTHON] Unterstützen des verteilten Trainings von Funktionen mithilfe von Deepspeed
- [SPARK-44430] [SC-136970][SQL] Hinzufügen einer Ursache zu
AnalysisException
, wenn die Option ungültig ist - [SPARK-44264] [SC-137167][ML][PYTHON] Integrieren von FunctionPickler in TorchDistributor
- [SPARK-44216] [SC-137046] [PYTHON] Festlegen der AssertSchemaEqual-API als öffentlich
- [SPARK-44398] [SC-136720][CONNECT] Scala-foreachBatch-API
- [SPARK-43203] [SC-134528][SQL] Verschieben aller Drop Table-Fälle zu DataSource V2
- [SPARK-43755] [SC-137171][CONNECT][MINOR] Öffnen von
AdaptiveSparkPlanHelper.allChildren
statt Verwenden einer Kopie inMetricGenerator
- [SPARK-44264] [SC-137187][ML][PYTHON] Umgestalten von TorchDistributor zum Gestatten eines benutzerdefinierten Funktionszeigers „run_training_on_file“
- [SPARK-43755] [SC-136838][CONNECT] Verschieben der Ausführung aus SparkExecutePlanStreamHandler in einen anderen Thread
- [SPARK-44411] [SC-137198][SQL] Verwenden der PartitionEvaluator-API in ArrowEvalPythonExec und BatchEvalPythonExec
- [SPARK-44375] [SC-137197][SQL] Verwenden der PartitionEvaluator-API in DebugExec
- [SPARK-43967] [SC-137057][PYTHON] Unterstützen regulärer Python-UDTFs mit leeren Rückgabewerten
- [SPARK-43915] [SC-134766][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43965] [SC-136929][PYTHON][CONNECT] Unterstützen von Python-UDTF in Spark Connect
- [SPARK-44154] [SC-137050][SQL] Hinzufügen weiterer Komponententests zu BitmapExpressionUtilsSuite und Vornehmen kleinerer Verbesserungen an Bitmapaggregatausdrücken
- [SPARK-44169] [SC-135497][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-44353] [SC-136578][CONNECT][SQL] Entfernen von StructType.toAttributes
- [SPARK-43964] [SC-136676][SQL][PYTHON] Unterstützen von für Arrow optimierten Python-UDTFs
- [SPARK-44321] [SC-136308][CONNECT] Entkoppeln von ParseException von AnalysisException
- [SPARK-44348] [SAS-1910][SC-136644][CORE][CONNECT][PYTHON] Erneutes Aktivieren von test_artifact mit relevanten Änderungen
- [SPARK-44145] [SC-136698][SQL] Rückruf, wenn für Ausführung bereit
- [SPARK-43983] [SC-136404][PYTHON][ML][CONNECT] Aktivieren eines Validierungssteuerelement-übergreifenden Schätzertests
- [SPARK-44399] [SC-136669][PYHTON][CONNECT] Importieren von SparkSession in Python-UDF nur dann, wenn useArrow „None“ lautet
- [SPARK-43631] [SC-135300][CONNECT][PS] Aktivieren von Series.interpolate mit Spark Connect
- [SPARK-44374] [SC-136544][PYTHON][ML] Hinzufügen von Beispielcode für verteiltes ML für Spark Connect
- [SPARK-44282] [SC-135948][CONNECT] Vorbereiten des Parsens von DataType für die Verwendung im Spark Connect-Scala-Client
- [SPARK-44052] [SC-134469][CONNECT][PS] Hinzufügen von util, um die richtige Column- oder DataFrame-Klasse für Spark Connect abzurufen.
- [SPARK-43983] [SC-136404][PYTHON][ML][CONNECT] Implementieren eines Validierungssteuerelement-übergreifenden Schätzers
- [SPARK-44290] [SC-136300][CONNECT] Sitzungsbasierte Dateien und Archive in Spark Connect
- [SPARK-43710] [SC-134860][PS][CONNECT] Unterstützen von
functions.date_part
für Spark Connect - [SPARK-44036] [SC-134036][CONNECT][PS] Bereinigen und Konsolidieren von Tickets zum Vereinfachen der Tasks
- [SPARK-44150] [SC-135790][PYTHON][CONNECT] Explizite Arrow-Umwandlung für nicht übereinstimmende Rückgabetypen in Arrow-Python-UDF
- [SPARK-43903] [SC-134754][PYTHON][CONNECT] Verbessern der ArrayType-Eingabeunterstützung in Arrow-Python-UDF
- [SPARK-44250] [SC-135819][ML][PYTHON][CONNECT] Implementieren der Klassifizierungsauswertung
- [SPARK-44255] [SC-135704][SQL] Verschieben von StorageLevel nach common/utils
- [SPARK-42169] [SC-135735] [SQL] Implementieren der Codegenerierung für to_csv-Funktion (StructsToCsv)
- [SPARK-44249] [SC-135719][SQL][PYTHON] Umgestalten von PythonUDTFRunner, um den Rückgabetyp separat zu senden
- [SPARK-43353] [SC-132734][PYTHON] Migrieren verbleibender Sitzungsfehler in die Fehlerklasse
- [SPARK-44133] [SC-134795][PYTHON] Upgrade von MyPy von 0.920 auf 0.982
- [SPARK-42941] [SC-134707][SS][CONNECT][1/2] StreamingQueryListener – Ereignis-SerDe im JSON-Format
- [SPARK-43353] Zurücksetzen von „[SC-132734][ES-729763][PYTHON] Migrieren verbleibender Sitzungsfehler zur Fehlerklasse“
- [SPARK-44100] [SC-134576][ML][CONNECT][PYTHON] Verschieben von Namespace aus
pyspark.mlv2
inpyspark.ml.connect
- [SPARK-44220] [SC-135484][SQL] Verschieben von StringConcat zu sql/api
- [SPARK-43992] [SC-133645][SQL][PYTHON][CONNECT] Hinzufügen des optionalen Musters für Catalog.listFunctions
- [SPARK-43982] [SC-134529][ML][PYTHON][CONNECT] Implementieren eines Pipelineschätzers für ML in Spark Connect
- [SPARK-43888] [SC-132893][CORE] Verschieben der Protokollierung zu commons/utils
- [SPARK-42941] Zurücksetzen von „[SC-134707][SS][CONNECT][1/2] StreamingQueryListener – Ereignis-SerDe im JSON-Format“
- [SPARK-43624] [SC-134557][PS][CONNECT] Hinzufügen von
EWM
zu SparkConnectPlanner - [SPARK-43981] [SC-134137][PYTHON][ML] Grundlegende Implementierung zum Speichern/Laden von ML in Spark Connect
- [SPARK-43205] [SC-133371][SQL] Korrigieren von SQLQueryTestSuite
- [SPARK-43376] Zurücksetzen von „[SC-130433][SQL] Verbessern der Wiederverwendung von Unterabfragen mit Tabellencache“
- [SPARK-44040] [SC-134366][SQL] Korrigieren von Computestatistiken, wenn AggregateExec-Knoten über QueryStageExec liegt
- [SPARK-43919] [SC-133374][SQL] Extrahieren von JSON-Funktionen aus Zeile
- [SPARK-42618] [SC-134433][PYTHON][PS] Warnung für die Verhaltensänderungen im Zusammenhang mit Pandas im nächsten Hauptrelease
- [SPARK-43893] [SC-133381][PYTHON][CONNECT] Unterstützung nicht atomarer Datentypen in Arrow-optimierter Python-UDF
- [SPARK-43627] [SC-134290][SPARK-43626][PS][CONNECT] Aktivieren von
pyspark.pandas.spark.functions.{kurt, skew}
in Spark Connect - [SPARK-43798] [SC-133990][SQL][PYTHON] Unterstützen benutzerdefinierter Tabellenfunktionen in Python
- [SPARK-43616] [SC-133849][PS][CONNECT] Aktivieren von
pyspark.pandas.spark.functions.mode
in Spark Connect - [SPARK-43133] [SC-133728] DataStreamWriter-Foreach-Unterstützung in Scala-Client
- [SPARK-43684] [SC-134107][SPARK-43685][SPARK-43686][SPARK-43691][CONNECT][PS] Korrigieren von
(NullOps|NumOps).(eq|ne)
für Spark Connect - [SPARK-43645] [SC-134151][SPARK-43622][PS][CONNECT] Aktivieren von
pyspark.pandas.spark.functions.{var, stddev}
in Spark Connect - [SPARK-43617] [SC-133893][PS][CONNECT] Aktivieren von
pyspark.pandas.spark.functions.product
in Spark Connect - [SPARK-43610] [SC-133832][CONNECT][PS] Aktivieren von
InternalFrame.attach_distributed_column
in Spark Connect - [SPARK-43621] [SC-133852][PS][CONNECT] Aktivieren von
pyspark.pandas.spark.functions.repeat
in Spark Connect - [SPARK-43921] [SC-133461][PROTOBUF] Generieren von Protobuf-Deskriptordateien zur Buildzeit
- [SPARK-43613] [SC-133727][PS][CONNECT] Aktivieren von
pyspark.pandas.spark.functions.covar
in Spark Connect - [SPARK-43376] [SC-130433][SQL] Verbessern der Wiederverwendung von Unterabfragen mit Tabellencache
- [SPARK-43612] [SC-132011][CONNECT][PYTHON] Implementieren von SparkSession.addArtifact(s) im Python-Client
- [SPARK-43920] [SC-133611][SQL][CONNECT] Erstellen von sql/api-Modul
- [SPARK-43097] [SC-133372][ML] Neuer pyspark-ML-Schätzer für logistische Regression oberhalb des Verteilers implementiert
- [SPARK-43783] [SC-133240][SPARK-43784][SPARK-43788][ML] MLv2-Unterstützung (ML in Spark Connect) für Pandas >= 2.0
- [SPARK-43024] [SC-132716][PYTHON] Upgrade von Pandas auf 2.0.0
- [SPARK-43881] [SC-133140][SQL][PYTHON][CONNECT] Hinzufügen des optionalen Musters für Catalog.listDatabases
- [SPARK-39281] [SC-131422][SQL] Beschleunigen des Zeitstempel-Typrückschlusses mit älterem Format in JSON-/CSV-Datenquelle
- [SPARK-43792] [SC-132887][SQL][PYTHON][CONNECT] Hinzufügen des optionalen Musters für Catalog.listCatalogs
- [SPARK-43132] [SC-131623] [SS] [CONNECT] DataStreamWriter-foreach()-API in Python-Client
- [SPARK-43545] [SC-132378][SQL][PYTHON] Unterstützen des geschachtelten Zeitstempeltyps
- [SPARK-43353] [SC-132734][PYTHON] Migrieren verbleibender Sitzungsfehler in die Fehlerklasse
- [SPARK-43304] [SC-129969][CONNECT][PYTHON] Migrieren von
NotImplementedError
zuPySparkNotImplementedError
- [SPARK-43516] [SC-132202][ML][PYTHON][CONNECT] Basisschnittstellen von sparkML für spark3.5: estimator/transformer/model/evaluator
- [SPARK-43128] Zurücksetzen von „[SC-131628][CONNECT][SS] Festlegen einer mit der nativen Scala-API konsistenten Rückgabe von
StreamingQueryProgress
fürrecentProgress
undlastProgress
“ - [SPARK-43543] [SC-131839][PYTHON] Korrigieren des Verhaltens von geschachteltem MapType in Pandas-UDF
- [SPARK-38469] [SC-131425][CORE] Verwenden der Fehlerklasse in org.apache.spark.network
- [SPARK-43309] [SC-129746][SPARK-38461][CORE] Erweitern von INTERNAL_ERROR durch Kategorien und Hinzufügen der Fehlerklasse INTERNAL_ERROR_BROADCAST
- [SPARK-43265] [SC-129653] Verschieben des Fehlerframeworks in ein allgemeines utils-Modul
- [SPARK-43440] [SC-131229][PYTHON][CONNECT] Unterstützen der Registrierung einer Arrow-optimierten Python-UDF
- [SPARK-43528] [SC-131531][SQL][PYTHON] Unterstützen duplizierter Feldnamen in createDataFrame mit Pandas-DataFrame
- [SPARK-43412] [SC-130990][PYTHON][CONNECT] Einführen von
SQL_ARROW_BATCHED_UDF
-EvalType für Arrow-optimierte Python-UDFs - [SPARK-40912] [SC-130986][CORE]Mehraufwand für Ausnahmen in KryoDeserializationStream
- [SPARK-39280] [SC-131206][SQL] Beschleunigen des Zeitstempel-Typrückschlusses mit benutzerdefiniertem Format in JSON-/CSV-Datenquelle
- [SPARK-43473] [SC-131372][PYTHON] Unterstützen des Strukturtyps in createDataFrame aus Pandas-DataFrame
- [SPARK-43443] [SC-131024][SQL] Hinzufügen von Benchmark für Zeitstempel-Typrückschluss bei Verwendung eines ungültigen Werts
- [SPARK-41532] [SC-130523][CONNECT][CLIENT] Hinzufügen einer Überprüfung für Vorgänge, die mehrere DataFrames umfassen
- [SPARK-43296] [SC-130627][CONNECT][PYTHON] Migrieren von Spark Connect-Sitzungsfehlern zur Fehlerklasse
- [SPARK-43324] [SC-130455][SQL] Behandeln von UPDATE-Befehlen für deltabasierte Quellen
- [SPARK-43347] [SC-130148][PYTHON] Entfernen der Python 3.7-Unterstützung
- [SPARK-43292] [SC-130525][CORE][CONNECT] Verschieben von
ExecutorClassLoader
zumcore
-Modul und Vereinfachen vonExecutor#addReplClassLoaderIfNeeded
- [SPARK-43081] [SC-129900] [ML] [CONNECT] Hinzufügen des TorchDistributor-Datenladeprogramms, das Daten aus Spark-Partitionsdaten lädt
- [SPARK-43331] [SC-130061][CONNECT] Hinzufügen von SparkSession.interruptAll in Spark Connect
- [SPARK-43306] [SC-130320][PYTHON] Migrieren von
ValueError
aus Spark SQL-Typen zur Fehlerklasse - [SPARK-43261] [SC-129674][PYTHON] Migrieren von
TypeError
aus Spark SQL-Typen zur Fehlerklasse - [SPARK-42992] [SC-129465][PYTHON] Einführen von PySparkRuntimeError
- [SPARK-16484] [SC-129975][SQL] Hinzufügen von Unterstützung für Datasketches HllSketch
- [SPARK-43165] [SC-128823][SQL] Verschieben von canWrite zu DataTypeUtils
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] Arrow-optimierte Python-UDFs in Spark Connect
- [SPARK-43084] [SC-128654] [SS] Hinzufügen von ApplyInPandasWithState-Unterstützung für Spark Connect
- [SPARK-42657] [SC-128621][CONNECT] Unterstützung für das Suchen und Übertragen clientseitiger REPL-Klassendateien auf den Server als Artefakte
- [SPARK-43098] [SC-77059][SQL] Korrigieren der Richtigkeit von „COUNT bug“, wenn die skalare Unterabfrage eine „group by“-Klausel aufweist
- [SPARK-42884] [SC-126662][CONNECT] Hinzufügen der Ammonite-REPL-Integration
- [SPARK-42994] [SC-128333][ML][CONNECT] Unterstützung von PyTorch-Verteiler für lokalen Modus
- [SPARK-41498] [SC-125343]Zurücksetzen von „Weitergeben von Metadaten über Union“
- [SPARK-42993] [SC-127829][ML][CONNECT] Herstellen von Kompatibilität des PyTorch-Verteilers mit Spark Connect
- [SPARK-42683] [LC-75] Automatisches Umbenennen in Konflikt stehender Metadatenspalten
- [SPARK-42874] [SC-126442][SQL] Aktivieren eines neuen goldenen Dateitestframeworks für die Analyse aller Eingabedateien
- [SPARK-42779] [SC-126042][SQL] Zulassen von V2-Schreibvorgängen, um Größenempfehlung für Shufflepartitionen anzugeben
- [SPARK-42891] [SC-126458][CONNECT][PYTHON] Implementieren der CoGrouped Map-API
- [SPARK-42791] [SC-126134][SQL] Erstellen eines neuen goldenen Dateitestframeworks für die Analyse
- [SPARK-42615] [SC-124237][CONNECT][PYTHON] Umgestalten des AnalyzePlan-RPC und Hinzufügen von
session.version
- [SPARK-41302] Zurücksetzen von „[ALL TESTS][SC-122423][SQL] Zuweisen eines Namens zu _LEGACY_ERROR_TEMP_1185“
- [SPARK-40770] [SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt
- [SPARK-40770] Zurücksetzen von „[ALL TESTS][SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt“
- [SPARK-42398] [SC-123500][SQL] Optimieren der DS v2-Schnittstelle für Standardspaltenwert
- [SPARK-40770] [ALL TESTS][SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt
- [SPARK-40770] Zurücksetzen von „[SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt“
- [SPARK-40770] [SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt
- [SPARK-42038] [ALL TESTS] Zurücksetzen von „[SC-122533][SQL] SPJ: Unterstützen teilweise gruppierter Verteilung“
- [SPARK-42038] Zurücksetzen von „[SC-122533][SQL] SPJ: Unterstützen teilweise gruppierter Verteilung“
- [SPARK-42038] [SC-122533][SQL] SPJ: Unterstützen teilweise gruppierter Verteilung
- [SPARK-40550] [SC-120989][SQL] DataSource V2: Behandeln von DELETE-Befehlen für deltabasierte Quellen
- [SPARK-40770] Zurücksetzen von „[SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt“
- [SPARK-40770] [SC-122652][PYTHON] Verbesserte Fehlermeldungen für applyInPandas für Schemakonflikt
- [SPARK-41302] Zurücksetzen von „[SC-122423][SQL] Zuweisen eines Namens zu LEGACY_ERROR_TEMP_1185“
- [SPARK-40550] Zurücksetzen von „[SC-120989][SQL] DataSource V2: Behandeln von DELETE-Befehlen für deltabasierte Quellen“
- [SPARK-42123] Zurücksetzen von „[SC-121453][SQL] Einschließen von Spaltenstandardwerten in DESCRIBE- und SHOW CREATE TABLE-Ausgabe“
- [SPARK-42146] [SC-121172][CORE] Umgestalten von
Utils#setStringField
zum erfolgreichen Verarbeiten von Maven-Build bei Verwendung dieser Methode durch SQL-Modul - [SPARK-42119] Zurücksetzen von „[SC-121342][SQL] Hinzufügen der integrierten Tabellenwertfunktionen inline und inline_outer“
Highlights
- Korrigieren der Funktionen
aes_decryp
undln
in Connect SPARK-45109 - Korrigieren geerbter benannter Tupel für die Arbeit in createDataFrame SPARK-44980
- CodeGenerator Cache ist jetzt Classloader-spezifisch[SPARK-44795].
SparkListenerConnectOperationStarted.planRequest
wurde hinzugefügt. [SPARK-44861]- Erstellen von Streamingabfragen zum Arbeiten mit der Artefaktverwaltung von Connect [SPARK-44794]
- ArrowDeserializer funktioniert mit REPL-generierten Klassen [SPARK-44791]
- Arrow-optimierte Python-UDF für Spark Connect [SPARK-44876] wurde korrigiert.
- Scala- und Go-Clientunterstützung in Spark Connect SPARK-42554 SPARK-43351
- PyTorch-basierte verteilte ML-Unterstützung für Spark Connect SPARK-42471
- Unterstützung für strukturiertes Streaming für Spark Connect in Python und Scala SPARK-42938
- Pandas-API-Unterstützung für den Python Spark Connect Client SPARK-42497
- Einführung von Arrow Python UDFs SPARK-40307
- Unterstützen von benutzerdefinierten Python-Tabellenfunktionen SPARK-43798
- Migrieren von PySpark-Fehlern auf Fehlerklassen SPARK-42986
- PySpark-Test-Framework SPARK-44042
- Unterstützung für Datasketches HllSketch hinzufügen SPARK-16484
- Integrierte SQL-Funktionsverbesserung SPARK-41231
- IDENTIFIER-Klausel SPARK-43205
- Hinzufügen von SQL-Funktionen zu Scala, Python und R-API SPARK-43907
- Hinzufügen der Unterstützung von benannten Argumenten für SQL-Funktionen SPARK-43922
- Vermeiden Sie unnötige erneute Aufgabenausführungen auf außer Betrieb gesetztem Executor, der verloren geht, wenn Shuffle-Daten migriert werden SPARK-41469
- Verteiltes ML <> Spark Connect SPARK-42471
- DeepSpeed-Verteiler SPARK-44264
- Implementieren des Änderungsprotokollprüfpunkts für den RocksDB-Zustandsspeicher SPARK-43421
- Einführung der Wasserzeichenweitergabe zwischen Betreibern SPARK-42376
- Einführung von dropDuplicatesWithinWatermark SPARK-42931
- Verbesserungen des RocksDB-Zustandsspeicheranbieters für die Speicherverwaltung SPARK-43311
Spark Connect
- Refactoring des SQL-Moduls in sql und sql-api, um eine minimale Menge von Abhängigkeiten zu erzeugen, die zwischen dem Scala Spark Connect-Client und Spark gemeinsam genutzt werden können, und verhindert das Abrufen aller transitiven Spark-Abhängigkeiten. SPARK-44273
- Einführung des Scala-Clients für Spark Connect SPARK-42554
- Pandas-API-Unterstützung für den Python Spark Connect Client SPARK-42497
- PyTorch-basierte verteilte ML-Unterstützung für Spark Connect SPARK-42471
- Unterstützung für strukturiertes Streaming für Spark Connect in Python und Scala SPARK-42938
- Erste Version des Go-Clients SPARK-43351
- Viele Kompatibilitätsverbesserungen zwischen Spark-nativen und Spark Connect-Clients in Python und Scala
- Verbesserte Debugbarkeit und Anforderungsverarbeitung für Clientanwendungen (asynchrone Verarbeitung, Wiederholungen, langlebige Abfragen)
Spark SQL
Funktionen
- Start und Länge der Metadatenspaltendatei hinzufügen SPARK-42423
- Unterstützung von Positionsparametern in Scala/Java sql() SPARK-44066
- Hinzufügen der Unterstützung benannter Parameter im Parser für Funktionsaufrufe SPARK-43922
- Unterstützen von SELECT DEFAULT mit ORDER BY, LIMIT, OFFSET für INSERT-Quellbeziehung SPARK-43071
- Hinzufügen von SQL-Grammatik für PARTITION BY- und ORDER BY-Klausel nach TABLE-Argumenten für TVF-Aufrufe SPARK-44503
- Einschließen von Spaltenstandardwerten in DESCRIBE- und SHOW CREATE TABLE-Ausgabe SPARK-42123
- Optionales Muster für Catalog.listCatalogs hinzufügen SPARK-43792
- Optionales Muster für Catalog.listDatabases hinzufügen SPARK-43881
- Rückruf, wenn für Ausführung bereit SPARK-44145
- Unterstützen der Insert By Name-Anweisung SPARK-42750
- Hinzufügen von call_function für Scala-API SPARK-44131
- Stabile abgeleitete Spaltenaliase SPARK-40822
- Unterstützen allgemeiner Konstantenausdrücke als CREATE/REPLACE TABLE OPTIONS-Werte SPARK-43529
- Unterstützung von Unterabfragen mit Korrelation über INTERSECT/EXCEPT SPARK-36124
- IDENTIFIER-Klausel SPARK-43205
- ANSI MODE: Conv sollte einen Fehler zurückgeben, wenn die interne Konvertierung überläuft SPARK-42427
Funktionen
- Unterstützung für Datasketches HllSketch hinzufügen SPARK-16484
- Unterstützung des CBC-Modus durch aes_encrypt()/aes_decrypt() SPARK-43038
- Unterstützen der TABLE-Argumentparserregel für TableValuedFunction SPARK-44200
- Implementieren von Bitmapfunktionen SPARK-44154
- Hinzufügen der Funktion try_aes_decrypt() SPARK-42701
- array_insert sollte mit 0 Index fehlschlagen SPARK-43011
- Hinzufügen von to_varchar Alias für to_char SPARK-43815
- Funktion hoher Ordnung: array_compact-Implementierung SPARK-41235
- Hinzufügen der Analysetoolunterstützung benannter Argumente für integrierte Funktionen SPARK-44059
- NULL für INSERT-Befehle mit vom Benutzer angegebenen Listen mit weniger Spalten als die Zieltabelle hinzufügen SPARK-42521
- Hinzufügen der Unterstützung für aes_encrypt-IVs und AAD SPARK-43290
- DECODE-Funktion gibt falsche Ergebnisse zurück, wenn NULL übergeben wurde SPARK-41668
- Unterstützung von udf ‘luhn_check’ SPARK-42191
- Unterstützung der impliziten Auflösung des Alias von lateralen Spalten für Aggregat SPARK-41631
- Unterstützung impliziter lateraler Spaltenalias in Abfragen mit Window SPARK-42217
- Hinzufügen von 3-args-Funktionsaliasen DATE_ADD und DATE_DIFF SPARK-43492
Data Sources (Datenquellen)
- Char/Varchar-Unterstützung für JDBC-Katalog SPARK-42904
- Unterstützen des dynamischen Abrufs von SQL-Schlüsselwörtern über JDBC-API und TVF SPARK-43119
- DataSource V2: Behandeln von MERGE-Befehlen für deltabasierte Quellen SPARK-43885
- DataSource V2: Behandeln von MERGE-Befehlen für gruppenbasierte Quellen SPARK-43963
- DataSource V2: Behandeln von UPDATE-Befehlen für gruppenbasierte Quellen SPARK-43975
- DataSource V2: Zulassen der Darstellung von Updates als Lösch- und Einfügevorgänge SPARK-43775
- Ermöglichen des Überschreibens der Abfrage zum Erstellen einer Tabelle für JDBC-Dialekte SPARK-41516
- SPJ: Unterstützen teilweise gruppierter Verteilung SPARK-42038
- DSv2 ermöglicht CTAS/RTAS das Beibehalten von Schema-NULL-Zulässigkeit SPARK-43390
- Hinzufügen von spark.sql.files.maxPartitionNum SPARK-44021
- Behandeln von UPDATE-Befehlen für deltabasierte Quellen SPARK-43324
- Zulassen von V2-Schreibvorgängen, um Größenempfehlung für Shufflepartitionen anzugeben SPARK-42779
- Unterstützung des lz4raw-Kompressionscodec für Parquet SPARK-43273
- Avro: Schreiben komplexer Unions SPARK-25050
- Beschleunigen des Zeitstempel-Typrückschlusses mit benutzerdefiniertem Format in JSON-/CSV-Datenquelle SPARK-39280
- Avro-Unterstützung für benutzerdefinierte Dezimaltypen, gestützt von Long SPARK-43901
- Vermeiden von Mischvorgängen im speicherpartitionierten Join, wenn die Partitionsschlüssel nicht übereinstimmen, die Join-Ausdrücke aber kompatibel sind SPARK-41413
- Ändern der Binärdatei in nicht unterstützten dataType im CSV-Format SPARK-42237
- Gestatten der Konvertierung des Union-Typs in SQL für Avro, wobei der Feldname mit dem Typ stabil bleibt SPARK-43333
- Beschleunigen des Zeitstempel-Typrückschlusses mit älterem Format in JSON-/CSV-Datenquelle SPARK-39281
Abfrageoptimierung
- Unterstützen der Beseitigung von Unterausdruck bei Verknüpfungsausdruck SPARK-42815
- Verbessern der Bewertung von Joinstatistiken, wenn eine Seite die Eindeutigkeit beibehalten kann SPARK-39851
- Einführen des Fenster-Gruppengrenzwerts für rangbasierte Filter zur Optimierung der Top-K-Berechnung SPARK-37099
- Beheben des Verhaltens von null IN (leere Liste) in Optimierungsregeln SPARK-44431
- Rückschließen und Herabsetzen des Fensterlimits, wenn partitionSpec leer ist SPARK-41171
- Entfernen des äußeren Joins, wenn es sich um verschiedene Aggregatfunktionen handelt SPARK-42583
- Reduzieren von zwei benachbarten Fenstern mit derselben Partition/Reihenfolge in Unterabfragen SPARK-42525
- Pushdownlimit über Python-UDFs SPARK-42115
- Optimierung der Reihenfolge der Filter-Prädikate SPARK-40045
Codegenerierung und Abfrageausführung
- Der Runtime-Filter sollte eine Mehrebenen-Shuffle-Join-Seite als Filtererstellungsseite unterstützen SPARK-41674
- Codegen-Unterstützung für HiveSimpleUDF SPARK-42052
- Codegen-Unterstützung für HiveGenericUDF SPARK-42051
- Codegenerierungs-Unterstützung für buildseitigen äußeren gemischten Hashjoin SPARK-44060
- Implementieren der Codegenerierung für to_csv-Funktion (StructsToCsv) SPARK-42169
- Ermöglichen der Unterstützung von AQE für inMemoryTableScanExec SPARK-42101
- Unterstützen des linken äußeren Joinbuilds links oder der rechten äußeren Joinbuilds rechts im gemischten Hashjoin SPARK-36612
- [SPARK-43088] [SC-128403][SQL] Beachten von RequiresDistributionAndOrdering in CTAS/RTAS
- Zusammenfügen von Buckets in Join, die auf der Broadcastjoin-Streamseite angewendet wurden SPARK-43107
- Korrektes Festlegen von „Nullwerte zulassend“ bei zusammengeführtem Joinschlüssel in vollständigem äußerem USING-Join SPARK-44251
- Beheben der NULL-Zulässigkeit der IN-Unterabfrage ListQuery SPARK-43413
Andere wichtige Änderungen
- Korrektes Festlegen von Nullwerte zulassenden Elementen für Schlüssel in USING-Joins SPARK-43718
- Beheben des Fehlers COUNT(*) ist null in korrelierten skalaren Unterabfragen SPARK-43156
- Der äußere Join von Dataframe.joinWith sollte einen NULL-Wert für nicht übereinstimmende Zeilen zurückgeben SPARK-37829
- Automatisches Umbenennen in Konflikt stehender Metadatenspalten SPARK-42683
- Dokumentieren der Spark-SQL-Fehlerklassen in der benutzerdefinierten Dokumentation SPARK-42706
PySpark
Funktionen
- Unterstützung von Positionsparametern in Python sql() SPARK-44140
- Unterstützung von parametrisierter SQL durch sql() SPARK-41666
- Unterstützen von benutzerdefinierten Python-Tabellenfunktionen SPARK-43797
- Unterstützung für das Festlegen einer ausführbaren Python-Datei für UDF- und Pandas-Funktions-APIs in Workern während der Laufzeit SPARK-43574
- Hinzufügen von DataFrame.offset zu PySpark SPARK-43213
- Implementieren von dir() in pyspark.sql.dataframe.DataFrame, um Spalten einzubeziehen SPARK-43270
- Hinzufügen einer Option zum Verwenden von Vektoren mit großer variabler Breite für Arrow-UDF-Vorgänge SPARK-39979
- Ermöglichen der Unterstützung von mapInPandas / mapInArrow für die Ausführung des Barrieremodus SPARK-42896
- Hinzufügen von JobTag-APIs zu PySpark SparkContext SPARK-44194
- Unterstützung für Python-UDTF zum Analysieren in Python SPARK-44380
- Verfügbarmachen von TimestampNTZType in pyspark.sql.types SPARK-43759
- Unterstützung des geschachtelten Zeitstempeltyps SPARK-43545
- Unterstützen von UserDefinedType in createDataFrame aus Pandas DataFrame und toPandas [SPARK-43817][SPARK-43702]https://issues.apache.org/jira/browse/SPARK-43702)
- Hinzufügen binärer Deskriptoroption zur Pyspark Protobuf-API SPARK-43799
- Akzeptieren von Generics-Tupel als Eingabehinweise für Pandas-UDF SPARK-43886
- Hinzufügen der array_prepend-Funktion SPARK-41233
- Hinzufügen der AssertDataFrameEqual util-Funktion SPARK-44061
- Unterstützen von für Arrow optimierten Python-UDTFs SPARK-43964
- Zulassen der benutzerdefinierten Genauigkeit für fp approx-Gleichheit SPARK-44217
- Festlegen der AssertSchemaEqual-API als öffentlich SPARK-44216
- Unterstützung von fill_value für ps.Series SPARK-42094
- Unterstützen des Strukturtyps in createDataFrame aus Pandas-DataFrame SPARK-43473
Andere wichtige Änderungen
- Hinzufügen von AutoVervollständigen-Unterstützung für df[|] in pyspark.sql.dataframe.DataFrame [SPARK-43892]
- Einstellen und Entfernen der APIs, die in Pandas 2.0 entfernt werden [SPARK-42593]
- Python zur ersten Registerkarte für Codebeispiele machen – Spark SQL, DataFrames und Datasets Guide SPARK-42493
- Aktualisieren der verbleibenden Codebeispiele in der Spark-Dokumentation zum standardmäßigen Anzeigen von Python SPARK-42642
- Verwenden von deduplizierten Feldnamen beim Erstellen von Arrow RecordBatch [SPARK-41971]
- Unterstützen duplizierter Feldnamen in createDataFrame mit Pandas-DataFrame [SPARK-43528]
- columns-Parameter beim Erstellen von DataFrame mit Series zulassen [SPARK-42194]
Kernspeicher
- Planen von MergeFinalize, wenn Pushen der Zusammenführung von shuffleMapStage neu versucht wird, aber keine ausgeführten Tasks vorhanden sind SPARK-40082
- Einführen von PartitionEvaluator für die Ausführung des SQL-Operators SPARK-43061
- Ermöglichen der Deklaration der zuverlässigen Speicherung von Shuffledaten für ShuffleDriverComponent SPARK-42689
- Hinzufügen eines Grenzwerts für die maximale Anzahl von Versuchen für Stages, um potenziell endlose Wiederholungen zu vermeiden SPARK-42577
- Unterstützen der Konfiguration auf Protokollebene mit statischer Spark-Konfiguration SPARK-43782
- Optimieren von PercentileHeap SPARK-42528
- Argument „reason“ zu TaskScheduler.cancelTasks hinzufügen SPARK-42602
- Vermeiden Sie unnötige erneute Aufgabenausführungen auf außer Betrieb gesetztem Executor, der verloren geht, wenn Shuffle-Daten migriert werden SPARK-41469
- Korrigieren der zu gering erfassten Akkumulatoranzahl im Fall der Wiederholungsaufgabe mit RDD-Cache SPARK-41497
- Standardmäßiges Verwenden von RocksDB für spark.history.store.hybridStore.diskBackend SPARK-42277
- NonFateSharingCache-Wrapper für Guava Cache SPARK-43300
- Verbessern der Leistung von MapOutputTracker.updateMapOutput SPARK-43043
- Zulassen, dass Apps steuern können, ob ihre Metadaten vom externen Shuffledienst in der Datenbank gespeichert werden SPARK-43179
- Hinzufügen von SPARK_DRIVER_POD_IP env-Variable zu Executor-Pods SPARK-42769
- Bindet die hadoop-ConfigMap auf dem Executor-Pod ein SPARK-43504
Strukturiertes Streaming
- Hinzufügen von Unterstützung für die Nachverfolgung der Speicherauslastung angehefteter Blöcke für den RocksDB-Zustandsspeicher SPARK-43120
- Hinzufügen von Verbesserungen des RocksDB-Zustandsspeicheranbieters für die Speicherverwaltung SPARK-43311
- Einführung von dropDuplicatesWithinWatermark SPARK-42931
- Einführen eines neuen Rückrufs „onQueryIdle“ für StreamingQueryListener SPARK-43183
- Hinzufügen der Option zum Überspringen des Commitkoordinators als Teil der StreamingWrite-API für DSv2-Quellen/-Senken SPARK-42968
- Einführen eines neuen Rückrufs „onQueryIdle“ für StreamingQueryListener SPARK-43183
- Implementieren von Änderungsprotokoll-basierten Prüfpunkten für Anbieter des RocksDB-Zustandsspeichers SPARK-43421
- Hinzufügen von Unterstützung für WRITE_FLUSH_BYTES für beim Streaming zustandsbehafteter Operatoren verwendete RocksDB SPARK-42792
- Hinzufügen von Unterstützung für das Festlegen von max_write_buffer_number und write_buffer_size für beim Streaming verwendete RocksDB SPARK-42819
- RocksDB StateStore-Lock-Erfassung sollte erfolgen, nachdem der Eingabe-Iterator von inputRDD abgerufen wurde SPARK-42566
- Einführung der Wasserzeichenweitergabe zwischen Betreibern SPARK-42376
- Bereinigen von verwaisten Dateien und Protokolldateien im RocksDB-Prüfpunktverzeichnis SPARK-42353
- Erweitern von QueryTerminatedEvent um eine Fehlerklasse, wenn sie in der Ausnahme vorhanden ist SPARK-43482
ML
- Unterstützen des verteilten Trainings von Funktionen mithilfe von Deepspeed SPARK-44264
- Basisschnittstellen von sparkML für spark3.5: estimator/transformer/model/evaluator SPARK-43516
- MLv2-Unterstützung (ML in Spark Connect) für Pandas >= 2.0 SPARK-43783
- Aktualisieren von MLv2-Transformatorschnittstellen SPARK-43516
- Neuer pyspark-ML-Schätzer für logistische Regression oberhalb des Verteilers implementiert SPARK-43097
- Erneutes Hinzufügen von Classifier.getNumClasses SPARK-42526
- Schreiben einer Deepspeed-Klasse DeepspeedTorchDistributor für verteiltes Lernen SPARK-44264
- Grundlegende Implementierung zum Speichern/Laden von ML in Spark Connect SPARK-43981
- Verbessern des Speicherns des logistischen Regressionsmodells SPARK-43097
- Implementieren eines Pipelineschätzers für ML in Spark Connect SPARK-43982
- Implementieren eines Validierungssteuerelement-übergreifenden Schätzers SPARK-43983
- Implementieren der Klassifizierungsauswertung SPARK-44250
- Herstellen von Kompatibilität des PyTorch-Verteilers mit Spark Connect SPARK-42993
Benutzeroberfläche
- Hinzufügen einer Spark UI-Seite für Spark Connect SPARK-44394
- Unterstützung der Heap-Histogrammspalte auf der Registerkarte „Executors“ SPARK-44153
- Anzeigen einer Fehlermeldung für jede fehlgeschlagene Abfrage auf der Benutzeroberfläche SPARK-44367
- Anzeigen der Zeit für Hinzufügen/Entfernen von Executors auf der Registerkarte „Executors“ SPARK-44309
Build und andere
- Entfernen der Unterstützung für Python 3.7 SPARK-43347
- Erhöhen der PyArrow-Mindestversion auf 4.0.0 SPARK-44183
- Unterstützung von R 4.3.1 SPARK-43447 SPARK-44192
- Hinzufügen von JobTag-APIs zu SparkR SparkContext SPARK-44195
- Hinzufügen von mathematischen Funktionen zu SparkR SPARK-44349
- Upgrade von Parquet auf 1.13.1 SPARK-43519
- Upgrade von ASM auf 9.5 SPARK-43537 SPARK-43588
- Upgrade von rocksdbjni auf 8.3.2 SPARK-41569 SPARK-42718 SPARK-43007 SPARK-43436 SPARK-44256
- Upgrade von Netty auf 4.1.93 SPARK-42218 SPARK-42417 SPARK-42487 SPARK-43609 SPARK-44128
- Upgrade von zstd-jni auf 1.5.5-5 SPARK-42409 SPARK-42625 SPARK-43080 SPARK-43294 SPARK-43737 SPARK-43994 SPARK-44465
- Upgrade von dropwizard.metrics auf 4.2.19 SPARK-42654 SPARK-43738 SPARK-44296
- Upgrade von gcs-connector auf 2.2.14 SPARK-42888 SPARK-43842
- Upgrade von commons-crypto auf 1.2.0 SPARK-42488
- Upgrade von scala-parser-combinators von 2.1.1 auf 2.2.0 SPARK-42489
- Upgrade von protobuf-java auf 3.23.4 SPARK-41711 SPARK-42490 SPARK-42798 SPARK-43899 SPARK-44382
- Upgrade von commons-codec auf 1.16.0 SPARK-44151
- Upgrade von Apache Kafka auf 3.4.1 SPARK-42396 SPARK-44181
- Upgrade von RoaringBitmap auf 0.9.45 SPARK-42385 SPARK-43495 SPARK-44221
- Aktualisierung von ORC auf 1.9.0 SPARK-42820 SPARK-44053 SPARK-44231
- Upgrade auf Avro 1.11.2 SPARK-44277
- Upgrade von commons-compress auf 1.23.0 SPARK-43102
- Upgrade von joda-time von 2.12.2 auf 2.12.5 SPARK-43008
- Upgrade von snappy-java auf 1.1.10.3 SPARK-42242 SPARK-43758 SPARK-44070 SPARK-44415 SPARK-44513
- Upgrade von mysql-connector-java von 8.0.31 auf 8.0.32 SPARK-42717
- Upgrade von Apache Arrow auf 12.0.1 SPARK-42161 SPARK-43446 SPARK-44094
- Upgrade von commons-io auf 2.12.0 SPARK-43739
- Upgrade von Apache commons-io auf 2.13.0 SPARK-43739 SPARK-44028
- Upgrade von fasterxml.jackson auf 2.15.2 SPARK-42354 SPARK-43774 SPARK-43904
- Upgrade von log4j 2 auf 2.20.0 SPARK-42536
- Upgrade von slf4j auf 2.0.7 SPARK-42871
- Upgrade von numpy und pandas in der Release-Dockerfile SPARK-42524
- Upgrade von Jersey auf 2.40 SPARK-44316
- Upgrade von H2 von 2.1.214 auf 2.2.220 SPARK-44393
- Upgrade von optionator auf ^0.9.3 SPARK-44279
- Upgrade von bcprov-jdk15on und bcpkix-jdk15on auf 1.70 SPARK-44441
- Upgrade von mlflow auf 2.3.1 SPARK-43344
- Upgrade von Tink auf 1.9.0 SPARK-42780
- Upgrade von silencer auf 1.7.13 SPARK-41787 SPARK-44031
- Upgrade von Ammonite auf 2.5.9 SPARK-44041
- Upgrade von Scala auf 2.12.18 SPARK-43832
- Upgrade von org.scalatestplus:selenium-4-4 auf org.scalatestplus:selenium-4-7 SPARK-41587
- Upgrade von minimatch auf 3.1.2 SPARK-41634
- Upgrade von sbt-assembly von 2.0.0 auf 2.1.0 SPARK-41704
- Update von Maven-checkstyle-plugin von 3.1.2 auf 3.2.0 SPARK-41714
- Upgrade von dev.ludovic.netlib auf 3.0.3 SPARK-41750
- Upgrade von hive-storage-api auf 2.8.1 SPARK-41798
- Upgrade von Apache httpcore auf 4.4.16 SPARK-41802
- Upgrade von Jetty auf 9.4.52.v20230823 SPARK-45052
- Upgrade von compress-lzf auf 1.1.2 SPARK-42274
Entfernungen, Verhaltensänderungen und Einstellungen
Bevorstehende Entfernung
Die folgenden Features werden in der nächsten Spark-Hauptversion entfernt
- Unterstützung für Java 8 und Java 11, und die minimale unterstützte Java-Version wird Java 17 sein
- Unterstützung für Scala 2.12, und die minimale unterstützte Scala-Version wird 2.13 sein
Migrationshandbücher
- Spark Core
- SQL, Datasets und DataFrame
- Strukturiertes Streaming
- MLlib (Machine Learning)
- PySpark (Python auf Spark)
- SparkR (R auf Spark)
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Systemumgebung
- Betriebssystem: Ubuntu 22.04.3 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 2.4.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | Klicken | 8.0.4 | comm | 0.1.2 |
contourpy | 1.0.5 | cryptography | 39.0.1 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0,11 | entrypoints | 0,4 |
executing | 0.8.3 | facets-overview | 1.1.1 | fastjsonschema | 2.18.0 |
filelock | 3.12.2 | fonttools | 4.25.0 | GCC-Laufzeitbibliothek | 1.10.0 |
googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | jeepney | 0.7.1 |
Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.17.3 | jupyter-client | 7.3.4 | jupyter-server | 1.23.4 |
jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
keyring | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
nodeenv | 1.8.0 | Notebook | 6.5.2 | notebook_shim | 0.2.2 |
numpy | 1.23.5 | oauthlib | 3.2.0 | Packen | 22.0 |
Pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.10.3 | patsy | 0.5.3 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.4.0 | pip | 22.3.1 |
platformdirs | 2.5.2 | plotly | 5.9.0 | pluggy | 1.0.0 |
prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
requests | 2.28.1 | rope | 1.7.0 | s3transfer | 0.6.1 |
scikit-learn | 1.1.1 | seaborn | 0.12.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 65.6.3 | sechs | 1.16.0 |
sniffio | 1.2.0 | soupsieve | 2.3.2.post1 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.13.5 | tenacity | 8.1.0 |
terminado | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
traitlets | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
unattended-upgrades | 0,1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
wadllib | 1.3.6 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
websocket-client | 0.58.0 | whatthepatch | 1.0.2 | wheel | 0.38.4 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2023-07-13installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | Blob | 1.2.4 |
boot | 1.3-28 | brew | 1,0 - 8 | brio | 1.1.3 |
broom | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
callr | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | class | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | clock | 0.7.0 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.9.0 |
compiler | 4.3.1 | config | 0.3.1 | conflicted | 1.2.0 |
cpp11 | 0.4.4 | crayon | 1.5.2 | Anmeldeinformationen | 1.3.2 |
curl | 5.0.1 | data.table | 1.14.8 | datasets | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | desc | 1.4.2 |
devtools | 2.4.5 | Diagramm | 1.6.5 | diffobj | 0.3.5 |
digest | 0.6.33 | downlit | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | ellipsis | 0.3.2 |
Evaluieren | 0,21 | fansi | 1.0.4 | farver | 2.1.1 |
fastmap | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | foreign | 0.8-82 | forge | 0.2.0 |
fs | 1.6.2 | future | 1.33.0 | future.apply | 1.11.0 |
gargle | 1.5.1 | generics | 0.1.3 | gert | 1.9.2 |
ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globals | 0.16.2 | glue | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
Grafiken | 4.3.1 | grDevices | 4.3.1 | grid | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0.7 | gtable | 0.3.3 |
hardhat | 1.3.0 | haven | 2.5.3 | highr | 0,10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
labeling | 0.4.2 | later | 1.3.1 | lattice | 0.21-8 |
lava | 1.7.2.1 | Lebenszyklus | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1.7 |
MASS | 7.3-60 | Matrix | 1.5-4.1 | memoise | 2.0.1 |
Methoden | 4.3.1 | mgcv | 1.8-42 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | Fortschritt | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | recipes | 1.0.6 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.6 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
SparkR | 3.5.0 | spatial | 7.3-15 | splines | 4.3.1 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.1 |
stats4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
tcltk | 4.3.1 | testthat | 3.1.10 | textshaping | 0.3.6 |
tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 2.0.0 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.45 | Tools | 4.3.1 | tzdb | 0.4.0 |
urlchecker | 1.0.1 | usethis | 2.2.2 | utf8 | 1.2.3 |
utils | 4.3.1 | uuid | 1.1-0 | vctrs | 0.6.3 |
viridisLite | 0.4.2 | vroom | 1.6.3 | waldo | 0.5.1 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.39 |
xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.3.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.2.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.24 |
io.delta | delta-sharing-spark_2.12 | 0.7.1 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.93.Final |
io.netty | netty-buffer | 4.1.93.Final |
io.netty | netty-codec | 4.1.93.Final |
io.netty | netty-codec-http | 4.1.93.Final |
io.netty | netty-codec-http2 | 4.1.93.Final |
io.netty | netty-codec-socks | 4.1.93.Final |
io.netty | netty-common | 4.1.93.Final |
io.netty | netty-handler | 4.1.93.Final |
io.netty | netty-handler-proxy | 4.1.93.Final |
io.netty | netty-resolver | 4.1.93.Final |
io.netty | netty-transport | 4.1.93.Final |
io.netty | netty-transport-classes-epoll | 4.1.93.Final |
io.netty | netty-transport-classes-kqueue | 4.1.93.Final |
io.netty | netty-transport-native-epoll | 4.1.93.Final |
io.netty | netty-transport-native-epoll | 4.1.93.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.93.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.93.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.93.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.93.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.29 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | arrow-vector | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.9.0-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.0-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.0 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-continuation | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-http | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-security | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-server | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-webapp | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-api | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-client | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-server | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | shims | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |