Databricks Runtime 16.0
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.0, unterstützt von Apache Spark 3.5.0.
Databricks hat diese Version im November 2024 veröffentlicht.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Änderungen des Verhaltens
- Aktuelle Änderung: JDK 17 ist jetzt die Standardeinstellung
- Bahnbrechende Änderung: Gehostetes RStudio ist Ende der Lebensdauer
- Unterbrechung der Änderung: Entfernen der Unterstützung für das Ändern
byte
von Typenshort
int
undlong
Typen auf breitere Typen - Korrigieren der Analyse von Regex-Mustern mit Negation in geschachtelter Zeichengruppierung
- Verbessern der Erkennung doppelter Übereinstimmungen im Delta Lake
MERGE
- Die Clusterbibliothek-Installationsmethode kann nicht mehr außer Kraft gesetzt werden.
- Standardtimeout von zwei Stunden für Installationen mit Clusterbereichsbibliothek
- Installieren von Bibliotheken aus DBFS und Festlegen der Spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowed
sind deaktiviert - Die
addArtifact()
Funktionalität ist jetzt in allen Computetypen konsistent.
Aktuelle Änderung: JDK 17 ist jetzt die Standardeinstellung
In Databricks Runtime 16.0 und höher wird die standardmäßige JDK-Version von JDK 8 auf JDK 17 umgestellt. Diese Änderung erfolgt aufgrund der geplanten Deaktivierung und des End-of-Support für JDK 8. Dies wirkt sich auf Folgendes aus:
- Java-Code, der auf Azure Databricks ausgeführt wird, muss mit Java 17 kompatibel sein.
- Skalarer Code, der in Notizbüchern oder Azure Databricks compute ausgeführt wird, muss mit Java 17 kompatibel sein.
- Auf compute installierte Java- und Scala-Bibliotheken müssen mit Java 17 kompatibel sein.
- Versionen des Apache Hive-Metastore-Clients unter 2.x. Das Festlegen der Spark-Konfiguration
spark.sql.hive.metastore.version
auf eine Version unter 2.x führt zu Kompatibilitätsproblemen mit Java 17 und Verbindungsfehlern mit dem Hive-Metastore. Databricks empfiehlt ein Upgrade von Hive auf eine Version über 2.0.0.
Wenn Sie auf Java 8 zurücksetzen müssen, fügen Sie den Spark-Umgebungsvariablen Folgendes hinzu, wenn Sie Ihre Azure Databricks-Berechnung konfigurieren:
JNAME=zulu8-ca-amd64
Wenn Sie ARM-Instanzen verwenden, verwenden Sie Folgendes:
JNAME=zulu8-ca-arm64
Weitere Informationen zum Angeben von JDK-Versionen mit Azure Databricks Compute finden Sie unter Erstellen eines Clusters, der JDK 17 verwendet.
Hilfe zum Migrieren ihres Codes aus Java 8 finden Sie in den folgenden Handbüchern:
Bahnbrechende Änderung: Gehostetes RStudio ist Ende der Lebensdauer
Mit dieser Version ist databricks-hosted RStudio Server ende-of-life und nicht für jeden Azure Databricks-Arbeitsbereich verfügbar, in dem Databricks Runtime 16.0 und höher ausgeführt wird. Weitere Informationen und eine Liste der Alternativen zu RStudio finden Sie unter "Hosted RStudio Server deprecation".
Unterbrechung der Änderung: Entfernen der Unterstützung für das Ändern byte
von Typen short
int
und long
Typen auf breitere Typen
In Databricks Runtime 15.4.3 und höher können die folgenden Datentypänderungen nicht mehr auf Tabellen angewendet werden, für die das Feature "Typverbreiterung" aktiviert ist:
byte
,short
undint
long
bisdecimal
.byte
,short
undint
bisdouble
.
Diese Änderung wird vorgenommen, um ein einheitliches Verhalten in Delta- und Iceberg-Tabellen sicherzustellen. Weitere Informationen zur Typweiterung finden Sie unter "Typweiterung".
Korrigieren der Analyse von Regex-Mustern mit Negation in geschachtelter Zeichengruppierung
Diese Version enthält eine Änderung zur Unterstützung der korrekten Analyse von Regex-Mustern mit Negation in geschachtelter Zeichengruppierung. Beispielsweise wird [^[abc]]
als „beliebiges Zeichen analysiert, das NICHT abc“ ist.
Darüber hinaus war das Photon-Verhalten mit Spark für geschachtelte Zeichenklassen inkonsistent. Regex-Muster, die geschachtelte Zeichenklassen enthalten, verwenden Photon nicht mehr und verwenden stattdessen Spark. Eine geschachtelte Zeichenklasse ist jedes Muster, das eckige Klammern in eckigen Klammern enthält, z. B. [[a-c][1-3]]
.
Verbessern der Erkennung doppelter Übereinstimmungen im Delta Lake MERGE
In Databricks Runtime 15.4 LTS und darunter schlagen Vorgänge fehl, MERGE
wenn mehrere Zeilen in der Quelltabelle auf der Grundlage der MERGE
in der ON
Klausel angegebenen Bedingung mit derselben Zeile in der Zieltabelle übereinstimmen. In Databricks Runtime 16.0 und höher werden auch bedingungen berücksichtigt, MERGE
die in der WHEN MATCHED
Klausel angegeben sind. Siehe Ausführen eines Upsert-Vorgangs in einer Delta Lake-Tabelle mithilfe von „Merge“.
Die Clusterbibliothek-Installationsmethode kann nicht mehr außer Kraft gesetzt werden.
Die Spark-Konfigurationen und spark.databricks.libraries.enableCRANResolutionnow
spark.databricks.libraries.enableMavenResolution
jetzt standardmäßig true
und können nicht überschrieben spark.databricks.libraries.enableSparkPyPI
werden.
Standardtimeout von zwei Stunden für Installationen mit Clusterbereichsbibliothek
In Databricks Runtime 16.0 und höher verfügt die Clusterbibliothekinstallation über ein Standardtimeout von zwei Stunden. Bibliotheksinstallationen, die länger als dieses Timeout dauern, schlagen fehl, und die Installation wird beendet. Beim Konfigurieren eines Clusters können Sie den Timeoutzeitraum mithilfe der Spark-Konfiguration spark.databricks.driver.clusterLibraryInstallationTimeoutSec
ändern.
Installieren von Bibliotheken aus DBFS und Festlegen der Spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed
sind deaktiviert
In Databricks Runtime 16.0 und höher ist die Installation von Bibliotheken aus DBFS vollständig deaktiviert. Diese Änderung wird vorgenommen, um die Sicherheit von Bibliotheken in einem Databricks-Arbeitsbereich zu verbessern. Darüber hinaus können Sie in Databricks Runtime 16.0 und höher die Spark-Konfiguration spark.databricks.driver.dbfsLibraryInstallationAllowed
nicht mehr verwenden.
Die addArtifact()
Funktionalität ist jetzt in allen Computetypen konsistent.
Mit dieser Version wird das Archiv automatisch entpackt, wenn Sie addArtifact(archive = True)
eine Abhängigkeit zu freigegebenen oder serverlosen Azure Databricks-Berechnungen hinzufügen. Durch diese Änderung wird das Verhalten "addArtifact(archive = True) für diese Computetypen im Einklang mit der Berechnung einzelner Benutzer, die bereits das automatische Entpacken von Archiven unterstützt.
Neue Features und Verbesserungen
- Zuverlässigeres Neuladen von modifizierten Python-Modulen mit Verbesserungen
autoreload
- Avro-Unterstützung für rekursives Schema
- Erweiterte Unterstützung für confluent Schema Registry für Avro
- Erzwingen der Neuclusterung auf Tischen mit flüssiger Clusterung
- Die Delta-APIs für Python und Scala unterstützen jetzt Identitätsspalten
- Feinkörnige Zugriffssteuerung für die Berechnung einzelner Benutzer ist allgemein verfügbar.
- Erstellen flüssiger gruppierter Tabellen während des Streaming-Schreibvorgangs
- Unterstützung für die OPTIMIZE FULL-Klausel
- Unterstützung für die SPEZIFIKATION von WITH-Optionen in INSERT und Tabellenreferenz
- Neue SQL-Funktionen
- Aktivieren der automatischen Schemaentwicklung beim Zusammenführen von Daten in eine Delta-Tabelle
Zuverlässigeres Neuladen von modifizierten Python-Modulen mit Verbesserungen autoreload
In Databricks Runtime 16.0 und höher verbessern Updates der autoreload
Erweiterung die Sicherheit und Zuverlässigkeit des Neuladens von geänderten Python-Modulen, die aus Arbeitsbereichsdateien importiert wurden. Bei diesen Änderungen lädt nach autoreload
Möglichkeit nur der Teil eines Moduls neu, der sich anstelle des gesamten Moduls geändert hat. Darüber hinaus schlägt Azure Databricks jetzt automatisch vor, die autoreload
Erweiterung zu verwenden, wenn sich das Modul seit dem letzten Import geändert hat. Siehe Autoreload für Python-Module.
Avro-Unterstützung für rekursives Schema
Sie können jetzt die Option mit der recursiveFieldMaxDepth
from_avro
Funktion und der avro
Datenquelle verwenden. Diese Option legt die maximale Tiefe für die Schema rekursion in der Avro-Datenquelle fest. Siehe Lesen und Schreiben von Avro-Streamingdaten.
Erweiterte Unterstützung für confluent Schema Registry für Avro
Azure Databricks unterstützt jetzt avro schema reference with the Confluent Schema Registry. Siehe Authentifizieren bei einer externen Confluent-Schemaregistrierung.
Erzwingen der Neuclusterung auf Tischen mit flüssiger Clusterung
In Databricks Runtime 16.0 und höher können Sie die OPTIMIZE FULL
Syntax verwenden, um die Neuclusterung aller Datensätze in einer Tabelle mit aktivierter Flüssigclusterung zu erzwingen. Siehe " Neuclustering erzwingen" für alle Datensätze.
Die Delta-APIs für Python und Scala unterstützen jetzt Identitätsspalten
Sie können jetzt die Delta-APIs für Python und Scala verwenden, um Tabellen mit Identitätsspalten zu erstellen. Weitere Informationen finden Sie unter Verwenden von Identitätsspalten in Delta Lake.
Feinkörnige Zugriffssteuerung für die Berechnung einzelner Benutzer ist allgemein verfügbar.
In Databricks Runtime 16.0 und höher ist eine differenzierte Zugriffssteuerung für die Berechnung einzelner Benutzer allgemein verfügbar. In Arbeitsbereichen, die für die serverlose Berechnung aktiviert sind, wenn eine Abfrage auf unterstützter Compute ausgeführt wird, z. B. einzelner Benutzer, und die Abfrage greift auf eines der folgenden Objekte zu, übergibt die Computeressource die Abfrage an den serverlosen Compute, um die Datenfilterung auszuführen:
- Ansichten, die über Tabellen definiert sind, für die der Benutzer nicht über die
SELECT
Berechtigungen verfügt. - Dynamische Ansichten.
- Tabellen mit angewendeten Zeilenfiltern oder Spaltenformaten.
- Materialisierte Ansichten und Streamingtabellen.
Erstellen flüssiger gruppierter Tabellen während des Streaming-Schreibvorgangs
Sie können jetzt clusterBy
das Liquid Clustering aktivieren, wenn Sie neue Tabellen mit strukturierten Streaming-Schreibvorgängen erstellen. Weitere Informationen finden Sie unter Aktivieren des Liquid Clustering.
Unterstützung für die OPTIMIZE FULL-Klausel
Databricks Runtime 16.0 unterstützt die OPTIMIZE FULL-Klausel . Diese Klausel optimiert alle Datensätze in einer Tabelle, die flüssigen Clustering verwendet, einschließlich Daten, die zuvor gruppiert wurden.
Unterstützung für die SPEZIFIKATION von WITH-Optionen in INSERT und Tabellenreferenz
Databricks Runtime 16.0 unterstützt eine Optionsspezifikation für Tabellenverweise und Tabellennamen einer INSERT
Anweisung, die zum Steuern des Verhaltens von Datenquellen verwendet werden kann.
Neue SQL-Funktionen
Die folgenden SQL-Funktionen werden in Databricks Runtime 16.0 hinzugefügt:
-
Diese Funktion ist eine fehlertolerante Version von url_decode. Diese Funktion gibt zurück
NULL
, wenn die Eingabe keine gültige URL-codierte Zeichenfolge ist. -
Wenn der Eingabeausdruck für die
zeroifnull()
Funktion lautetNULL
, gibt die Funktion 0 zurück. Andernfalls wird der Wert des Eingabeausdrucks zurückgegeben. -
Gibt zurück
NULL
, wenn die Eingabe 0 oder die Eingabe ist, wenn sie nicht 0 ist. Wenn der Eingabeausdruck für dienullifzero()
Funktion 0 ist, gibt die Funktion zurückNULL
. Wenn der Eingabeausdruck nicht 0 ist, wird der Wert des Eingabeausdrucks zurückgegeben.
Aktivieren der automatischen Schemaentwicklung beim Zusammenführen von Daten in eine Delta-Tabelle
Diese Version fügt Unterstützung für das withSchemaEvolution()
Mitglied der DeltaMergeBuilder
Klasse hinzu. Wird verwendet withSchemaEvolution()
, um die automatische Schemaentwicklung während des MERGE
Betriebs zu aktivieren. Beispiel: mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}
.
Weitere Änderungen
SparkR ist jetzt veraltet
In Databricks Runtime 16.0 und höher ist SparkR in Databricks in Vorbereitung auf seine Veraltetkeit in der kommenden Spark 4-Version veraltet . Siehe den Apache Spark Deprecate SparkR-Thread.
Databricks empfiehlt stattdessen die Verwendung von Sparklyr .
Databricks Runtime 16.0 wird mit PVC nicht unterstützt
Databricks Runtime 16.0 wird von Databricks Private Virtual Cloud (PVC) nicht unterstützt. Sie müssen Databricks Runtime 15.4 oder darunter mit allen PVC-Versionen verwenden.
Fehlerkorrekturen
Auto Loader rettet jetzt Avro-Datensatztypen mit leeren Schemas.
Beim Laden einer Avro-Datei in eine Delta-Tabelle mit auto Loader werden die Typen in der Datei, die über ein leeres Schema verfügen, record
jetzt der spalte "gerettete Daten" hinzugefügt. Da Sie keine leeren komplexen Datentypen in eine Delta-Tabelle aufnehmen können, wird ein Problem beim Laden einiger Avro-Dateien behoben. Weitere Informationen zu geretteten Daten finden Sie unter Was ist die Spalte für gerettete Daten?.
Fehler beim Schreiben von Zeitstempeln mit Zeitzonen, die einen zweiten Offset enthalten.
Diese Version behebt einen Fehler, der sich auf einige Zeitstempel mit Zeitzonen auswirkt, die einen zweiten Offset enthalten. Dieser Fehler verursacht, dass die Sekunden beim Schreiben in JSON, XML oder CSV weggelassen werden, was zu falschen Zeitstempelwerten führt.
Um zum vorherigen Verhalten zurückzukehren, verwenden Sie beim Schreiben in eines der betroffenen Formate die folgende Option: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]")
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- azure-core von 1.30.2 bis 1.31.0
- azure-storage-blob von 12.19.1 bis 12.23.0
- azure-storage-file-datalake von 12.14.0 bis 12.17.0
- schwarz von 23.3.0 bis 24.4.2
- blinker von 1,4 bis 1.7.0
- boto3 von 1.34.39 bis 1.34.69
- Botocore von 1.34.39 bis 1.34.69
- certifi from 2023.7.22 to 2024.6.2
- cffi von 1.15.1 bis 1.16.0
- klicken Sie von 8.0.4 bis 8.1.7
- comm von 0.1.2 bis 0.2.1
- Konturpy von 1.0.5 bis 1.2.0
- Kryptografie von 41.0.3 bis 42.0.5
- Cython von 0.29.32 bis 3.0.11
- databricks-sdk von 0.20.0 bis 0.30.0
- dbus-python von 1.2.18 bis 1.3.2
- filelock von 3.13.4 auf 3.15.4
- fonttools von 4.25.0 bis 4.51.0
- GitPython von 3.1.43 bis 3.1.37
- google-api-core von 2.18.0 bis 2.20.0
- google-auth von 2.31.0 bis 2.35.0
- google-cloud-storage von 2.17.0 bis 2.18.2
- google-crc32c von 1.5.0 bis 1.6.0
- google-resumable-media von 2.7.1 auf 2.7.2
- googleapis-common-protos von 1.63.2 bis 1.65.0
- httplib2 von 0.20.2 bis 0.20.4
- idna von 3.4 bis 3.7
- ipykernel von 6.25.1 bis 6.28.0
- ipython von 8.15.0 bis 8.25.0
- jedi von 0.18.1 bis 0.19.1
- jmespath von 0.10.0 bis 1.0.1
- joblib von 1.2.0 bis 1.4.2
- jupyter_client von 7.4.9 bis 8.6.0
- jupyter_core von 5.3.0 bis 5.7.2
- launchpadlib von 1.10.16 bis 1.11.0
- lazr.restfulclient von 0.14.4 bis 0.14.6
- matplotlib von 3.7.2 bis 3.8.4
- mlflow-skinny von 2.11.4 bis 2.15.1
- more-itertools von 8.10.0 bis 10.3.0
- mypy-extensions von 0.4.3 bis 1.0.0
- nest-asyncio von 1.5.6 bis 1.6.0
- numpy von 1.23.5 bis 1.26.4
- oauthlib von 3.2.0 bis 3.2.2
- Verpackung von 23.2 bis 24.1
- Patsy von 0.5.3 bis 0.5.6
- Pip von 23.2.1 bis 24.2
- zeichnungsmäßig von 5.9.0 bis 5.22.0
- prompt-toolkit von 3.0.36 bis 3.0.43
- Pyarrow von 14.0.1 bis 15.0.2
- Pydantisch von 1.10.6 bis 2.8.2
- PyGObject von 3.42.1 bis 3.48.2
- PyJWT von 2.3.0 bis 2.7.0
- Pyodbc von 4.0.38 bis 5.0.1
- python-dateutil von 2.8.2 bis 2.9.0.post0
- python-lsp-jsonrpc von 1.1.1 bis 1.1.2
- pytz von 2022.7 bis 2024.1
- PyYAML von 6.0 bis 6.0.1
- pyzmq von 23.2.0 bis 25.1.2
- Anfragen von 2.31.0 bis 2.32.2
- scikit-learn von 1.3.0 bis 1.4.2
- scipy von 1.11.1 bis 1.13.1
- seegeboren von 0.12.2 bis 0.13.2
- setuptools von 68.0.0 bis 74.0.0
- smmap von 5.0.1 bis 5.0.0
- sqlparse von 0.5.0 bis 0.5.1
- statsmodels from 0.14.0 to 0.14.2
- Tornado von 6.3.2 bis 6.4.1
- Traitlets von 5.7.1 bis 5.14.3
- typing_extensions von 4.10.0 bis 4.11.0
- ujson von 5.4.0 bis 5.10.0
- virtualenv von 20.24.2 bis 20.26.2
- Rad von 0.38.4 bis 0.43.0
- zipp von 3.11.0 bis 3.17.0
- Aktualisierte R-Bibliotheken:
- Pfeil von 14.0.0.2 bis 16.1.0
- Backports von 1.4.1 auf 1.5.0
- Basis von 4.3.2 bis 4.4.0
- Bitops von 1,0-7 bis 1,0-8
- boot from 1.3-28 to 1.3-30
- brio von 1.1.4 bis 1.1.5
- Broom von 1.0.5 bis 1.0.6
- bslib von 0.6.1 bis 0.8.0
- cachem from 1.0.8 to 1.1.0
- Callr von 3.7.3 bis 3.7.6
- cli von 3.6.2 bis 3.6.3
- Uhr von 0.7.0 bis 0.7.1
- Cluster von 2.1.4 bis 2.1.6
- Codetools von 0.2-19 bis 0.2-20
- Farbraum von 2.1-0 bis 2.1-1
- Compiler von 4.3.2 auf 4.4.0
- Crayon von 1.5.2 bis 1.5.3
- curl von 5.2.0 bis 5.2.1
- data.table von 1.15.0 bis 1.15.4
- Datasets von 4.3.2 bis 4.4.0
- DBI von 1.2.1 bis 1.2.3
- dbplyr von 2.4.0 bis 2.5.0
- Digest von 0.6.34 auf 0.6.36
- downlit from 0.4.3 to 0.4.4.4
- von 0,23 bis 0.24.0 auswerten
- weit von 2.1.1 bis 2.1.2
- fastmap von 1.1.1 bis 1.2.0
- fremd von 0,8-85 bis 0,8-86
- fs von 1.6.3 bis 1.6.4
- Zukunft von 1.33.1 bis 1.34.0
- future.apply von 1.11.1 bis 1.11.2
- gert von 2.0.1 bis 2.1.0
- ggplot2 von 3.4.4 bis 3.5.1
- gh von 1.4.0 bis 1.4.1
- Globals von 0.16.2 bis 0.16.3
- Grafiken von 4.3.2 bis 4.4.0
- grDevices von 4.3.2 bis 4.4.0
- Raster von 4.3.2 bis 4.4.0
- gt von 0.10.1 bis 0.11.0
- gtable von 0.3.4 bis 0.3.5
- hardhat von 1.3.1 bis 1.4.0
- highr von 0,10 auf 0,11
- htmltools von 0.5.7 bis 0.5.8.1
- httpuv von 1.6.14 bis 1.6.15
- httr2 von 1.0.0 bis 1.0.2
- ipred from 0.9-14 to 0.9-15
- KernSmooth von 2.23-21 bis 2.23-22
- knitr von 1.45 bis 1.48
- Gitter von 0,21-8 bis 0,22-5
- Lava von 1.7.3 bis 1.8.0
- Markdown von 1.12 auf 1.13
- MASS von 7.3-60 bis 7.3-60.0.1
- Matrix von 1.5-4.1 bis 1.6-5
- methoden von 4.3.2 bis 4.4.0
- mgcv von 1,8-42 bis 1,9-1
- mlflow von 2.10.0 bis 2.14.1
- munsell von 0.5.0 bis 0.5.1
- nlme von 3.1-163 bis 3.1-165
- openssl von 2.1.1 bis 2.2.0
- parallel von 4.3.2 bis 4.4.0
- parallel von 1.36.0 bis 1.38.0
- pkgbuild von 1.4.3 bis 1.4.4
- pkgdown von 2.0.7 bis 2.1.0
- pkgload von 1.3.4 bis 1.4.0
- processx von 3.8.3 bis 3.8.4
- prodlim von 2023.08.28 bis 2024.06.25
- Zusagen von 1.2.1 bis 1.3.0
- ps von 1.7.6 bis 1.7.7
- Ragg von 1.2.7 bis 1.3.2
- Rcpp von 1.0.12 bis 1.0.13
- RcppEigen von 0.3.3.9.4 bis 0.3.4.0.0
- reactR von 0.5.0 bis 0.6.0
- Rezepte von 1.0.9 bis 1.1.0
- remotes von 2.4.2.1 bis 2.5.0
- Reprex von 2.1.0 auf 2.1.1
- rlang von 1.1.3 bis 1.1.4
- Markierung von 2.25 bis 2.27
- roxygen2 von 7.3.1 bis 7.3.2
- rpart von 4.1.21 bis 4.1.23
- RSQLite von 2.3.5 bis 2.3.7
- rstudioapi von 0.15.0 bis 0.16.0
- rvest von 1.0.3 bis 1.0.4
- sass von 0.4.8 bis 0.4.9
- Shape von 1.4.6 bis 1.4.6.1
- glanzvoll von 1.8.0 bis 1.9.1
- sparklyr von 1.8.4 bis 1.8.6
- raum von 7.3-15 bis 7.3-17
- splines von 4.3.2 bis 4.4.0
- Statistiken von 4.3.2 bis 4.4.0
- stats4 von 4.3.2 bis 4.4.0
- stringi von 1.8.3 bis 1.8.4
- Überleben von 3,5-5 bis 3,6-4
- swagger von 3.33.1 bis 5.17.14.1
- systemfonts von 1.0.5 bis 1.1.0
- tcltk von 4.3.2 bis 4.4.0
- testthat from 3.2.1 to 3.2.1.1
- Textshaping von 0.3.7 auf 0.4.0
- aufräumen von 1.2.0 bis 1.2.1
- Tinytex von 0,49 bis 0,52
- Tools von 4.3.2 bis 4.4.0
- usethis from 2.2.2 to 3.0.0
- utils from 4.3.2 to 4.4.0
- uuid von 1.2-0 bis 1.2-1
- V8 von 4.4.1 bis 4.4.2
- withr von 3.0.0 bis 3.0.1
- xfun von 0,41 bis 0,46
- xopen von 1.0.0 bis 1.0.1
- yaml von 2.3.8 bis 2.3.10
- Aktualisierte Java-Bibliotheken:
- com.amazonaws.aws-java-sdk-autoscaling von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudhsm von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudsearch von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudtrail von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatch von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatchmetrics von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-codedeploy von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cognitoidentity von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-cognitosync von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-config von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-core von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-datapipeline von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-directconnect von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-directory von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-db von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-ec2 von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-ecs von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-efs von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-elasticache von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-elasticbeanstalk von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-elasticloadbalancing von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-emr von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-glacier von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-glue von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-iam von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-importexport von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-kinesis von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-kms von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-lambda von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-logs von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-machinelearning von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-opsworks von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-rds von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-redshift von 1.12.610 auf 1.12.638
- com.amazonaws.aws-java-sdk-route53 von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-s3 von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-ses von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-simpledb von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-simpleworkflow von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-sns von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-sqs von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-ssm von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-storagegateway von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-sts von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-support von 1.12.610 bis 1.12.638
- com.amazonaws.aws-java-sdk-workspaces von 1.12.610 bis 1.12.638
- com.amazonaws.jmespath-java von 1.12.610 bis 1.12.638
- com.google.protobuf.protobuf-java von 2.6.1 bis 3.25.1
- io.airlift.aircompressor von 0.25 bis 0.27
- io.delta.delta-sharing-client_2.12 von 1.1.3 bis 1.2.0
- io.netty.netty-all von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-buffer from 4.1.96.Final to 4.1.108.Final
- io.netty.netty-codec von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-codec-http von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-codec-http2 von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-codec-socken von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-common von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-handler von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-handler-proxy von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-resolver von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-transport from 4.1.96.Final to 4.1.108.Final
- io.netty.netty-transport-classes-epoll von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-transport-classes-kqueue von 4.1.96.Final bis 4.1.108.Final
- io.netty.netty-transport-native-epoll von 4.1.96.Final-linux-x86_64 bis 4.1.108.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue von 4.1.96.Final-osx-x86_64 bis 4.1.108.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common von 4.1.96.Final bis 4.1.108.Final
- org.apache.ivy.ivy.ivy von 2.5.1 bis 2.5.2
- org.apache.zookeeper.zookeeper von 3.6.3 bis 3.9.2
- org.apache.zookeeper.zookeeper-jute von 3.6.3 bis 3.9.2
- org.rocksdb.rocksdbjni von 8.11.4 bis 9.2.1
- org.scalactic.scalactic_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-compatible von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-core_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-diagrams_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-featurespec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-flatspec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-freespec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-funspec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-funsuite_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-matchers-core_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-mustmatchers_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-propspec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-refspec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-shouldmatchers_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest-wordspec_2.12 von 3.2.15 bis 3.2.16
- org.scalatest.scalatest_2.12 von 3.2.15 bis 3.2.16
Apache Spark
Databricks Runtime 16.0 umfasst Apache Spark 3.5.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 15.4 LTS enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-49093] [DBRRM-1371] Wiederherstellen von "[SC-172958][SQL] GROUP BY mit MapType nes...
- [SPARK-49898] [DBRRM-1282][SC-178410] Beheben der Dokumentation und standard für Ereignisprotokoll-Vorgangsmetriken akkumulator protokollierung flag von SPARK-42204
- [SPARK-49743] [ES-1260022][VERHALTEN-157][SC-177475][SQL] OptimizeCsvJsonExpr sollte beim Löschen von GetArrayStructFields keine Schemafelder ändern
- [SPARK-49816] [SC-177896][SQL] Sollte nur die out-going-ref-count für referenzierte äußere CTE-Beziehung aktualisieren
- [SPARK-48939] [SC-177022][SC-172766][AVRO] Unterstützen des Lesens von Avro mit rekursiver Schemareferenz
- [SPARK-49688] [SC-177468][ES-1242349][CONNECT] Korrigieren eines Datenrennens zwischen Unterbrechungs- und Ausführungsplan
- [SPARK-49771] [SC-177466][PYTHON] Verbessern des UDF-Fehlers "Pandas Scalar Iter", wenn Ausgabezeilen Eingabezeilen überschreiten
- [SPARK-48866] [SC-170772][SQL] Beheben Sie Hinweise auf gültige Zeichen in der Fehlermeldung von INVALID_PARAMETER_VALUE. ZEICHENSATZ
- [SPARK-48195] [FIXFORWARD][SC-177267][CORE] Speichern und Wiederverwenden von RDD/Broadcast, das von SparkPlan erstellt wurde
- [SPARK-49585] [CONNECT] Ersetzen der Ausführungszuordnung in SessionHolder durch operationID-Satz
- [SPARK-49211] [SC-174257][SQL] V2-Katalog kann auch integrierte Datenquellen unterstützen
- [SPARK-49684] Minimieren der Lebensdauer der Sitzungswiederherstellungssperre
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPARK-48291] Strukturiertes Protokollframework auf der Java-Seite
- [SPARK-48857] [SC-170661][SQL] Einschränken von Zeichenmengen in CSVOptions
- [SPARK-49152] [SC-173690][SQL] V2SessionCatalog sollte V2Command verwenden
- [SPARK-42846] [SC-176588][SQL] Fehlerbedingung _LEGACY_ERROR_TEMP_2011 entfernen
- [SPARK-48195] [SC-177267][CORE] Speichern und Wiederverwenden von RDD/Broadcast, das von SparkPlan erstellt wurde
- [SPARK-49630] [SC-177379][SS] Option "Flaches Hinzufügen" zum Verarbeiten von Sammlungstypen mit Statusdatenquellenleser
- [SPARK-49699] [SC-177154][SS] Deaktivieren von PruneFilters für Streaming-Workloads
- [SPARK-48781] [SC-175282][SQL] Hinzufügen von Katalog-APIs zum Laden gespeicherter Prozeduren
- [SPARK-49667] [SC-177068][SQL] Unzulässige CS_AI Sortatoren mit Ausdrücken, die StringSearch verwenden
- [SPARK-49737] [SC-177207][SQL] Bucketing für sortierte Spalten in komplexen Typen deaktivieren
- [SPARK-48712] [SC-169794][SQL] Perf Improvement for encode with empty values or UTF-8 charset
- [SPARK-49038] [SC-173933][SQL] SQLMetric sollte den Rohwert im Akkumulatorupdateereignis melden.
- [SPARK-48541] [SC-169066][CORE] Hinzufügen eines neuen Beendigungscodes für von TaskReaper getötete Executoren
- [SPARK-48774] [SC-170138][SQL] Verwenden von SparkSession in SQLImplicits
- [SPARK-49719] [SC-177139][SQL] Ganze Zahl erstellen
UUID
undSHUFFLE
akzeptierenseed
- [SPARK-49713] [SC-177135][PYTHON][CONNECT] Funktion akzeptieren
count_min_sketch
Zahlenargumente - [SPARK-47601] [SC-162499][GRAPHX] Graphx: Migrieren von Protokollen mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-49738] [SC-177219][SQL] Endswith Bug Fix
- [SPARK-48623] [SC-170822][CORE] Strukturierte Protokollierungsmigrationen [Teil 3]
- [SPARK-49677] [SC-177148][SS] Stellen Sie sicher, dass Änderungsprotokolldateien beim Commit geschrieben werden und das Flag "forceSnapshot" ebenfalls zurückgesetzt wird.
- [SPARK-49684] [SC-177040][CONNECT] Entfernen von globalen Sperren aus Sitzungs- und Ausführungs-Managern
- [SPARK-48302] [SC-168814][PYTHON] Beibehalten von Nullen in Kartenspalten in PyArrow-Tabellen
- [SPARK-48601] [SC-169025][SQL] Bereitstellen einer benutzerfreundlicheren Fehlermeldung beim Festlegen eines NULL-Werts für OPTION
- [SPARK-48635] [SC-169263][SQL] Zuweisen von Klassen zu Verknüpfungstypfehlern und Verknüpfungsfehlern als Verknüpfungsfehler
- [SPARK-49673] [SC-177032][CONNECT] Erhöhen Sie CONNECT_GRPC_ARROW_MAX_BATCH_SIZE auf 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
- [SPARK-49693] [SC-177071][PYTHON][CONNECT] Verfeinern der Zeichenfolgendarstellung von
timedelta
- [SPARK-49687] [SC-176901][SQL] Verzögern der Sortierung in
validateAndMaybeEvolveStateSchema
- [SPARK-49718] [SC-177112][PS] Wechseln der
Scatter
Zeichnung zu beispielierten Daten - [SPARK-48472] [SC-169044] [SQL] Aktivieren von Reflektionsausdrücken mit sortierten Zeichenfolgen
- [SPARK-48484] [SC-167484][SQL] Fix: V2Write verwendet dieselbe TaskAttemptId für verschiedene Vorgangsversuche.
- [SPARK-48341] [SC-166560][CONNECT] Plug-Ins die Verwendung von QueryTest in ihren Tests zulassen
- [SPARK-42252] [SC-168723][CORE] Hinzufügen
spark.shuffle.localDisk.file.output.buffer
und Veraltetspark.shuffle.unsafe.file.output.buffer
- [SPARK-48314] [SC-166565][SS] Doppelte Cachedateien für FileStreamSource nicht mit Trigger.AvailableNow
- [SPARK-49567] [SC-176241][PYTHON] Anstelle der
vanilla
PySpark-Codebasis verwendenclassic
- [SPARK-48374] [SC-167596][PYTHON] Unterstützung zusätzlicher PyArrow Table-Spaltentypen
- [SPARK-48300] [SC-166481][SQL] Codegen-Unterstützung für
from_xml
- [SPARK-49412] [SC-177059][PS] Berechnen aller Boxplotmetriken in einem einzigen Auftrag
- [SPARK-49692] [SC-177031][PYTHON][CONNECT] Verfeinern der Zeichenfolgendarstellung von Literaldatum und Datetime
- [SPARK-49392] [ES-1130351][SC-176705][SQL] Erfassen von Fehlern beim Fehler beim Schreiben in externe Datenquelle
- [SPARK-48306] [SC-166241][SQL] Verbessern von UDT in der Fehlermeldung
- [SPARK-44924] [SC-166379][SS] Hinzufügen der Konfiguration für zwischengespeicherte FileStreamSource-Dateien
- [SPARK-48176] [SC-165644][SQL] Anpassen des Namens FIELD_ALREADY_EXISTS Fehlerbedingung
- [SPARK-49691] [SC-176988][PYTHON][CONNECT] Funktion
substring
sollte Spaltennamen akzeptieren - [SPARK-49502] [SC-176077][CORE] Vermeiden Von NPE in SparkEnv.get.shuffleManager.unregisterShuffle
- [SPARK-49244] [SC-176703][SQL] Weitere Ausnahmeverbesserungen für Parser/Interpreter
- [SPARK-48355] [SC-176684][SQL] Support für CASE-Anweisung
- [SPARK-49355] [SC-175121][SQL]
levenshtein
sollte überprüfen, ob diecollation
Werte aller Parametertypen identisch sind. - [SPARK-49640] [SC-176953][PS] Anwenden der Reservoirsampling in
SampledPlotBase
- [SPARK-49678] [SC-176857][CORE] Support
spark.test.master
inSparkSubmitArguments
- [SPARK-49680] [SC-176856][PYTHON] Buildparallelität standardmäßig auf 4 beschränken
Sphinx
- [SPARK-49396] Wiederherstellen von "[SC-176030][SQL] Ändern der Nullbarkeitsprüfung für CaseWhen-Ausdruck"
- [SPARK-48419] [SC-167443][SQL] Faltbare Verteilung ersetzen faltbare Säulen-Shoul...
- [SPARK-49556] [SC-176757][SQL] Hinzufügen einer SQL-Pipesyntax für den SELECT-Operator
- [SPARK-49438] [SC-175237][SQL] Korrigieren Sie den hübschen Namen des &
FromAvro
ToAvro
Ausdrucks - [SPARK-49659] [SC-1229924][SQL] Hinzufügen eines schönen benutzerbezogenen Fehlers für skalare Unterabfragen innerhalb der VALUES-Klausel
- [SPARK-49646] [SC-176778][SQL] Korrigieren der Unterabfragendekorrelation für Union-/Set-Vorgänge, wenn parentOuterReferences Verweise enthält, die in "collectedChildOuterReferences" nicht behandelt werden
- [SPARK-49354] [SC-175034][SQL]
split_part
sollte überprüfen, ob diecollation
Werte aller Parametertypen identisch sind. - [SPARK-49478] [SC-175914][CONNECT] Behandeln von NULL-Metriken in ConnectProgressExecutionListener
- [SPARK-48358] [SC-176374][SQL] Unterstützung für REPEAT-Anweisung
- [SPARK-49183] [SC-173680][SQL] V2SessionCatalog.createTable sollte PROP_IS_MANAGED_LOCATION
- [SPARK-49611] [SC-176791][SQL] Einführung in TVF
collations()
und Entfernen desSHOW COLLATIONS
Befehls - [SPARK-49261] [SC-176589][SQL] Ersetzen Sie Literale in Aggregatausdrücken nicht durch Gruppierungen nach Ausdrücken.
- [SPARK-49099] [SC-173229][SQL] CatalogManager.setCurrentNamespace sollte benutzerdefinierten Sitzungskatalog respektieren
- [SPARK-49594] [SC-176569][SS] Hinzufügen von Überprüfungen, ob columnFamilies zum Schreiben der StateSchemaV3-Datei hinzugefügt oder entfernt wurden
- [SPARK-49578] [SC-176385][SQL] Entfernen des ANSI-Konfigurationsvorschlags in CAST_INVALID_INPUT und CAST_OVERFLOW
- [SPARK-48882] [SC-174256][SS] Zuweisen von Namen zu Streamingausgabemodus-bezogenen Fehlerklassen
- [SPARK-49155] [SC-176506][SQL][SS] Verwenden des passenderen Parametertyps zum Erstellen
GenericArrayData
- [SPARK-49519] [SC-176388][SQL] Zusammenführen von Tabellen- und Relationsoptionen beim Erstellen von FileScanBuilder
- [SPARK-49591] [SC-176587][SQL] Spalte "Logischer Typ" zu Variant-Readme hinzufügen
- [SPARK-49596] [SC-176423][SQL] Verbessern der Leistung von
FormatString
- [SPARK-49525] [SC-176044][SS][CONNECT] Kleinere Protokollverbesserung für serverseitiges Streaming-AbfragelistenerBus Listener
- [SPARK-49583] [SC-176272][SQL] Definieren der Fehlerunterbedingung
SECONDS_FRACTION
für ungültiges Sekundenbruchmuster - [SPARK-49536] [SC-176242] Behandeln von Fehlern in Python Streaming-Datenquellendatensatz prefetching
- [SPARK-49443] [SC-176273][SQL][PYTHON] Implementieren sie to_variant_object Ausdruck, und drucken Sie schema_of_variant Ausdrücke OBJECT für Variant-Objekte.
- [SPARK-49544] [SASP-3990][SC-176557][CONNECT] Ersetzen der groben Sperre in SparkConnectExecutionManager durch Gleichzeitige Zuordnung
- [SPARK-49548] [SASP-3990][SC-176556][CONNECT] Ersetzen der groben Sperre in SparkConnectSessionManager durch Gleichzeitige Zuordnung
- [SPARK-49551] [SC-176218][SS] Verbessern des RocksDB-Protokolls für replayChangelog
- [SPARK-49595] [SC-176396][CONNECT][SQL] Fix
DataFrame.unpivot/melt
in Spark Connect Scala Client - [SPARK-49006] [SC-176162] Implementieren der Bereinigung für OperatorStateMetadataV2- und StateSchemaV3-Dateien
- [SPARK-49600] [SC-176426][PYTHON] Entfernen
Python 3.6 and older
-verwandter Logik austry_simplify_traceback
- [SPARK-49303] [SC-176013][SS] Implementieren von TTL für ValueState in transformWithStateInPandas-API
- [SPARK-49191] [SC-176243][SS] Hinzufügen von Unterstützung für das Lesen von TransformWithState-Kartenzustandsvariablen mit Lesezugriff auf Zustandsdatenquellenleser
- [SPARK-49593] [SC-176371][SS] Throw RocksDB exception to the caller on DB close if an error is seen
- [SPARK-49334] [SC-174803][SQL]
str_to_map
sollte überprüfen, ob diecollation
Werte aller Parametertypen identisch sind. - [SPARK-42204] [SC-176126][CORE] Option zum Deaktivieren der redundanten Protokollierung interner TaskMetrics-Akkumulatoren in Ereignisprotokollen hinzufügen
- [SPARK-49575] [SC-176256][SS] Hinzufügen der Protokollierung für die Sperrfreigabe nur, wenn "acquiredThreadInfo" nicht null ist
- [SPARK-49539] [SC-176250][SS] Aktualisieren der internen Spaltenfamilien-Start-ID auf eine andere
- [SPARK-49205] [SC-173853][SQL] KeyGroupedPartitioning sollte HashPartitioningLike erben
- [SPARK-49396] [SC-176030][SQL] Ändern der Nullbarkeitsprüfung für CaseWhen-Ausdruck
- [SPARK-49476] [SC-175700][SQL] Fix nullability of base64 function
- [SPARK-47262] [SC-174829][SQL] Zuweisen von Namen zu Fehlerbedingungen für Parkettumwandlungen
- [SPARK-47247] [SC-158349][SQL] Verwenden Sie kleinere Zielgröße beim Zusammenwachsen von Partitionen mit explodierenden Verknüpfungen.
- [SPARK-49501] [SC-176166][SQL] Beheben der Doppelten Ausweichung der Tabellenposition
- [SPARK-49083] [SC-173214][CONNECT] Zulassen, dass from_xml und from_json nativ mit JSON-Schemas arbeiten
- [SPARK-49043] [SC-174673][SQL] Beheben der interpretierten Codepathgruppe nach Zuordnung mit sortierten Zeichenfolgen
- [SPARK-48986] [SC-172265][CONNECT][SQL] Hinzufügen von ColumnNode-Zwischendarstellung
- [SPARK-49326] [SC-176016][SS] Klassifizieren der Fehlerklasse für Benutzerfunktionsfehler der Foreach-Sink-Spüle
- [SPARK-48348] [SC-175950][SPARK-48376][SQL] Einführung
LEAVE
undITERATE
Anweisungen - [SPARK-49523] [SC-175949][CONNECT] Erhöhen der maximalen Wartezeit, bis der Verbindungsserver zum Testen angezeigt wird
- [SPARK-49000] [VERHALTEN-105][ES-1194747][SQL] Fix "select count(distinct 1) from t" where t is empty table by expanding RewriteDistinctAggregates - DBR version 16.x
- [SPARK-49311] [SC-175038][SQL] Ermöglichen, dass große "Interval Second"-Werte in eine Dezimalzahl umzustellen sind
- [SPARK-49200] [SC-173699][SQL] Beheben der Ausnahme der Nicht-Codegen-Sortierung des Nulltyps
- [SPARK-49467] [SC-176051][SS] Hinzufügen von Unterstützung für Statusdatenquellenleser und Listenstatus
- [SPARK-47307] [SC-170891][SQL] Hinzufügen einer Konfiguration zu optionalen Block base64-Zeichenfolgen
- [SPARK-49391] [SC-176032][PS] Box plot select outliers by distance from zaun
- [SPARK-49445] [SC-175845][UI] Unterstützung der QuickInfo in der Statusleiste der Benutzeroberfläche
- [SPARK-49451] [SC-175702] Doppelte Schlüssel in parse_json zulassen.
- [SPARK-49275] [SC-175701][SQL] Korrigieren der Nullwerte des Rückgabetyps des xpath-Ausdrucks
- [SPARK-49021] [SC-175578][SS] Hinzufügen von Unterstützung für das Lesen von TransformWithState-Wertstatusvariablen mit Lesezugriff auf Zustandsdatenquellenleser
- [SPARK-49474] [VERHALTEN-143][SC-169253][SC-175933][SS] Klassifizierungsfehlerklasse für FlatMapGroupsWithState-Benutzerfunktionsfehler
- [SPARK-49408] [SC-175932][SQL] Verwenden von IndexedSeq in ProjectingInternalRow
- [SPARK-49509] [SC-175853][CORE] Anstelle
Platform.allocateDirectBuffer
vonByteBuffer.allocateDirect
- [SPARK-49382] [SC-175013][PS] Erstellen eines Framefeldplots zum ordnungsgemäßen Rendern der Fliers/Ausreißer
- [SPARK-49002] [SC-172846][SQL] Konsistente Behandlung ungültiger Speicherorte in WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
- [SPARK-49480] [SC-175699][CORE] Beheben von NullPointerException von
SparkThrowableHelper.isInternalError
- [SPARK-49477] [SC-175828][PYTHON] Fehlermeldung "Ungültiger Rückgabetyp" für Pandas udf verbessern
- [SPARK-48693] [SC-169492][SQL] Vereinfachen und Vereinheitlichen von "ToString of Invoke" und "StaticInvoke"
- [SPARK-49441] [SC-175716][ML]
StringIndexer
Sortieren von Arrays in Executoren - [SPARK-49347] [SC-175004][R] Veraltete SparkR
- [SPARK-49357] [SC-175227][CONNECT][PYTHON] Tief geschachtelte Protobuf-Nachricht vertikal abschneiden
- [SPARK-41982] [SC-120604][SQL] Partitions of type string should not be treated as numeric types
- [SPARK-48776] [SC-170452][VERHALTEN-72] Korrigieren der Zeitstempelformatierung für JSON, XML und CSV
- [SPARK-49223] [SC-174800][ML] Vereinfachen der StringIndexer.countByValue mit integrierten Funktionen
- [SPARK-49016] Wiederherstellen von "[SC-174663][SQL] Wiederherstellen des Verhaltens, das von unformatierten CSV-Dateien abgefragt wird, sind unzulässig, wenn nur beschädigte Datensatzspalte eingeschlossen und Name zugewiesen wird
_LEGACY_ERROR_TEMP_1285
" - [SPARK-49041] [SC-172392][PYTHON][CONNECT] Auslösen eines ordnungsgemäßen Fehlers, wenn
dropDuplicates
falschsubset
angegeben wird - [SPARK-49050] [SC-175235] Aktivieren des deleteIfExists-Operators in TWS mit virtuellen Spaltenfamilien
- [SPARK-49216] [SC-173919][CORE]Behebung, dass der Nachrichtenkontext nicht protokolliert wird, wobei "LogEntry" explizit erstellt wurde, wenn "Strukturierte Protokollierung" deaktiviert ist
- [SPARK-49252] [SC-175596][CORE] Make
TaskSetExcludeList
andHeathTracker
independent - [SPARK-49352] [SC-174971][SQL] Vermeiden redundanter Arraytransformationen für identischen Ausdruck
- [SPARK-42307] [SC-173863][SQL] Zuweisen des Namens für fehler _LEGACY_ERROR_TEMP_2232
- [SPARK-49197] [SC-173732][CORE] Redact-Ausgabe
Spark Command
imlauncher
Modul - [SPARK-48913] [SC-173934][SQL] Implementieren von IndentingXMLStreamWriter
- [SPARK-49306] [SC-175363][PYTHON][SQL] Erstellen von SQL-Funktionsaliasen für "zeroifnull" und "nullifzero"
- [SPARK-48344] [SQL] AUSFÜHRUNG von SQL-Skripts (einschließlich Spark Connect)
- [SPARK-49402] [SC-175122][PYTHON] Fix binder integration in pySpark documentation
- [SPARK-49017] [SC-174664][SQL] Insert-Anweisung schlägt fehl, wenn mehrere Parameter verwendet werden
- [SPARK-49318] [SC-174733][SQL] Vorabfehler mit niedriger Priorität auf LCA bis zum Ende der Überprüfungsanalyse, um die Fehlererfahrung zu verbessern
- [SPARK-49016] [SC-174663][SQL] Wiederherstellen des Verhaltens, dass Abfragen aus unformatierten CSV-Dateien nicht zulässig sind, wenn nur beschädigte Datensatzspalte eingeschlossen und Name zugewiesen wird
_LEGACY_ERROR_TEMP_1285
- [SPARK-49387] [SC-175124][PYTHON] Korrigieren von Typhinweisen für
accuracy
in undpercentile_approx
approx_percentile
- [SPARK-49131] [SC-174666][SS] TransformWithState sollte implizite Gruppierungsschlüssel auch mit faulen Iteratoren ordnungsgemäß festlegen
- [SPARK-49301] [SC-174795][SS] Blockpfeildaten, die an Python-Worker übergeben werden
- [SPARK-49039] [SC-174651][UI] Kontrollkästchen zurücksetzen, wenn Executormetriken auf der Registerkarte "Phasen" geladen werden
- [SPARK-48428] [SC-169806][SQL]: Fix IllegalStateException in NestedColumnAliasing
- [SPARK-49353] [SC-174830][SQL] Aktualisieren von Dokumenten im
UTF-32
Zusammenhang mit Codierung/Decodierung - [SPARK-48613] [SC-170966][SQL] SPJ: Unterstützung für automatisches Koppeln einer Seite + weniger Verknüpfungsschlüssel als Partitionsschlüssel
- [SPARK-47473] [SC-160450][VERHALTEN-127][SQL] Behebung des Korrekturproblems beim Konvertieren von Infinity-Zeitstempeln in Postgres INFINITY
- [SPARK-49142] [SC-173658][CONNECT][PYTHON] Nachverfolgung, um proto auf Zeichenfolgenleistungskosten zurückgesetzt zu werden
- [SPARK-49300] [SC-175008][CORE] Beheben Sie hadoop-Delegierungstokenleck, wenn tokenRenewalInterval nicht festgelegt ist.
- [SPARK-49367] [SC-175012][PS] Parallelisieren der KDE-Berechnung für mehrere Spalten (Plotly Back-End)
- [SPARK-49365] [SC-175011][PS] Vereinfachen der Bucketaggregation in hist Plot
- [SPARK-49372] [SC-175003][SS] Stellen Sie sicher, dass "latestSnapshot" auf "none" festgelegt ist, um nachfolgende Verwendung zu vermeiden.
- [SPARK-49341] [SC-174785] Entfernen
connector/docker
zugunsten vonApache Spark Operator
- [SPARK-49344] [SC-174894][PS] Unterstützung
json_normalize
der Pandas-API für Spark - [SPARK-49306] [SC-174794][SQL] Erstellen neuer SQL-Funktionen 'zeroifnull' und 'nullifzero'
- [SPARK-48796] [SC-174668][SS] Laden der Spaltenfamilien-ID von RocksDBCheckpointMetadata für VCF beim Neustart
- [SPARK-49342] [SC-174899][SQL] Festlegen TO_AVRO SQL-Funktion "jsonFormatSchema" optional
- [SPARK-48628] [SC-174695][CORE] Hinzufügen von Heap-Speichermetriken für den Vorgangsspitzenstand
- [SPARK-47407] [SC-159379][VERHALTEN-126][SQL] Unterstützung java.sql.Types.NULL-Zuordnung zu NullType
- [SPARK-48628] [SC-173407][CORE] Hinzufügen von Heap-Speichermetriken für den Vorgangsspitzenstand
- [SPARK-49166] [SC-173987][SQL] Unterstützen von OFFSET in korrelierten Unterabfragen
- [SPARK-49269] [SC-174676][SQL] Werte()-Liste in AstBuilder mit Eifer auswerten
- [SPARK-49281] [SC-174782][SQL] Optimze parkett binary getBytes mit getBytesUnsafe um Kopierkosten zu vermeiden
- [SPARK-49113] [SC-174734] Keine Bestätigung bei Übersetzungsfehlern – verschlucken Sie die Ausnahme im Hintergrund
- [SPARK-49098] [SC-173253][SQL] Hinzufügen von Schreiboptionen für INSERT
- [SPARK-48638] [SC-174694][FOLGEN][CONNECT] Behebungsdokumentation für ExecutionInfo
- [SPARK-49250] [ES-1222826][SQL] Fehlermeldung für geschachtelte UnresolvedWindowExpression in CheckAnalysis verbessern
- [SPARK-48755] [SC-174258][SS][PYTHON] transformWithState pyspark-Basisimplementierung und ValueState-Unterstützung
- [SPARK-48966] [SC-174329][SQL] Verbessern der Fehlermeldung mit ungültigem nicht aufgelöstem Spaltenverweis im UDTF-Aufruf
- [SPARK-46590] [SC-154115][SQL] Fehler beim Beheben der Koaleszenierung mit unerwarteten Partitionsfehlern
- [SPARK-49235] [SC-174159][SQL] Refactor ResolveInlineTables-Regel, sodass die gesamte Struktur nicht durchläuft
- [SPARK-49060] [SC-173107][CONNECT] Bereinigen von Mima-Regeln für SQL-Connect-Binärkompatibilitätsprüfungen
- [SPARK-48762] [SC-172525][SQL] Einführung der clusterBy DataFrameWriter-API für Python
- [SPARK-49207] [SC-173852][SQL] Beheben der 1:n-Fallzuordnung in SplitPart und StringSplitSQL
- [SPARK-49204] [SC-173850][SQL] Beheben der Ersatzpaarbehandlung in StringInstr und StringLocate
- [SPARK-36680] [SC-170640][SQL] Unterstützt Dynamische Tabellenoptionen für Spark SQL
- [SPARK-49204] [SC-173849][SQL] Beheben der Ersatzpaarbehandlung in SubstringIndex
- [SPARK-49204] [SC-173848][SQL] Beheben der Ersatzpaarbehandlung in StringTrim
- [SPARK-48967] [SC-173993]Fix forward SparkConfigOwnershipSuite test for OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851][SQL] Beheben der Ersatzpaarbehandlung in StringReplace
- [SPARK-48967] [SC-173993][SQL][16.x] Verbessern Sie die Leistung und den Speicherbedarf von "INSERT INTO ... VALUES" -Anweisungen
- [SPARK-49099] Revert “[SC-173229][SQL] CatalogManager.setCurrent…
- [SPARK-48347] [SC-173812][SQL] Unterstützung für WHILE-Anweisung
- [SPARK-49128] [SC-173344][CORE] Unterstützung des benutzerdefinierten Verlaufsserver-UI-Titels
- [SPARK-49146] [SC-173825][SS] Verschieben von Assertionsfehlern im Zusammenhang mit fehlendem Wasserzeichen im Anfügemodus-Streamingabfragen in das Fehlerframework
- [SPARK-45787] [SC-172197][SQL] Unterstützen von Catalog.listColumns für Clusteringspalten
- [SPARK-49099] [SC-173229][SQL] CatalogManager.setCurrentNamespace sollte benutzerdefinierten Sitzungskatalog respektieren
- [SPARK-49138] [SC-173483][SQL] Korrigieren von CollationTypeCasts mehrerer Ausdrücke
- [SPARK-49163] [SC-173666][SQL] Versuchen, eine Tabelle basierend auf fehlerhaften Parkettpartitionsdatenergebnissen zu erstellen, sollte ein benutzerorientierter Fehler zurückgegeben werden.
- [SPARK-49201] [SC-173793][PS][PYTHON][CONNECT] Reimplement
hist
plot with Spark SQL - [SPARK-49188] [SC-173682][SQL] Interner Fehler für concat_ws aufgerufen für Arrays von Arrays von Zeichenfolgen
- [SPARK-49137] [SC-173677][SQL] Wenn die boolesche Bedingung in der
if statement
Meldungen ungültig ist, sollte eine Ausnahme ausgelöst werden. - [SPARK-49193] [SC-173672][SQL] Verbessern der Leistung von RowSetUtils.toColumnBasedSet
- [SPARK-49078] [SC-173078][SQL] Unterstützung der Spaltensyntax in v2-Tabelle
- [SPARK-49141] [SC-173388][SQL] Variant als inkompatibler Datentyp markieren
- [SPARK-49059] [Kirschauswahl][15.x][SC-172528][CONNECT] Wechseln
SessionHolder.forTesting(...)
zum Testpaket - [SPARK-49111] [SC-173661][SQL] Move withProjectAndFilter to the companion object of DataSourceV2Strategy
- [SPARK-49185] [SC-173688][PS][PYTHON][CONNECT] Reimplement
kde
plot with Spark SQL - [SPARK-49178] [SC-173673][SQL] Optimieren der Leistung bei Verwendung von
Row#getSeq
Spark 3.5 mit Scala 2.12 - [SPARK-49093] [SC-172958][SQL] GROUP BY mit in komplexem Typ geschachtelter MapType
- [SPARK-49142] [SC-173469][CONNECT][PYTHON] Niedrigere Spark Connect-Clientprotokollebene zum Debuggen
- [SPARK-48761] [SC-172048][SQL] Einführung der clusterBy DataFrameWriter-API für Scala
- [SPARK-48346] [SC-173083][SQL] Unterstützung für IF ELSE-Anweisungen in SQL-Skripts
- [SPARK-48338] [SC-173112][SQL] Verbessern von Ausnahmen, die von Parser/Interpreter ausgelöst werden
- [SPARK-48658] [SC-169474][SQL] Codieren/Decodieren von Funktionen melden Codierungsfehler anstelle von Mojibake für nicht verwendbare Zeichen
- [SPARK-49071] [SC-172954][SQL] ArraySortLike-Eigenschaft entfernen
- [SPARK-49107] "Revert "[SC-173103][SQL]
ROUTINE_ALREADY_EXISTS
supports RoutineType"" wiederherstellen - [SPARK-49070] [SC-172907][SS][SQL] TransformWithStateExec.initialState wird falsch umgeschrieben, um ungültigen Abfrageplan zu erzeugen.
- [SPARK-49114] [SC-173217] Fehler beim Speichern des Zustands können von Unterkategorie nicht geladen werden.
- [SPARK-49107] Zurücksetzen von "[SC-173103][SQL]
ROUTINE_ALREADY_EXISTS
unterstützt RoutineType" - [SPARK-49048] [SC-173223][SS] Unterstützung für das Lesen relevanter Operatormetadaten bei gegebener Batch-ID hinzufügen
- [SPARK-49094] [SC-173049][SQL] Fix ignoreCorruptFiles non-functioning for hive orc impl with mergeSchema off
- [SPARK-49108] [SC-173102][BEISPIEL] Beispiel für das Hinzufügen von
submit_pi.sh
REST-API - [SPARK-49107] [SC-173103][SQL]
ROUTINE_ALREADY_EXISTS
unterstützt RoutineType - [SPARK-48997] [SC-172484][SS] Implementieren einzelner Unloads für Wartungsthreadpoolthreadfehler
- [SPARK-49063] [SC-173094][SQL] Fix Between with ScalarSubqueries
- [SPARK-45891] [SC-172305][SQL][PYTHON][VARIANT] Hinzufügen von Unterstützung für Intervalltypen in der Variant-Spezifikation
- [SPARK-49074] [VERHALTEN-110][SC-172815][SQL] Variante korrigieren mit
df.cache()
- [SPARK-49003] [SC-172613][SQL] Beheben von interpretierten Codepfadhashing zur Berücksichtigung der Sortierung
- [SPARK-48740] [SC-172430][SQL] Fehler bei fehlender Fensterspezifikation frühzeitig erfassen
- [SPARK-48999] [SC-172245][SS] Dividieren von PythonStreamingDataSourceSimpleSuite
- [SPARK-49031] [SC-172602] Implementieren der Überprüfung für den TransformWithStateExec-Operator mit OperatorStateMetadataV2
- [SPARK-49053] [SC-172494][PYTHON][ML] Modell-Hilfsfunktionen zum Speichern/Laden von Spark-Sitzungen machen
- [SPARK-49032] [Backport][15.x][SS] Hinzufügen des Schemapfads im Metadatentabelleneintrag, Überprüfen der erwarteten Version und Hinzufügen von Operatormetadaten im Zusammenhang mit dem Operatormetadatenformat v2
- [SPARK-49034] [SC-172306][CORE] Unterstützen des serverseitigen
sparkProperties
Ersatzes in der REST-Übermittlungs-API - [SPARK-48931] [SC-171895][SS] Reduzieren der Kosten der Cloud Store-Listen-API für die Wartung von Zustandsspeichern
- [SPARK-48849] [SC-172068][SS]Create OperatorStateMetadataV2 for the TransformWithStateExec operator
- [SPARK-49013] [SC-172322] Ändern des Schlüssels in collationsMap für Zuordnungs- und Arraytypen in skalarer Reihenfolge
- [SPARK-48414] [SC-171884][PYTHON] Beheben von unterbrechungsveränderenden Änderungen in Pythons
fromJson
- [SPARK-48910] [SC-171001][SQL] Verwenden von HashSet/HashMap, um lineare Suchvorgänge in PreprocessTableCreation zu vermeiden
- [SPARK-49007] [SC-172204][CORE] Verbessern
MasterPage
, um benutzerdefinierten Titel zu unterstützen - [SPARK-49009] [SC-172263][SQL][PYTHON] Spalten-APIs und -Funktionen akzeptieren Enumerationen
- [SPARK-49033] [SC-172303][CORE] Unterstützen des serverseitigen
environmentVariables
Ersatzes in der REST-Übermittlungs-API - [SPARK-48363] [SC-166470][SQL] Bereinigen einiger redundanter Codes in
from_xml
- [SPARK-46743] [SC-170867][SQL][VERHALTEN-84] Fehler zählen, nachdem SkalarSubqery gefaltet wurde, wenn es eine leere Beziehung hat
- [SPARK-49040] [SC-172351][SQL] Dokument korrigieren
sql-ref-syntax-aux-exec-imm.md
- [SPARK-48998] [SC-172212][ML] Metaalgorithmen speichern/laden modell mit SparkSession
- [SPARK-48959] [SC-171708][SQL]
NoSuchDatabaseException
ErweiternNoSuchNamespaceException
, um die Ausnahmebehandlung wiederherzustellen - [SPARK-48996] [SC-172130][SQL][PYTHON] Bare Literale für und und oder spalten zulassen
- [SPARK-48990] [SC-171936] Nachverfolgung für #101759 – Testkorrektur
- [SPARK-48338] [SC-171912][SQL] Überprüfen von Variablendeklarationen
- [SPARK-48990] [SC-171936][SQL] Schlüsselwörter für einheitliche sql-syntaxbezogene Variablen
- [SPARK-48988] [SC-171915][ML] Erstellen von
DefaultParamsReader/Writer
Handle-Metadaten mit Spark-Sitzung - [SPARK-48974] [SC-171978][SQL][SS][ML][MLLIB] Anstelle
SparkSession.implicits
vonSQLContext.implicits
- [SPARK-48760] [SC-170870][SQL] Fix CatalogV2Util.applyClusterByChanges
- [SPARK-48928] [SC-171956] Protokollwarnung für das Aufrufen von unpersist() für lokal überprüfte RDDs
- [SPARK-48760] [SC-170139][SQL] ALTER TABLE wird eingeführt... CLUSTER BY SQL-Syntax zum Ändern von Clusterspalten
- [SPARK-48844] Wiederherstellen von "[SC-170669][SQL] USE INVALID_EMPTY_LOCATION anstelle von UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY, wenn der Pfad leer ist"
- [SPARK-48833] [SC-171914][SQL][VARIANT] Unterstützungsvariante in
InMemoryTableScan
- [SPARK-48975] [SC-171894][PROTOBUF] Entfernen einer unnötigen
ScalaReflectionLock
Definition ausprotobuf
- [SPARK-48970] [SC-171800][PYTHON][ML] Vermeiden Sie die Verwendung von SparkSession.getActiveSession in spark ML Reader/Writer.
- [SPARK-48844] [SC-170669][SQL] USE INVALID_EMPTY_LOCATION anstelle von UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY, wenn der Pfad leer ist
- [SPARK-48714] [SC-170136] Beheben fehlerhafter df.mergeInto-Tests in PySpark und UC
- [SPARK-48957] [SC-171797][SS] Gibt die unterklassige Fehlerklasse beim Laden des Zustandsspeichers für hdfs und rocksdb-Anbieter zurück.
- [SPARK-48891] [Backport][15x][SC-171677][SS] Umgestalten von StateSchemaCompatibilityChecker zum Vereinheitlichen aller Zustandsschemaformate
- [SPARK-48972] [SC-171795][PYTHON] Vereinheitlichen der Literalzeichenfolgenbehandlung in Funktionen
- [SPARK-48388] [SC-171337][SQL] Beheben des SET-Anweisungsverhaltens für SQL-Skripts
- [SPARK-48743] [SC-170552][SQL][SS] MergeSessionIterator sollte besser behandelt werden, wenn getStruct null zurückgibt.
- [SPARK-48623] [15.x][SC-171322][CORE] Migrieren von FileAppender-Protokollen zur strukturierten Protokollierung
- [SPARK-36680] [DBRRM-1123] "[SC-170640][SQL] Unterstützt dynamische Tabellenoptionen für Spark SQL"
- [SPARK-48841] [SC-170868][VERHALTEN-83][SQL] Einschließen
collationName
vonsql()
Collate
- [SPARK-48941] [SC-171703][PYTHON][ML] RdD-Lese-/Schreib-API-Aufruf durch Dataframe-Lese-/Schreib-API ersetzen
- [SPARK-48938] [SC-171577][PYTHON] Verbessern von Fehlermeldungen beim Registrieren von Python UDTFs
- [SPARK-48350] [SC-171040][SQL] Einführung von benutzerdefinierten Ausnahmen für SQL-Skripting
- [SPARK-48907] [SC-171158][SQL] Korrigieren des Werts
explicitTypes
inCOLLATION_MISMATCH.EXPLICIT
- [SPARK-48945] [SC-171658][PYTHON] Vereinfachen von regex-Funktionen mit
lit
- [SPARK-48944] [SC-171576][CONNECT] Vereinheitlichen der JSON-Formatschemabehandlung in Connect Server
- [SPARK-48836] [SC-171569] Integrieren eines SQL-Schemas in Zustandsschema/Metadaten
- [SPARK-48946] [SC-171504][SQL] NPE in redact-Methode, wenn die Sitzung null ist
- [SPARK-48921] [SC-171412][SQL] ScalaUDF-Encoder in Unterabfragen sollten für MergeInto aufgelöst werden
- [SPARK-45155] [SC-171048][CONNECT] Hinzufügen von API-Dokumenten für Spark Connect JVM/Scala-Client
- [SPARK-48900] [SC-171319] Feld
reason
hinzufügen fürcancelJobGroup
undcancelJobsWithTag
- [SPARK-48865] [SC-171154][SQL] Funktion try_url_decode hinzufügen
- [SPARK-48851] [SC-170767][SQL] Ändern des Werts von
SCHEMA_NOT_FOUND
innamespace
catalog.namespace
- [SPARK-48510] [SC-170893][2/2] Unterstützen der UDAF-API
toColumn
in Spark Connect - [SPARK-45190] [SC-171055][SPARK-48897][PYTHON][CONNECT] Unterstützung
from_xml
des StructType-Schemas - [SPARK-48930] [SC-171304][CORE] Redact
awsAccessKeyId
by includingaccesskey
pattern - [SPARK-48909] [SC-171080][ML][MLLIB] Verwendet SparkSession over SparkContext beim Schreiben von Metadaten
- [SPARK-48883] [SC-171133][ML][R] RdD-Lese-/Schreib-API-Aufruf durch Dataframe-Lese-/Schreib-API ersetzen
- [SPARK-48924] [SC-171313][PS] Hinzufügen einer Panda-ähnlichen
make_interval
Hilfsfunktion - [SPARK-48884] [SC-171051][PYTHON] Nicht verwendete Hilfsfunktion entfernen
PythonSQLUtils.makeInterval
- [SPARK-48817] [SC-170636][SQL] Ausführen von Union Multi-Befehlen gemeinsam
- [SPARK-48896] [SC-171079][ML][MLLIB] Vermeiden Der Neupartitionierung beim Schreiben der Metadaten
- [SPARK-48892] [SC-171127][ML] Vermeiden von Zeilen-Param-Lesevorgängen
Tokenizer
- [SPARK-48927] [SC-171227][CORE] Anzeigen der Anzahl zwischengespeicherter RDDs in
StoragePage
- [SPARK-48886] [15.x][Backport][SC-171039][SS] Hinzufügen von Versionsinformationen zum Änderungsprotokoll v2, um eine einfachere Entwicklung zu ermöglichen
- [SPARK-48903] [SC-171136][SS] Festlegen der letzten Snapshotversion von RocksDB bei Remotelast ordnungsgemäß
- [SPARK-48742] [SC-170538][SS] Virtuelle Säulenfamilie für RocksDB
- [SPARK-48726] [15.x][SC-170753][SS] Erstellen Sie das StateSchemaV3-Dateiformat, und schreiben Sie dies für den TransformWithStateExec-Operator.
- [SPARK-48794] [SC-170882][CONNECT][15.x] df.mergeInto-Unterstützung für Spark Connect (Scala und Python)
- [SPARK-48714] [SC-170136][PYTHON] Implementieren
DataFrame.mergeInto
in PySpark - [SPARK-48772] [SC-170642][SS][SQL] Feedlesemodus für Statusdatenquellenänderung
- [SPARK-48666] [SC-170887][SQL] Keinen Pushdownfilter, wenn er PythonUDFs enthält
- [SPARK-48845] [SC-170889][SQL] GenericUDF catch exceptions from children
- [SPARK-48880] [SC-170974][CORE] Vermeiden des Auslösens von NullPointerException, wenn das Treiber-Plug-In nicht initialisiert werden kann
- [SPARK-48888] [Backport][15x][SC-170973][SS] Entfernen der Erstellung von Momentaufnahmen basierend auf der Größe von Änderungsprotokollen
- [SPARK-48871] [SC-170876] Beheben INVALID_NON_DETERMINISTIC_EXPRESSIONS Überprüfung in...
- [SPARK-48883] [SC-170894][ML][R] RdD-Lese-/Schreib-API-Aufruf durch Dataframe-Lese-/Schreib-API ersetzen
- [SPARK-36680] [SC-170640][SQL] Unterstützt Dynamische Tabellenoptionen für Spark SQL
- [SPARK-48804] [SC-170558][SQL] Hinzufügen von classIsLoadable & OutputCommitter.isAssignableFrom check for output committer class configrations
- [SPARK-46738] [SC-170791][PYTHON] Erneutes Durchführen einer Gruppe von Dokumententests
- [SPARK-48858] [SC-170756][PYTHON] Entfernen veralteter
setDaemon
Methodenaufrufe inThread
log_communication.py
- [SPARK-48639] [SC-169801][CONNECT][PYTHON] Origin zu RelationCommon hinzufügen
- [SPARK-48863] [SC-170770][ES-1133940][SQL] Beheben von ClassCastException beim Analysieren von JSON mit aktiviertem "spark.sql.json.enablePartialResults"
- [SPARK-48343] [SC-170450][SQL] Einführung des SQL Scripting-Interpreters
- [SPARK-48529] [SC-170755][SQL] Einführung von Bezeichnungen in SQL-Skripting
- [SPARK-45292] Wiederherstellung von „[SC-151609][SQL][HIVE] Entfernen von Guava aus freigegebenen Klassen in IsolatedClientLoader“
- [SPARK-48037] [SC-165330][CORE][3.5] Korrigieren von SortShuffleWriter fehlen shuffle-Schreibmetriken, was zu potenziell ungenauen Daten führt
- [SPARK-48720] [SC-170551][SQL] Ausrichten des Befehls
ALTER TABLE ... UNSET TBLPROPERTIES ...
in v1 und v2 - [SPARK-48485] [SC-167825][CONNECT][SS] Support interruptTag and interruptAll in Streaming-Abfragen
- [SPARK-45292] [SC-151609][SQL][HIVE] Entfernung von Guava aus freigegebenen Klassen in IsolatedClientLoader
- [SPARK-48668] [SC-169815][SQL] ALTER NAMESPACE unterstützen ... UNSET PROPERTIES in v2
- [SPARK-47914] [SC-165313][SQL] Der Splits-Parameter wird im Bereich nicht angezeigt.
- [SPARK-48807] [SC-170643][SQL] Binäre Unterstützung für CSV-Datenquelle
- [SPARK-48220] [SC-167592][PYTHON][15.X] Übergeben der PyArrow-Tabelle zum Erstellen vonDataFrame() zulassen
- [SPARK-48545] [SC-169543][SQL] Erstellen von to_avro- und from_avro SQL-Funktionen für die Übereinstimmung mit DataFrame-Entsprechungen
- [SPARK-47577] [SC-168875][SPARK-47579] Korrigieren der irreführenden Verwendung von Protokollschlüsseln TASK_ID
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Systemumgebung
- Betriebssystem: Ubuntu 24.04.1 LTS
- Java: Zulu17.50+19-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
AutoCommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | black | 24.4.2 |
blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | Klicken | 8.1.7 |
cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
Kryptografie | 42.0.5 | cycler | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
decorator | 5.1.1 | Als veraltet markiert | 1.2.14 | distlib | 0.3.8 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | executing | 0.8.3 |
facets-overview | 1.1.1 | filelock | 3.15.4 | fonttools | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-auth | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3,7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
beugen | 7.3.1 | ipyflow-core | 0.0.198 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
Packen | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
pathspec | 0.10.3 | patsy | 0.5.6 | pexpect | 4.8.0 |
pillow | 10.3.0 | pip | 24,2 | platformdirs | 3.10.0 |
plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.52 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | Python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
requests | 2.32.2 | rope | 1.12.0 | rsa | 4,9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
seaborn | 0.13.2 | setuptools | 74.0.0 | sechs | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.2 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
Typen-6 | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | unattended-upgrades | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | wheel | 0.43.0 | wrapt | 1.14.1 |
yapf | 0.33.0 | zipp | 3.17.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Momentaufnahme des Posit Package Manager CRAN installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1,0 - 8 | Blob | 1.2.4 | boot | 1.3-30 |
brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
clock | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
colorspace | 2.1-1 | commonmark | 1.9.1 | compiler | 4.4.0 |
config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.3 | Anmeldeinformationen | 2.0.1 | curl | 5.2.1 |
data.table | 1.15.4 | datasets | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
Diagramm | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.36 |
downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | Evaluieren | 0.24.0 |
fansi | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
future | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
Grafiken | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
highr | 0,11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1,48 | labeling | 0.4.3 |
later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
Matrix | 1.6-5 | memoise | 2.0.1 | Methoden | 4.4.0 |
mgcv | 1.9-1 | mime | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
parallelly | 1.38.0 | pillar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
progressr | 0.14.0 | promises | 1.3.0 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactable | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.1.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
shape | 1.4.6.1 | shiny | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | spatial | 7.3-17 | splines | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.4.0 |
stats4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
survival | 3.6-4 | Swagger | 5.17.14.1 | sys | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
textshaping | 0.4.0 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,52 | tools | 4.4.0 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 3.0.0 |
utf8 | 1.2.4 | utils | 4.4.0 | uuid | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.1 | xfun | 0,46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | zip | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,27 |
io.delta | delta-sharing-client_2.12 | 1.2.0 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
stax | stax-api | 1.0.1 |