Databricks Runtime 15.4 LTS
Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 15.4 LTS, die von Apache Spark 3.5.0 unterstützt wird.
Dieses Image wurde von Databricks im August 2024 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Änderungen des Verhaltens
- Die Verwendung von
VARIANT
als Eingabe- oder Ausgabetyp mit einem Python UDF, UDAF oder UDTF löst eine Ausnahme aus. - Wechseln zum Standardschema-Bindungsmodus für Ansichten
- Verbieten der Verwendung der nicht dokumentierten
!
-Syntax anstelle vonNOT
außerhalb boolescher Ausdrücke - Verbieten der nicht dokumentierten Spaltendefinitionssyntax in Ansichten
- Konsistente Fehlerbehandlung für die Base64-Decodierung in Spark und Photon
- Durch das Hinzufügen einer
CHECK
-Einschränkung für eine ungültige Spalte wird jetzt die UNRESOLVED_COLUMN.WITH_SUGGESTION-Fehlerklasse zurückgegeben
Die Verwendung von VARIANT
als Eingabe- oder Ausgabetyp mit einem Python UDF, UDAF oder UDTF löst eine Ausnahme aus.
[Breaking change] In Databricks Runtime 15.3 und höher löst das Aufrufen einer benutzerdefinierten Funktion (UDF), einer benutzerdefinierten Aggregatfunktion (UDAF) oder einer benutzerdefinierten Tabellenfunktion (UDTF) in Python mit dem Typ VARIANT
als Argument oder Rückgabewert eine Ausnahme aus. Mit dieser Änderung sollen Probleme verhindert werden, die aufgrund eines ungültigen Werts auftreten können, der von einer dieser Funktionen zurückgegeben wird. Weitere Informationen zum Typ VARIANT
finden Sie unter Verwendung von VARIANTEN zum Speichern halbstrukturierter Daten.
Wechseln zum Standardschema-Bindungsmodus für Ansichten
Ansichten passen sich jetzt an Schemaänderungen in der zugrunde liegenden Abfrage an, indem sie die Schemakompensierung mit regulären Umwandlungsregeln verwenden. Dies ist eine Änderung gegenüber dem vorherigen Standardmodus BINDING
, der Fehler ausgelöst hat, wenn eine sichere Umwandlung beim Verweisen auf die Ansicht nicht ausgeführt werden konnte.
Weitere Informationen finden Sie unter CREATE VIEW and cast-Funktion.
Verbieten der Verwendung der nicht dokumentierten !
-Syntax anstelle von NOT
außerhalb boolescher Ausdrücke
Bei dieser Version ist die Verwendung von !
als Synonym für NOT
außerhalb von booleschen Ausdrücken nicht mehr zulässig. Beispiel: Anweisungen wie die folgenden: CREATE ... IF ! EXISTS
, IS ! NULL, eine ! NULL
-Spalteneigenschaft oder -Feldeigenschaft, ! IN
und ! BETWEEN muss ersetzt werden durch: CREATE ... IF NOT EXISTS
, IS NOT NULL
, eine NOT NULL
-Spalten- oder Feldeigenschaft, NOT IN
und NOT BETWEEN
.
Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und macht SQL portierbarer.
Der boolesche Präfixoperator !
(z. B. !is_mgr
oder !(true AND false)
) ist von dieser Änderung nicht betroffen.
Verbieten der nicht dokumentierten Spaltendefinitionssyntax in Ansichten
Databricks unterstützt CREATE VIEW mit benannten Spalten und Spaltenkommentaren. Zuvor war die Spezifikation von Spaltentypen, NOT NULL
-Einschränkungen oder DEFAULT
zulässig. Bei dieser Version können Sie diese Syntax nicht mehr verwenden.
Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und unterstützt künftige Erweiterungen.
Konsistente Fehlerbehandlung für die Base64-Decodierung in Spark und Photon
Diese Version ändert die Art und Weise, wie Photon Base64-Dekodierungsfehler behandelt, um sie der Spark-Behandlung dieser Fehler anzupassen. Vor diesen Änderungen konnte der Photon- und Spark-Codegenerierungspfad manchmal keine Analyseausnahmen auslösen, während die Spark-Ausführung richtig IllegalArgumentException
oder ConversionInvalidInputError
auslöste. Mit diesem Update wird sichergestellt, dass Photon bei Base64-Decodierungsfehlern konsistent dieselben Ausnahmen auslöst, was eine vorhersehbarere und zuverlässige Fehlerbehandlung ermöglicht.
Das Hinzufügen einer CHECK
Einschränkung für eine ungültige Spalte gibt jetzt UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück
Um nützlichere Fehlermeldungen bereitzustellen, gibt in Databricks Runtime 15.3 und höher eine ALTER TABLE ADD CONSTRAINT
Anweisung, die eine CHECK
Einschränkung enthält, die auf einen ungültigen Spaltennamen verweist, die UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück. Zuvor wurde ein INTERNAL_ERROR
Wert zurückgegeben.
Neue Features und Verbesserungen
- UTF-8-Gültigkeitsprüfungsfunktionen
- funktionen to_avro und from_avro
- Typisierte Dataset-APIs mit Scala-UDFs
- Aktivieren von UniForm Iceberg mithilfe von ALTER TABLE
- try_url_decode-Funktion
- Optionales Zulassen, dass der Optimierer auf nicht erzwungenen Fremdschlüsseleinschränkungen basiert
- Parallelisierter Auftrag wird für selektive Überschreibungen ausgeführt
- Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen
- Verbesserte Abfragelatenz für den
COPY INTO
Befehl - Unterstützung für das Löschen der Funktion zum Überprüfen von Einschränkungen in Tabellen
- Die Berechnung einzelner Benutzer unterstützt differenzierte Zugriffssteuerung, materialisierte Ansichten und Streamingtabellen (Public Preview)
- Erweiterte Unterstützung für Java- und Scala-Bibliotheken
- Erweiterte Unterstützung für Scala-Datasetvorgänge
- Scala ist für gemeinsames Compute in Unity Catalog allgemein verfügbar
- Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mithilfe von Dienstanmeldeinformationen (Öffentliche Vorschau)
UTF-8-Gültigkeitsprüfungsfunktionen
In dieser Version werden die folgenden Funktionen zum Validieren von UTF-8-Zeichenketten eingeführt:
- is_valid_utf8 überprüft, ob eine Zeichenfolge eine gültige UTF-8-Zeichenkette ist.
- make_valid_utf8 konvertiert eine potenziell ungültige UTF-8-Zeichenkette in eine gültige UTF-8-Zeichenkette mit Ersetzungszeichen.
- validate_utf8 löst einen Fehler aus, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.
- try_validate_utf8 gibt
NULL
zurück, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.
funktionen to_avro und from_avro
Die funktionen to_avro und from_avro ermöglichen die Konvertierung von SQL-Typen in Avro-Binärdaten und -zurück.
Typisierte Dataset-APIs mit Scala-UDFs
Diese Version enthält zusätzliche Unterstützung für typisierte Dataset-APIs mit benutzerdefinierten Skala-Funktionen (mit Ausnahme von benutzerdefinierten Aggregatfunktionen) für Unity-Katalog-fähige Compute mit freigegebenem Zugriffsmodus. Weitere Informationen finden Sie unter Typisierte Dataset-APIs.
Aktivieren von UniForm Iceberg mithilfe von ALTER TABLE
Sie können UniForm Iceberg jetzt für vorhandene Tabellen aktivieren, ohne Datendateien neu zu schreiben. Weitere Informationen finden Sie unter Aktivieren durch Verändern einer vorhandenen Tabelle.
try_url_decode-Funktion
Mit diesem Release wird die try_url_decode-Funktion eingeführt, die eine mit URL verschlüsselte Zeichenfolge entschlüsselt. Wenn die Zeichenfolge nicht das richtige Format hat, gibt die Funktion NULL
zurück, anstatt einen Fehler zu auslösen.
Optionales Zulassen, dass der Optimierer auf nicht erzwungenen Fremdschlüsseleinschränkungen basiert
Um die Abfrageleistung zu verbessern, können Sie jetzt das Keyword RELY
für FOREIGN KEY
-Einschränkungen angeben, wenn Sie CREATE oder ALTER für eine Tabelle verwenden.
Parallelisierter Auftrag wird für selektive Überschreibungen ausgeführt
Selektive Überschreibungen mit replaceWhere
führen jetzt Aufträge aus, die Daten löschen und neue Daten parallel einfügen, wodurch Abfrageleistung und Clusterauslastung verbessert werden.
Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen
Selektive Überschreibungen mithilfe von replaceWhere
in Tabellen mit Änderungsdatenfeed schreiben keine separaten Änderungsdatendateien für eingefügte Daten mehr. Diese Vorgänge verwenden eine ausgeblendete _change_type
-Spalte, die in den zugrunde liegenden Parquet-Datendateien vorhanden ist, um Änderungen ohne Schreibverstärkung aufzuzeichnen.
Verbesserte Abfragelatenz für den COPY INTO
Befehl
Diese Version enthält eine Änderung, die die Abfragelatenz für den COPY INTO
Befehl verbessert. Diese Verbesserung wird implementiert, indem das Laden des Zustands durch den RocksDB-Zustandsspeicher asynchron wird. Dank dieser Änderung sollten Sie eine Verbesserung der Startzeiten für Abfragen mit großen Zuständen feststellen,wie Abfragen mit einer großen Anzahl bereits erfasster Dateien.
Unterstützung für das Löschen der Funktion zum Überprüfen von Einschränkungen in Tabellen
Sie können jetzt das checkConstraints
-Tabellenfeature aus einer Delta-Tabelle mithilfe von ALTER TABLE table_name DROP FEATURE checkConstraints
trennen. Weitere Informationen finden Sie unter Deaktivieren von Überprüfungseinschränkungen.
Die Berechnung einzelner Benutzer unterstützt differenzierte Zugriffssteuerung, materialisierte Ansichten und Streamingtabellen (Public Preview)
Wenn ein Arbeitsbereich für die serverlose Berechnung aktiviert ist, fügt Databricks Runtime 15.4 LTS Unterstützung für eine differenzierte Zugriffssteuerung für die Berechnung einzelner Benutzer hinzu. Wenn eine Abfrage auf eines der folgenden Objekte zugreift, übergibt die einzelne Benutzer-Computeressource auf Databricks Runtime 15.4 LTS die Abfrage an den serverlosen Compute, um die Datenfilterung auszuführen:
- Ansichten, die über Tabellen definiert sind, für die der Benutzer nicht über die
SELECT
Berechtigungen verfügt. - Dynamische Ansichten.
- Tabellen mit angewendeten Zeilenfiltern oder Spaltenformaten.
- Materialisierte Ansichten und Streamingtabellen.
Diese Abfragen werden für einzelne Benutzer nicht unterstützt, die Databricks Runtime 15.3 und darunter ausführen.
Weitere Informationen finden Sie unter Feinkornierte Zugriffssteuerung für die Berechnung einzelner Benutzer.
Erweiterte Unterstützung für Java- und Scala-Bibliotheken
Ab Databricks Runtime 15.4 LTS sind alle Java- und Scala-Bibliotheken, die mit Databricks Runtime gebündelt sind, in allen Computezugriffsmodi verfügbar, wenn Sie Unity-Katalog verwenden. Weitere Informationen zur Sprachunterstützung für Unity Catalog-fähige Compute finden Sie unter Einschränkungen des Computezugriffsmodus für Unity Catalog.
Erweiterte Unterstützung für Scala-Datasetvorgänge
Mit diesem Release unterstützen Unity Catalog-fähige Computeressourcen, die den gemeinsam genutzten Zugriffsmodus verwenden, die folgenden Dataset
-Vorgänge für Scala: map
, mapPartitions
, foreachPartition
, flatMap
, reduce
und filter
.
Scala ist für gemeinsames Compute in Unity Catalog allgemein verfügbar
Mit dieser Version ist Scala allgemein für den freigegebenen Zugriffsmodus Unity Catalog-fähige Compute verfügbar, einschließlich Unterstützung für skalare benutzerdefinierte Funktionen (UDFs). Strukturiertes Streaming, Struktur-UDFs und benutzerdefinierte Strukturaggregatfunktionen werden nicht unterstützt. Eine umfassende Liste der Einschränkungen finden Sie unter Einschränkungen des Computezugriffsmodus für Unity Catalog.
Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mithilfe von Dienstanmeldeinformationen (Öffentliche Vorschau)
Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten mithilfe von Azure Managed Identities (MI) und Unity Catalog. Siehe Verwalten des Zugriffs auf externe Clouddienste mithilfe von Dienstanmeldeinformationen.
Fehlerkorrekturen
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- azure-core von 1.30.1 auf 1.30.2
- google-auth von 2.29.0 auf 2.31.0
- google-cloud-storage von 2.16.0 auf 2.17.0
- google-resumable-media von 2.7.0 auf 2.7.1
- googleapis-common-protos von 1.63.0 auf 1.63.2
- mlflow-skinny von 2.11.3 auf 2.11.4
- proto-plus von 1.23.0 auf 1.24.0
- s3transfer von 0.10.1 auf 0.10.2
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
- com.databricks.databricks-sdk-java von 0.17.1 auf 0.27.0
- com.ibm.icu.icu4j von 72.1 auf 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider von 1.6.1-linux-x86_64 auf 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 15.3 LTS enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Gruppieren von Ausdrücken in skalaren Unterabfragen zulassen, wenn sie an äußere Zeilen gebunden sind
- [SPARK-48834] [BEHAVE-79][SC-170972] [SQL] Deaktivieren der Variant-Eingabe/Ausgabe für Python Skalar UDFs, UDTFs, UDAFs während der Abfragekompilierung
- [SPARK-48441] [SC-170980][SQL][WARMFIX] Beheben des StringTrim-Verhaltens für nicht UTF8_BINARY Sortierungen
- [SPARK-48440] [SC-170895][SQL][WARMFIX] Beheben des StringTranslate-Verhaltens für nicht UTF8_BINARY Sortierungen
- [SPARK-48872] [SC-170866][PYTHON] Verringern des Aufwands für _capture_call_site
- [SPARK-48862] [SC-170845][PYTHON][CONNECT]
_proto_to_string
Anrufe vermeiden, wenn die INFO-Ebene nicht aktiviert ist - [SPARK-48852] [SC-170837][CONNECT] Beheben der Zeichenfolgenkürzungsfunktion in Connect
- [SPARK-48791] [SC-170658][CORE] Beheben der perf-Regression durch den Speicherregistrierungsaufwand mithilfe von CopyOnWriteArrayList
- [SPARK-48118] [SQL] Support
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
env Variable - [SPARK-48241] [SC-165811][SQL] CSV-Analysefehler mit Spalten vom Typ Char/Varchar
- [SPARK-48168] [SC-166900][SQL] Unterstützung für bitweise Verschiebungsoperatoren hinzufügen
- [SPARK-48148] [SC-165630][CORE] JSON-Objekte sollten beim Lesen als STRING nicht geändert werden
- [SPARK-46625] [SC-170561] CTE mit Identifier-Klausel als Referenz
- [SPARK-48771] [SC-170546][SQL]
LogicalPlanIntegrity.validateExprIdUniqueness
für große Abfragepläne beschleunigen - [SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Standardspaltenname mit
cast
Spark Classic kompatibel machen - [SPARK-48623] [SC-170544][CORE] Strukturierte Protokollierungsmigrationen [Teil 2]
- [SPARK-48296] [SC-166138][SQL] Codegen-Unterstützung für
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter für die Verknüpfung mit mehreren Ebenen sollte den untergeordneten Verknüpfungstyp überprüfen
- [SPARK-48686] [SC-170365][SQL] Verbessern der Leistung von ParserUtils.unescapeSQLString
- [SPARK-48798] [SC-170588][PYTHON] Einführung von
spark.profile.render
in SparkSession-basierte Profilerstellung - [SPARK-48048] [SC-169099] Rückgängigmachen „[SC-164846][CONNECT] [SS] Unterstützung für clientseitige Listener für Scala hinzugefügt“
- [SPARK-47910] [SC-168929][CORE] schließen Sie den Datenstrom, wenn DiskBlockObjectWriter closeResources schließt, um Speicherverluste zu vermeiden
- [SPARK-48816] [SC-170547][SQL] Abkürzung für Intervallkonverter in UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Hinzufügen von Option snapshotStartBatchId und snapshotPartitionId zur Zustandsdatenquelle
- [SPARK-48280] [SC-170293][SQL] Oberfläche für Sortierungstests durch Expression Walking verbessern
- [SPARK-48837] [SC-170540][ML] In CountVectorizer, nur einmal binären Parameter pro Transformation lesen, nicht einmal pro Zeile
- [SPARK-48803] [SC-170541][SQL] Interner Fehler in Orc(De)Serializer auslösen, um sich an ParquetWriteSupport auszurichten
- [SPARK-48764] [SC-170129][PYTHON] Filtern von IPython-bezogenen Frames aus dem Benutzerstapel
- [SPARK-48818] [SC-170414][PYTHON] Vereinfachen von
percentile
Funktionen - [SPARK-48479] [SC-169079][SQL] Unterstützung beim Erstellen von Skalar- und Tabellen-SQL-UDFs im Parser
- [SPARK-48697] [SC-170122][LC-4703][SQL] Hinzufügen von sortierfähigen Zeichenfolgenfiltern
- [SPARK-48800] [SC-170409][CONNECT][SS] ClientStreamingQuerySuite deflaken
- [SPARK-48738] [SC-169814] [SQL] Richtig seit Version für integrierte Funk Alias
random
,position
,mod
,cardinality
,current_schema
,user
,session_user
,char_length
,character_length
- [SPARK-48638] [SC-169575][CONNECT] Hinzufügen der ExecutionInfo-Unterstützung für DataFrame
- [SPARK-48064] [SC-164697] [SQL] Aktualisieren von Fehlermeldungen für routinebezogene Fehlerklassen
- [SPARK-48810] [CONNECT] Die Session Stop()-API sollte idempotent sein und nicht fehlschlagen, wenn die Sitzung bereits vom Server geschlossen wurde
- [SPARK-48650] [15.x][PYTHON] Anzeigen der richtigen Anrufwebsite aus dem IPython-Notebook
- [SPARK-48271] [SC-166076][SQL] Abgleichsfehler in RowEncoder in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Beheben eines Konflikts bei der Auflösung des Varchar-Typs für DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Regression für INSERT mit partieller Spaltenliste in eine Tabelle mit char/varchar beheben
- [SPARK-48767] [SC-170330][SQL] Beheben einiger Fehleraufforderungen, wenn
variant
Typdaten ungültig sind - [SPARK-48719] [SC-170339] [SQL] Beheben des Berechnungsfehlers von
RegrSlope
&RegrIntercept
wenn der erste Parameter null ist - [SPARK-48815] [SC-170334] [CONNECT] Aktualisieren der Umgebung beim Beenden der Verbindungssitzung
- [SPARK-48646] [SC-169020] [PYTHON] Verfeinern von Python-Datenquellen-API-Dokumentzeichenfolgen und Typhinweisen
- [SPARK-48806] [SC-170310] [SQL] Übergeben der tatsächlichen Ausnahme, wenn url_decode fehlschlägt
- [SPARK-47777] [SC-168818] Beheben des Python-Streamingdatenquellen-Connect-Tests
- [SPARK-48732] [SC-169793] [SQL] Veraltete API-Nutzung im Zusammenhang mit
JdbcDialect.compileAggregate
bereinigen - [SPARK-48675] [SC-169538] [SQL] Korrigieren der Cachetabelle mit sortierter Spalte
- [SPARK-48623] [SC-169034] [CORE] Migrationen für strukturierte Protokollierung
- [SPARK-48655] [SC-169542] [SQL] SPJ: Hinzufügen von Tests zum Überspringen von Aggregatabfragen
- [SPARK-48586] [SC-169808] [SS] Entfernen des Lock-Erwerbs in doMaintenance() durch Erstellen einer tiefen Kopie von Dateizuordnungen in RocksDBFileManager in load()
- [SPARK-48799] [Backport] [15.x] [SC-170283] [SS] Umgestalten der Versionsverwaltung für Operatormetadaten Lese-/Schreibzugriff und Aufrufer
- [SPARK-48808] [SC-170309] [SQL] Beheben von NPE beim Verbinden des Thriftservers über Hive 1.2.1 und wenn Ergebnisschema leer ist
- [SPARK-48715] [SC-170291] [SQL] Integrieren der UTF8String-Validierung in Implementierungen von sortierfähigen Zeichenfolgenfunktionen
- [SPARK-48747] [SC-170120] [SQL] Hinzufügen eines Codepunkt-Iterators zu UTF8String
- [SPARK-48748] [SC-170115] [SQL] Cache numChars in UTF8String
- [SPARK-48744] [SC-169817] [Kern] Der Protokolleintrag sollte nur einmal erstellt werden
- [SPARK-46122] [SC-164313] [SQL] Standardmäßig
spark.sql.legacy.createHiveTableByDefault
auffalse
festlegen - [SPARK-48765] [SC-170119] [DEPLOY] Verbessern der Standardwerteauswertung für SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128] [SQL] Hinzufügen eines Migrationsdokuments für Änderung des Verhaltens von CREATE TABLE AS SELECT seit Spark 3.4
- [SPARK-48598] [SC-169484] [PYTHON] [CONNECT] Verteiltes zwischengespeichertes Schema in Datenframevorgängen
- [SPARK-48766] [SC-170126] [PYTHON] Verhaltensunterschied von
extraction
zwischenelement_at
undtry_element_at
dokumentieren - [SPARK-48768] [SC-170124] [PYTHON] [CONNECT] Sollte nicht
explain
zwischenspeichern - [SPARK-48770] [Backport] [15.x] [SC-170133] [SS] Ändern Sie die Metadaten des Operators einmal auf dem Treiber, um zu überprüfen, ob wir Informationen zu numColsPrefixKey finden können, die für Sitzungsfenster-Agg-Abfragen verwendet werden
- [SPARK-48656] [SC-169529] [CORE] Führen Sie eine Längenüberprüfung durch, und lösen Sie COLLECTION_SIZE_LIMIT_EXCEEDED Fehler in
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817] [SQL] Einführung einer Markierung für isStreaming-Eigenschaft in der Textdarstellung eines logischen Plans
- [SPARK-48472] [SC-169044] [SQL] Aktivieren von Reflektionsausdrücken mit sortierten Zeichenfolgen
- [SPARK-48699] [SC-169597] [SQL] Verfeinern der Sortier-API
- [SPARK-48682] [SC-169812] [SQL] [BEHAVE-58] Verwenden von ICU im InitCap-Ausdruck für UTF8_BINARY Zeichenfolgen
- [SPARK-48282] [SC-169813] [SQL] Ändern der Suchlogik für Zeichenfolgen für UTF8_BINARY_LCASE Sortierung (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599] [SQL] Aktivieren der Sortierunterstützung für den Modusausdruck
- [SPARK-48320] [SPARK-48490] Synchronisieren der neuesten Protokollierungseigenschaft und Testfälle von OSS Spark
- [SPARK-48629] [SC-169479] Migrieren des Restcodes zum strukturierten Protokollierungsframework
- [SPARK-48681] [SC-169469] [SQL] [BEHAVE-58] Verwenden von ICU in Lower/Upper-Ausdrücken für UTF8_BINARY Zeichenfolgen
- [SPARK-48573] [15.x] [SC-169582] [SQL] Aktualisieren der ICU-Version
- [SPARK-48687] [Backport] [15.x] [SS] Hinzufügen einer Änderung zum Ausführen der Zustandsschemaüberprüfung und Aktualisierung des Treibers für zustandsbehaftete Abfragen
- [SPARK-47579] [15.x] [SC-167310] [CORE] [PART4] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48008] [SC-167363] [1/2] Unterstützen von UDAFs in Spark Connect
- [SPARK-48578] [SC-169505] [SQL] Hinzufügen von UTF8-Zeichenfolgenüberprüfungsfunktionen
- [SPARK-48670] [SC-169598] [SQL] Bereitstellen eines Vorschlags als Teil der Fehlermeldung, wenn ungültiger Sortiername angegeben wird
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA… … RK-48291] Strukturiertes Protokollframework auf der Java-Seite
- [SPARK-47599] [15.x] [SC-166000] [MLLIB] MLLib: Migrieren von logWarn mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48706] [SC-169589] [PYTHON] Python UDF in höheren Reihenfolge Funktionen sollten keinen internen Fehler auslösen
- [SPARK-48498] [BEHAVE-38] [SC-168060] [SQL] Zeichenabstand immer in Prädikaten ausführen
- [SPARK-48662] [SC-169533] [SQL] StructsToXml-Ausdruck mit Sortierungen beheben
- [SPARK-48482] [SC-167702] [PYTHON] [15.x] dropDuplicates und dropDuplicatesWIthinWatermark sollten Variablenlängenargumente akzeptieren
- [SPARK-48678] [SC-169463] [CORE] Leistungsoptimierungen für SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Umbenennen von UTF8_BINARY_LCASE in UTF8_LCASE
- [SPARK-47927] [SC-164123] [SQL]: Nullability-Attribut im UDF-Decoder korrigieren
- [SPARK-47579] [SC-165297] [CORE] [TEIL1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework (neu)
- [SPARK-48695] [SC-169473] [PYTHON]
TimestampNTZType.fromInternal
nicht die veralteten Methoden verwenden - [SPARK-48431] [SC-167290] [LC-4066] [SQL] Prädikate für sortierte Spalten nicht an Dateileser weiterleiten
- [SPARK-47579] Wiederherstellen von "[SC-165297][CORE][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework"
- [SPARK-47585] [SC-164306][SQL] SQL Core: Migrieren von logInfo mit Variablen zum strukturierten Logging-Framework
- [SPARK-48466] [SC-169042] [SQL] Erstellen eines dedizierten Knotens für EmptyRelation in AQE
- [SPARK-47579] [SC-165297][CORE][PART1] Migrieren von logInfo mit Variablen zum strukturierten Logging-Framework
- [SPARK-48410] [SC-168320] [SQL] Korrigieren des InitCap-Ausdrucks für UTF8_BINARY_LCASE & ICU-Sortierungen
- [SPARK-48318] [SC-167709] [SQL] Aktivieren der Hash-Join-Unterstützung für alle Sortierungen (komplexe Typen)
- [SPARK-48435] [SC-168128] [SQL] UNICODE-Sortierung sollte keine binäre Gleichheit unterstützen
- [SPARK-48555] [SC-169041] [SQL] [PYTHON] [CONNECT] Unterstützung der Verwendung von Spalten als Parameter für mehrere Funktionen in pyspark/scala
- [SPARK-48591] [SC-169081] [PYTHON] Hinzufügen einer Hilfsfunktion zur Vereinfachung von
Column.py
- [SPARK-48574] [SC-169043] [SQL] Beheben der Unterstützung für StructTypes mit Sortierungen
- [SPARK-48305] [SC-166390] [SQL] Sortierungsunterstützung für CurrentLike-Ausdrücke hinzufügen
- [SPARK-48342] [SC-168941] [SQL] Einführung von SQL Scripting Parser
- [SPARK-48649] [SC-169024] [SQL] Fügen Sie "ignoreInvalidPartitionPaths" und "spark.sql.files.ignoreInvalidPartitionPaths"-Konfigurationen hinzu, um zuzulassen, dass ungültige Partitionspfade ignoriert werden
- [SPARK-48000] [SC-167194] [SQL] Aktivieren der Hashbeitrittsunterstützung für alle Sortierungen (StringType)
- [SPARK-48459] [SC-168947] [CONNECT] [PYTHON] Implementieren von DataFrameQueryContext in Spark Connect
- [SPARK-48602] [SC-168692] [SQL] Erstellen eines CSV-Generators zur Unterstützung unterschiedlicher Ausgabestile mit spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129] [SQL] Ändern des Zeichenfolgenvergleichs für UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830] [SQL] Umgestaltung: Verwenden Sie hilfs-idMap anstelle von OP_ID_TAG
- [SPARK-48634] [SC-169021] [PYTHON] [CONNECT] Vermeiden der statisch initialisierenden Threadpools bei ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658] [SQL] Führt einen universellen BinaryFormatter ein, um die binäre Ausgabe konsistent zu machen
- [SPARK-48642] [SC-168889] [CORE] Falscher SparkOutOfMemoryError, verursacht durch das Beenden einer Aufgabe beim Überlaufen
- [SPARK-48572] [SC-168844] [SQL] Korrigieren von DateSub-, DateAdd-, WindowTime-, TimeWindow- und SessionWindow-Ausdrücken
- [SPARK-48600] [SC-168841] [SQL] Beheben von impliziten FrameLessOffsetWindowFunction-Ausdrücken
- [SPARK-48644] [SC-168933] [SQL] Führen Sie eine Längenüberprüfung durch, und lösen Sie COLLECTION_SIZE_LIMIT_EXCEEDED Fehler in Hex.hex aus.
- [SPARK-48587] [SC-168824] [VARIANT] Vermeiden der Speicherverstärkung beim Zugriff auf einen Sub-Variant-Wert
- [SPARK-48647] [SC-168936] [PYTHON] [CONNECT] Verfeinern der Fehlermeldung für
YearMonthIntervalType
indf.collect
- [SPARK-48307] [SC-167802] [SQL] InlineCTE sollte nicht-inline Beziehungen im ursprünglichen WithCTE-Knoten beibehalten
- [SPARK-48596] [SC-168581] [SQL] Perf-Verbesserung für die Berechnung der Hex-Zeichenfolge für lang
- [SPARK-48621] [SC-168726] [SQL] Korrigieren der Vereinfachung in Optimierer für sortierte Zeichenfolgen
- [SPARK-47148] [SC-164179] [SQL] Vermeiden der Materialisierung von AQE ExchangeQueryStageExec beim Abbruch
- [SPARK-48584] [SC-168579] [SQL] Verbesserung perf für unescapePathName
- [SPARK-48281] [SC-167260] [SQL] Ändern der Suchlogik für Zeichenfolgen für UTF8_BINARY_LCASE Sortierung (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826] [SQL] Ungültiger UTF-8-Bytesequenzersetzung
- [SPARK-48595] [SC-168580] [CORE] Veraltete API-Nutzung im Zusammenhang mit
commons-compress
bereinigen - [SPARK-48030] [SC-164303] [SQL] SPJ: cache rowOrdering und structType für InternalRowComparableWrapper
- [SPARK-48004] [SC-164005] [SQL] WriteFilesExecBase Merkmal für v1 Schreiben hinzufügen
- [SPARK-48551] [SC-168438] [SQL] Verbesserung perf für escapePathName
- [SPARK-48565] [SC-168437] [UI] Beheben der Threadabbildanzeige in der Benutzeroberfläche
- [SPARK-48364] [SC-166782] [SQL] Hinzufügen der Umwandlung des AbstractMapType-Typs und Beheben der RaiseError-Parameterzuordnung zum Arbeiten mit sortierten Zeichenfolgen
- [SPARK-48421] [SC-168689] [SQL] SPJ: Dokumentation hinzufügen
- [SPARK-48604] [SC-168698][SQL] Ersetzen des veralteten
new ArrowType.Decimal(precision, scale)
Methodenaufrufs - [SPARK-46947] [SC-157561] [CORE] Verzögern der Initialisierung des Speicher-Managers bis zum Laden des Treiber-Plug-Ins
- [SPARK-48411] [SC-168576] [SS] [PYTHON] Hinzufügen des E2E-Tests für DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697] [SS] Nachverfolgen von Fehlern bei der Überprüfung der Statuszeile mithilfe expliziter Fehlerklasse
- [SPARK-48221] [SC-167143] [SQL] Ändern der Suchlogik für Zeichenfolgen für UTF8_BINARY_LCASE Sortierung (Contains, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441] [SQL] Hinzufügen der Sortierunterstützung für Levenshtein-Ausdrücke
- [SPARK-48593] [SC-168719] [PYTHON] [CONNECT] Beheben der Zeichenfolgendarstellung der Lambda-Funktion
- [SPARK-48622] [SC-168710] [SQL] SQLConf einmal abrufen, wenn Spaltennamen aufgelöst werden
- [SPARK-48594] [SC-168685] [PYTHON] [CONNECT]
parent
Feld zuchild
inColumnAlias
umbenennen - [SPARK-48403] [SC-168319] [SQL] Korrigieren von Lower & Upper-Ausdrücken für UTF8_BINARY_LCASE & ICU-Sortierungen
- [SPARK-48162] [SC-166062] [SQL] Hinzufügen der Sortierunterstützung für MISC-Ausdrücke
- [SPARK-48518] [SC-167718] [CORE] LZF-Komprimierung parallel lauffähig machen
- [SPARK-48474] [SC-167447] [CORE] Beheben des Klassennamens der Anmeldung
SparkSubmitArguments
undSparkSubmit
- [SPARK-48012] [SC-168267] [SQL] SPJ: Unterstützen von Transfrom-Ausdrücken für einseitiges Shuffle
- [SPARK-48552] [SC-168212] [SQL] Mehrzeiliger CSV-Schemarückschluss sollte auch FAILED_READ_FILE wiedergeben
- [SPARK-48560] [SC-168268] [SS] [PYTHON] Festlegen von StreamingQueryListener.spark
- [SPARK-48569] [SC-168321] [SS] [CONNECT] Behandeln von Grenzfällen in query.name
- [SPARK-47260] [SC-167323][SQL] Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327] [PYTHON] [CONNECT] Zwischengespeichertes Schema in Set-Vorgängen verteilen
- [SPARK-48155] [SC-165910] [SQL] AQEPropagateEmptyRelation für die Verknüpfung sollte überprüfen, ob "Untergeordnetes Element" nur "BroadcastQueryStageExec" ist
- [SPARK-48506] [SC-167720] [CORE] Kurznamen des Komprimierungscodecs werden mit Ausnahme der Ereignisprotokollierung nicht beachtet
- [SPARK-48447] [SC-167607] [SS] Überprüfen der Statusspeicheranbieterklasse vor dem Aufrufen des Konstruktors
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff und DateTimeUtils.timestampAdd sollten INTERNAL_ERROR Ausnahme nicht auslösen
- [SPARK-48513] [Backport] [15.x] [SC-168085] [SS] Hinzufügen einer Fehlerklasse für die Statusschemakompatibilität und kleinere Umgestaltung
- [SPARK-48413] [SC-167669] [SQL] ALTER COLUMN mit Sortierung
- [SPARK-48561] [SC-168250] [PS] [CONNECT]
PandasNotImplementedError
für nicht unterstützte Zeichnungsfunktionen auslösen - [SPARK-48465] [SC-167531] [SQL] Vermeiden einer no-op leeren Beziehungsverteilung
- [SPARK-48553] [SC-168166] [PYTHON] [CONNECT] Weitere Eigenschaften zwischenspeichern
- [SPARK-48540] [SC-168069] [CORE] Vermeiden von Einstellungen für das Laden von Ivy-Ausgaben in Stdout
- [SPARK-48535] [SC-168057] [SS] Aktualisieren Sie Config-Dokumente, um die Möglichkeit eines Problems mit Datenverlust/Beschädigung anzugeben, wenn Nullwerte für stream-stream joins config aktiviert sind
- [SPARK-48536] [SC-168059] [PYTHON] [CONNECT] Zwischenspeichern des benutzerdefinierten Schemas in applyInPandas und applyInArrow
- [SPARK-47873] [SC-163473] [SQL] Schreiben von sortierten Zeichenfolgen in den Hive-Metastore mithilfe des regulären Zeichenfolgentyps
- [SPARK-48461] [SC-167442] [SQL] Ersetzen von NullPointerExceptions durch Fehlerklasse im AssertNotNull-Ausdruck
- [SPARK-47833] [SC-163191] [SQL] [CORE] Stacktrace des Anrufers für checkAndGlobPathIfNecessary AnalysisException liefern
- [SPARK-47898] [SC-163146] [SQL] Port HIVE-12270: Hinzufügen der DBTokenStore-Unterstützung zu HS2-Delegierungstoken
- [SPARK-47578] [SC-167497] [R] Migrieren von RPackageUtils mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-47875] [SC-162935][CORE]
spark.deploy.recoverySerializer
entfernen - [SPARK-47552] [SC-160880] [CORE]
spark.hadoop.fs.s3a.connection.establish.timeout
bei Fehlen auf 30s festlegen - [SPARK-47972] [SC-167692] [SQL] Einschränken des CAST-Ausdrucks für Sortierungen
- [SPARK-48430] [SC-167489] [SQL] Korrigieren der Zuordnungswertextraktion, wenn die Zuordnung sortierte Zeichenfolgen enthält
- [SPARK-47318] [SC-162712] [CORE][3.5] Fügt die HKDF-Runde zu AuthEngine-Schlüsselableitung hinzu, um die Standard-KEX-Methoden zu befolgen
- [SPARK-48503] [BEHAVE-29] [ES-1135236] [SQL] Beheben ungültiger skalarer Unterabfragen mit "Gruppieren nach" für nicht gleichwertige Spalten, die falsch zulässig waren
- [SPARK-48508] [SC-167695] [CONNECT] [PYTHON] Vom Benutzer angegebenes Schema in
DataFrame.{to, mapInPandas, mapInArrow}
zwischenspeichern - [SPARK-23015] [SC-167188] [WINDOWS] Behebung eines Fehlers in Windows, bei dem das Starten mehrerer Spark-Instanzen innerhalb derselben Sekunde zu einem Fehler führt
- [SPARK-45891] [SC-167608] Zurücksetzen „Schredderschema für Variante beschreiben“
- [SPARK-48391] [SC-167554] [CORE] Verwenden von "addAll" anstelle von "add function in fromAccumulatorInfos"-Methode der TaskMetrics-Klasse
- [SPARK-48496] [SC-167600] [CORE] Verwenden statischer regex-Musterinstanzen in JavaUtils.timeStringAs und JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488] [SQL] Beheben der NPE-Fehlermeldung für null delmiter csv
- [SPARK-48489] [SC-167598] [SQL] Besseren Benutzerfehler auslösen, wenn Sie ein ungültiges Schema aus der Textdatenquelle lesen
- [SPARK-48471] [SC-167324] [CORE] Verbessern der Dokumentation und des Verwendungshandbuchs für Verlaufsserver
- [SPARK-45891] [SC-167597] Beschreiben des Streuungsschemas für Variante
- [SPARK-47333] [SC-159043] [SQL] Verwenden von checkInputDataTypes zum Überprüfen der Parametertypen der Funktion
to_xml
- [SPARK-47387] [SC-159310] [SQL] Entfernen einiger nicht verwendeter Fehlerklassen
- [SPARK-48265] [ES-1131440] [SQL] Infer Window-Gruppenlimit-Batch sollte konstante Faltung durchführen
- [SPARK-47716] [SC-167444] [SQL] Vermeiden eines Ansichtsnamenkonflikts im Semantik-Testfall von SQLQueryTestSuite
- [SPARK-48159] [SC-167141] [SQL] Erweitern der Unterstützung für sortierte Zeichenfolgen in Datetime-Ausdrücken
- [SPARK-48462] [SC-167271] [SQL] [Tests] Verwenden von withSQLConf in Tests: Refactor HiveQuerySuite und HiveTableScanSuite
- [SPARK-48392] [SC-167195] [CORE]
spark-defaults.conf
auch laden, wenn angegeben--properties-file
- [SPARK-48468] [SC-167417] Hinzufügen der LogicalQueryStage-Schnittstelle im Katalysator
- [SPARK-47578] [SC-164988] [CORE] Manueller Backport für Spark PR #46309: Migrieren von logWarning mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48415] [SC-167321] Rückgängigmachen von "[PYTHON] Refactor TypeName to support parametrized datatypes"
- [SPARK-46544] [SC-151361] [SQL] Unterstützung v2 DESCRIBE TABLE EXTENDED mit Tabellenstatistiken
- [SPARK-48325] [SC-166963] [CORE] Immer Nachrichten in ExecutorRunner.killProcess angeben
- [SPARK-46841] [SC-167139] [SQL] Hinzufügen der Sortierunterstützung für ICU-Gebietsschemas und Sortierbezeichner
- [SPARK-47221] [SC-157870] [SQL] Verwendet Signaturen von CsvParser zu AbstractParser
- [SPARK-47246] [SC-158138] [SQL]
InternalRow.fromSeq
durchnew GenericInternalRow
ersetzen, um eine Sammlungskonvertierung zu speichern - [SPARK-47597] [SC-163932] [STREAMING] Manueller Backport für Spark PR #46192: Streaming: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-48415] [SC-167130] [PYTHON] Umgestaltung
TypeName
zur Unterstützung parametrisierter Datentypen - [SPARK-48434] [SC-167132] [PYTHON] [CONNECT]
printSchema
zwingen, zwischengespeichertes Schema zu nutzen - [SPARK-48432] [ES-1097114] [SQL] Vermeiden von ganzzahligen Posteingangszahlen in UnivocityParser
- [SPARK-47463] [SC-162840] [SQL] Verwenden von V2Predicate zum Umbrechen eines Ausdrucks mit Rückgabetyp vom Typ boolean
- [SPARK-47781] [SC-162293] [SQL] Behandeln negativer Dezimalstellen der Skalierung für JDBC Datenquellen
- [SPARK-48394] [SC-166966] [CORE] Bereinigen von mapIdToMapIndex bei mapoutput unregister
- [SPARK-47072] [SC-156933] [SQL] Beheben unterstützter Intervallformate in Fehlermeldungen
- [SPARK-47001] [SC-162487] [SQL] Pushdownüberprüfung im Optimierer
- [SPARK-48335] [SC-166387] [PYTHON] [CONNECT]
_parse_datatype_string
mit Spark Connect kompatibel machen - [SPARK-48329] [SC-166518][SQL] Standardmäßig
spark.sql.sources.v2.bucketing.pushPartValues.enabled
aktivieren - [SPARK-48412] [SC-166898] [PYTHON] Refactoring des JSON-Datentyps
- [SPARK-48215] [SC-166781] [SQL] Erweitern der Unterstützung für sortierte Zeichenfolgen für date_format Ausdruck
- [SPARK-45009] [SC-166873] [SQL] [FOLLOW UP] Fehlerklasse und Tests für die Dekorrelation von Prädikat-Unterabfragen in Join-Bedingungen hinzufügen, die auf beide Join-Childs verweisen
- [SPARK-47960] [SC-165295] [SS] [15.x] Verketten anderer zustandsbehafteter Operatoren nach transformWithState-Operator zulassen.
- [SPARK-48340] [SC-166468] [PYTHON] Support timestampNTZ infer schema miss prefer_timestamp_ntz
- [SPARK-48157] [SC-165902] [SQL] Hinzufügen der Sortierunterstützung für CSV-Ausdrücke
- [SPARK-48158] [SC-165652] [SQL] Hinzufügen der Sortierunterstützung für XML-Ausdrücke
- [SPARK-48160] [SC-166064] [SQL] Hinzufügen der Sortierunterstützung für XPATH-Ausdrücke
- [SPARK-48229] [SC-165901] [SQL] Hinzufügen der Sortierunterstützung für inputFile-Ausdrücke
- [SPARK-48367] [SC-166487] [CONNECT] Korrigieren Sie lint-scala für scalafmt, um Dateien zu erkennen, die ordnungsgemäß formatiert werden sollen
- [SPARK-47858] [SC-163095] [SPARK-47852] [PYTHON] [SQL] Umgestalten der Struktur für DataFrame-Fehlerkontext
- [SPARK-48370] [SC-166787] [CONNECT] Prüfpunkt und localCheckpoint im Scala Spark Connect-Client
- [SPARK-48247] [SC-166028] [PYTHON] Verwenden aller Werte in einem Diktieren beim Ableiten des MapType-Schemas
- [SPARK-48395] [SC-166794] [PYTHON]
StructType.treeString
für parametrisierte Type beheben - [SPARK-48393] [SC-166784] [PYTHON] Verschieben einer Gruppe von Konstanten in
pyspark.util
- [SPARK-48372] [SC-166776] [SPARK-45716] [PYTHON]
StructType.treeString
implementieren - [SPARK-48258] [SC-166467] [PYTHON] [CONNECT] Prüfpunkt und localCheckpoint in Spark Connect
Weitere Informationen finden Sie unter Wartungsupdates von Databricks Runtime 15.4 LTS.
Systemumgebung
- Betriebssystem: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
Klicken | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
contourpy | 1.0.5 | Kryptografie | 41.0.3 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
entrypoints | 0,4 | executing | 0.8.3 | facets-overview | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | Packen | 23,2 |
Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6,0 | pyzmq | 23.2.0 |
requests | 2.31.0 | rsa | 4,9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | sechs | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | unattended-upgrades | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wheel | 0.38.4 | zipp | 3.11.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Momentaufnahme des Posit Package Manager CRAN installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | Blob | 1.2.4 | boot | 1.3-28 |
brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
clock | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.2 | Anmeldeinformationen | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | datasets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
Diagramm | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | Evaluieren | 0,23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
Grafiken | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0,10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1,45 | labeling | 0.4.3 |
later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
Matrix | 1.5-4.1 | memoise | 2.0.1 | Methoden | 4.3.2 |
mgcv | 1.8-42 | mime | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
shape | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
survival | 3.5-5 | Swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |