Databricks Runtime 7.4 (EoS)
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.
Diese Version wurde von Databricks im November 2020 veröffentlicht.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 7.4, unterstützt von Apache Spark 3.0.
Neue Funktionen
Inhalt dieses Abschnitts:
- Delta Lake-Features und -Verbesserungen
- Autoloader unterstützt jetzt das Delegieren des Setups von Dateibenachrichtigungsressourcen an Administratoren
- Neue
USAGE
-Berechtigungen ermöglichen Administratoren mehr Kontrolle über Datenzugriffsberechtigungen - DBFS FUSE ist jetzt für Passthrough-fähige Cluster aktiviert
Delta Lake-Features und -Verbesserungen
In diesem Release sind die folgenden Delta Lake-Features und -Verbesserungen enthalten:
- Mit der neuen API kann Delta Lake überprüfen, ob zu einer Tabelle hinzugefügte Daten Einschränkungen erfüllen
- Mit der neuen API können Sie ein Rollback für eine Delta-Tabelle auf eine ältere Version der Tabelle ausführen
- Die neue Startversion ermöglicht, ausschließlich die neuesten Änderungen in einer Delta Lake-Streamingquelle zurückzugeben
- Verbesserte Stabilität von
OPTIMIZE
Mit der neuen API kann Delta Lake überprüfen, ob zu einer Tabelle hinzugefügte Daten Einschränkungen erfüllen.
Delta Lake unterstützt jetzt CHECK
-Einschränkungen. Wenn diese Angabe erfolgt, überprüft Delta Lake automatisch, ob einer Tabelle hinzugefügte Daten den angegebenen Ausdruck erfüllen.
Verwenden Sie zum Hinzufügen von CHECK
-Einschränkungen den Befehl ALTER TABLE ADD CONSTRAINTS
. Einzelheiten finden Sie unter Einschränkungen für Azure Databricks.
Mit der neuen API können Sie ein Rollback für eine Delta-Tabelle auf eine ältere Version der Tabelle ausführen.
Sie können jetzt ein Rollback für Ihre Delta-Tabellen auf ältere Versionen ausführen, indem Sie den Befehl RESTORE
verwenden:
SQL
RESTORE <table> TO VERSION AS OF n;
RESTORE <table> TO TIMESTAMP AS OF 'yyyy-MM-dd HH:mm:ss';
Python
from delta.tables import DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp('yyyy-MM-dd')
Scala
import io.delta.tables.DeltaTable
DeltaTable.forName(spark, "table_name").restoreToVersion(n)
DeltaTable.forName(spark, "table_name").restoreToTimestamp("yyyy-MM-dd")
RESTORE
erstellt einen neuen Commit, der ein Rollback für alle Änderungen an der Tabelle seit der Version ausführt, die Sie wiederherstellen möchten. Alle vorhandenen Daten und Metadaten werden wiederhergestellt, einschließlich Schema, Einschränkungen, Streamingtransaktions-IDs, COPY INTO
-Metadaten und der Tabellenprotokollversion. Weitere Informationen finden Sie unter Wiederherstellen einer Delta-Tabelle.
Die neue Startversion ermöglicht, ausschließlich die neuesten Änderungen in einer Delta Lake-Streamingquelle zurückzugeben
Um nur die neuesten Änderungen zurückzugeben, geben Sie startingVersion
als latest
an. Weitere Informationen finden Sie unter Angeben der Anfangsposition.
Verbesserte Stabilität von OPTIMIZE
OPTIMIZE
(ohne Partitionsprädikate) kann zur Ausführung für Tabellen mit Dutzenden Millionen kleiner Dateien skaliert werden. Zuvor konnte der Apache Spark-Treiber von Arbeitsspeichermangel betroffen sein, sodass OPTIMIZE
nicht abgeschlossen wurde.OPTIMIZE
verarbeitet jetzt sehr große Tabellen mit Dutzenden Millionen von Dateien.
Autoloader unterstützt jetzt das Delegieren des Setups von Dateibenachrichtigungsressourcen an Administratoren
Mit einer neuen Scala-API können Administratoren Dateibenachrichtigungsressourcen für den Autoloader einrichten. Technische Fachkräfte für Daten können jetzt ihre Autoloader-Datenströme mit weniger Berechtigungen betreiben, indem sie die anfängliche Ressourceneinrichtung an ihre Administratoren delegieren. Siehe Manuelles Konfigurieren oder Verwalten von Dateibenachrichtigungsressourcen.
Neue USAGE
-Berechtigungen ermöglichen Administratoren mehr Kontrolle über Datenzugriffsberechtigungen
Um eine Aktion für ein Objekt in einer Datenbank durchzuführen, müssen Sie nun zusätzlich zu den Berechtigungen, die zum Ausführen der Aktion erforderlich sind, die USAGE
-Berechtigung für diese Datenbank erhalten. Die USAGE
-Berechtigung wird für eine Datenbank oder einen Katalog gewährt. Mit der Einführung der USAGE
-Berechtigung kann ein Tabellenbesitzer nicht mehr einseitig entscheiden, die Tabelle für einen anderen Benutzer frei zu geben. Der Benutzer muss auch über die USAGE
-Berechtigung für die Datenbank verfügen, die die Tabelle enthält.
In Arbeitsbereichen mit aktivierter Tabellenzugriffssteuerung verfügt die users
-Gruppe automatisch über die USAGE
-Berechtigung für den Stamm CATALOG
.
Weitere Informationen finden Sie unter USAGE-Berechtigung.
DBFS FUSE ist jetzt für Passthrough-fähige Cluster aktiviert
Sie können jetzt aus DBFS lesen und hinein schreiben, indem Sie die FUSE-Bereitstellung unter /dbfs/
verwenden, wenn Sie einen Cluster mit hoher Parallelität verwenden, der für den Passthrough von Anmeldeinformationen aktiviert ist. Reguläre Bereitstellungen werden unterstützt. Bereitstellungen, die Passthrough-Anmeldeinformationen erfordern, werden nicht unterstützt.
Verbesserungen
Spark SQL unterstützt IFF
und CHARINDEX
als Synonyme für IF
und POSITION
In Databricks Runtime ist IF()
ein Synonym für CASE WHEN <cond> THEN <expr1> ELSE <expr2> END
Databricks Runtime unterstützt jetzt IFF()
als Synonym für IF()
SELECT IFF(c1 = 1, 'Hello', 'World'), c1 FROM (VALUES (1), (2)) AS T(c1)
=> (Hello, 1)
(World, 2)
CHARINDEX
ist ein alternativer Name für die POSITION
-Funktion. CHARINDEX
sucht die Position des ersten Vorkommens einer Zeichenfolge innerhalb einer anderen Zeichenfolge mit einem optionalen Startindex.
VALUES(CHARINDEX('he', 'hello from hell', 2))
=> 12
Standardmäßig mehrere Ausgaben pro Zelle für Python-Notebooks aktiviert
Mit Databricks Runtime 7.1 wurde die Unterstützung mehrerer Ausgaben pro Zelle in Python-Notebooks (und %python-Zellen in Nicht-Python-Notebooks) eingeführt, aber Sie mussten das Feature für Ihr Notebook aktivieren. In Databricks Runtime 7.4 ist dieses Feature standardmäßig aktiviert. Siehe Anzeigen mehrerer Ausgaben pro Zelle.
Verbesserungen von AutoVervollständigen für Python-Notebooks
AutoVervollständigen für Python zeigt zusätzliche Typinformationen an, die aus der statischen Analyse des Codes mithilfe der Jedi-Bibliothek generiert wurden. Sie können die TAB-TASTE drücken, um eine Liste der Optionen zu sehen.
Verbessertes display
von Spark-ML-Vektoren in Spark DataFrame-Vorschau
Das display
-Format zeigt jetzt Bezeichnungen für Vektortyp (geringe oder hohe Dichte), Länge, Indizes (für Vektoren mit geringer Dichte) und Werte an.
Weitere Problembehebungen
- Ein Picklingproblem mit
collections.namedtuple
in Notebooks wurde behandelt. - Ein Picklingproblem mit interaktiv definierten Klassen und Methoden wurde behandelt.
- Es wurde ein Problem behandelt, das dazu führte, dass bei Aufrufen von
mlflow.start_run()
bei Passthrough oder Clustern, die für die Tabellenzugriffssteuerung aktiviert sind, ein Fehler auftrat.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- jedi aktualisiert von 0.14.1 auf 0.17.2.
- koalas aktualisiert von 1.2.0 auf 1.3.0.
- parso aktualisiert von 0.5.2 auf 0.7.0.
- Mehrere installierte R-Bibliotheken haben ein Upgrade erhalten. Weitere Informationen finden Sie unter Installierte R-Bibliotheken.
Apache Spark
Databricks Runtime 7.4 enthält Apache Spark 3.0.1. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 7.3 LTS (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-33170] [SQL] Hinzufügen der SQL-Konfiguration, um das Verhalten bei plötzlichem Ausfall in FileFormatWriter zu steuern
- [SPARK-33136] [SQL] Korrektur des fälschlicherweise ausgetauschten Parameters in V2WriteCommand.outputResolved
- [SPARK-33134] [SQL] Zurückgeben von Teilergebnissen nur für JSON-Stammobjekte
- [SPARK-33038] [SQL] Kombinieren von anfänglichen und aktuellen AQE-Plänen...
- [SPARK-33118] [SQL] Fehler bei CREATE TEMPORARY TABLE mit Speicherort
- [SPARK-33101] [ML] Veranlassen, dass das LibSVM-Format die Hadoop-Konfiguration von DS-Optionen an das zugrunde liegende HDFS-Dateisystem verteilt
- [SPARK-33035] [SQL] Aktualisiert die veralteten Einträge der Attributzuordnung in QueryPlan#transformUpWithNewOutput
- [SPARK-33091] [SQL] Vermeiden der Verwendung der Zuordnung anstelle von „Foreach“, um potenzielle Nebeneffekte bei Aufrufern von OrcUtils.readSchema zu vermeiden
- [SPARK-33073] [PYTHON] Verbesserung der Fehlerbehandlung bei Fehlern bei der Konvertierung von Pandas in Arrow
- [SPARK-33043] [ML] Behandlung von spark.driver.maxResultSize=0 bei der heuristischen Berechnung von RowMatrix
- [SPARK-29358] [SQL] Veranlassen, dass unionByName optional fehlende Spalten mit NULL-Werten füllt
- [SPARK-32996] [WEB-UI] Behandlung von leeren ExecutorMetrics in ExecutorMetricsJsonSerializer
- [SPARK-32585] [SQL] Unterstützung der Scala-Enumeration in ScalaReflection
- [SPARK-33019] [CORE] Standardmäßige Verwendung von spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version=1
- [SPARK-33018] [SQL] Behandlung des Problems mit der Schätzungsstatistik, wenn untergeordnete Objekte 0 Bytes enthalten
- [SPARK-32901] [CORE] Arbeitsspeicher beim Überlauf von UnsafeExternalSorter nicht zuordnen
- [SPARK-33015] [SQL] Verwenden von millisToDays() in der ComputeCurrentTime-Regel
- [SPARK-33015] [SQL] Aktuelles Datum nur einmal berechnen
- [SPARK-32999] [SQL] Verwenden von Utils.getSimpleName, um zu vermeiden, dass falsch formatierter Klassenname in TreeNode getroffen wird
- [SPARK-32659] [SQL] Array anstelle von Set in InSubqueryExec übertragen
- [SPARK-32718] [SQL] Entfernen unnötiger Schlüsselwörter für Intervalleinheiten
- [SPARK-32886] [WEBUI] Korrektur des „undefinierten“ Links in Zeitskala der Ereignisse
- [SPARK-32898] [CORE] Korrektur der falschen executorRunTime, wenn die Aufgabe vor dem eigentlichen Start beendet wird
- [SPARK-32635] [SQL] Hinzufügen eines neuen Testfalls in einem Katalysatormodul
- [SPARK-32930] [CORE] Ersetzen der veralteten isFile/isDirectory-Methoden
- [SPARK-32906] [SQL] Strukturfeldnamen sollten sich nach dem Normalisieren von Gleitkommawerten nicht ändern
- [SPARK-24994] [SQL] Hinzufügen des UnwrapCastInBinaryComparison-Optimierers zur Vereinfachung von Integralliteralen
- [SPARK-32635] [SQL] Korrektur der reduzierbaren Verteilung
- [SPARK-32738] [CORE] Die Anzahl aktiver Threads Sollte reduziert werden, wenn ein schwerwiegender Fehler in
Inbox.process
auftritt - [SPARK-32900] [CORE] Zulassen, dass UnsafeExternalSorter überläuft, wenn NULL-Werte enthalten sind
- [SPARK-32897] [PYTHON] Keine Veraltungswarnung bei SparkSession.builder.getOrCreate anzeigen
- [SPARK-32715] [CORE] Korrektur des Arbeitsspeicherverlusts, wenn Teile der Übertragung nicht gespeichert werden konnten
- [SPARK-32715] [CORE] Korrektur des Arbeitsspeicherverlusts, wenn Teile der Übertragung nicht gespeichert werden konnten
- [SPARK-32872] [CORE] Verhindern, dass BytesToBytesMap bei MAX_CAPACITY Zuwachsschwellenwert überschreitet
- [SPARK-32876] [SQL] Ändern der Standardfallbackversionen in HiveExternalCatalogVersionsSuite in 3.0.1 und 2.4.7
- [SPARK-32840] [SQL] Ungültiger Intervallwert kann an der Einheit hängen
- [SPARK-32819] [SQL] IgnoreNullability-Parameter sollte rekursiv wirksam sein
- [SPARK-32832] [SQL] Verwenden von CaseInsensitiveMap für DataFrameReader- bzw. Writer-Optionen
- [SPARK-32794] [SS] Korrektur des seltenen Fehlers in der Microbatch-Engine mit einigen zustandsbehafteten Abfragen + No-Data-Batches + V1-Quellen
- [SPARK-32813] [SQL] Abrufen der Standardkonfiguration des vektorisierten ParquetSource-Lesers, wenn keine SparkSession aktiv ist
- [SPARK-32823] [WEB UI] Korrigieren der Berichterstattung für Master-Benutzeroberflächenressourcen
- [SPARK-32824] [CORE] Verbesserung der Fehlermeldung, wenn der Benutzer „.amount“ in einer Ressourcenkonfiguration vergisst
- [SPARK-32614] [SQL] Nicht die Kommentarverarbeitung anwenden, wenn „comment“ nicht mehr für CSV verwendet wird
- [SPARK-32638] [SQL] Korrigiert Verweise beim Hinzufügen von Aliasen in WidenSetOperationTypes
- [SPARK-32810] [SQL] CSV/JSON-Datenquellen sollten beim Ableiten eines Schemas vermeiden, Platzhalter für Pfade anzugeben
- [SPARK-32815] [ML] Korrektur des Fehlers beim Laden der LibSVM-Datenquelle in Dateipfaden mit Platzhalter-Metazeichen
- [SPARK-32753] [SQL] Tags nur auf Knoten ohne Tags kopieren
- [SPARK-32785] [SQL] Intervall mit verwaisten Teilen sollte nicht NULL ergeben
- [SPARK-32764] [SQL] -0.0 sollte gleich 0.0 sein
- [SPARK-32810] [SQL] CSV/JSON-Datenquellen sollten beim Ableiten eines Schemas vermeiden, Platzhalter für Pfade anzugeben
- [SPARK-32779] [SQL] Vermeiden der Verwendung der synchronisierten API von SessionCatalog in withClient-Flow; Dies führt zu DeadLock
- [SPARK-32791] [SQL] Die Metrik für nicht partitionierte Tabellen sollte keine Dynamische Partitionsbereinigungszeit haben
- [SPARK-32767] [SQL] Bucketjoin sollte funktionieren, wenn spark.sql.shuffle.partitions größer als die Bucketnummer ist
- [SPARK-32788] [SQL] Der nicht partitionierte Tabellenscan sollte keinen Partitionsfilter enthalten
- [SPARK-32776] [SS] Grenzwert beim Streaming sollte nicht durch PropagateEmptyRelation optimiert werden
- [SPARK-32624] [SQL] Korrektur der Regression in CodegenContext.addReferenceObj für geschachtelte Scala-Typen
- [SPARK-32659] [SQL] Verbessern des Tests zum Bereinigen von DPP auf einem nicht atomaren Typ
- [SPARK-31511] [SQL] BytesToBytesMap-Iteratoren threadsicher machen
- [SPARK-32693] [SQL] Vergleichen zweier Datenrahmen mit demselben Schema außer der Nullable-Eigenschaft
- [SPARK-28612] [SQL] Korrektes Methodendokument von DataFrameWriterV2.replace()
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 7.4-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 18.04.5 LTS
- Java: Zulu 8.48.0.53-CA-linux64 (Build 1.8.0_265-b11)
- Scala: 2.12.10
- Python: 3.7.5
- R: R-Version 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
asn1crypto | 1.3.0 | backcall | 0.1.0 | boto3 | 1.12.0 |
botocore | 1.15.0 | certifi | 2020.6.20 | cffi | 1.14.0 |
chardet | 3.0.4 | cryptography | 2.8 | cycler | 0.10.0 |
Cython | 0.29.15 | decorator | 4.4.1 | docutils | 0.15.2 |
entrypoints | 0,3 | idna | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | jedi | 0.17.2 |
jmespath | 0.10.0 | joblib | 0.14.1 | jupyter-client | 5.3.4 |
jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | koalas | 1.3.0 |
matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
parso | 0.7.0 | patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | pip | 20.0.2 | prompt-toolkit | 3.0.3 |
psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | pyarrow | 1.0.1 |
pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | pytz | 2019.3 |
pyzmq | 18.1.1 | requests | 2.22.0 | s3transfer | 0.3.3 |
scikit-learn | 0.22.1 | scipy | 1.4.1 | seaborn | 0.10.0 |
setuptools | 45.2.0 | sechs | 1.14.0 | ssh-import-id | 5.7 |
statsmodels | 0.11.0 | tornado | 6.0.3 | traitlets | 4.3.3 |
unattended-upgrades | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
wcwidth | 0.1.8 | wheel | 0.34.2 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus Microsoft CRAN-Momentaufnahme am XXXX-XX-XX installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.1.8 |
base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
bit | 1.1-15.2 | bit64 | 0.9-7 | Blob | 1.2.1 |
boot | 1.3-25 | brew | 1.0-6 | broom | 0.7.0 |
callr | 3.4.3 | caret | 6.0-86 | cellranger | 1.1.0 |
chron | 2.3-55 | class | 7.3-17 | cli | 2.0.2 |
clipr | 0.7.0 | cluster | 2.1.0 | codetools | 0.2-16 |
colorspace | 1.4-1 | commonmark | 1.7 | compiler | 3.6.3 |
config | 0,3 | covr | 3.5.0 | crayon | 1.3.4 |
crosstalk | 1.1.0.1 | curl | 4.3 | data.table | 1.12.8 |
datasets | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
desc | 1.2.0 | devtools | 2.3.0 | digest | 0.6.25 |
dplyr | 0.8.5 | DT | 0.14 | ellipsis | 0.3.1 |
Evaluieren | 0.14 | fansi | 0.4.1 | farver | 2.0.3 |
fastmap | 1.0.1 | forcats | 0.5.0 | foreach | 1.5.0 |
foreign | 0.8-76 | forge | 0.2.0 | fs | 1.4.2 |
generics | 0.0.2 | ggplot2 | 3.3.2 | gh | 1.1.0 |
git2r | 0.27.1 | glmnet | 3.0-2 | globals | 0.12.5 |
glue | 1.4.1 | gower | 0.2.2 | Grafiken | 3.6.3 |
grDevices | 3.6.3 | grid | 3.6.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.0 | haven | 2.3.1 |
highr | 0,8 | hms | 0.5.3 | htmltools | 0.5.0 |
htmlwidgets | 1.5.1 | httpuv | 1.5.4 | httr | 1.4.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
ipred | 0.9-9 | isoband | 0.2.2 | iterators | 1.0.12 |
jsonlite | 1.7.0 | KernSmooth | 2.23-17 | knitr | 1.29 |
labeling | 0,3 | later | 1.1.0.1 | lattice | 0.20-41 |
lava | 1.6.7 | lazyeval | 0.2.2 | Lebenszyklus | 0.2.0 |
lubridate | 1.7.9 | magrittr | 1.5 | markdown | 1.1 |
MASS | 7.3-53 | Matrix | 1.2-18 | memoise | 1.1.0 |
methods | 3.6.3 | mgcv | 1.8-33 | mime | 0.9 |
ModelMetrics | 1.2.2.2 | modelr | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-149 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
openssl | 1.4.2 | parallel | 3.6.3 | pillar | 1.4.6 |
pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
plogr | 0.2.0 | plyr | 1.8.6 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.16.2 | processx | 3.4.3 |
prodlim | 2019.11.13 | Fortschritt | 1.2.2 | promises | 1.1.1 |
proto | 1.0.0 | ps | 1.3.3 | purrr | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest | 4.6-14 |
rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
Rcpp | 1.0.5 | readr | 1.3.1 | readxl | 1.3.1 |
recipes | 0.1.13 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.1.1 | reprex | 0.3.0 | reshape2 | 1.4.4 |
rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.7 |
rmarkdown | 2.3 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
RSQLite | 2.2.0 | rstudioapi | 0,11 | rversions | 2.0.2 |
rvest | 0.3.5 | scales | 1.1.1 | selectr | 0.4-2 |
sessioninfo | 1.1.1 | shape | 1.4.4 | shiny | 1.5.0 |
sourcetools | 0.1.7 | sparklyr | 1.3.1 | SparkR | 3.0.0 |
spatial | 7.3-11 | splines | 3.6.3 | sqldf | 0.4-11 |
SQUAREM | 2020.3 | stats | 3.6.3 | stats4 | 3.6.3 |
stringi | 1.4.6 | stringr | 1.4.0 | survival | 3.2-7 |
sys | 3.3 | tcltk | 3.6.3 | TeachingDemos | 2,10 |
testthat | 2.3.2 | tibble | 3.0.3 | tidyr | 1.1.0 |
tidyselect | 1.1.0 | tidyverse | 1.3.0 | timeDate | 3043.102 |
tinytex | 0,24 | tools | 3.6.3 | usethis | 1.6.1 |
utf8 | 1.1.4 | utils | 3.6.3 | uuid | 0.1-4 |
vctrs | 0.3.1 | viridisLite | 0.3.0 | whisker | 0,4 |
withr | 2.2.0 | xfun | 0,15 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.4.4-3 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.9.5 |
com.twitter | chill_2.12 | 0.9.5 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.0 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.4 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,10 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.47.Final |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.12.8 |
net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.15.1 |
org.apache.arrow | arrow-memory | 0.15.1 |
org.apache.arrow | arrow-vector | 0.15.1 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.4 |
org.apache.hadoop | hadoop-auth | 2.7.4 |
org.apache.hadoop | hadoop-client | 2.7.4 |
org.apache.hadoop | hadoop-common | 2.7.4 |
org.apache.hadoop | hadoop-hdfs | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | hive-cli | 2.3.7 |
org.apache.hive | hive-common | 2.3.7 |
org.apache.hive | hive-exec-core | 2.3.7 |
org.apache.hive | hive-jdbc | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-llap-common | 2.3.7 |
org.apache.hive | hive-metastore | 2.3.7 |
org.apache.hive | hive-serde | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | hive-storage-api | 2.7.1 |
org.apache.hive | hive-vector-code-gen | 2.3.7 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
org.apache.hive.shims | hive-shims-common | 2.3.7 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | orc-shims | 1.5.10 |
org.apache.parquet | parquet-column | 1.10.1-databricks6 |
org.apache.parquet | parquet-common | 1.10.1-databricks6 |
org.apache.parquet | parquet-encoding | 1.10.1-databricks6 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | velocity | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4.15 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-continuation | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-security | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-server | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-webapp | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
org.glassfish.jersey.core | jersey-client | 2,30 |
org.glassfish.jersey.core | jersey-common | 2,30 |
org.glassfish.jersey.core | jersey-server | 2,30 |
org.glassfish.jersey.inject | jersey-hk2 | 2,30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | shims | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.10 |
org.scala-lang | scala-library_2.12 | 2.12.10 |
org.scala-lang | scala-reflect_2.12 | 2.12.10 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | unused | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.5 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |