Freigeben über


Databricks Runtime 6.0 (EoS)

Hinweis

Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.

Diese Version wurde von Databricks im Oktober 2019 veröffentlicht.

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 6.0 mit Unterstützung durch Apache Spark.

Neue Funktionen

Python-Umgebung

Databricks Runtime 6.0 enthält wichtige Änderungen an Python und der Konfiguration von Python-Umgebungen, z. B. das Upgrade von Python auf 3.7.3, das Optimieren der Liste der installierten Python-Pakete und das Upgrade dieser installierten Pakete auf neuere Versionen. Weitere Informationen finden Sie unter Installierte Python-Bibliotheken.

Darüber hinaus unterstützt Databricks Runtime 6.0 Python 2 nicht, wie bereits angekündigt.

Zu den wesentlichen Änderungen gehören:

  • Upgrade von Python von 3.5.2 auf 3.7.3. Einige alte Versionen von Python-Paketen sind möglicherweise nicht mit Python 3.7 kompatibel, da sie von alten Cython-Versionen abhängen, die nicht mit Python 3.7 kompatibel sind. Die Installation eines solchen Pakets kann zu Fehlern führen, die ‘PyThreadState’ {‘struct _ts’} has no member named ‘exc_type’ ähneln (Einzelheiten finden Sie unter GitHub-Problem 1978). Installieren Sie stattdessen Python 3.7-kompatible Versionen von Python-Paketen.
  • Wesentliche Upgrades von Paketen:
    • boto3 auf 1.9.162
    • ipython auf 7.4.0
    • matplotlib auf 3.0.3
    • numpy auf 1.16.2
    • pandas auf 0.24.2
    • pyarrow auf 0.13.0
  • Im Vergleich zu Databricks Runtime 5.5 LTS (EoS) sind die folgenden Python-Pakete neu enthalten: asn1crypto, backcall, jedi, kiwisolver, parso und PySocks.
  • Im Vergleich zu Databricks Runtime 5.5 LTS (EoS) werden die folgenden Python-Pakete nicht installiert: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson und singledispatch.
  • Die display-Funktion für ggplot-Objekte von Python wird nicht mehr unterstützt, da das ggplot-Paket nicht mit einer neueren Version von Pandas kompatibel ist.
  • Das Festlegen von PYSPARK_PYTHON auf /databricks/python2/bin/python wird nicht unterstützt, da Databricks Runtime 6.0 Python 2 nicht unterstützt. Ein Cluster mit einer solchen Einstellung kann weiterhin gestartet werden. Python-Notebooks und Python-Befehle funktionieren jedoch nicht, d. h. Python-Befehlszellen schlagen mit einem „Abgebrochen“-Fehler fehl und in den Treiberprotokollen wird ein Python shell failed to start-Fehler angezeigt.
  • Wenn PYSPARK_PYTHON auf eine ausführbare Python-Datei zeigt, die sich in einer von Virtualenv verwalteten Umgebung befindet, wird diese Umgebung für Initialisierungsskripts und Notebooks aktiviert. Sie können und python- und pip-Befehle, die in der aktivierten Umgebung definiert sind, direkt verwenden, ohne die absoluten Speicherorte dieser Befehle angeben zu müssen. PYSPARK_PYTHON ist standardmäßig auf /databricks/python3/bin/python festgelegt. Daher zeigt python standardmäßig auf /databricks/python3/bin/python und pip zeigt für Initialisierungsskripts und Notebooks auf /databricks/python3/bin/pip. Wenn Ihr PYSPARK_PYTHON auf eine ausführbare Python-Datei verweist, die sich nicht in einer von Virtualenv verwalteten Umgebung befindet, oder wenn Sie ein Initialisierungsskript schreiben, um das von PYSPARK_PYTHON angegebene Python zu erstellen, müssen Sie absolute Pfade verwenden, um auf die richtigen python und pip zuzugreifen. Wenn die Isolation der Python-Bibliothek aktiviert ist (sie ist standardmäßig aktiviert), ist die aktivierte Umgebung immer noch die Umgebung, der PYSPARK_PYTHON zugeordnet ist. Wir empfehlen Ihnen, das Bibliothekshilfsprogramm (dbutils.library) (Legacy) zu verwenden, um die einem Python-Notebook zugeordnete isolierte Umgebung zu ändern.

Scala- und Java-APIs für Delta Lake DML-Befehle

Sie können jetzt Daten in Delta-Tabellen mit programmgesteuerten APIs zum Löschen, Aktualisieren und Zusammenführen ändern. Diese APIs spiegeln die Syntax und Semantik ihrer entsprechenden SQL-Befehle wider und eignen sich hervorragend für viele Workloads, z. B. SCD-Vorgänge (langsam veränderliche Dimensionen), das Zusammenführen von Änderungsdaten für die Replikation und Upserts aus Streamingabfragen.

Weitere Informationen finden Sie unter Was ist Delta Lake?.

Scala- und Java-APIs für Delta Lake-Hilfsprogrammbefehle

Databricks Runtime verfügt jetzt über programmgesteuerte APIs für die Hilfsprogrammbefehle vacuum und history. Diese APIs spiegeln die Syntax und Semantik ihrer entsprechenden SQL-Befehle wider, die in früheren Versionen von Databricks Runtime verfügbar waren.

Sie können Dateien bereinigen, die nicht mehr von einer Delta-Tabelle referenziert werden und älter als der Schwellenwert für die Aufbewahrung sind, indem Sie vacuum für die Tabelle ausführen. Wenn Sie den vacuum-Befehl für die Tabelle ausführen, werden die Verzeichnisse, die der Delta-Tabelle zugeordnet sind, rekursiv geleert. Der Standardaufbewahrungsschwellenwert für die Dateien beträgt 7 Tage. Die Möglichkeit, zu einer Version zurückzuspringen, die älter als die Aufbewahrungsfrist ist, geht nach der Ausführung von vacuum verloren. vacuum wird nicht automatisch ausgelöst.

Sie können Informationen zu den Vorgängen, zum Benutzer, zum Zeitstempel usw. für jeden Schreibvorgang in eine Delta-Tabelle abrufen, indem Sie den Befehl history ausführen. Die Vorgänge werden in umgekehrter chronologischer Reihenfolge zurückgegeben. Standardmäßig wird der Tabellenverlauf 30 Tage lang aufbewahrt.

Weitere Informationen finden Sie unter Was ist Delta Lake?.

Für Azure Lsv2-Instanzen verfügbares Datenträgercaching

[Disk caching]](../../optimizations/disk-cache.md) ist jetzt standardmäßig für alle Lsv2-Instanzen aktiviert.

Optimierter Speicher mit APIs für lokale Dateien

APIs für lokale Dateien sind nützlich, da sie Ihnen den Zugriff auf Dateien aus dem zugrunde liegenden verteilten Objektspeicher als lokale Dateien ermöglichen. In Databricks Runtime 6.0 haben wir die FUSE-Einbindung verbessert, mit der APIs für lokale Dateien wichtige Einschränkungen behandeln können. Databricks Runtime 6.0 verbessert die Lese- und Schreibgeschwindigkeit erheblich und unterstützt Dateien, die größer als 2 GB sind. Wenn Sie schnellere und zuverlässigere Lese- und Schreibvorgänge benötigen, z. B. für verteiltes Modelltraining, ist diese Erweiterung besonders nützlich. Darüber hinaus müssen Sie für Ihre Workloads keine Daten in einen lokalen Speicher laden, was sowohl Kosten spart als auch die Produktivität erhöht.

Weitere Informationen finden Sie unter Was ist DBFS?.

Mehrere matplotlib-Plots pro Notebookzelle

Sie können jetzt mehrere matplotlib-Plots pro Notebookzelle anzeigen:

Mehrere matplotlib-Plots in der Zelle

Dienstanmeldeinformationen für mehrere Azure Data Lake Storage Gen1-Konten

Sie können jetzt Dienstanmeldeinformationen für mehrere Konten für den Zugriff auf Azure Data Lake Storage Gen1 von Azure Databricks für die Verwendung in einer einzelnen Apache Spark-Sitzung einrichten. Fügen Sie hierzu den Konfigurationsschlüsseln account.<account-name> hinzu. Wenn Sie beispielsweise Anmeldeinformationen für die Konten für den Zugriff auf adl://example1.azuredatalakestore.net und adl://example2.azuredatalakestore.net einrichten möchten, können Sie wie folgt vorgehen:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Verbesserungen

  • Upgrade des AWS SDK auf 1.11.596.
  • Azure Storage SDK im WASB-Treiber hat ein Upgrade auf Version 7.0 erhalten.
  • OPTIMIZE bietet jetzt eine Zusammenfassung der Metriken, z. B. Anzahl der hinzugefügten Dateien, Anzahl der entfernten Dateien sowie maximale und minimale Dateigröße. Siehe Optimieren des Datendateilayouts.

Entfernen

Der Databricks ML-Modellexport wird entfernt. Verwenden Sie stattdessen MLeap zum Importieren und Exportieren von Modellen.

Apache Spark

Hinweis

Dieser Artikel enthält Verweise auf den Begriff Slave, einen Begriff, den Azure Databricks nicht verwendet. Sobald der Begriff aus der Software entfernt wird, wird er auch aus diesem Artikel entfernt.

Databricks Runtime 6.0 enthält Apache Spark 2.4.3. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 5.5 LTS (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-27992][SPARK-28881][PYTHON] Python das Verknüpfen mit dem Verbindungsthread erlauben, um Fehler weiterzugeben
  • [SPARK-27330][SS] Unterstützung von Taskabbruch in foreach-Writer (6.0, 5.x)
  • [SPARK-28642][SQL] Anmeldeinformationen in SHOW CREATE TABLE ausblenden
  • [SPARK-28699][CORE] Ausnahmefall für das Abbrechen einer unbestimmten Stufe beheben
  • [SPARK-28647][WEBUI] Zusätzliches Metrikfeature wiederherstellen
  • [SPARK-28766][R][DOC] Eingehende CRAN-Durchführbarkeitswarnung bei ungültiger URL beheben
  • [SPARK-28486][CORE][PYTHON] Datendatei von PythonBroadcast einem BroadcastBlock zuordnen, um das Löschen durch GC zu vermeiden
  • [SPARK-25035][CORE] Vermeidung von Speicherzuordnungen bei der Replikation von auf Datenträgern gespeicherten Blöcken
  • [SPARK-27234][SS][PYTHON] InheritableThreadLocal für die aktuelle Epoche in EpochTracker verwenden (um Python-UDFs zu unterstützen)
  • [SPARK-28638][WEBUI] Taskzusammenfassung sollte nur Metriken für erfolgreiche Tasks enthalten
  • [SPARK-28153][PYTHON] AtomicReference bei InputFileBlockHolder verwenden (um input_file_name mit Python-UDF zu unterstützen)
  • [SPARK-28564][CORE] Die Anwendung für den Zugriffsverlauf verwendet standardmäßig die ID des letzten Versuchs
  • [SPARK-28260] Cluster kann automatisch beendet werden, während die Thriftserver-Abfrage noch Ergebnisse abruft
  • [SPARK-26152][CORE] Workerbereinigung mit dem Herunterfahren der Worker synchronisieren
  • [SPARK-28545][SQL] Größe der Hashzuordnung zum Richtungsprotokoll von ObjectAggregationIterator hinzufügen
  • [SPARK-28489][SS] Korrektur eines Fehlers, durch den KafkaOffsetRangeCalculator.getRanges möglicherweise Offsets löscht
  • [SPARK-28421][ML] SparseVector.apply-Leistungsoptimierung
  • [SPARK-28156][SQL] Selbstverknüpfung sollte die zwischengespeicherte Sicht nicht verpassen
  • [SPARK-28152][SQL] ShortType wurde zu SMALLINT und FloatType zu REAL für MsSqlServerDialect zugeordnet
  • [SPARK-28054][SQL] Fehler beim dynamischen Einfügen einer partitionierten Hive-Tabelle beheben, bei der der Partitionsname groß geschrieben wird
  • [SPARK-27159][SQL] MSSQL Server-Dialekt aktualisieren, um binären Typ zu unterstützen
  • [SPARK-28355][CORE][PYTHON] Spark-Konfiguration für den Schwellenwert verwenden, bei dem…
  • [SPARK-27989][CORE] Wiederholungsversuche bei der Verbindung mit dem Treiber für k8s hinzugefügt
  • [SPARK-27416][SQL] Serialisierung von UnsafeMapData und UnsafeArrayData Kryo…
  • [SPARK-28430][UI] Rendering der Stufentabelle beheben, wenn einige Taskmetriken fehlen
  • [SPARK-27485] EnsureRequirements.reorder sollte doppelte Ausdrücke ordnungsgemäß behandeln
  • [SPARK-28404][SS] Negativen Timeoutwert in RateStreamContinuousPartitionReader beheben
  • [SPARK-28378][PYTHON] Verwendung von cgi.escape entfernen
  • [SPARK-28371][SQL] Parquet-Filter „StartsWith“ NULL-sicher machen
  • [SPARK-28015][SQL] Überprüfung, ob stringToDate() die gesamte Eingabe für die Formate jjjj und jjjj-[m]m verbraucht
  • [SPARK-28302][CORE] Generieren einer eindeutigen Ausgabedatei für SparkLauncher unter Windows sicherstellen
  • [SPARK-28308][CORE] CalendarInterval-Teil unter einer Sekunde sollte vor der Analyse aufgefüllt werden
  • [SPARK-28170][ML][PYTHON] Dokumentation zu Uniform Vectors und Matrix
  • [SPARK-28160][CORE] Korrektur eines Fehlers, bei dem die Rückruffunktion hängen bleiben kann, wenn eine ungeprüfte Ausnahme nicht erkannt wird
  • [SPARK-27839][SQL] UTF8String.replace() ändern, um mit UTF8-Bytes zu arbeiten
  • [SPARK-28157][CORE] KVStore LogInfo für die Einträge auf der Negativliste durch SHS löschen lassen
  • [SPARK-28128][PYTHON][SQL] Gruppierte UDFs von Pandas überspringen leere Partitionen
  • [SPARK-28012][SQL] Hive UDF unterstützt reduzierbaren Ausdruck vom Typ „struct“
  • [SPARK-28164] Beschreibung der Verwendung von start-slave.sh korrigiert
  • [SPARK-27100][SQL] Array anstelle von Seq in FilePartition verwenden, um StackOverflowError zu verhindern
  • [SPARK-28154][ML] GMM behebt doppeltes Zwischenspeichern

Wartungsupdates

Weitere Informationen finden Sie unter Databricks Runtime 6.0-Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Scala: 2.11.12
  • Python: 3.7.3
  • R: R-Version 3.6.1 (2019-07-05)
  • Delta Lake: 0.3.0

Hinweis

Obwohl Scala 2.12 als experimentelles Feature in Apache Spark 2.4 verfügbar ist, wird es in Databricks Runtime 6.0 nicht unterstützt.

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
asn1crypto 0.24.0 backcall 0.1.0 boto 2.49.0
boto3 1.9.162 botocore 1.12.163 certifi 2019.3.9
cffi 1.12.2 chardet 3.0.4 cryptography 2.6.1
cycler 0.10.0 Cython 0.29.6 decorator 4.4.0
docutils 0.14 idna 2.8 ipython 7.4.0
ipython-genutils 0.2.0 jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 matplotlib 3.0.3 numpy 1.16.2
Pandas 0.24.2 parso 0.3.4 patsy 0.5.1
pexpect 4.6.0 pickleshare 0.7.5 pip 19.0.3
prompt-toolkit 2.0.9 psycopg2 2.7.6.1 ptyprocess 0.6.0
pyarrow 0.13.0 pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
pyparsing 2.4.2 PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
Python-dateutil 2.8.0 pytz 2018.9 requests 2.21.0
s3transfer 0.2.1 scikit-learn 0.20.3 scipy 1.2.1
seaborn 0.9.0 setuptools 40.8.0 sechs 1.12.0
ssh-import-id 5.5 statsmodels 0.9.0 traitlets 4.3.2
unattended-upgrades 0,1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 wheel 0.33.1

Installierte R-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
abind 1.4-5 askpass 1.1 assertthat 0.2.1
backports 1.1.3 base 3.6.1 base64enc 0.1-3
BH 1.69.0-1 bit 1.1-14 bit64 0.9-7
bitops 1.0-6 Blob 1.1.1 boot 1.3-23
brew 1.0-6 callr 3.2.0 Auto 3.0-2
carData 3.0-2 caret 6.0-82 cellranger 1.1.0
chron 2.3-53 class 7.3-15 cli 1.1.0
clipr 0.5.0 clisymbols 1.2.0 cluster 2.1.0
codetools 0.2-16 colorspace 1.4-1 commonmark 1.7
compiler 3.6.1 config 0,3 crayon 1.3.4
curl 3.3 data.table 1.12.0 datasets 3.6.1
DBI 1.0.0 dbplyr 1.3.0 desc 1.2.0
devtools 2.0.1 digest 0.6.18 doMC 1.3.5
dplyr 0.8.0.1 ellipsis 0.1.0 fansi 0.4.0
forcats 0.4.0 foreach 1.4.4 foreign 0.8-72
forge 0.2.0 fs 1.2.7 gbm 2.1.5
generics 0.0.2 ggplot2 3.1.0 gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 glue 1.3.1
gower 0.2.0 Grafiken 3.6.1 grDevices 3.6.1
grid 3.6.1 gridExtra 2.3 gsubfn 0.7
gtable 0.3.0 h2o 3.22.1.1 haven 2.1.0
hms 0.4.2 htmltools 0.3.6 htmlwidgets 1.3
httr 1.4.0 hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 iterators 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 labeling 0,3
lattice 0.20-38 lava 1.6.5 lazyeval 0.2.2
littler 0.3.7 lme4 1.1-21 lubridate 1.7.4
magrittr 1.5 mapproj 1.2.6 maps 3.3.0
maptools 0.9-5 MASS 7.3-51.4 Matrix 1.2-17
MatrixModels 0.4-1 memoise 1.1.0 methods 3.6.1
mgcv 1.8-28 mime 0,6 minqa 1.2.4
ModelMetrics 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.3 openxlsx 4.1.0
parallel 3.6.1 pbkrtest 0.4-7 pillar 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 plogr 0.2.0 plyr 1.8.4
praise 1.0.0 prettyunits 1.0.2 pROC 1.14.0
processx 3.3.0 prodlim 2018.04.18 Fortschritt 1.2.0
proto 1.0.0 ps 1.3.0 purrr 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
randomForest 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 readr 1.3.1
readxl 1.3.1 recipes 0.1.5 rematch 1.0.1
remotes 2.0.2 reshape2 1.4.3 rio 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0,10 scales 1.0.0
sessioninfo 1.1.1 sp 1.3-1 sparklyr 1.0.0
SparkR 2.4.4 SparseM 1.77 spatial 7.3-11
splines 3.6.1 sqldf 0.4-11 SQUAREM 2017.10-1
statmod 1.4.30 stats 3.6.1 stats4 3.6.1
stringi 1.4.3 stringr 1.4.0 survival 2.44-1.1
sys 3.1 tcltk 3.6.1 TeachingDemos 2,10
testthat 2.0.1 tibble 2.1.1 tidyr 0.8.3
tidyselect 0.2.5 timeDate 3043.102 tools 3.6.1
usethis 1.4.0 utf8 1.1.4 utils 3.6.1
viridisLite 0.3.0 whisker 0.3-2 withr 2.1.2
xml2 1.2.0 xopen 1.0.0 yaml 2.2.0
zip 2.0.1

Installierte Java- und Scala-Bibliotheken (Scala 2.11-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.8.10
com.amazonaws aws-java-sdk-autoscaling 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws aws-java-sdk-cloudsearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier 1.11.595
com.amazonaws aws-java-sdk-glue 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-machinelearning 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts 1.11.595
com.amazonaws aws-java-sdk-support 1.11.595
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics Datenstrom 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.0.0
com.fasterxml.jackson.core jackson-annotations 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.azure azure-storage 7.0.0
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-parsers 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1.10
commons-collections commons-collections 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift aircompressor 0,10
io.dropwizard.metrics metrics-core 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics metrics-healthchecks 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
junit junit 4,12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.razorvine pyrolite 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.5
net.snowflake snowflake-jdbc 3.6.15
net.snowflake spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4,7
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 0.10.0
org.apache.arrow arrow-memory 0.10.0
org.apache.arrow arrow-vector 0.10.0
org.apache.avro avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0-incubating
org.apache.calcite calcite-core 1.2.0-incubating
org.apache.calcite calcite-linq4j 1.2.0-incubating
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator curator-client 2.7.1
org.apache.curator curator-framework 2.7.1
org.apache.curator curator-recipes 2.7.1
org.apache.derby derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-incubating
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy ivy 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc orc-shims 1.5.5
org.apache.parquet parquet-column 1.10.1.2-databricks3
org.apache.parquet parquet-common 1.10.1.2-databricks3
org.apache.parquet parquet-encoding 1.10.1.2-databricks3
org.apache.parquet parquet-format 2.4.0
org.apache.parquet parquet-hadoop 1.10.1.2-databricks3
org.apache.parquet parquet-jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-shaded 4.8
org.apache.zookeeper zookeeper 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.10
org.codehaus.janino janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.27.v20190418
org.eclipse.jetty jetty-continuation 9.3.27.v20190418
org.eclipse.jetty jetty-http 9.3.27.v20190418
org.eclipse.jetty jetty-io 9.3.27.v20190418
org.eclipse.jetty jetty-jndi 9.3.27.v20190418
org.eclipse.jetty jetty-plus 9.3.27.v20190418
org.eclipse.jetty jetty-proxy 9.3.27.v20190418
org.eclipse.jetty jetty-security 9.3.27.v20190418
org.eclipse.jetty jetty-server 9.3.27.v20190418
org.eclipse.jetty jetty-servlet 9.3.27.v20190418
org.eclipse.jetty jetty-servlets 9.3.27.v20190418
org.eclipse.jetty jetty-util 9.3.27.v20190418
org.eclipse.jetty jetty-webapp 9.3.27.v20190418
org.eclipse.jetty jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-common 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest hamcrest-core 1.3
org.hamcrest hamcrest-library 1.3
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy snappy 0,2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-core 1.10.19
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap shims 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark unused 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework spring-test 4.1.4.RELEASE
org.tukaani xz 1.5
org.typelevel machinist_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0,52