Udostępnij za pośrednictwem


Databricks Runtime 6.0 (EoS)

Uwaga

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).

Usługa Databricks wydała tę wersję w październiku 2019 r.

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 6.0 obsługiwanym przez platformę Apache Spark.

Nowe funkcje

Środowisko języka Python

Środowisko Databricks Runtime 6.0 zawiera istotne zmiany w języku Python i sposób konfigurowania środowisk języka Python, w tym uaktualnianie języka Python do wersji 3.7.3, uściślinie listy zainstalowanych pakietów języka Python i uaktualnianie zainstalowanych pakietów do nowszych wersji. Aby uzyskać szczegółowe informacje, zobacz Zainstalowane biblioteki języka Python.

Ponadto, jak wcześniej ogłoszono, środowisko Databricks Runtime 6.0 nie obsługuje języka Python 2.

Główne zmiany obejmują:

  • Uaktualniono język Python z wersji 3.5.2 do wersji 3.7.3. Niektóre stare wersje pakietów języka Python mogą nie być zgodne z językiem Python 3.7, ponieważ zależą one od starych wersji narzędzia Cython, które nie są zgodne z językiem Python 3.7. Instalowanie takiego pakietu może wyzwalać błędy podobne do ‘PyThreadState’ {‘struct _ts’} has no member named ‘exc_type’ (zobacz problem z usługą GitHub 1978 , aby uzyskać szczegółowe informacje). Zainstaluj zamiast tego zgodne wersje pakietów języka Python w języku Python w wersji 3.7.
  • Uaktualnienia głównych pakietów:
    • boto3 do 1.9.162
    • ipython do wersji 7.4.0
    • biblioteka matplotlib do wersji 3.0.3
    • numpy do 1.16.2
    • biblioteka pandas do wersji 0.24.2
    • pyarrow do 0.13.0
  • W porównaniu z środowiskiem Databricks Runtime 5.5 LTS (EoS) następujące pakiety języka Python są nowo dołączone: asn1crypto, backcall, jedi, kiwisolver, parso i PySocks.
  • W porównaniu z środowiskiem Databricks Runtime 5.5 LTS (EoS) następujące pakiety języka Python nie są zainstalowane: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson i singledispatch.
  • Funkcja display obiektów ggplot języka Python nie jest już obsługiwana, ponieważ pakiet ggplot nie jest zgodny z nowszą wersją biblioteki pandas.
  • Ustawienie PYSPARK_PYTHON na /databricks/python2/bin/python nie jest obsługiwane, ponieważ środowisko Databricks Runtime 6.0 nie obsługuje języka Python 2. Klaster z takim ustawieniem nadal może się uruchomić. Jednak notesy języka Python i polecenia języka Python nie będą działać, czyli komórki poleceń języka Python kończą się niepowodzeniem z powodu błędu "Anulowane", a Python shell failed to start w dziennikach sterowników pojawi się błąd.
  • Jeśli PYSPARK_PYTHON wskazuje plik wykonywalny języka Python, który znajduje się w środowisku zarządzanym przez usługę Virtualenv , to środowisko zostanie aktywowane dla skryptów inicjowania i notesów. Można użyć python i pip poleceń zdefiniowanych bezpośrednio w aktywowanym środowisku bez konieczności określania bezwzględnych lokalizacji tych poleceń. Domyślnie PYSPARK_PYTHON jest ustawiona na wartość /databricks/python3/bin/python. W związku z tym domyślnie python wskazuje i /databricks/python3/bin/pythonpip wskazuje /databricks/python3/bin/pip na skrypty i notesy inicjowania. Jeśli wskazuje plik PYSPARK_PYTHON wykonywalny języka Python, który nie znajduje się w środowisku zarządzanym przez usługę Virtualenv lub jeśli piszesz skrypt inicjowania w celu utworzenia języka Python określonego przez PYSPARK_PYTHONprogram , należy użyć ścieżek bezwzględnych w celu uzyskania dostępu do poprawnego python elementu i pip. Po włączeniu izolacji biblioteki języka Python (jest ona domyślnie włączona), aktywowane środowisko jest nadal środowiskiem PYSPARK_PYTHON skojarzonym z. Zalecamy użycie narzędzia biblioteka (dbutils.library) (starsza wersja) w celu zmodyfikowania środowiska izolowanego skojarzonego z notesem języka Python.

Interfejsy API języka Scala i Java dla poleceń DML usługi Delta Lake

Teraz można modyfikować dane w tabelach delty przy użyciu programowych interfejsów API do usuwania, aktualizowania i scalania. Te interfejsy API dublują składnię i semantyki odpowiadających im poleceń SQL i są doskonałe dla wielu obciążeń, na przykład wolno zmieniających się operacji wymiarów (SCD), scalania danych zmian na potrzeby replikacji i operacji upsert z zapytań przesyłania strumieniowego.

Aby uzyskać szczegółowe informacje, zobacz Co to jest usługa Delta Lake?.

Interfejsy API języka Scala i Java dla poleceń narzędzi usługi Delta Lake

Środowisko Databricks Runtime ma teraz programowe interfejsy API dla vacuum poleceń narzędzi i .history Te interfejsy API dublują składnię i semantyki odpowiednich poleceń SQL dostępnych we wcześniejszych wersjach środowiska Databricks Runtime.

Możesz wyczyścić pliki, do których nie odwołuje się już tabela Delta i które są starsze niż próg przechowywania, uruchamiając vacuum na tabeli. Uruchomienie polecenia vacuum w tabeli rekursywnie opróżnia katalogi skojarzone z tabelą delty. Domyślny próg przechowywania dla plików wynosi 7 dni. Możliwość powrotu do wersji starszej niż okres przechowywania zostanie utracona po uruchomieniu programu vacuum. Polecenie vacuum nie jest wyzwalane automatycznie.

Informacje na temat operacji, użytkownika, znacznika czasu itd. dla każdego zapisu w tabeli delty można pobrać, uruchamiając polecenie history. Operacje są zwracane w odwrotnej kolejności chronologicznej. Domyślnie historia tabel jest przechowywana przez 30 dni.

Aby uzyskać szczegółowe informacje, zobacz Co to jest usługa Delta Lake?.

Buforowanie dysku dostępne dla wystąpień usługi Azure Lsv2

buforowanie dysków jest teraz domyślnie włączone dla wszystkich wystąpień Lsv2.

Zoptymalizowany magazyn przy użyciu lokalnych interfejsów API plików

Lokalne interfejsy API plików są przydatne, ponieważ umożliwiają one dostęp do plików z bazowego rozproszonego magazynu obiektów jako plików lokalnych. W środowisku Databricks Runtime 6.0 ulepszyliśmy instalację FUSE, która umożliwia lokalnym interfejsom API plików rozwiązywanie kluczowych ograniczeń. Środowisko Databricks Runtime 6.0 znacznie poprawia szybkość odczytu i zapisu oraz obsługuje pliki większe niż 2 GB. Jeśli potrzebujesz szybszych i bardziej niezawodnych operacji odczytu i zapisu, takich jak na potrzeby trenowania modelu rozproszonego, możesz znaleźć to ulepszenie szczególnie przydatne. Ponadto nie trzeba ładować danych do magazynu lokalnego dla obciążeń, co pozwala zaoszczędzić koszty i zwiększyć produktywność.

Aby uzyskać szczegółowe informacje, zobacz Co to jest system PLIKÓW DBFS?.

Wiele wykresów matplotlib na komórkę notesu

Teraz można wyświetlić wiele wykresów matplotlib na komórkę notesu:

Wiele wykresów matplotlib w komórce

Poświadczenia usługi dla wielu kont usługi Azure Data Lake Storage Gen1

Teraz można skonfigurować poświadczenia usługi dla wielu kont dostępu do Azure Data Lake Storage Gen1 z Azure Databricks do użycia w ramach pojedynczej sesji Apache Spark. W tym celu dodaj account.<account-name> do kluczy konfiguracji. Jeśli na przykład chcesz skonfigurować poświadczenia dla kont w celu uzyskania dostępu do adl://example1.azuredatalakestore.net i adl://example2.azuredatalakestore.net, możesz to zrobić w następujący sposób:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Ulepszenia

  • Uaktualniono zestaw AWS SDK do wersji 1.11.596.
  • Uaktualniono zestaw AZURE Storage SDK w sterowniku WASB do wersji 7.0.
  • OPTIMIZE Teraz zawiera podsumowanie metryk, takich jak liczba dodanych plików, liczba usuniętych plików oraz maksymalny i minimalny rozmiar pliku. Zobacz Optymalizowanie układu pliku danych.

Usunięcie

Eksportowanie modelu uczenia maszynowego w usłudze Databricks zostało usunięte. Zamiast tego użyj narzędzia MLeap do importowania i eksportowania modeli.

Apache Spark

Uwaga

Ten artykuł zawiera odwołania do terminu podrzędnego — terminu, którego usługa Azure Databricks nie używa. Po usunięciu terminu z oprogramowania usuniemy go z tego artykułu.

Środowisko Databricks Runtime 6.0 obejmuje platformę Apache Spark 2.4.3. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 5.5 LTS (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-27992][SPARK-28881][PYTHON] Pozwól językowi Python dołączyć do wątku połączenia, aby propagować błędy
  • [SPARK-27330][SS]support task abort in foreach writer (6.0, 5.x)
  • [SPARK-28642][SQL] Ukryj poświadczenia w SHOW CREATE TABLE
  • [SPARK-28699][CORE] Naprawiono przypadek narożny w przypadku przerywania etapu nieokreślony
  • [SPARK-28647][WEBUI] Odzyskiwanie dodatkowej funkcji metryki
  • [SPARK-28766][R][DOC] Naprawiono ostrzeżenie dotyczące możliwości przychodzącej usługi CRAN w nieprawidłowym adresie URL
  • [SPARK-28486][CORE][PYTHON] Mapuj plik danych programu PythonBroadcast na element BroadcastBlock, aby uniknąć usuwania przez GC
  • [SPARK-25035][CORE] Unikanie mapowania pamięci w replikacji bloków przechowywanych na dysku
  • [SPARK-27234][SS][PYTHON] Użyj funkcji InheritableThreadLocal dla bieżącej epoki w usłudze EpochTracker (aby obsługiwać funkcje zdefiniowane przez użytkownika języka Python)
  • [SPARK-28638][WEBUI] Podsumowanie zadań powinno zawierać tylko metryki zadań zakończonych powodzeniem
  • [SPARK-28153][PYTHON] Użyj funkcji AtomicReference w obiekcie InputFileBlockHolder (aby obsługiwać input_file_name z funkcją UDF języka Python)
  • [SPARK-28564][CORE] Domyślna wartość identyfikatora ostatniej próby dla aplikacji historii dostępu
  • [SPARK-28260] Klaster może zakończyć się automatycznie, gdy zapytanie thriftserver nadal pobiera wyniki
  • [SPARK-26152][CORE] Synchronizowanie oczyszczania procesu roboczego z zamykaniem procesu roboczego
  • [SPARK-28545][SQL] Dodaj rozmiar mapy skrótu do dziennika kierunkowego obiektu ObjectAggregationIterator
  • [SPARK-28489][SS] Usunięto usterkę, którą platforma KafkaOffsetRangeCalculator.getRanges może usuwać przesunięcia
  • [SPARK-28421][ML] SparseVector.apply performance optimization
  • [SPARK-28156][SQL] Samosprzężenie nie powinno pomijać widoku buforowanego
  • [SPARK-28152][SQL] Mapowane parametru ShortType na SMALLINT i FloatType na wartość REAL dla msSqlServerDialect
  • [SPARK-28054][SQL] Napraw błąd podczas dynamicznego wstawiania partycjonowanej tabeli Hive, gdzie nazwa partycji ma wielką literę
  • [SPARK-27159][SQL] aktualizacja dialektu serwera mssql w celu obsługi typu binarnego
  • [SPARK-28355][CORE][PYTHON] Użyj conf platformy Spark dla progu, w którym com...
  • [SPARK-27989][CORE] Dodano ponawianie prób połączenia z sterownikiem dla k8s
  • [SPARK-27416][SQL] NiebezpieczneMapData i NiebezpieczneArrayData Serializacji Kryo ...
  • [SPARK-28430][interfejs użytkownika] Naprawianie renderowania tabeli etapów, gdy brakuje metryk niektórych zadań
  • [SPARK-27485] Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
  • [SPARK-28404][SS] Naprawianie ujemnej wartości limitu czasu w parametrze RateStreamContinuousPartitionReader
  • [SPARK-28378][PYTHON] Usuń użycie cgi.escape
  • [SPARK-28371][SQL] Bezpieczne filtrowanie parquet "StartsWith"
  • [SPARK-28015][SQL] Sprawdzanie parametru StringToDate() zużywa całe dane wejściowe dla formatów rrrr i rrrr-[m]m
  • [SPARK-28302][CORE] Upewnij się, aby wygenerować unikatowy plik wyjściowy dla SparkLauncher na Windowsie
  • [SPARK-28308][CORE] Część podrzędna CalendarInterval powinna być dopełniona przed analizowaniem
  • [SPARK-28170][ML][PYTHON] Dokumentacja ujednoliconych wektorów i macierzy
  • [SPARK-28160][CORE] Usunięto usterkę, która może zawieszać się podczas niezaznaczonego wyjątku
  • [SPARK-27839][SQL] Zmień wartość UTF8String.replace() na działanie na bajtach UTF8
  • [SPARK-28157][CORE] Wyczyść KVStore LogInfo shS dla wpisów na czarnej liście
  • [SPARK-28128][PYTHON][SQL] Grupowane funkcje zdefiniowane przez użytkownika biblioteki pandas pomijają puste partycje
  • [SPARK-28012][SQL] Funkcja UDF programu Hive obsługuje wyrażenie złożone typu struktury
  • [SPARK-28164] Naprawianie opisu użycia start-slave.sh
  • [SPARK-27100][SQL] Użyj tablicy zamiast seq w plikuPartition, aby zapobiec błędowi StackOverflowError
  • [SPARK-28154][ML] GMM naprawa podwójnego buforowania

Aktualizacje konserwacyjne

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 6.0.

Środowisko systemu

  • System operacyjny: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Scala: 2.11.12
  • Python: 3.7.3
  • R: R w wersji 3.6.1 (2019-07-05)
  • Delta Lake: 0.3.0

Uwaga

Mimo że język Scala 2.12 jest dostępny jako funkcja eksperymentalna w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 6.0.

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
asn1crypto 0.24.0 backcall 0.1.0 boto 2.49.0
boto3 1.9.162 botocore 1.12.163 certifi 2019.3.9
cffi 1.12.2 chardet 3.0.4 kryptografia 2.6.1
rowerzysta 0.10.0 Cython 0.29.6 dekorator 4.4.0
docutils 0,14 idna 2.8 ipython 7.4.0
ipython-genutils 0.2.0 jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 matplotlib 3.0.3 numpy 1.16.2
Pandas 0.24.2 parso 0.3.4 Patsy 0.5.1
pexpect 4.6.0 pickleshare 0.7.5 pip 19.0.3
prompt-toolkit 2.0.9 psycopg2 2.7.6.1 ptyprocess 0.6.0
pyarrow 0.13.0 pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
pyparsing 2.4.2 PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
python-dateutil 2.8.0 pytz 2018.9 żądania 2.21.0
s3transfer 0.2.1 scikit-learn 0.20.3 scipy 1.2.1
seaborn 0.9.0 setuptools 40.8.0 Sześć 1.12.0
ssh-import-id 5,5 statsmodels 0.9.0 traitlety 4.3.2
nienadzorowane uaktualnienia 0.1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 koło 0.33.1

Zainstalowane biblioteki języka R

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
abind 1.4-5 askpass 1.1 assertthat 0.2.1
backports (backports) 1.1.3 base 3.6.1 base64enc 0.1-3
BH 1.69.0-1 bitowe 1.1-14 bit64 0.9-7
bitops 1.0-6 blob 1.1.1 rozruch 1.3-23
warzyć 1.0-6 obiekt wywołujący 3.2.0 samochód 3.0-2
carData 3.0-2 caret 6.0-82 cellranger 1.1.0
chron 2.3-53 class 7.3-15 cli 1.1.0
clipr 0.5.0 clisymbols 1.2.0 cluster 2.1.0
codetools 0.2-16 przestrzeń kolorów 1.4-1 commonmark 1,7
— kompilator 3.6.1 config 0.3 kredka 1.3.4
lok 3.3 data.table 1.12.0 usługi Power BI 3.6.1
DBI 1.0.0 dbplyr 1.3.0 Desc 1.2.0
devtools 2.0.1 trawić 0.6.18 DoMC 1.3.5
dplyr 0.8.0.1 wielokropek 0.1.0 fani 0.4.0
forcats 0.4.0 foreach 1.4.4 zagraniczny 0.8-72
kuźnia 0.2.0 Fs 1.2.7 Gbm 2.1.5
Generyczne 0.0.2 ggplot2 3.1.0 Gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 klej 1.3.1
Gower 0.2.0 grafika 3.6.1 grDevices 3.6.1
siatka 3.6.1 gridExtra 2.3 gsubfn 0,7
gtable 0.3.0 h2o 3.22.1.1 przystań 2.1.0
Hms 0.4.2 htmltools 0.3.6 htmlwidgets 1.3
httr 1.4.0 hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 Iteratory 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 Etykietowania 0.3
krata 0.20-38 lawa 1.6.5 opóźnienie 0.2.2
littler 0.3.7 lme4 1.1-21 lubridate 1.7.4
magrittr 1.5 mapproj 1.2.6 Mapy 3.3.0
maptools 0.9-5 MASA 7.3-51.4 Macierz 1.2-17
MatrixModels 0.4-1 zapamiętywanie 1.1.0 metody 3.6.1
mgcv 1.8-28 mim 0,6 minqa 1.2.4
Metryki modelu 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.3 openxlsxx 4.1.0
parallel 3.6.1 pbkrtest 0.4-7 filar 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 plogr 0.2.0 plyr 1.8.4
pochwała 1.0.0 prettyunits 1.0.2 Proc 1.14.0
processx 3.3.0 prodlim 2018.04.18 Postęp 1.2.0
Proto 1.0.0 PS 1.3.0 purrr 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
randomForest 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 readr 1.3.1
readxl 1.3.1 przepisy 0.1.5 rewanż 1.0.1
Piloty 2.0.2 zmień kształt2 1.4.3 Rio 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0.10 waga 1.0.0
sessioninfo 1.1.1 Sp 1.3-1 sparklyr 1.0.0
SparkR 2.4.4 Rozrzednia 1.77 przestrzenny 7.3-11
Splajnów 3.6.1 sqldf 0.4-11 KWADRAT 2017.10-1
statmod 1.4.30 Statystyki 3.6.1 stats4 3.6.1
stringi 1.4.3 stringr 1.4.0 przetrwanie 2.44-1.1
sys 3.1 tcltk 3.6.1 NauczanieDemos 2.10
testthat 2.0.1 tibble 2.1.1 tidyr 0.8.3
tidyselect 0.2.5 timeDate 3043.102 tools 3.6.1
usethis 1.4.0 utf8 1.1.4 narzędzia 3.6.1
viridisLite 0.3.0 wąs 0.3-2 withr 2.1.2
xml2 1.2.0 xopen 1.0.0 yaml 2.2.0
zamek 2.0.1

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.8.10
com.amazonaws aws-java-sdk-autoscaling 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws aws-java-sdk-cloudsearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier 1.11.595
com.amazonaws aws-java-sdk-klej 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-machinelearning 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts 1.11.595
com.amazonaws aws-java-sdk-support 1.11.595
com.amazonaws aws-java-sdk-biblioteka-biblioteka 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics strumień 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.0.0
com.fasterxml.jackson.core adnotacje jackson 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava guawa 15.0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.azure azure-storage 7.0.0
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0.3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity parsery jednowołciowości 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1.10
commons-collections commons-collections 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift aircompressor 0.10
io.dropwizard.metrics metryki —rdzeń 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics metrics-healthchecks 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics serwlety metrics-servlets 3.1.5
io.netty netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
javax.activation aktywacja 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
junit junit 4.12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.razorvine pirolit 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.5
net.snowflake snowflake-jdbc 3.6.15
net.snowflake spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr stringtemplate 3.2.1
org.apache.ant tat 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format strzałki 0.10.0
org.apache.arrow strzałka w pamięci 0.10.0
org.apache.arrow wektor strzałki 0.10.0
org.apache.avro avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0 inkubacja
org.apache.calcite calcite-core 1.2.0 inkubacja
org.apache.calcite calcite-linq4j 1.2.0 inkubacja
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-math3 3.4.1
org.apache.curator kurator-klient 2.7.1
org.apache.curator struktura kuratora 2.7.1
org.apache.curator przepisy kuratora 2.7.1
org.apache.derby Derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop adnotacje hadoop 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0 inkubacja
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy bluszcz 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc podkładki orc-shim 1.5.5
org.apache.parquet parquet-column 1.10.1.2-databricks3
org.apache.parquet parquet-common 1.10.1.2-databricks3
org.apache.parquet kodowanie parquet 1.10.1.2-databricks3
org.apache.parquet format parquet 2.4.0
org.apache.parquet parquet-hadoop 1.10.1.2-databricks3
org.apache.parquet parquet-jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-cieniowany 4.8
org.apache.zookeeper zookeeper 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.10
org.codehaus.janino janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.27.v20190418
org.eclipse.jetty jetty-kontynuacja 9.3.27.v20190418
org.eclipse.jetty jetty-http 9.3.27.v20190418
org.eclipse.jetty jetty-io 9.3.27.v20190418
org.eclipse.jetty jetty-jndi 9.3.27.v20190418
org.eclipse.jetty jetty-plus 9.3.27.v20190418
org.eclipse.jetty jetty-proxy 9.3.27.v20190418
org.eclipse.jetty jetty-security 9.3.27.v20190418
org.eclipse.jetty jetty-server 9.3.27.v20190418
org.eclipse.jetty jetty-servlet 9.3.27.v20190418
org.eclipse.jetty jetty-servlets 9.3.27.v20190418
org.eclipse.jetty jetty-util 9.3.27.v20190418
org.eclipse.jetty jetty-webapp 9.3.27.v20190418
org.eclipse.jetty jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 lokalizator hk2 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-common 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest hamcrest-core 1.3
org.hamcrest hamcrest-library 1.3
org.hibernate moduł sprawdzania poprawności hibernacji 5.1.1.Final
org.iq80.snappy Żwawy 0,2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-core 1.10.19
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap Podkładki 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark.spark Nieużywane 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework spring-test 4.1.4.RELEASE
org.tukaani xz 1.5
org.typelevel machinist_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0.52