Databricks Runtime 5.3 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w kwietniu 2019 r.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 5.3 obsługiwanym przez platformę Apache Spark.
Nowe funkcje
Databricks Delta
Czas podróży ogólnie dostępnej
Podróż w czasie delta została ukończona do ogólnej dostępności. Dodaje możliwość wykonywania zapytań dotyczących migawki tabeli przy użyciu ciągu znacznika czasu lub wersji przy użyciu składni SQL, a także DataFrameReader
opcji wyrażeń znacznika czasu.
SELECT count(*) FROM events TIMESTAMP AS OF timestamp_expression
SELECT count(*) FROM events VERSION AS OF version
Podróż w czasie ma wiele przypadków użycia, w tym:
- Ponowne tworzenie analiz, raportów lub danych wyjściowych (na przykład danych wyjściowych modelu uczenia maszynowego), co jest przydatne do debugowania lub inspekcji, zwłaszcza w branżach regulowanych.
- Pisanie złożonych zapytań czasowych.
- Naprawianie błędów w danych.
- Zapewnienie izolacji migawek dla zestawu zapytań dotyczących szybko zmieniających się tabel.
Zobacz Praca z historią tabel platformy Delta Lake.
Replikacja tabel MySQL do publicznej wersji zapoznawczej usługi Delta
Przesyłanie strumieniowe danych z tabeli MySQL bezpośrednio do funkcji Delta w celu użycia podrzędnego w przepływach pracy analizy platformy Spark lub analizy danych. Korzystając z tej samej strategii, która jest używana przez program MySQL do replikacji do innych wystąpień, binlog
jest używana do identyfikowania aktualizacji, które są następnie przetwarzane i przesyłane strumieniowo do usługi Databricks w następujący sposób:
- Odczytuje zdarzenia zmiany z dziennika bazy danych.
- Przesyła strumieniowo zdarzenia do usługi Databricks.
- Zapisuje w tej samej kolejności w tabeli delty.
- Zachowuje stan w przypadku rozłączania ze źródłem.
Funkcje prywatnej wersji zapoznawczej
Ta wersja zawiera następujące prywatne funkcje w wersji zapoznawczej usługi Delta Lake:
- Dodano eksperymentalne polecenie, które umożliwia usłudze Presto bezpośrednie wykonywanie zapytań o tabele delty.
- Automatyczne optymalizowanie układu pliku podczas poszczególnych zapisów w tabeli delty i uniemożliwia gromadzenie małych plików w tabelach delty w celu zachowania wydajności zapytań o błyskawiczną szybkość. Ponadto zapisy i operacje upsert w partycjonowanych tabelach delty mogą cieszyć się dużymi przyspieszeniami dzięki adaptacyjnemu mieszania wprowadzonemu w zapisach.
Jeśli chcesz wziąć udział w każdej wersji zapoznawczej, skontaktuj się z zespołem ds. kont usługi Databricks.
Zoptymalizowany folder DBFS FUSE pod kątem obciążeń uczenia głębokiego
Usługa Azure Databricks oferuje teraz zoptymalizowaną instalację FUSE. Dostęp do danych o wysokiej wydajności można uzyskać podczas trenowania i wnioskowania bez stosowania skryptów inicjowania. Dane przechowywane w lokalizacji dbfs:/ml
i dostępne lokalnie file:/dbfs/ml
są teraz wspierane przez tę zoptymalizowaną instalację FUSE. Zobacz Ładowanie danych na potrzeby uczenia maszynowego i uczenia głębokiego.
Ulepszenia
Biblioteki o zakresie notesu:
- Obsługa dodatków w programie
dbutils.library.installPyPI
. - Obsługa instalacji biblioteki o zakresie notesu dla bibliotek w systemie plików platformy Azure, w tym
wasbs
,adls
iabfss
. - Ulepszono komunikaty o błędach dla bibliotek o zakresie notesu dla nieobsługiwanych obiektów docelowych. Na przykład: "Narzędzia biblioteki nie są dostępne w środowisku Databricks Runtime for Machine Learning".
- Obsługa dodatków w programie
Połącz się z usługą Azure Data Lake Storage Gen2 (ADLS Gen2 ) bez konieczności udzielania roli RBAC RBAC dla całej konta w całym koncie.
Usługa Databricks Advisor zawiera dodatkowe wskazówki dotyczące poprawy wydajności zapytań:
- Jeśli istnieje wiele małych plików na partycję —> konwertuj tabelę na różnicę i uruchom polecenie
OPTIMIZE
. - Jeśli istnieje wysoce selektywny filtr —> przekonwertuj na różnicę i użyj polecenia
ZORDER BY
. - Gdy pobieranie metadanych z programu Hive staje się wąskim gardłem —> przekonwertuj tabelę na różnicę.
- Jeśli istnieje wiele małych plików na partycję —> konwertuj tabelę na różnicę i uruchom polecenie
Uaktualniono system Ubuntu z wersji 16.04.5 LTS do wersji 16.04.6 LTS.
Uaktualniono wersję Scala 2.11 z wersji 2.11.8 do 2.11.12.
Uaktualniono niektóre zainstalowane biblioteki języka Python:
- : od 18.1 do 19.0.3.
- setuptools: od 40.6.3 do 40.8.0
- koło: od 0.32.3 do 0.33.1
Uaktualniono język R z wersji 3.4.4 do wersji 3.5.2.
Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
Wycofanie
- Łącznik platformy Apache Kafka 0.8 dla przesyłania strumieniowego ze strukturą nie jest już obsługiwany. Jest on uwzględniony w środowisku Databricks Runtime 5.3, ale zostanie usunięty z przyszłej wersji środowiska Databricks Runtime.
- Eksportowanie modelu uczenia maszynowego usługi Databricks jest przestarzałe i zostanie usunięte w środowisku Databricks Runtime 6.0. Zamiast tego użyj narzędzia MLeap do importowania i eksportowania modeli.
- Usunięto
spark.databricks.pyspark.enableExecutorFsPerms
jako opcję konfiguracji.
Poprawki błędów
- Naprawiono instalację biblioteki jaj języka Python dla klastrów z włączoną obsługą list ACL tabel.
- Ulepszone anulowanie polecenia języka Python przez naprawienie sytuacji, w której jest wywoływane anulowanie przed wykonaniem polecenia.
- Usunięto usterkę w listach ACL tabeli: teraz podczas wyświetlania obiektów w bazie danych lub katalogu widoczne są tylko obiekty, do których masz uprawnienia.
Apache Spark
Środowisko Databricks Runtime 5.3 obejmuje platformę Apache Spark 2.4.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 5.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-27134][SQL] funkcja array_distinct nie działa poprawnie z kolumnami zawierającymi tablicę tablicy
- [SPARK-24669][SQL] Unieważnianie tabel w przypadku funkcji DROP DATABASE CASCADE
- [SPARK-26572][SQL] naprawianie oceny wyników agregacji kodugenu
- [SPARK-27046][DSTREAMS] Usuwanie odwołań związanych z platformą SPARK-19185 z dokumentacji
- [SPARK-26449][PYTHON] Dodawanie metody przekształcania do interfejsu API ramki danych
- [SPARK-26740][SQL] Odczytywanie statystyk sygnatury czasowej/kolumny daty zapisanych przez platformę Spark 3.0
- [SPARK-26909][SQL] użyj wartości niebezpiecznejRow.hashCode() jako wartości skrótu w funkcji HashAggregate
- [SPARK-26990][SQL] FileIndex: użyj nazw pól określonych przez użytkownika, jeśli to możliwe
- [SPARK-26851][SQL] Naprawiono dwukrotnie zaznaczone blokowanie w obiekcie CachedRDDBuilder
- [SPARK-26864][SQL] Zapytanie może zwrócić niepoprawny wynik, gdy funkcja UDF języka Python jest używana jako warunek sprzężenia po lewej stronie
- [SPARK-26887][SQL][PYTHON] Utwórz
datetime.date
bezpośrednio zamiast tworzyć dane pośrednie data/godzina64. - [SPARK-26859][SQL] Naprawiono usterkę indeksu modułu zapisywania pól w deserializatorze ORC niewektoryzowanym
- [SPARK-26864][SQL] Zapytanie może zwrócić nieprawidłowy wynik, gdy funkcja UDF języka Python jest używana jako warunek sprzężenia, a funkcja udf używa atrybutów z obu nóg lewego sprzężenia półsprzężenia
- [SPARK-24360][SPARK-26091][BACKPORT][SQL] Obsługa magazynu metadanych Hive 3.1
- [SPARK-26873][SQL] Użyj spójnego znacznika czasu do kompilowania identyfikatorów zadań usługi Hadoop.
- [SPARK-26734][STREAMING] Naprawianie błędu StackOverflowError z dużą kolejką bloków
- [SPARK-26758][CORE] Funkcje wykonawcze bezczynności nie są zabijane po wartości spark.dynamiAllocation.executorIdleTimeout
- [SPARK-26751][SQL] Naprawianie przecieku pamięci podczas uruchamiania instrukcji w tle i zgłaszanie wyjątku, który nie jest hiveSQLException
- [SPARK-26806][SS] Funkcja EventTimeStats.merge powinna prawidłowo obsługiwać zera
- [SPARK-26745][SPARK-24959][SQL] Przywracanie optymalizacji liczby w źródle danych JSON według
- [SPARK-26757][GRAPHX] Zwracanie wartości 0 dla liczby pustych rdD krawędzi/wierzchołków
- [SPARK-26726] Synchronizowanie ilości pamięci używanej przez zmienną emisji do wyświetlania interfejsu użytkownika
- [SPARK-26718][SS] Naprawiono przepełnienie całkowite w obliczeniach platformy Kafka platformy SSLimit
- [SPARK-26708][SQL] Nieprawidłowy wynik spowodowany niespójnością między buforowanym rdD pamięci podręcznej SQL a jego planem fizycznym
- [SPARK-26735][SQL] Weryfikowanie integralności planu dla wyrażeń specjalnych
- [SPARK-26619][SQL] Czyścić nieużywane serializatory z SerializeFromObject
- [SPARK-26379][SS] Użyj fikcyjnego identyfikatora TimeZoneId, aby uniknąć nierozwiązanegoexceptionu w parametrze CurrentBatchTimestamp
- [SPARK-26495][SQL] Uproszczenie ekstraktora SelectedField
- [SPARK-26379][SS] Rozwiązano problem z dodawaniem current_timestamp/current_date do zapytania przesyłania strumieniowego
- [SPARK-26709][SQL] OptimizeMetadataOnlyQuery nie obsługuje poprawnie pustych rekordów
- [SPARK-26680][SQL] Chętnie twórz inputVars, gdy warunki są odpowiednie
- [SPARK-26682][SQL] Użyj identyfikatora taskAttemptID zamiast parametru attemptNumber dla usługi Hadoop.
- [SPARK-26706][SQL] Naprawiono niedozwoloną wartośćNumericPrecedence dla elementu ByteType
- [SPARK-26228][MLLIB] Wystąpił problem z systemem OOM podczas przetwarzania macierzy gramańskiej
- [SPARK-26665][CORE] Usunięto usterkę, która może spowodować zawieszenie elementu BlockTransferService.fetchBlockSync na zawsze
- [SPARK-26549][PYSPARK] Poprawka dotycząca ponownego użycia procesu roboczego języka Python nie ma wpływu na równoległy zakres iterowalny z opóźnieniem
- [SPARK-26351][MLLIB] Aktualizowanie dokumentu i drobnej poprawki w metrykach oceny biblioteki mllib
- [SPARK-26450]Unikaj ponownego kompilowania mapy schematu dla każdej kolumny w projekcji
- [SPARK-26638][PYSPARK][ML] Klasy wektorów Pyspark zawsze zwracają błąd w przypadku negacji jednoargumentowej
- [SPARK-26633][REPL] Dodaj element ExecutorClassLoader.getResourceAsStream
- [SPARK-26629][SS] Naprawiono błąd z wieloma strumieniami plików w zapytaniu i ponownym uruchomieniu w partii, która nie ma danych dla jednego strumienia plików
- [SPARK-25992][PYTHON] Dokument SparkContext nie może być udostępniany na potrzeby przetwarzania wieloprocesowego
- [SPARK-26615][CORE] Naprawianie wycieków zasobów serwera transportu/klienta w podstawowych testach jednostkowych
- [SPARK-26350][SS] Zezwalaj na zastępowanie identyfikatora grupy odbiorcy platformy Kafka
- [SPARK-26538][SQL] Ustawianie domyślnej dokładności i skali dla elementów tablicy liczbowej postgres
- [SPARK-26586][SS] Napraw stan wyścigu, który powoduje, że strumienie są uruchamiane z nieoczekiwanymi konfsami
- [SPARK-26551][SQL] Naprawiono błąd oczyszczania schematu podczas wybierania jednego pola złożonego i nie ma predykatu null na innym
- [SPARK-26576][SQL] Wskazówka emisji nie jest stosowana do tabeli partycjonowanej
- [SPARK-26571][SQL] Aktualizowanie mapowania serde hive za pomocą nazwy kanonicznej Parquet i Orc FileFormat
- [SPARK-26267][SS] Ponów próbę podczas wykrywania nieprawidłowych przesunięć z platformy Kafka (2.4)
- [SPARK-26559][ML][PYSPARK] Obraz uczenia maszynowego nie może działać z wersjami numpy przed wersją 1.9
- [SPARK-26078][SQL] Deduplikuj atrybuty samosprzężenia w podzapytaniu IN
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 5.3.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.6 LTS
- Java: 1.8.0_191
- Scala: 2.11.12
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.5.2 (2018-12-20)
- Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Uwaga
Mimo że język Scala 2.12 jest obsługiwany w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 5.3.
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
19.0.3 | warstwa | 3.9 | prompt-toolkit | 1.0.7 | |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 40.8.0 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.1.1 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 16.1.0 | wcwidth | 0.1.7 | koło | 0.33.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | askpass | 1.1 | assertthat | 0.2.0 |
backports (backports) | 1.1.3 | base | 3.5.2 | base64enc | 0.1-3 |
BH | 1.69.0-1 | bitowe | 1.1-14 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | rozruch | 1.3-20 |
warzyć | 1.0-6 | obiekt wywołujący | 3.1.1 | samochód | 3.0-2 |
carData | 3.0-2 | caret | 6.0-81 | cellranger | 1.1.0 |
chron | 2.3-53 | class | 7.3-15 | cli | 1.0.1 |
clipr | 0.5.0 | clisymbols | 1.2.0 | cluster | 2.0.7-1 |
codetools | 0.2-16 | przestrzeń kolorów | 1.4-0 | commonmark | 1,7 |
— kompilator | 3.5.2 | config | 0.3 | kredka | 1.3.4 |
lok | 3.3 | data.table | 1.12.0 | usługi Power BI | 3.5.2 |
DBI | 1.0.0 | dbplyr | 1.3.0 | Desc | 1.2.0 |
devtools | 2.0.1 | trawić | 0.6.18 | DoMC | 1.3.5 |
dplyr | 0.8.0.1 | wielokropek | 0.1.0 | fani | 0.4.0 |
forcats | 0.4.0 | foreach | 1.4.4 | zagraniczny | 0.8-71 |
kuźnia | 0.2.0 | Fs | 1.2.6 | Gbm | 2.1.5 |
Generyczne | 0.0.2 | ggplot2 | 3.1.0 | Gh | 1.0.1 |
git2r | 0.24.0 | glmnet | 2.0-16 | klej | 1.3.0 |
Gower | 0.1.2 | grafika | 3.5.2 | grDevices | 3.5.2 |
siatka | 3.5.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.2.0 | h2o | 3.22.1.1 | przystań | 2.1.0 |
Hms | 0.4.2 | htmltools | 0.3.6 | htmlwidgets | 1.3 |
httr | 1.4.0 | hwriter | 1.3.2 | hwriterPlus | 1.0-3 |
ini | 0.3.1 | ipred | 0.9-8 | Iteratory | 1.0.10 |
jsonlite | 1.6 | KernSmooth | 2.23-15 | Etykietowania | 0.3 |
krata | 0.20-38 | lawa | 1.6.5 | opóźnienie | 0.2.1 |
littler | 0.3.6 | lme4 | 1.1-20 | lubridate | 1.7.4 |
magrittr | 1.5 | mapproj | 1.2.6 | Mapy | 3.3.0 |
maptools | 0.9-5 | MASA | 7.3-51.1 | Macierz | 1.2-15 |
MatrixModels | 0.4-1 | zapamiętywanie | 1.1.0 | metody | 3.5.2 |
mgcv | 1.8-27 | mim | 0,6 | minqa | 1.2.4 |
Metryki modelu | 1.2.2 | munsell | 0.5.0 | mvtnorm | 1.0-9 |
nlme | 3.1-137 | nloptr | 1.2.1 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.2.2 | openxlsxx | 4.1.0 |
parallel | 3.5.2 | pbkrtest | 0.4-7 | filar | 1.3.1 |
pkgbuild | 1.0.2 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.2 | plogr | 0.2.0 | plyr | 1.8.4 |
pochwała | 1.0.0 | prettyunits | 1.0.2 | Proc | 1.13.0 |
processx | 3.2.1 | prodlim | 2018.04.18 | Postęp | 1.2.0 |
Proto | 1.0.0 | PS | 1.3.0 | purrr | 0.3.0 |
quantreg | 5.38 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.8.0 | r2d3 | 0.2.3 | R6 | 2.4.0 |
randomForest | 4.6-14 | rappdirs | 0.3.1 | rcmdcheck | 1.3.2 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.0 | RcppEigen | 0.3.3.5.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | readr | 1.3.1 |
readxl | 1.3.0 | przepisy | 0.1.4 | rewanż | 1.0.1 |
Piloty | 2.0.2 | zmień kształt2 | 1.4.3 | Rio | 0.5.16 |
rlang | 0.3.1 | RODBC | 1.3-15 | roxygen2 | 6.1.1 |
rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.8-6 |
RSQLite | 2.1.1 | rstudioapi | 0.9.0 | waga | 1.0.0 |
sessioninfo | 1.1.1 | Sp | 1.3-1 | sparklyr | 1.0.0 |
SparkR | 2.4.2 | Rozrzednia | 1.77 | przestrzenny | 7.3-11 |
Splajnów | 3.5.2 | sqldf | 0.4-11 | KWADRAT | 2017.10-1 |
statmod | 1.4.30 | Statystyki | 3.5.2 | stats4 | 3.5.2 |
stringi | 1.3.1 | stringr | 1.4.0 | przetrwanie | 2.43-3 |
sys | 3.0 | tcltk | 3.5.2 | NauczanieDemos | 2.10 |
testthat | 2.0.1 | tibble | 2.0.1 | tidyr | 0.8.3 |
tidyselect | 0.2.5 | timeDate | 3043.102 | tools | 3.5.2 |
usethis | 1.4.0 | utf8 | 1.1.4 | narzędzia | 3.5.2 |
viridisLite | 0.3.0 | wąs | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | xopen | 1.0.0 | yaml | 2.2.0 |
zamek | 2.0.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db8-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db8-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.azure | azure-storage | 5.2.0 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.5 |
net.snowflake | snowflake-jdbc | 3.6.15 |
net.snowflake | spark-snowflake_2.11 | 2.4.10-spark_2.4 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.10.0 |
org.apache.arrow | strzałka w pamięci | 0.10.0 |
org.apache.arrow | wektor strzałki | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | calcite-core | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | podkładki orc-shim | 1.5.2 |
org.apache.parquet | parquet-column | 1.10.1.1-databricks3 |
org.apache.parquet | parquet-common | 1.10.1.1-databricks3 |
org.apache.parquet | kodowanie parquet | 1.10.1.1-databricks3 |
org.apache.parquet | format parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1.1-databricks3 |
org.apache.parquet | parquet-jackson | 1.10.1.1-databricks3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-cieniowany | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.10 |
org.codehaus.janino | janino | 3.0.10 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.12 |
org.scala-lang | scala-library_2.11 | 2.11.12 |
org.scala-lang | scala-reflect_2.11 | 2.11.12 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.1.0 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |