Databricks Runtime 5.0 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w listopadzie 2018 r.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 5.0 obsługiwanym przez platformę Apache Spark.
Nowe funkcje
Delta Lake
- Teraz obsługiwane są podzapytania w klauzuli
WHERE
dla obsługi poleceńDELETE
iUPDATE
. - Nowa skalowalna implementacja poleceń
MERGE
.- Brak limitu liczby wstawiania i aktualizacji.
- Może służyć do obsługi zapytań typu SCD 1 i typu 2.
- Może być wykonywane wstawianie lub aktualizowanie danych z zapytań przesyłanych strumieniowo w trybie aktualizacji (na przykład zapisywanie danych wyjściowych agregacji przesyłania strumieniowego do tabeli Delta). Zobacz przykład Zapisywanie agregacji przesyłania strumieniowego w Databricks Delta za pomocą MERGE i notebooku foreachBatch.
- Teraz obsługiwane są podzapytania w klauzuli
Przesyłanie strumieniowe ze strukturą
- Źródło przesyłania strumieniowego opartego na powiadomieniach plików w usłudze Azure Blob Storage. Może to znacznie zmniejszyć koszty wyświetlania listy podczas uruchamiania zapytania przesyłania strumieniowego ze strukturą w plikach w usłudze Azure Blob Storage. Zamiast znajdować nowe pliki do przetwarzania za pomocą listy, to źródło przesyłania strumieniowego może bezpośrednio odczytywać powiadomienia o zdarzeniach plików w celu znalezienia nowych plików. Zobacz Źródło pliku usługi Azure Blob Storage za pomocą usługi Azure Queue Storage (starsza wersja).
Dodano obsługę narzędzia TensorBoard do monitorowania zadań uczenia głębokiego. Zobacz TensorBoard.
Ulepszenia
- Delta Lake
-
OPTIMIZE
wydajność i stabilność.- Polecenie
OPTIMIZE
zatwierdza partie tak szybko, jak to możliwe, zamiast na końcu. - Zmniejszono domyślną liczbę wątków uruchamianych
OPTIMIZE
równolegle. Jest to znaczący wzrost wydajności dla dużych tabel. - Przyspieszono zapisywanie
OPTIMIZE
poprzez unikanie niepotrzebnego sortowania danych podczas zapisu do tabeli podzielonej na partycje. - Przyspieszył
OPTIMIZE ZORDER BY
, czyniąc go przyrostowym. Oznacza to, że polecenie pozwala teraz uniknąć ponownego zapisywania plików danych, które zostały już uporządkowane według tych samych kolumn. Zobacz Pomijanie danych w Delta Lake.
- Polecenie
- Izolacja migawkowa podczas wykonywania zapytań względem tabel Delta. Każde zapytanie z wieloma odwołaniami do tabeli delty (na przykład samosprzężenie) odczytuje z tej samej migawki tabeli, nawet jeśli istnieją współbieżne aktualizacje tabeli.
- Ulepszono opóźnienie zapytań podczas odczytywania z małych (< 2000 plików) tabel Delta poprzez buforowanie metadanych na sterowniku.
-
- Zwiększona wydajność regresji logistycznej MLlib.
- Ulepszona wydajność algorytmu drzewa MLlib.
- Uaktualniono kilka bibliotek Java i Scala. Zobacz Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11).
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- pip: od 10.0.1 do 18.0
- setuptools: 39.2.0 do 40.4.1
- tornado: 5.0.2 do 5.1.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
Poprawki błędów
- Delta Lake
- Konfiguracje ustawione w programie SQL Conf są teraz poprawnie stosowane do operacji usługi Delta Lake, które zostały po raz pierwszy załadowane w innym notesie.
- Usunięto usterkę w
DELETE
poleceniu, która niepoprawnie usuwała wiersze, w których warunek ma wartość null. - Strumienie, które zajmują więcej niż dwa dni, aby przetworzyć pierwotną partię (czyli dane, które były w tabeli w momencie uruchomienia strumienia), nie kończą się już niepowodzeniem
FileNotFoundException
podczas próby odzyskiwania z punktu kontrolnego. - Unika stanu wyścigu, który prowadzi do
NoClassDefError
ładowania nowej tabeli. - Poprawka dla
VACUUM
w przypadku, gdy operacja może zakończyć się niepowodzeniem z komunikatem AssertionError: "Nie powinno być żadnych bezwzględnych ścieżek do usunięcia w tym miejscu". - Naprawiono
SHOW CREATE TABLE
polecenie, aby nie uwzględniać właściwości magazynu wygenerowanego przez program Hive.
- Funkcje wykonawcze, które zgłaszają wiele
NoClassDefFoundError
błędów dla wewnętrznych klas platformy Spark, są teraz automatycznie uruchamiane ponownie, aby rozwiązać ten problem.
Znane problemy
- Nazwy kolumn określone w opcji
replaceWhere
trybuoverwrite
w Delta Lake uwzględniają wielkość liter, nawet jeśli domyślnie włączona jest wrażliwość na wielkość liter. - Łącznik Snowflake dla środowiska Databricks Runtime 5.0 jest w wersji zapoznawczej.
- Jeśli anulujesz uruchomioną komórkę przesyłania strumieniowego w notesie dołączonym do klastra środowiska Databricks Runtime 5.0, nie będziesz mógł uruchomić żadnych kolejnych poleceń w notesie, chyba że wyczyścisz stan notesu lub klaster zostanie ponownie uruchomiony. Aby obejść ten problem, zobacz bazę wiedzy.
Apache Spark
Środowisko Databricks Runtime 5.0 obejmuje platformę Apache Spark 2.4.0.
Core i Spark SQL
Uwaga
Ten artykuł zawiera odwołania do terminu podrzędnego — terminu, którego usługa Azure Databricks nie używa. Po usunięciu terminu z oprogramowania usuniemy go z tego artykułu.
Główne funkcje
- Tryb wykonywania barier: [SPARK-24374] Obsługa trybu wykonywania barier w harmonogramie, aby lepiej zintegrować się z platformami uczenia głębokiego.
- Obsługa języka Scala 2.12: [SPARK-14220] Dodawanie eksperymentalnej obsługi języka Scala 2.12. Teraz możesz skompilować platformę Spark przy użyciu języka Scala 2.12 i napisać aplikacje platformy Spark w języku Scala 2.12.
- Funkcje wyższego porządku: [SPARK-23899] Dodaj wiele nowych wbudowanych funkcji, w tym funkcji o wysokiej kolejności, aby ułatwić pracę ze złożonymi typami danych. Zobacz wbudowane funkcje Apache Spark.
- Wbudowane źródło danych Avro: [SPARK-24768] Wbudowany pakiet Spark-Avro z obsługą typu logicznego, lepszą wydajnością i użytecznością.
API
- [SPARK-24035] Składnia SQL dla tabeli przestawnej
- [SPARK-24940] Łączenie i repartycja wskazówek dotyczących zapytań SQL
- [SPARK-19602] Obsługa rozwiązywania kolumn na podstawie w pełni kwalifikowanej nazwy kolumny
- [SPARK-21274] Zaimplementuj EXCEPT ALL i INTERSECT ALL
Wydajność i stabilność
- [SPARK-16406] Rozpoznawanie odwołań dla dużej liczby kolumn powinno być szybsze
- [SPARK-23486] Buforowanie nazwy funkcji z wykazu zewnętrznego dla funkcji lookupFunctions
- [SPARK-23803] Obsługa oczyszczania zasobnika
- [SPARK-24802] Wykluczenie reguły optymalizacji
- [SPARK-4502] Przycinanie zagnieżdżonego schematu dla tabel Parquet
- [SPARK-24296] Obsługa replikowania bloków większych niż 2 GB
- [SPARK-24307] Wsparcie wysyłania wiadomości ponad 2 GB z pamięci
- [SPARK-23243] Shuffle+Repartition na RDD może prowadzić do nieprawidłowych wyników
- [SPARK-25181] Ograniczono rozmiar pul wątków głównych i podrzędnych BlockManager, obniżając obciążenie pamięci, gdy sieć działa wolno
Łączniki
- [SPARK-23972] Zaktualizuj parquet z wersji 1.8.2 do wersji 1.10.0
- [SPARK-25419] Poprawa wypychania predykatu Parquet
- [SPARK-23456] Natywny czytnik ORC jest domyślnie włączony
- [SPARK-22279] Domyślnie użycie natywnego czytnika ORC do odczytywania tablic Hive serde
- [SPARK-21783] Domyślnie włącz wypychanie filtru ORC
- [SPARK-24959] Przyspieszenie działania funkcji count() dla plików JSON i CSV
- [SPARK-24244] Analizowanie tylko wymaganych kolumn w analizatorze CSV
- [SPARK-23786] Sprawdzanie poprawności schematu CSV — nazwy kolumn nie są sprawdzane
- [SPARK-24423] Kwerenda opcji określająca zapytanie do odczytu z JDBC
- [SPARK-22814] Obsługa daty/znacznika czasu w kolumnie partycji JDBC
- [SPARK-24771] Aktualizacja avro z wersji 1.7.7 do 1.8
PySpark
- [SPARK-24215] Zaimplementować eager evaluation dla API DataFrame
- [SPARK-22274] - [SPARK-22239] Funkcje agregacji zdefiniowane przez użytkownika za pomocą biblioteki pandas udf
- [SPARK-24396] Dodaj Structured Streaming ForeachWriter dla języka Python
- [SPARK-23874] Uaktualnianie narzędzia Apache Arrow do wersji 0.10.0
- [SPARK-25004] Dodawanie limitu spark.executor.pyspark.memory
- [SPARK-23030] Używanie formatu strumienia Arrow do tworzenia i zbierania ramek danych pandas
- [SPARK-24624] Obsługa mieszanki funkcji Python UDF i skalarnych pandas UDF
Inne istotne zmiany
- [SPARK-24596] Niekaskadowe unieważnianie pamięci podręcznej
- [SPARK-23880] Nie wyzwalaj żadnego zadania buforowania danych
- [SPARK-23510][SPARK-24312] Obsługa magazynu metadanych Hive 2.2 i Hive 2.3
- [SPARK-23711] Dodaj generator rezerwowy dla UnsafeProjection
- [SPARK-24626] Równoległe obliczanie rozmiaru lokalizacji w poleceniu Analizuj tabelę
Przesyłanie strumieniowe ze strukturą
Główne funkcje
- [SPARK-24565] Uwidocznił wiersze wyjściowe każdego mikrobatcza jako ramkę danych przy użyciu funkcji foreachBatch (Python, Scala i Java)
- [SPARK-24396] Dodano interfejs API języka Python dla foreach i ForeachWriter
- [SPARK-25005] Obsługa polecenia "kafka.isolation.level" w celu odczytu tylko zatwierdzonych rekordów z tematów platformy Kafka napisanych przy użyciu producenta transakcyjnego.
Inne istotne zmiany
- [SPARK-24662] Obsługa operatora LIMIT dla strumieni w trybie dołączania lub całkowitym
- [SPARK-24763] Usuwanie nadmiarowych danych klucza z wartości w agregacji przesyłania strumieniowego
- [SPARK-24156] Szybsze generowanie wyników wyjściowych i/lub czyszczenie stanu przy użyciu operacji stanowych (mapGroupsWithState, łączenie strumieni, agregacja strumieniowa, usuwanie duplikatów strumieniowych), gdy nie ma danych w strumieniu wejściowym.
- [SPARK-24730] Obsługa wybierania minimalnego lub maksymalnego limitu w przypadku wielu strumieni wejściowych w zapytaniu
- [SPARK-25399] Usunięto usterkę polegającą na tym, że ponowne użycie wątków wykonywania z ciągłego przetwarzania do przesyłania strumieniowego mikropartii może prowadzić do problemu z poprawnością
- [SPARK-18057] Uaktualniono wersję klienta platformy Kafka z wersji 0.10.0.1 do 2.0.0
MLlib
Główne funkcje
- [SPARK-22666] Źródło danych platformy Spark dla formatu obrazu
Inne istotne zmiany
- [SPARK-22119][SPARK-23412][SPARK-23217] Dodanie miary odległości kosinusowej do KMeans/BisectingKMeans/Clustering evaluator
- [SPARK-10697] Obliczanie metodą "lift" w górnictwie reguł skojarzenia
- [SPARK-14682][SPARK-24231] Podaj metodę "evaluateEachIteration" lub równoważną dla spark.ml GBTs
- [SPARK-7132][SPARK-24333] Dodaj możliwość dopasowania z użyciem zestawu walidacyjnego do spark.ml GBT
- [SPARK-15784][SPARK-19826] Dodawanie klastra iteracji zasilania do spark.ml
- [SPARK-15064] Obsługa ustawień regionalnych w StopWordsRemover
- [SPARK-21741] API Pythona do podsumowania wielomianowego opartego na DataFrame
- [SPARK-21898][SPARK-23751] Parzystość funkcji dla KolmogorovSmirnovTest w MLlib
- [SPARK-10884] Obsługa przewidywania dla pojedynczego wystąpienia dla modeli związanych z regresją i klasyfikacją
- [SPARK-23783] Dodanie nowego ogólnego interfejsu eksportu dla potoków uczenia maszynowego
- [SPARK-11239] Eksport PMML na potrzeby regresji liniowej uczenia maszynowego
SparkR
- [SPARK-25393] Dodawanie nowej funkcji from_csv()
- [SPARK-21291] dodaj API partitionBy R w DataFrame
- [SPARK-25007] Dodać array_intersect/array_except/array_union/shuffle do SparkR
- [SPARK-25234] unikanie przepełnienia liczby całkowitej w funkcji parallelize
- [SPARK-25117] Dodaj obsługę EXCEPT ALL i INTERSECT ALL w R
- [SPARK-24537] Dodaj array_remove/array_zip/map_from_arrays/array_distinct
- [SPARK-24187] Dodaj funkcję array_join do silnika SparkR
- [SPARK-24331] Dodawanie arrays_overlap, array_repeat, map_entries do SparkR
- [SPARK-24198] Dodawanie funkcji fragmentatora do aparatu SparkR
- [SPARK-24197] Dodanie funkcji array_sort do silnika SparkR
- [SPARK-24185] dodaj funkcję spłaszczania do SparkR
- [SPARK-24069] Dodawanie funkcji array_min/array_max
- [SPARK-24054] Dodawanie funkcji array_position/funkcji element_at
- [SPARK-23770] Dodawanie interfejsu API repartitionByRange w usłudze SparkR
GraphX
- [SPARK-25268] Uruchomienie równoległego spersonalizowanego PageRank zgłasza wyjątek serializacji
Deprecjacje
- [SPARK-23451] Oznaczyć jako przestarzałe funkcję obliczania kosztu dla KMeans
- [SPARK-25345] Oznaczenie jako przestarzałe interfejsów API readImages z ImageSchema
Zmiany zachowania
- [SPARK-23549] Rzutowanie na znacznik czasu podczas porównywania znacznika czasu z datą
- [SPARK-24324] W funkcji pandas Grouped Map UDF kolumny wyników powinny być przypisywane według nazwy
- [SPARK-25088] Aktualizacje domyślne i dokumentacji serwera REST
- [SPARK-23425] ładowanie danych dla ścieżki pliku hdfs z użyciem symboli wieloznacznych nie działa prawidłowo
- [SPARK-23173] from_json może generować wartości null dla pól oznaczonych jako niepuste
- [SPARK-24966] Implementowanie reguł pierwszeństwa dla operacji zestawu
- [SPARK-25708]HAVING bez GROUP BY powinny być agregacją globalną
- [SPARK-24341] Poprawnie obsłuż podzapytanie dla IN z wieloma wartościami
- [SPARK-19724] Tworzenie tabeli zarządzanej z istniejącą lokalizacją domyślną powinno zgłosić wyjątek
Znane problemy
- [SPARK-25793] Usterki ładowania modelu w bisectingKMeans
- [SPARK-25271] CTAS z tabelami Parquet Hive powinny korzystać z natywnego źródła parquet
- [SPARK-24935] Problem z uruchamianiem Hive UDAF w Spark 2.2 i późniejszych wersjach
Aktualizacje konserwacji
Zobacz aktualizacje konserwacyjne Databricks Runtime 5.0.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.5 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Uwaga
Mimo że język Scala 2.12 jest obsługiwany w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 5.0.
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certyfikat | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | IDNA | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | frajer | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 18,0 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 1.6.2016 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels - biblioteka do modelowania statystycznego | 0.6.1 |
tornado | 5.1.1 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | koło | 0.31.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
baza | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
bindr | 0.1.1 | bindrcpp | 0.2.2 | bit | 1.1-14 |
bit64 | 0.9-7 | bitops | 1.0-6 | blob | 1.1.1 |
uruchamianie | 1.3-20 | warzyć | 1.0-6 | miotła | 0.5.0 |
obiekt wywołujący | 3.0.0 | samochód | 3.0-2 | carData | 3.0-1 |
caret | 6.0-80 | cellranger | 1.1.0 | chron | 2.3-52 |
klasa | 7.3-14 | cli | 1.0.0 | klaster | 2.0.7-1 |
codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 | commonmark | 1.5 |
— kompilator | 3.4.4 | kredka | 1.3.4 | lok | 3.2 |
CVST | 0.2-2 | tabela danych | 1.11.4 | zbiory danych | 3.4.4 |
DBI | 1.0.0 | ddalpha | 1.3.4 | DEoptimR | 1.0-8 |
Opis | 1.2.0 | devtools | 1.13.6 | przegląd | 0.6.16 |
dimRed | 0.1.0 | DoMC | 1.3.5 | dplyr | 0.7.6 |
Redukcja ryzyka katastrof | 0.0.3 | fani | 0.3.0 | forcats | 0.3.0 |
foreach | 1.4.4 | zagraniczny | 0.8-70 | Gbm | 2.1.3 |
geometria | 0.3-6 | ggplot2 | 3.0.0 | git2r | 0.23.0 |
glmnet | 2.0-16 | klej | 1.3.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | woda | 3.20.0.2 |
przystań | 1.1.2 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
Iteratory | 1.0.10 | jsonlite | 1.5 | kernlab | 0.9-27 |
KernSmooth | 2.23-15 | Etykietowanie | 0.3 | struktura siatkowa | 0.20-35 |
lawa | 1.6.3 | opóźnienie | 0.2.1 | mniejszy | 0.3.4 |
lme4 | 1.1-18-1 | lubridate | 1.7.4 | magia | 1.5-8 |
magrittr | 1.5 | mapproj | 1.2.6 | Mapy | 3.3.0 |
maptools | 0.9-3 | MASA | 7.3-50 | Macierz | 1.2-14 |
MatrixModels | 0.4-1 | zapamiętywanie | 1.1.0 | metody | 3.4.4 |
mgcv | 1.8-24 | mim | 0.5 | minqa | 1.2.4 |
Metryki modelu | 1.2.0 | munsell | 0.5.0 | mvtnorm | 1.0-8 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsx | 4.1.0 |
równoległy | 3.4.4 | pbkrtest | 0.4-7 | filar | 1.3.0 |
pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.0 | plogr | 0.2.0 | plz | 2.7-0 |
plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.12.1 | processx | 3.2.0 | prodlim | 2018.04.18 |
Proto | 1.0.0 | Postscriptum | 1.1.0 | purrr | 0.2.5 |
quantreg | 5,36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.7.0 | R6 | 2.2.2 | randomForest | 4.6-14 |
RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | Czytnik | 1.1.1 |
readxl | 1.1.0 | przepisy | 0.1.3 | rewanż | 1.0.1 |
zmień kształt2 | 1.4.3 | Rio | 0.5.10 | rlang | 0.2.2 |
robustbase | 0.93-2 | RODBC | 1.3-15 | roxygen2 | 6.1.0 |
rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.7-3 |
RSQLite | 2.1.1 | rstudioapi | 0,7 | skala | 1.0.0 |
sfsmisc | 1.1-2 | Sp | 1.3-1 | SparkR | 2.4.0 |
SparseM | 1.77 | przestrzenny | 7.3-11 | Splajny | 3.4.4 |
sqldf | 0.4-11 | SQUAREM | 2017.10-1 | statmod | 1.4.30 |
Statystyki | 3.4.4 | statystyki4 | 3.4.4 | stringi | 1.2.4 |
stringr | 1.3.1 | przetrwanie | 2.42-6 | tcltk | 3.4.4 |
DemosNauczania | 2.10 | testthat | 2.0.0 | tibble | 1.4.2 |
tidyr | 0.8.1 | tidyselect | 0.2.4 | czasData | 3043.102 |
narzędzia | 3.4.4 | utf8 | 1.1.4 | programy narzędziowe | 3.4.4 |
viridisLite | 0.3.0 | wąs (for human facial hair), włosek czuciowy (for animal whiskers) | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | zamek | 1.0.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Klient Amazon Kinesis | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | wsparcie dla aws-java-sdk | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db7-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kriogenicznie zacieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje Jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | rdzeń | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | konfiguracja | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | sprężarka powietrza | 0.10 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metryki-kontrole kondycji | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metryki-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metryczne | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mrówka | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.10.0 |
org.apache.arrow | strzałka-pamięć | 0.10.0 |
org.apache.arrow | wektor strzałki | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | calcite-core | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-klient | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | podkładki orc-shim | 1.5.2 |
org.apache.parquet | parquet-kolumna | 1.10.1-databricks2 |
org.apache.parquet | parquet-common | 1.10.1-databricks2 |
org.apache.parquet | kodowanie parquet | 1.10.1-databricks2 |
org.apache.parquet | format parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks2 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-cieniowany | 4.8 |
org.apache.zookeeper | opiekun zwierząt | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.9 |
org.codehaus.janino | janino | 3.0.9 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | serwer aplikacji Jetty | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | test wiosenny | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |