Databricks Runtime 4.2 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w informacjach o wersjach i zgodności Databricks Runtime.
Usługa Databricks wydała tę wersję w lipcu 2018 roku.
Ważne
Ta wersja została uznana za przestarzałą 5 marca 2019 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykle życia wsparcia Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.2 obsługiwanym przez platformę Apache Spark.
Delta Lake
Środowisko Databricks Runtime 4.2 wprowadza znaczące ulepszenia jakościowe i funkcjonalności dla Delta Lake. Usługa Databricks zdecydowanie zaleca, aby wszyscy klienci usługi Delta Lake uaktualnili środowisko uruchomieniowe do nowego środowiska uruchomieniowego. Ta wersja pozostaje w prywatnej wersji zapoznawczej, ale reprezentuje wersję kandydującą w oczekiwaniu na nadchodzącą ogólną dostępność.
Nowe funkcje
- Strumienie można teraz zapisywać bezpośrednio w tabeli Delta zarejestrowanej w magazynie metadanych Hive przy użyciu
df.writeStream.table(...)
.
Ulepszenia
Wszystkie polecenia i zapytania Delta Lake obsługują teraz odwoływanie się do tabeli przy użyciu jej ścieżki jako identyfikatora.
delta.`<path-to-table>`
Wcześniej wymagane było niestandardowe użycie literałów ciągu przez
OPTIMIZE
iVACUUM
(czyli'<path-to-table>'
).DESCRIBE HISTORY
teraz zawiera identyfikator zatwierdzenia i jest domyślnie uporządkowany od najnowszego do najstarszego.
Poprawki błędów
- Filtrowanie na podstawie predykatów partycji działa teraz poprawnie nawet wtedy, gdy wielkość liter w predykatach różni się od wielkości liter w tabeli.
- Naprawiono brakujące kolumny
AnalysisException
podczas przeprowadzania sprawdzania równości w kolumnach logicznych w tabelach delty (czylibooleanValue = true
). -
CREATE TABLE
nie modyfikuje już dziennika transakcji podczas tworzenia wskaźnika do istniejącej tabeli. Zapobiega to niepotrzebnym konfliktom z równoczesnymi strumieniami i umożliwia tworzenie wskaźnika metastore do tabel, gdzie użytkownik ma tylko dostęp do odczytu danych. - Wywołanie strumienia z dużą ilością danych nie powoduje już wywołania
display()
funkcji OOM w sterowniku. -
AnalysisException
jest teraz zgłaszany, gdy podstawowa ścieżka Delta Lake zostanie usunięta, zamiast zwracania pustych wyników. - Konfiguracje usługi Delta Lake, które wymagają określonej wersji protokołu (na przykład
appendOnly
), mogą być stosowane tylko do tabel w odpowiedniej wersji. - Podczas aktualizowania stanu tabeli Delta długie ścieżki zmian są teraz automatycznie skracane, aby uniknąć błędu
StackOverFlowError
.
Przesyłanie strumieniowe ze strukturą
Nowe funkcje
Usługi Delta Lake i Kafka w pełni obsługują Trigger.Once. Wcześniej limity szybkości (na przykład
maxOffsetsPerTrigger
lubmaxFilesPerTrigger
) określone jako opcje źródła lub wartości domyślne mogą spowodować tylko częściowe wykonanie dostępnych danych. Te opcje są teraz ignorowane, gdyTrigger.Once
jest używany, co umożliwia przetwarzanie wszystkich aktualnie dostępnych danych.Dodano nowe przesyłanie strumieniowe
foreachBatch()
w języku Scala, gdzie można zdefiniować funkcję do przetwarzania danych wyjściowych każdego mikrobajta przy użyciu operacji ramki danych. Umożliwia to wykonanie następujących czynności:- Używanie istniejących źródeł danych wsadowych do zapisywania danych wyjściowych mikrosadowych w systemach, które nie mają jeszcze źródła danych przesyłanych strumieniowo (na przykład użyj modułu zapisywania wsadowego Cassandra dla każdego danych wyjściowych mikrosadowych).
- Zapisywanie danych wyjściowych mikropartii w wielu miejscach.
- Stosowanie operacji na ramkach danych i tabelach na danych wyjściowych mikropartii, które nie są jeszcze obsługiwane w ramkach danych strumieniowych (na przykład wstawianie/aktualizacja danych wyjściowych mikropartii do tabeli Delta).
Dodano
from_avro/to_avro
funkcje do odczytywania i zapisywania danych Avro w ramce danych zamiast tylko plików, podobnie jakfrom_json/to_json
. Aby uzyskać więcej informacji, zobacz Odczytywanie i zapisywanie danych Avro w dowolnym miejscu .Dodano obsługę przesyłania strumieniowego
foreach()
w języku Python (jest już dostępna w języku Scala). Aby uzyskać więcej informacji, zobacz dokumentację foreach i foreachBatch.
Ulepszenia
- Szybsze generowanie wyników wyjściowych i/lub oczyszczanie stanu przy użyciu operacji stanowych (łączenie strumień-strumień, agregacja strumieniowa, usuwanie duplikatów strumieniowych), jeśli w strumieniu wejściowym nie ma danych.
Poprawki błędów
- Naprawiono usterkę poprawności SPARK-24588 w sprzężeniu strumień-strumień, w którym zgłaszano mniej wyników, gdy występuje jawne ponowne partycjonowanie przed nim (na przykład
df1.repartition("a", "b").join(df, "a")
).
Inne zmiany i ulepszenia
- Dodano obsługę polecenia Odmowy SQL dla klastrów z włączoną kontrolą dostępu do tabel. Użytkownicy mogą teraz odrzucać określone uprawnienia w taki sam sposób, jak wcześniej. Odmowa uprawnienia zastąpi przyznane. Administratorzy i właściciele określonego obiektu nadal mogą wykonywać akcje.
- Nowe źródło danych usługi Azure Data Lake Storage Gen2 korzystające ze sterownika ABFS. Zobacz Nawiązywanie połączenia z usługą Azure Data Lake Storage Gen2 i usługą Blob Storage
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- pip: od wersji 10.0.0b2 do 10.0.1
- setuptools: od 39.0.1 do 39.2.0
- tornado: 5.0.1 do 5.0.2
- koło: od 0.31.0 do 0.31.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
- Ulepszone wsparcie dla Parquet
- Uaktualniono usługę Apache ORC z wersji 1.4.1 do 1.4.3
Apache Spark
Środowisko Databricks Runtime 4.2 obejmuje platformę Apache Spark 2.3.1. Ta wersja zawiera wszystkie poprawki i ulepszenia zawarte w środowisku Databricks Runtime 4.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-24588][SS] Dołączenie strumieniowe powinno wymagać HashClusteredPartitioning od elementów podrzędnych
-
[SPARK-23931][SQL] Zmodyfikuj
arrays_zip
w pliku function.scala@scala.annotation.varargs
. - [SPARK-24633][SQL] Naprawiono generowanie kodu, gdy jest wymagany podział dla arrays_zip
- [SPARK-24578][CORE] Ograniczyć rozmiar podregionu zwróconego buforu NIO
- [SPARK-24613][SQL] Nie można dopasować pamięci podręcznej z funkcją UDF do kolejnych zależnych pamięci podręcznych
- [SPARK-24583][SQL] Nieprawidłowy typ schematu w insertIntoDataSourceCommand
- [SPARK-24565][SS] Dodawanie interfejsu API dla funkcji przesyłania strumieniowego ze strukturą w celu uwidaczniania wierszy wyjściowych każdego mikrobajta jako ramki danych
- [SPARK-24396][SS][PYSPARK] Dodaj ForeachWriter dla strumieniowania strukturalnego w języku Python.
- [SPARK-24216][SQL] TypdAggregateExpression platformy Spark używa polecenia getSimpleName, który nie jest bezpieczny w języku Scala
- [SPARK-24452][SQL][CORE] Unikaj możliwego przepełnienia przy dodawaniu lub mnożeniu wartości int
- [SPARK-24187][R][SQL] Dodaj funkcję array_join do modułu SparkR
- [SPARK-24525][SS] Podaj opcję ograniczenia liczby wierszy w narzędziu MemorySink
- [SPARK-24331][SPARKR][SQL] Dodawanie arrays_overlap, array_repeat i map_entries do platformy SparkR
- [SPARK-23931][SQL] Dodaje funkcję arrays_zip do usługi Spark SQL
- [SPARK-24186][R][SQL] zmień funkcje odwrotne i concat na funkcje kolekcji w języku R
- [SPARK-24198][SPARKR][SQL] Dodanie funkcji podziału do SparkR
- [SPARK-23920][SQL] dodaj array_remove, aby usunąć wszystkie elementy równe danemu elementowi z tablicy
- [SPARK-24197][SPARKR][SQL] Dodanie funkcji array_sort do SparkR
- [SPARK-24340][CORE] Czyszczenie plików menedżera bloków dysków innych niż shuffle po zakończeniu funkcji wykonawczej w klastrze autonomicznym
- [SPARK-23935][SQL] Dodawanie funkcji map_entries
- [SPARK-24500][SQL] Zadbaj, aby strumienie były zmaterializowane podczas transformacji drzewa.
- [SPARK-24495][SQL] EnsureRequirement zwraca błędny plan podczas zmiany kolejności równych kluczy
- [SPARK-24506][Interfejs użytkownika] Dodawanie filtrów interfejsu użytkownika do kart dodanych po powiązaniu
- [SPARK-24468][SQL] Obsługa skali ujemnej podczas dostosowywania dokładności dla operacji dziesiętnych
- [SPARK-24313][SQL] Napraw interpretowaną ocenę operacji kolekcji dla typów złożonych
- [SPARK-23922][SQL] Dodawanie funkcji arrays_overlap
- [SPARK-24369][SQL] Prawidłowa obsługa wielu odrębnych agregacji mających ten sam zestaw argumentów
- [SPARK-24455][CORE] korekta literówki w komentarzu TaskSchedulerImpl
- [SPARK-24397][PYSPARK] Dodano właściwość TaskContext.getLocalProperty(key) w języku Python
- [SPARK-24117][SQL] Ujednolicenie funkcji getSizePerRow
- [SPARK-24156][SS] Naprawianie błędu odzyskiwania po awarii w partii bez danych
- [SPARK-24414][Interfejs użytkownika] Oblicz prawidłową liczbę zadań dla etapu.
- [SPARK-23754][PYTHON] Ponowne podnoszenie klasy StopIteration w kodzie klienta
- [SPARK-23991][DSTREAMS] Napraw utratę danych, gdy zapis do dziennika WAL kończy się niepowodzeniem podczas przydzielania bloków do partii.
- [SPARK-24373][SQL] Dodaj barierę analizy (AnalysisBarrier) do elementów podrzędnych RelationalGroupedDataset i KeyValueGroupedDataset
- [SPARK-24392][PYTHON] Etykieta pandas_udf jako eksperymentalna
- [SPARK-24334] Naprawienie zwarcia wyścigu w ArrowPythonRunner powoduje nieczyste zamknięcie alokatora pamięci Arrow
- [SPARK-19112][CORE] Dodaj brakujące nazwy krótkich kodeków kompresji do konfiguracji.
- [SPARK-24244][SPARK-24368][SQL] Przekazywanie tylko wymaganych kolumn do analizatora CSV
- [SPARK-24366][SQL] Poprawa komunikatów o błędach związanych z konwersją typów
- [SPARK-24371][SQL] Dodano funkcję isInCollection w interfejsie API DataFrame dla języka Scala i...
- [SPARK-23925][SQL] Dodawanie funkcji kolekcji array_repeat
- [DROBNE] Dodaj konfigurację SSL portu w toString i scaladoc
- [SPARK-24378][SQL] Naprawianie niepoprawnych przykładów funkcji date_trunc
- [SPARK-24364][SS] Nie zezwalaj na niepowodzenie indeksu InMemoryFileIndex, jeśli ścieżka pliku nie istnieje
- [SPARK-24257][SQL] LongToUnsafeRowMap oblicza, że nowy rozmiar może być nieprawidłowy
- [SPARK-24348][SQL] element_at" — poprawka błędu
- [SPARK-23930][SQL] Dodaj funkcję wycinka
- [SPARK-23416][SS] Dodaj określoną metodę zatrzymania dla metody ContinuousExecution.
- [SPARK-23852][SQL] Uaktualnianie do wersji Parquet 1.8.3
- [SPARK-24350][SQL] Naprawia ClassCastException w funkcji "array_position"
- [SPARK-24321][SQL] Wyodrębnij wspólny kod z operacji dzielenia i reszty do podstawowej cechy
- [SPARK-24309][CORE] Element AsyncEventQueue powinien zatrzymać się po przerwaniu.
- [SPARK-23850][SQL] Dodaj oddzielną konfigurację dla redagowania opcji SQL.
- [SPARK-22371][CORE] Zwróć wartość None zamiast zgłaszać wyjątek, gdy akumulator jest zbierany jako bezużyteczny.
- [SPARK-24002][SQL] Nie można zserializować zadania z powodu org.apache.parquet.io.api.Binary$ByteBufferBackedBinary.getBytes
- [SPARK-23921][SQL] Dodawanie funkcji array_sort
- [SPARK-23923][SQL] Dodawanie funkcji kardynalności
- [SPARK-24159][SS] Włączanie mikropartii bez danych dla przesyłania strumieniowego mapGroupswithState
- [SPARK-24158][SS] Włączanie partii bez danych dla sprzężeń przesyłanych strumieniowo
- [SPARK-24157][SS] Włączono partie nie zawierające danych w MicroBatchExecution na potrzeby agregacji przesyłania strumieniowego i deduplikacji
- [SPARK-23799][SQL] FilterEstimation.evaluateInSet generuje nieprawidłowe statystyki dla STRING
- [SPARK-17916][SQL] Napraw pusty ciąg, który jest analizowany jako null, gdy ustawiono wartość nullValue.
- [SPARK-23916][SQL] Dodawanie funkcji array_join
- [SPARK-23408][SS] Synchronizowanie kolejnych akcji AddData w usłudze Streaming*JoinSuite
- [SPARK-23780][R] Nie udało się użyć biblioteki googleVis z nową wersją SparkR
- [SPARK-23821][SQL] Funkcja kolekcji: spłaszczanie
- [SPARK-23627][SQL] Udostępnij funkcję isEmpty w DataSet.
- [SPARK-24027][SQL] Obsługa funkcji MapType z typem StringType dla kluczy jako typu głównego według from_json
- [SPARK-24035][SQL] Składnia SQL dla Pivot — naprawa ostrzeżenia antlr
- [SPARK-23736][SQL] Rozszerzanie funkcji concat w celu obsługi kolumn tablicowych
- [SPARK-24246][SQL] Popraw wyjątek AnalysisException, ustawiając przyczynę, gdy jest dostępna
- [SPARK-24263][R] Przerwy sprawdzania języka Java w środowisku SparkR za pomocą biblioteki openjdk
- [SPARK-24262][PYTHON] Naprawiono literówkę w komunikacie o błędzie dopasowania typu UDF
- [SPARK-24067][STREAMING][KAFKA] Zezwalaj na przesunięcia inne niż kolejne
- [SPARK-10878][CORE] Naprawianie stanu wyścigu, gdy wielu klientów rozwiązuje artefakty w tym samym czasie
- [SPARK-19181][CORE] Naprawa niestabilnych metryk „SparkListenerSuite.local”
- [SPARK-24068]Przekazywanie opcji DataFrameReader do źródła danych tekstowych przy wnioskowaniu schematu
- [SPARK-24214][SS] Poprawka toJSON dla StreamingRelationV2/StreamingExecutionRelation/ContinuousExecutionRelation
- [SPARK-23919][SPARK-23924][SPARK-24054][SQL] Dodawanie funkcji array_position/element_at
- [SPARK-23926][SQL] Rozszerzanie funkcji odwrotnej w celu obsługi argumentów ArrayType
- [SPARK-23809][SQL] Aktywne sparkSession należy ustawić za pomocą polecenia getOrCreate
- [SPARK-23094][SPARK-23723][SPARK-23724][SQL] Obsługa kodowania niestandardowego dla plików JSON
- [SPARK-24035][SQL] SQL składnia dla Pivot
- [SPARK-24069][R] Dodawanie funkcji array_min/array_max
- [SPARK-23976][CORE] Wykrywanie przepełnienia długości w pliku UTF8String.concat()/ByteArray.concat()
- [SPARK-24188][CORE] Przywrócenie punktu końcowego interfejsu API „/version”.
- [SPARK-24128][SQL] Wspomnij opcję konfiguracji w przypadku niejawnego błędu CROSS JOIN
- [SPARK-23291][SQL][R] Funkcja substr języka R nie powinna zmniejszać pozycji początkowej o 1 przy wywoływaniu Scala API
- [SPARK-23697][CORE] Starsza wersjaAccumulatorWrapper powinna poprawnie zdefiniować wartość isZero
- [SPARK-24168][SQL] Element WindowExec nie powinien uzyskiwać dostępu do programu SQLConf po stronie wykonawcy
- [SPARK-24143]filtrowanie pustych bloków podczas konwertowania statusu mapy na parę (blockId, size)
- [SPARK-23917][SPARK-23918][SQL] Dodawanie funkcji array_max/array_min
- [SPARK-23905][SQL] Dodaj dzień tygodnia do UDF
- [SPARK-16406][SQL] Zwiększanie wydajności pliku LogicalPlan.resolve
- [SPARK-24013][SQL] Usunięcie niepotrzebnej kompresji w ApproximatePercentile
- [SPARK-23433][CORE] Opóźnione ukończenie zadań zombie aktualizuje wszystkie zestawy zadań
- [SPARK-24169][SQL] Obiekty JsonToStructs nie powinny uzyskiwać dostępu do SQLConf po stronie wykonawcy
- [SPARK-24133][SQL] Backport [SPARK-24133]Sprawdzanie przepełnień całkowitych w trakcie zmiany rozmiaru WritableColumnVectors
- [SPARK-24166][SQL] Element InMemoryTableScanExec nie powinien uzyskiwać dostępu do SQLConf po stronie wykonawcy
- [SPARK-24133][SQL] Sprawdzanie przepełnienia liczb całkowitych podczas zmiany rozmiaru WritableColumnVectors
- [SPARK-24085][SQL] Zapytanie zwraca wyjątek UnsupportedOperationException, gdy podzapytywanie skalarne jest obecne w wyrażeniu partycjonowania
- [SPARK-24062][THRIFT SERVER] Naprawiono problem z niemożnością włączenia szyfrowania SASL w serwerze Thrift
- [SPARK-23004][SS] Upewnij się, że funkcja StateStore.commit jest wywoływana tylko raz w zadaniu agregacji przesyłania strumieniowego
- [SPARK-23188][SQL] Umożliwia skonfigurowanie wektoryzowanego rozmiaru partii czytnika columar
- [SPARK-23375][SPARK-23973][SQL] Eliminowanie niepotrzebnego sortowania w optymalizatorze
- [SPARK-23877][SQL] Używanie predykatów filtru do oczyszczania partycji w zapytaniach tylko metadanych
- [SPARK-24033][SQL] Naprawiono niezgodność określonej ramki oknawindowframe(RowFrame, -1, -1)
- [SPARK-23340][SQL] Uaktualnianie usługi Apache ORC do wersji 1.4.3
- Rozwiązano problem z brakiem sprawdzania wartości null, który jest bardziej prawdopodobny przez usprawnione generowanie kodu wyrażeń i uwidoczniony przez SPARK-23986, ponieważ wygenerowany kod źródłowy był nieco dłuższy i wyzwolił problematyczną ścieżkę kodu (dzielenie kodu przez Expression.reduceCodeSize()).
- [SPARK-23989][SQL] wymiana powinna kopiować dane przed mieszaniem bez serializacji
- [SPARK-24021][CORE] naprawa usterki w aktualizacji BlacklistTrackerBlacklistForFetchFailure
- [SPARK-24014][PYSPARK] Dodawanie metody onStreamingStarted do elementu StreamingListener
- [SPARK-23963][SQL] Prawidłowa obsługa dużej liczby kolumn w zapytaniu w tabeli Hive opartej na tekście
- [SPARK-23948] Wyzwalanie nasłuchiwacza zadań mapstage w elemencie submitMissingTasks
- [SPARK-23986][SQL] freshName może generować nazwy inne niż unikatowe
- [SPARK-23835][SQL] Dodawanie sprawdzania not-null do deserializacji argumentów krotki
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacyjne środowiska Databricks Runtime 4.2.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certyfikat | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml jest biblioteką do analizy XML i HTML. | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | ofiara | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 10.0.1 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 1.06.2016 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 39.2.0 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.2 | "traitlets" | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | koło | 0.31.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | porty wsteczne | 1.1.2 |
baza | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | plama | 1.1.1 | rozruch | 1.3-20 |
warzyć | 1.0-6 | miotła | 0.4.4 | samochód | 3.0-0 |
dane samochodu | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | klasa | 7.3-14 | cli | 1.0.0 |
klaster | 2.0.7-1 | codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 |
commonmark | 1.4 | — kompilator | 3.4.4 | kredka | 1.3.4 |
lok | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
zbiory danych | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | opis | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | przegląd | 0.6.15 | dimRed | 0.1.0 |
DoMC | 1.3.5 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | zagraniczny | 0.8-70 |
Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | klej | 1.2.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
gsubfn | 0,7 | tabela g | 0.2.0 | h2o (woda) | 3.16.0.2 |
przystań | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iteratory | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | Etykietowanie | 0.3 | krata | 0.20-35 |
lawa | 1.6.1 | lazyeval | 0.2.1 | mniejszy | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
mapproj | 1.2.6 | Mapy | 3.3.0 | maptools | 0.9-2 |
MASA | 7.3-50 | Macierz | 1.2-14 | MatrixModels | 0.4-1 |
zapamiętywanie | 1.1.0 | metody | 3.4.4 | mgcv | 1.8-24 |
mim | 0.5 | minqa | 1.2.4 | mnormt | 1.5-5 |
Metryki modelu | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
równoległy | 3.4.4 | pbkrtest | 0.4-7 | kolumna | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
Psych | 1.8.3.3 | mruczenie | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
przepisy | 0.1.2 | rewanż | 1.0.1 | zmień kształt2 | 1.4.3 |
Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | waga (urządzenie) | 0.5.0 | sfsmisc | 1.1-2 |
Sp | 1.2-7 | SparkR | 2.3.1 | SparseM | 1.77 |
przestrzenny | 7.3-11 | splajnów | 3.4.4 | sqldf | 0.4-11 |
SQUAREM | 2017.10-1 | statmod | 1.4.30 | Statystyki | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
przetrwanie | 2.42-3 | tcltk | 3.4.4 | NauczanieDemonstruje | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | narzędzia | 3.4.4 |
utf8 | 1.1.3 | narzędzia | 3.4.4 | viridisLite | 0.3.0 |
wibrys | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Klient Amazon Kinesis | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryogenicznie zacienione | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | rdzeń | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | konfiguracja | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | sprężarka powietrza | 0,8 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metryki-kontrole-zdrowia | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metryki-json | 3.1.5 |
io.dropwizard.metrics | metryki-JVM | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety pomiarowe | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.3.2 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mrówka | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.8.0 |
org.apache.arrow | pamięć strzałkowa | 0.8.0 |
org.apache.arrow | wektor strzałki | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | rdzeń kalcytowy | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.3 |
org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
org.apache.parquet | parquet-column | 1.8.3-databricks2 |
org.apache.parquet | parquet-common | 1.8.3-databricks2 |
org.apache.parquet | kodowanie parquet | 1.8.3-databricks2 |
org.apache.parquet | format Parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.3-databricks2 |
org.apache.parquet | parquet-jackson | 1.8.3-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
org.apache.zookeeper | opiekun zoo | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | Magazyn metadanych Hive | 1.2.1.spark2 |
org.spark-project.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
oprogramowanie.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |