Databricks Runtime 4.1 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w maju 2018 r.
Ważne
Ta wersja została wycofana 17 stycznia 2019 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykle życia pomocy technicznej usługi Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.1 obsługiwanym przez platformę Apache Spark.
Delta Lake
Środowisko Databricks Runtime w wersji 4.1 dodaje główne ulepszenia jakości i funkcjonalność usługi Delta Lake. Usługa Databricks zdecydowanie zaleca, aby wszyscy klienci usługi Delta Lake uaktualnili środowisko uruchomieniowe do nowego środowiska uruchomieniowego. Ta wersja pozostaje w prywatnej wersji zapoznawczej, ale reprezentuje wydanie kandydata w oczekiwaniu na nadchodzące wydanie ogólnie dostępne.
Usługa Delta Lake jest teraz również dostępna w prywatnej wersji zapoznawczej dla użytkowników usługi Azure Databricks. Skontaktuj się z menedżerem konta lub zarejestruj się pod adresem https://databricks.com/product/databricks-delta.
Zmiany powodujące niezgodność
Środowisko Databricks Runtime 4.1 zawiera zmiany w protokole transakcji w celu włączenia nowych funkcji, takich jak walidacja. Tabele utworzone za pomocą środowiska Databricks Runtime 4.1 automatycznie używają nowej wersji i nie mogą być zapisywane w starszych wersjach środowiska Databricks Runtime. Aby skorzystać z tych ulepszeń, należy uaktualnić istniejące tabele. Aby uaktualnić istniejącą tabelę, najpierw uaktualnij wszystkie zadania, które zapisują się w tabeli. Następnie uruchom polecenie:
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
Aby uzyskać więcej informacji, zobacz Jak usługa Azure Databricks zarządza zgodnością funkcji usługi Delta Lake?
Operacje zapisu są teraz weryfikowane względem bieżącego schematu tabeli zamiast automatycznego dodawania kolumn, których brakuje w tabeli docelowej. Aby włączyć poprzednie zachowanie, ustaw
mergeSchema
opcję natrue
.Jeśli używasz wcześniejszych wersji funkcji delta usługi Databricks, przed użyciem środowiska Databricks Runtime 4.1 należy uaktualnić wszystkie zadania. Jeśli wystąpi jeden z tych błędów, uaktualnij środowisko Databricks Runtime 4.1:
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchError
Tabele nie mogą już mieć kolumn, które różnią się tylko wielkością liter.
Konfiguracje tabeli specyficzne dla różnicy muszą być teraz poprzedzone prefiksem
delta.
Nowe funkcje
Zarządzanie schematem — funkcja delta usługi Databricks weryfikuje teraz dołączanie i zastępowanie istniejącej tabeli w celu zapewnienia, że zapisywany schemat jest zgodny ze schematem.
- Funkcja delta usługi Databricks nadal obsługuje automatyczną ewolucję schematu.
- Funkcja delta usługi Databricks obsługuje teraz następujący kod DDL w celu jawnego zmodyfikowania schematu:
-
ALTER TABLE ADD COLUMN
aby dodać nowe kolumny do tabeli -
ALTER TABLE CHANGE COLUMNS
aby zmienić kolejność kolumn ALTER TABLE [SET|UNSET] TBLPROPERTIES
-
Aby uzyskać szczegółowe informacje, zobacz Wymuszanie schematu.
Ulepszona obsługa języka DDL i tabel
- Pełna obsługa tabel DDL i
saveAsTable()
.save()
isaveAsTable()
teraz mają identyczne semantyki. - Wszystkie polecenia DDL i DML obsługują zarówno nazwę tabeli, jak i
delta.`<path-to-table>`
. SHOW PARTITIONS
SHOW COLUMNS
DESC TABLE
- Szczegółowe informacje o tabeli — bieżące wersje czytników i składników zapisywania tabeli można wyświetlić, uruchamiając polecenie
DESCRIBE DETAIL
. Zobacz artykuł Jak usługa Azure Databricks zarządza zgodnością funkcji usługi Delta Lake?. - Szczegóły tabeli — informacje o pochodzenia są teraz dostępne dla każdego zapisu w tabeli. Pasek boczny Dane zawiera również szczegółowe informacje o tabeli i historię tabel delty usługi Databricks. Zobacz Przeglądanie szczegółów tabeli usługi Delta Lake z opisem.
- Tabele przesyłania strumieniowego — ramki danych przesyłania strumieniowego można utworzyć przy użyciu polecenia
spark.readStream.format("delta").table("<table-name>")
. - Tabele tylko do dołączania — funkcja delta usługi Databricks obsługuje teraz podstawowe zarządzanie danymi. Usunięcie i modyfikacje tabeli można zablokować, ustawiając właściwość
delta.appendOnly=true
tabeli . -
MERGE INTO
source — dodaje bardziej kompleksową obsługę specyfikacji zapytania źródłowego .MERGE
Można na przykład określićLIMIT
element iORDER BY
INLINE TABLE
w źródle. - Pełna obsługa list ACL tabel.
- Pełna obsługa tabel DDL i
usprawnienia dotyczące wydajności
- Zmniejszenie obciążenia związanego z zbieraniem statystyk — wydajność zbierania statystyk została ulepszona, a statystyki są teraz zbierane tylko dla konfigurowalnej liczby kolumn ustawionych domyślnie na 32. Wydajność zapisu różnicowego w usłudze Databricks została zwiększona o maksymalnie 2 razy ze względu na zmniejszenie obciążenia związanego z zbieraniem statystyk. Aby skonfigurować liczbę kolumn, ustaw właściwość
delta.dataSkippingNumIndexedCols=<number-of-columns>
tabeli . - Obsługa wypychania limitu — statystyki służą do ograniczania liczby plików skanowanych pod kątem zapytań zawierających
LIMIT
kolumny partycji i predykatów. Dotyczy to zapytań w notesach ze względu na niejawnylimit=1000
efekt dla wszystkich poleceń notesu. - Przefiltruj wypychanie w źródle przesyłania strumieniowego — zapytania przesyłane strumieniowo używają teraz partycjonowania podczas uruchamiania nowego strumienia, aby pominąć nieistotne dane.
- Ulepszony równoległość dla
OPTIMIZE
-OPTIMIZE
teraz działa jako pojedyncze zadanie platformy Spark i będzie używać wszystkich równoległości dostępnych w klastrze (wcześniej było ograniczonych do 100 skompaktowanych plików naraz). - Pomijanie danych w języku DML —
UPDATE
,DELETE
iMERGE
teraz używają statystyk podczas lokalizowania plików, które muszą zostać przepisane. - Zmniejszone przechowywanie punktów kontrolnych — punkty kontrolne są teraz przechowywane przez dwa dni (historia jest nadal przechowywana przez 30), aby zmniejszyć koszty magazynowania dziennika transakcji.
Zachowanie interfejsu API
- Zachowanie funkcji
insertInto(<table-name>)
delta usługi Databricks jest takie samo jak inne źródła danych.- Jeśli żaden tryb nie jest określony lub
mode
maErrorIfExists
wartość ,Ignore
lubAppend
, dołącza dane w ramce danych do tabeli delty usługi Databricks. - Jeśli
mode
wartość toOverwrite
, usuwa wszystkie dane w istniejącej tabeli i wstawia dane z ramki danych do tabeli delty usługi Databricks.
- Jeśli żaden tryb nie jest określony lub
- W przypadku buforowania tabela docelowa
MERGE
obiektu musi być ręcznie niebuforowana.
Ulepszenia użyteczności
- Walidacje migracji obciążeń — typowe błędy występujące podczas migrowania obciążeń do funkcji delta usługi Databricks zgłaszają teraz wyjątek, a nie kończą się niepowodzeniem:
- Używanie
format("parquet")
do odczytywania lub zapisywania tabeli. - Odczytywanie lub zapisywanie bezpośrednio w partycji (czyli
/path/to/delta/part=1
). - Opróżnianie podkatalogów tabeli.
-
INSERT OVERWRITE DIRECTORY
przy użyciu parquet w tabeli.
- Używanie
- Konfiguracja bez uwzględniania wielkości liter — opcje dla właściwości czytnika/zapisywania i tabeli ramki danych są teraz bez uwzględniania wielkości liter (w tym ścieżki odczytu i ścieżki zapisu).
- Nazwy kolumn — nazwy kolumn tabeli mogą teraz zawierać kropki.
Znane problemy
- Wstawki instrukcji z wieloma wstawianiami znajdują się w różnych jednostkach pracy, a nie w tej samej transakcji.
Poprawki błędów
- Naprawiono pętlę nieskończoną podczas uruchamiania nowego strumienia w tabeli szybkiego aktualizowania.
Przestarzałe elementy
Przesyłanie strumieniowe ze strukturą nie obsługuje danych wejściowych, które nie są dołączane i zgłasza wyjątek, jeśli jakiekolwiek modyfikacje występują w tabeli używanej jako źródło. Wcześniej można było zastąpić to zachowanie za pomocą flagi ignoreFileDeletion
, ale jest ona teraz przestarzała. Zamiast tego użyj polecenia ignoreDeletes
lub ignoreChanges
. Zobacz Tabelę delty jako źródło.
Inne zmiany i ulepszenia
- Usługa Watchdog zapytań jest włączona dla wszystkich klastrów ogólnego przeznaczenia utworzonych przy użyciu interfejsu użytkownika.
- Zwiększona wydajność po stronie sterownika dla pamięci podręcznej DBIO
- Zwiększona wydajność dekodowania Parquet za pośrednictwem nowego natywnego dekodera Parquet
- Zwiększona wydajność w przypadku wspólnej eliminacji podwyrażenia
- Ulepszona wydajność pomijania danych dla dużych tabel łączących małe tabele (sprzężenia tabeli faktów)
-
display()
teraz renderuje kolumny zawierające typy danych obrazów jako bogaty kod HTML. - Ulepszenia dzienników, ładowania i rejestrowania modeli MLflow
- Uaktualniono plik dbml-local do najnowszej wersji 0.4.1
- Usunięto usterkę z wyeksportowanymi modelami z określonym parametrem
threshold
- Dodano obsługę eksportowania
OneVsRestModel
elementu ,GBTClassificationModel
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- : od 9.0.1 do 10.0.0b2
- setuptools: od 38.5.1 do 39.0.1
- tornado: od 4.5.3 do 5.0.1
- koło: od 0.30.0 do 0.31.0
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
- Uaktualniono zestaw SDK usługi Azure Data Lake Store z wersji 2.0.11 do 2.2.8.
- Uaktualniono cuda do wersji 9.0 z wersji 8.0 i CUDNN do wersji 7.0 z 6.0 dla klastrów gpu.
Apache Spark
Środowisko Databricks Runtime 4.1 obejmuje platformę Apache Spark 2.3.0. Ta wersja zawiera wszystkie poprawki i ulepszenia zawarte w środowisku Databricks Runtime 4.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-24007][SQL] Wartość EqualNullSafe dla parametrów FloatType i DoubleType może wygenerować nieprawidłowy wynik przez kodgen.
- [SPARK-23942][PYTHON][SQL] Tworzy zbieranie w narzędziu PySpark jako akcji dla odbiornika funkcji wykonawczej zapytań
- [SPARK-23815][CORE] Tryb zastępowania partycji dynamicznej modułu zapisywania platformy Spark może zakończyć się niepowodzeniem podczas zapisywania danych wyjściowych na partycji wieloeziomowej
- [SPARK-23748][SS] Rozwiązanie problemu z ciągłym procesem SS nie obsługuje problemu z podqueryAlias
- [SPARK-23963][SQL] Prawidłowa obsługa dużej liczby kolumn w zapytaniu w tabeli Hive opartej na tekście
- [SPARK-23867][SCHEDULER] użyj wartości droppedCount w logWarning
- [SPARK-23816][CORE] Zabite zadania powinny ignorować FetchFailures.
- [SPARK-23809][SQL] Aktywne sparkSession należy ustawić za pomocą polecenia getOrCreate
- [SPARK-23966][SS] Refaktoryzacja całej logiki zapisywania pliku punktu kontrolnego w typowym interfejsie CheckpointFileManager
- [SPARK-21351][SQL] Aktualizowanie wartości null na podstawie danych wyjściowych elementów podrzędnych
- [SPARK-23847][PYTHON][SQL] Dodawanie asc_nulls_first, asc_nulls_last do programu PySpark
- [SPARK-23822][SQL] Ulepszanie komunikatu o błędzie dotyczącego niezgodności schematu Parquet
- [SPARK-23823][SQL] Zachowaj pochodzenie w transformExpression
- [SPARK-23838][WEBUI] Uruchamianie zapytania SQL jest wyświetlane jako "ukończone" na karcie SQL
- [SPARK-23802][SQL] PropagateEmptyRelation może pozostawić plan zapytania w stanie nierozwiązanym
- [SPARK-23727][SQL] Obsługa wypychania filtrów typu DateType w parquet
- [SPARK-23574][SQL] Report SinglePartition in DataSourceV2ScanExec when there's exactly 1 data reader factory ( Raport SinglePartition in DataSourceV2ScanExec when there's exactly's 1 data reader factory( Raport SinglePartition in DataSourceV2ScanExec when there's exactly's 1 data reader
- [SPARK-23533][SS] Dodano obsługę zmiany elementu startOffset elementu ContinuousDataReader
- [SPARK-23491][SS] Usuwanie jawnego anulowania zadania z funkcji ContinuousExecution — ponowne konfigurowanie
- [SPARK-23040][CORE] Zwraca iterator przerwalny dla czytnika mieszania
- [SPARK-23827][SS] StreamingJoinExec powinien upewnić się, że dane wejściowe są podzielone na określoną liczbę partycji
- [SPARK-23639][SQL] Uzyskiwanie tokenu przed uruchomieniem klienta magazynu metadanych w interfejsie wiersza polecenia platformy SparkSQL
- [SPARK-23806]Funkcja Broadcast.unpersist może spowodować wyjątek krytyczny w przypadku użycia...
- [SPARK-23599][SQL] Używanie metody RandomUUIDGenerator w wyrażeniu Uuid
- [SPARK-23599][SQL] Dodawanie generatora UUID z pseudolosowych liczb
- [SPARK-23759][Interfejs użytkownika] Nie można powiązać interfejsu użytkownika platformy Spark z określoną nazwą hosta/adresem IP
- [SPARK-23769][CORE] Usuń komentarze, które niepotrzebnie wyłączają sprawdzanie stylu scala
- [SPARK-23614][SQL] Naprawianie nieprawidłowego ponownego używania wymiany podczas buforowania
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs powinien poprawnie zapisać/przywrócić stan CSE
- [SPARK-23729][CORE] Uwzględnianie fragmentu identyfikatora URI podczas rozpoznawania globów
- [SPARK-23550][CORE] Narzędzia oczyszczania
- [SPARK-23288][SS] Naprawianie metryk wyjściowych za pomocą ujścia parquet
- [SPARK-23264][SQL] Napraw scala. MatchError w literals.sql.out
- [SPARK-23649][SQL] Pomijanie znaków niedozwolonych w utF-8
- [SPARK-23691][PYTHON] Używanie narzędzia sql_conf w testach PySpark tam, gdzie to możliwe
- [SPARK-23644][CORE][Interfejs użytkownika] Używanie ścieżki bezwzględnej do wywołania REST w usłudze SHS
- [SPARK-23706][PYTHON] spark.conf.get(value, default=None) powinien wygenerować wartość None w PySpark
- [SPARK-23623][SS] Unikaj współbieżnego używania buforowanych użytkowników w pamięci podręcznej CachedKafkaConsumer
- [SPARK-23670][SQL] Naprawianie przecieku pamięci na platformie SparkPlanGraphWrapper
- [SPARK-23608][CORE][WEBUI] Dodawanie synchronizacji w usłudze SHS między funkcjami attachSparkUI i detachSparkUI w celu uniknięcia współbieżnego problemu z modyfikacjami w programie Jetty Handlers
- [SPARK-23671][CORE] Warunek naprawy, aby włączyć pulę wątków SHS.
- [SPARK-23658][LAUNCHER] InProcessAppHandle używa nieprawidłowej klasy w getLogger
- [SPARK-23642][DOCS] Podklasa akumulatorowaV2 isZero scaladoc fix
- [SPARK-22915][MLLIB] Testy przesyłania strumieniowego dla funkcji spark.ml., od N do Z
- [SPARK-23598][SQL] Udostępnij metody w publicznej lokalizacji BufferedRowIterator, aby uniknąć błędu środowiska uruchomieniowego dla dużego zapytania
- [SPARK-23546][SQL] Refaktoryzacja metod/wartości bezstanowych w kodzieGenContext
- [SPARK-23523][SQL] Naprawianie nieprawidłowego wyniku spowodowanego przez regułę OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] poprawić brakujący komunikat o błędzie pola w StructType
- [SPARK-23624][SQL] Poprawianie dokumentu metody pushFilters w źródle danych w wersji 2
- [SPARK-23173][SQL] Unikaj tworzenia uszkodzonych plików parquet podczas ładowania danych z formatu JSON
- [SPARK-23436][SQL] Wywnioskuj partycję jako datę tylko wtedy, gdy można ją rzutować na datę
- [SPARK-23406][SS] Włączanie samoobsługowych sprzężeń strumienia
- [SPARK-23490][SQL] Sprawdź identyfikator storage.locationUri z istniejącą tabelą w tabeli CreateTable
- [SPARK-23524]Duże lokalne bloki mieszania nie powinny być sprawdzane pod kątem uszkodzenia.
- [SPARK-23525][SQL] Obsługa ALTER TABLE CHANGE COLUMN COMMENT dla zewnętrznej tabeli Hive
- [SPARK-23434][SQL] Platforma Spark nie powinna ostrzegać katalogu metadanych dla ścieżki pliku HDFS
- [SPARK-23457][SQL] Rejestrowanie odbiorników uzupełniania zadań najpierw w pliku ParquetFileFormat
- [SPARK-23329][SQL] Poprawka dokumentacji funkcji trygonometrycznych
- [SPARK-23569][PYTHON] Zezwalaj pandas_udf na pracę z funkcjami z adnotacjami typu python3
- [SPARK-23570][SQL] Dodawanie platformy Spark 2.3.0 w programie HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Utwórz _pyspark.util. exception_message utworzyć ślad ze strony języka Java za pomocą błędu Py4JJavaError
- [SPARK-23508][CORE] Poprawka blockmanagerId w przypadku blockManagerIdCache przyczyna oom
- [SPARK-23448][SQL] Wyjaśnienie zachowania analizatora plików JSON i CSV w dokumencie
- [SPARK-23365][CORE] Nie dopasowuj funkcji wykonawczej liczby podczas zabijania bezczynnych funkcji wykonawczych.
- [SPARK-23438][DSTREAMS] Naprawianie utraty danych DStreams za pomocą pliku WAL w przypadku awarii sterownika
- [SPARK-23475][Interfejs użytkownika] Pokaż również pominięte etapy
- [SPARK-23518][SQL] Unikaj dostępu do magazynu metadanych, gdy użytkownicy chcą tylko odczytywać i zapisywać ramki danych
- [SPARK-23406][SS] Włączanie samoobsługowych sprzężeń strumienia
- [SPARK-23541][SS] Zezwalaj źródle platformy Kafka na odczytywanie danych z większą równoległością niż liczba partycji artykułu
- [SPARK-23097][SQL][SS] Migrowanie źródła gniazda tekstowego do wersji 2
- [SPARK-23362][SS] Migrowanie źródła mikrobatch platformy Kafka do wersji 2
- [SPARK-23445]Refaktoryzacja kolumny ColumnStat
- [SPARK-23092][SQL] Migrowanie strumienia pamięci do interfejsów API dataSourceV2
- [SPARK-23447][SQL] Oczyszczanie szablonu generowania kodu dla literału
- [SPARK-23366]Ulepszanie ścieżki odczytu na gorąco w funkcji ReadAheadInputStream
- [SPARK-22624][PYSPARK] Uwidacznianie mieszania partycjonowania zakresu
Aktualizacje konserwacji
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 4.1.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 10.0.0b2 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.1 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | koło | 0.31.0 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports (backports) | 1.1.2 |
base | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bitowe | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | rozruch | 1.3-20 |
warzyć | 1.0-6 | miotła | 0.4.4 | samochód | 3.0-0 |
carData | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | class | 7.3-14 | cli | 1.0.0 |
cluster | 2.0.7 | codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 |
commonmark | 1.4 | — kompilator | 3.4.4 | kredka | 1.3.4 |
lok | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
usługi Power BI | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | trawić | 0.6.15 | dimRed | 0.1.0 |
DoMC | 1.3.5 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | zagraniczny | 0.8-69 |
Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | klej | 1.2.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | h2o | 3.16.0.2 |
przystań | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iteratory | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | Etykietowania | 0.3 | krata | 0.20-35 |
lawa | 1.6.1 | opóźnienie | 0.2.1 | littler | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
mapproj | 1.2.6 | Mapy | 3.3.0 | maptools | 0.9-2 |
MASA | 7.3-49 | Macierz | 1.2-13 | MatrixModels | 0.4-1 |
zapamiętywanie | 1.1.0 | metody | 3.4.4 | mgcv | 1.8-23 |
mim | 0.5 | minqa | 1.2.4 | mnormt | 1.5-5 |
Metryki modelu | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsxx | 4.0.17 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | filar | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
Proc | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
Psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
przepisy | 0.1.2 | rewanż | 1.0.1 | zmień kształt2 | 1.4.3 |
Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | waga | 0.5.0 | sfsmisc | 1.1-2 |
Sp | 1.2-7 | SparkR | 2.3.0 | Rozrzednia | 1.77 |
przestrzenny | 7.3-11 | Splajnów | 3.4.4 | sqldf | 0.4-11 |
KWADRAT | 2017.10-1 | statmod | 1.4.30 | Statystyki | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
przetrwanie | 2.41-3 | tcltk | 3.4.4 | NauczanieDemos | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | tools | 3.4.4 |
utf8 | 1.1.3 | narzędzia | 3.4.4 | viridisLite | 0.3.0 |
wąs | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-cieniowane | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.8.0 |
org.apache.arrow | strzałka w pamięci | 0.8.0 |
org.apache.arrow | wektor strzałki | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | calcite-core | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | kodowanie parquet | 1.8.2-databricks1 |
org.apache.parquet | format parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |