Databricks Runtime 10.0 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 10.0 i Databricks Runtime 10.0 Photon obsługiwanym przez platformę Apache Spark 3.2.0. Usługa Databricks wydała tę wersję w październiku 2021 r. Photon jest w publicznej wersji zapoznawczej.
Nowe funkcje i ulepszenia
- Nowa wersja platformy Apache Spark
- Instrukcja SELECT obsługuje teraz klauzulę QUALIFY, aby filtrować wyniki funkcji okna
- Obsługa klastra dla zestawu JDK 11 (publiczna wersja zapoznawcza)
- Moduł automatycznego ładowania traktuje teraz schematy jako dopuszczane do wartości null
Nowa wersja platformy Apache Spark
Środowisko Databricks Runtime 10.0 i Databricks Runtime 10.0 Photon obejmują platformę Apache Spark 3.2.0. Aby uzyskać szczegółowe informacje, zobacz Apache Spark.
Instrukcja SELECT obsługuje teraz klauzulę QUALIFY, aby filtrować wyniki funkcji okna
Instrukcja SELECT
obsługuje teraz klauzulę QUALIFY
. QUALIFY
umożliwia filtrowanie wyników funkcji okna. Co najmniej jedna funkcja okna musi być obecna na SELECT
liście lub warunku QUALIFY
. Na przykład:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
Obsługa klastra dla zestawu JDK 11 (publiczna wersja zapoznawcza)
Usługa Databricks zapewnia teraz obsługę klastra dla zestawu Java Development Kit (JDK) 11.
Podczas tworzenia klastra można określić, że klaster używa zestawu JDK 11 (zarówno dla sterownika, jak i funkcji wykonawczej). W tym celu dodaj następującą zmienną środowiskową do opcji > zaawansowanych Zmiennych środowiskowych platformy Spark>:
JNAME=zulu11-ca-amd64
Moduł automatycznego ładowania traktuje teraz schematy jako dopuszczane do wartości null
Moduł automatycznego ładowania traktuje teraz wszystkie schematy wywnioskowane i dostarczane przez użytkownika jako domyślnie dopuszczane do wartości null. Pozwala to uniknąć potencjalnego uszkodzenia danych w przypadkach, gdy dane zawierają pola o wartości null dla kolumn bez wartości null. Wprowadzono nową konfigurację do śledzenia tego zachowania: spark.databricks.cloudFiles.schema.forceNullable
. Domyślnie ta konfiguracja zawiera ustawienie , które jest używane przez element spark.sql.streaming.fileSource.schema.forceNullable
FileStreamSource na platformie Apache Spark i jest domyślnie true
ustawione na wartość .
Zmiany powodujące niezgodność
Zmiany powodujące niezgodność dla wszystkich użytkowników usługi Spark SQL
- Nowa
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled
konfiguracja: w przypadku ustawienia natrue
wartość , umożliwia podzestaw skorelowanych predykatów równości, gdy podzapytywanie jest agregowane. Ustawienie domyślne totrue
. - Nowa
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled
konfiguracja: w przypadku ustawienia natrue
wartość , blokuje automatyczne generowanie aliasów podczas tworzenia widoków. Ustawienie domyślne totrue
. - Nowa
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled
konfiguracja: w przypadku ustawienia natrue
wartość , nie zezwalaCREATE TABLE AS SELECT
na niepustą lokalizację. Ustawienie domyślne totrue
. Należy pamiętać, że jeślispark.sql.legacy.allowNonEmptyLocationInCTAS
jest również ustawiona natrue
wartość , ta konfiguracja nie ma efektu, aCREATE TABLE AS SELECT
lokalizacja niepusta jest zawsze dozwolona.
Zmiany powodujące niezgodność dla użytkowników usługi Spark SQL, którzy włączają tryb ANSI
Aby uzyskać informacje na temat trybu ANSI, zobacz Zgodność ANSI w środowisku Databricks Runtime.
- Nowa
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled
konfiguracja: jeśli jest ustawiona natrue
, nieprawidłowydayOfWeek
argument funkcji zgłaszaIllegalArgumentException
błądnext_day
w trybie ANSI; w przeciwnym razie zwraca wartośćnull
. Ustawienie domyślne totrue
. - Nowa
spark.databricks.behaviorChange.SC83796CanCast.enabled
konfiguracja: po ustawieniutrue
na wartość , włącza nowe jawne reguły składni rzutowania w trybie ANSI. Ustawienie domyślne totrue
. - Nowa
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled
konfiguracja: w przypadku ustawieniatrue
wartości , podczas rzutowania ciągu do wartości logicznej jest zgłaszany wyjątek błędu analizy. W przeciwnym razie zwraca wartośćnull
. Ustawienie domyślne totrue
. - Nowa
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled
konfiguracja: po ustawieniutrue
na wartośćabs
funkcja zgłasza wyjątek, jeśli dane wejściowe są poza zakresem. Ustawienie domyślne totrue
.
Istotne zmiany dla wszystkich użytkowników języka Python
- Interfejs API
delta.tables.DeltaTable.convertToDelta
języka Python zwraca teraz prawidłowyDeltaTable
obiekt języka Python, który może służyć do uruchamiania poleceń usługi Delta Lake. Wcześniej zwrócił obiekt wewnętrzny, którego nie można wywołać bezpośrednio.
Uaktualnienia biblioteki
Uaktualnianie usługi Apache Hadoop 3
- Środowisko Databricks Runtime 10.0 uaktualnia zależność hadoop z usługi Hadoop 2.7.4 do usługi Hadoop 3.3.1.
Zmiany zachowania
- Usługa Hadoop 3 używa bibliotek hadoop-client-api i hadoop-client-runtime zamiast biblioteki hadoop-common , która odcienie niektórych zależności innych firm, które mogą być potencjalnie używane w publicznych interfejsach API lub rozszerzeniach usługi Hadoop.
- Opcje konfiguracji usługi Hadoop 3 uległy zmianie od usługi Hadoop 2. W przypadku opcji usługi Hadoop 3.3.1 zobacz core-default.xml.
- Usługa Databricks zaktualizowała niektóre domyślne konfiguracje usługi Hadoop 3, aby były zgodne z usługą Hadoop 2, aby upewnić się, że łączniki magazynu mają te same domyślne ustawienia uwierzytelniania i poziomy wydajności:
fs.azure.authorization.caching.enable
=false
fs.s3a.attempts.maximum
=10
fs.s3a.block.size
=67108864
fs.s3a.connection.timeout
=50000
fs.s3a.max.total.tasks
=1000
fs.s3a.retry.limit
=20
fs.s3a.retry.throttle.interval
=500ms
fs.s3a.assumed.role.credentials.provider
=com.amazonaws.auth.InstanceProfileCredentialsProvider
fs.s3a.aws.credentials.provider
=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
- Łącznik usługi Google Cloud Storage (GCS) został uaktualniony z wersji 2.1.6 do 2.2.2.2.
- Łącznik Amazon Redshift używa teraz schematu
s3a://
. Schemats3n://
jest przestarzały. - Obsługuje nazwy klas systemu operacyjnego dla interfejsu API magazynu metadanych Amazon S3 oprócz zacienionych klas. Umożliwia to przetwarzanie konfiguracji systemu operacyjnego bez konieczności używania zacieniowanych nazw klas.
- Na przykład można określić klasę
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStore
w konfiguracji usługi Hadoop.
- Na przykład można określić klasę
- Sprawia, że element
new Configuration()
isparkContext.hadoopConfiguration
jest spójny.- Teraz za każdym razem, gdy zostanie utworzona nowa konfiguracja usługi Hadoop, będzie ona zgodna ze wstępnie zdefiniowaną konfiguracją usługi Hadoop w środowisku Databricks Runtime, w
sparkContext.hadoopConfiguration
tym schematami systemu plików i ich domyślną konfiguracją.
- Teraz za każdym razem, gdy zostanie utworzona nowa konfiguracja usługi Hadoop, będzie ona zgodna ze wstępnie zdefiniowaną konfiguracją usługi Hadoop w środowisku Databricks Runtime, w
- Mimo że łączniki magazynu hadoop zawarte w środowisku Databricks Runtime są w pełni zgodne z usługą Hadoop 3.3.1, nie mają gwarancji, że są zsynchronizowane z łącznikami platformy Hadoop 3.3.1 systemu operacyjnego i mogą mieć inne zachowanie.
- Łącznik Usługi Amazon S3 nadal zezwala (chociaż z ostrzeżeniem) na uwierzytelnianie użytkownika:tajne w adresach URL S3, w porównaniu z usługą HADOOP-14833, co powoduje jego usunięcie.
- funkcja globStatus teraz zawsze zwraca posortowane wyniki (HADOOP-10798)
- Dodano parametr fs.s3a.endpoint, jeśli nieskonfigurowany, a region fs.s3a.endpoint ma wartość null (SPARK-35878)
- Usługa Databricks zapewnia automatyczne rozpoznawanie regionów Amazon S3 może nie zostać wyzwolona w niektórych przypadkach z powodu ustawionego globalnego punktu końcowego. Nie jest to problem, ponieważ zestaw AWS SDK rozwiąże ten region poprawnie.
- Dodaj fs.s3a.downgrade.syncable.exceptions, jeśli nie ustawiono (SPARK-35868)
- Kodety LZ4 i Snappy nie korzystają z natywnej biblioteki hadoop (HADOOP-17125)
Znane problemy
- Spark-36681 Używanie przystawkiCodec do zapisu pliku sekwencji zakończy się niepowodzeniem z powodu znanego problemu w usłudze Hadoop 3.3.1 (HADOOP-17891)
Apache Spark
Środowisko Databricks Runtime 10.0 obejmuje platformę Apache Spark 3.2.0.
W tej sekcji:
- Podkreśla
- Core i Spark SQL
- Przesyłanie strumieniowe ze strukturą
- PySpark
- MLlib
- Wycofywanie i usuwanie
Najważniejsze informacje
- Obsługa warstwy interfejsu API biblioteki Pandas na platformie PySpark(SPARK-34849)
- Sesjonizacja oparta na czasie zdarzenia (okno sesji)(SPARK-10816)
- Obsługa typów INTERWAŁów ANSI SQL (SPARK-27790)
- Ogólna dostępność trybu ANSI (SPARK-35030)
- Standaryzacja komunikatów wyjątków na platformie Spark (SPARK-33539)
Core i Spark SQL
Ulepszenia zgodności usługi ANSI SQL
- Obsługa typów INTERWAŁów ANSI SQL (SPARK-27790)
- Nowe reguły składni wymuszania typu w trybie ANSI (SPARK-34246)
Ulepszenia wydajności
- Optymalizacja zapytań
- Usuwanie nadmiarowych agregacji w optymalizatorze (SPARK-33122)
- Wypychanie limitu do projektu za pomocą funkcji Join(SPARK-34622)
- Szacowanie kardynalności operatora unii, sortowania i zakresu (SPARK-33411)
- UnwrapCastInBinaryComparison support In/InSet predykate(SPARK-35316)
- Zachowaj niezbędne statystyki po oczyszczeniu partycji (SPARK-34119)
- Wykonywanie zapytań
- Domyślnie włącz pulę Zstandard (SPARK-34340, SPARK-34390)
- Dodaj kod-gen dla wszystkich typów sprzężeń scalania sortowania (SPARK-34705)
- Ulepszenia sprzężenia zagnieżdżonej emisji (SPARK-34706)
- Obsługa dwóch poziomów map skrótów dla końcowej agregacji skrótów (SPARK-35141)
- Zezwalaj na współbieżne zapisy na potrzeby zapisywania partycji dynamicznych i tabeli zasobników (SPARK-26164)
- Zwiększanie wydajności przetwarzania FETCH_PRIOR w usłudze Thriftserver(SPARK-33655)
Ulepszenia łącznika
- Parkiet
- Uaktualnij parquet do wersji 1.12.1 (SPARK-36726)
- Odczyt typów niepodpisanych parquet, które są przechowywane jako typ fizyczny int32 w parquet(SPARK-34817)
- Odczyt typu logicznego Parquet bez znaku int64, który jest przechowywany jako typ fizyczny ze znakiem int64 do dziesiętnego (20, 0)(SPARK-34786)
- Ulepszanie parquet w filtrze pushdown(SPARK-32792)
- ORK
- Uaktualnij usługę ORC do wersji 1.6.11 (SPARK-36482)
- Obsługa wymuszonej ewolucji pozycyjnej ORC (SPARK-32864)
- Obsługa zagnieżdżonej kolumny w czytniku wektoryzowanym ORC (SPARK-34862)
- Obsługa kompresji ZSTD i LZ4 w źródle danych ORC (SPARK-33978, SPARK-35612)
- Avro
- Uaktualnij program Avro do wersji 1.10.2(SPARK-34778)
- Obsługa ewolucji schematu Avro dla partycjonowanych tabel programu Hive z "avro.schema.literal"(SPARK-26836)
- Dodawanie nowych opcji źródła danych Avro w celu kontrolowania ponownego łączenia daty/godziny w funkcji odczytu (SPARK-34404)
- Dodawanie obsługi adresu URL schematu dostarczonego przez użytkownika w aplikacji Avro(SPARK-34416)
- Dodano obsługę dopasowania schematu positional Catalyst-to-Avro (SPARK-34365)
- Notacja JSON
- Uaktualnij jacksona do wersji 2.12.3(SPARK-35550)
- Zezwalaj źródłom danych JSON na zapisywanie znaków innych niż ascii jako punktów kodu (SPARK-35047)
- JDBC
- Oblicz bardziej precyzyjny krok partycji w JDBCRelation(SPARK-34843)
- Filtrowanie obsługi magazynu metadanych Hive według not-in (SPARK-34538)
Ulepszenia funkcji
- Podzapytywanie
- Ulepszanie skorelowanych podzapytania (SPARK-35553)
- Nowe wbudowane funkcje
- ilike(SPARK-36674, SPARK-36736)
- current_user(SPARK-21957)
- product(SPARK-33678)
- regexp_like,regexp (SPARK-33597, SPARK-34376)
- try_add(SPARK-35162)
- try_divide(SPARK-35162)
- bit_get(SPARK-33245)
- Domyślnie używaj platformy Apache Hadoop 3.3.1 (SPARK-29250)
- Dodawanie sumy kontrolnej dla bloków mieszania (SPARK-35275)
- Domyślnie włącz spark.storage.replication.active(SPARK-33870)
- Obsługa oczyszczania magazynu rezerwowego podczas zatrzymywania elementu SparkContext(SPARK-34142)
- Obsługa wyliczenia języka Java z interfejsu API zestawu danych Scala (SPARK-23862)
- DODAWANIE pliku JAR ze współrzędnymi bluszczu powinno być zgodne z zachowaniem przechodnim programu Hive (SPARK-34506)
- Obsługa polecenia ADD ARCHIVE and LIST ARCHIVES (SPARK-34603)
- Obsługa wielu ścieżek dla poleceń ADD FILE/JAR/ARCHIVE (SPARK-35105)
- Obsługa plików archiwum jako zasobów dla składni CREATE FUNCTION USING (SPARK-35236)
- Ładowanie rozszerzeń SparkSessionExtensions z elementu ServiceLoader(SPARK-35380)
- Dodawanie funkcji zdania do funkcji. {scala,py}(SPARK-35418)
- Zastosuj spark.sql.hive.metastorePartitionPruning dla tabel innych niż Hive, które używają magazynu metadanych Hive do zarządzania partycjami (SPARK-36128)
- Propagacja przyczyny utraty exec do internetowego interfejsu użytkownika (SPARK-34764)
- Unikaj inlinowania niedeterministycznego with-CTEs (SPARK-36447)
- Obsługa analizowania wszystkich tabel w określonej bazie danych (SPARK-33687)
- Standaryzacja komunikatów wyjątków na platformie Spark (SPARK-33539)
- Obsługa (IGNORUJ | RESPECT) NULLS for LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE(SPARK-30789)
Inne istotne zmiany
- Monitor
- Nowe metryki do externalShuffleService(SPARK-35258)
- Dodawanie nowych interfejsów API REST i parametrów na poziomie etapu (SPARK-26399)
- Obsługa dystrybucji metryk zadań i funkcji wykonawczej dystrybucji metryk w interfejsie API REST (SPARK-34488)
- Dodawanie metryk rezerwowych dla agregacji skrótów (SPARK-35529)
- Dodaj count_distinct jako opcję Dataset#summary(SPARK-34165)
- Implementowanie elementu ScriptTransform w języku sql/core (SPARK-31936)
- Konfigurowanie limitu czasu pulsu sterownika BlockManagerMaster (SPARK-34278)
- Skonfiguruj nazwę usługi shuffle po stronie klienta i zezwól na zastąpienie konfiguracji opartej na klasie po stronie serwera (SPARK-34828)
- ExecutorMetricsPoller powinien zachować wpis etapu w stageTCMP do momentu wystąpienia pulsu (SPARK-34779)
- Zastąp wartość if klauzulą filter w poleceniu RewriteDistinctAggregates(SPARK-34882)
- Naprawianie błędu podczas stosowania elementu CostBasedJoinReorder na samosprzężeniu (SPARK-34354)
- FUNKCJA CREATE TABLE LIKE powinna uwzględniać właściwości tabeli zarezerwowanej (SPARK-34935)
- Dostarczanie pliku ivySettings do sterownika w trybie klastra YARN (SPARK-34472)
- Rozwiązywanie zduplikowanych typowych kolumn z funkcji USING/NATURAL JOIN(SPARK-34527)
- Ukryj właściwości widoku wewnętrznego dla opisu tabeli cmd(SPARK-35318)
- Obsługa rozwiązywania brakujących attrów dla wskazówek dotyczących dystrybucji/klastra według/ponownej części (SPARK-35331)
- Ignoruj błąd podczas sprawdzania ścieżki w pliku FileStreamSink.hasMetadata(SPARK-34526)
- Ulepszanie obsługi funkcji zatwierdzania magii s3a przez wnioskowanie brakujących konfiguracji (SPARK-35383)
- Zezwalaj na pominięcie : w ciągu typu STRUCT (SPARK-35706)
- Dodaj nowy operator, aby odróżnić, czy usługa AQE może bezpiecznie zoptymalizować (SPARK-35786)
- Dołączanie nowych zagnieżdżonych pól struktury zamiast sortowania dla unionByName z wypełnieniem o wartości null (SPARK-35290)
- Funkcja ArraysZip powinna zachować nazwy pól, aby uniknąć ponownego zapisywania przez analizator/optymalizator (SPARK-35876)
- Użyj wartości Void jako nazwy typu NullType(SPARK-36224)
- Wprowadzenie nowego interfejsu API do elementu FileCommitProtocol zezwala na elastyczne nazewnictwo plików (SPARK-33298)
Zmiany zachowania
Zapoznaj się z przewodnikami migracji dla każdego składnika: Spark Core.
Przesyłanie strumieniowe ze strukturą
Główne funkcje
- Sesjonizacja oparta na czasie zdarzenia (okno sesji)(SPARK-10816)
- Uaktualnianie klienta platformy Kafka do wersji 2.8.0 (SPARK-33913)
- Trigger.AvailableNow do uruchamiania zapytań przesyłania strumieniowego, takich jak Trigger.Once w wielu partiach w języku Scala(SPARK-36533)
Inne istotne zmiany
- Wprowadzenie nowej opcji w źródle platformy Kafka w celu określenia minimalnej liczby rekordów do odczytu na wyzwalacz (SPARK-35312)
- Dodawanie najnowszych przesunięć do postępu źródła (SPARK-33955)
PySpark
Projekt Zen
- Interfejs API biblioteki Pandas na platformie Spark (SPARK-34849)
- Włączanie biblioteki mypy dla biblioteki pandas-on-Spark(SPARK-34941)
- Implementowanie obsługi typów kategorii (SPARK-35997, SPARK-36185)
- Wykonaj podstawowe operacje serii i indeksów (SPARK-36103, SPARK-36104, SPARK-36192)
- Dopasowywanie zachowań do biblioteki pandas 1.3 (SPARK-36367)
- Dopasuj zachowania w serii z wartością NaN do biblioteki pandas"(SPARK-36031, SPARK-36310)
- Implementowanie operatora jednoargumentowego "odwróć" serii całkowitej i indeksu (SPARK-36003)
- Implementowanie elementu CategoricalIndex.map i DatetimeIndex.map(SPARK-36470)
- Implementowanie indeksu Index.map(SPARK-36469)
- obsługa funkcji faulthanlder dla procesu roboczego języka Python uległa awarii (SPARK-36062)
- Używanie reguły nazewnictwa węża w interfejsach API funkcji (SPARK-34306)
- Włącz domyślnie spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled(SPARK-35419)
- Obsługa wnioskowania zagnieżdżonego dict jako struktury podczas tworzenia ramki danych (SPARK-35929)
Inne istotne zmiany
- Włącz domyślnie przypięty tryb wątku (SPARK-35303)
- Dodano obsługę parametru NullType dla wykonań strzałek (SPARK-33489)
- Dodawanie obsługi self_destruct strzałki do funkcji ToPandas (SPARK-32953)
- Dodawanie interfejsu API otoki docelowej wątku dla trybu wątku pin pyspark (SPARK-35498)
Zmiany zachowania
Zobacz przewodniki dotyczące migracji.
MLlib
usprawnienia dotyczące wydajności
- Optymalizacja transformacji BucketedRandomProjectionLSH (SPARK-34220)
- optymalizacja w2v findSynonyms (SPARK-34189)
- optymalizowanie rozrzedzielonego rozwiązania GEMM przez pominięcie sprawdzania granic (SPARK-35707)
- Zwiększanie wydajności rekomendacji ML ALSForAll by GEMV(SPARK-33518)
Ulepszenia trenowania modelu
- Refaktoryzacja agregatora logistycznego — obsługa wirtualnego centrum (SPARK-34797)
- Regresja logistyczna binarna z wyśrodkowaniem przechwytywania (SPARK-34858, SPARK-34448)
- Regresja logistyczna wielomianowa z wyśrodkowaniem obsługi przechwytywania (SPARK-34860)
Ulepszenia platformy BLAS
- Zastąp w pełni com.github.fommil.netlib przez dev.ludovic.netlib:2.0(SPARK-35295)
- Dodawanie wektoryzowanej implementacji BLAS (SPARK-33882)
- Przyspieszanie rezerwowego tworzenia oprogramowania BLAS za pomocą biblioteki dev.ludovic.netlib(SPARK-35150)
Inne istotne zmiany
- Przekształcanie OVR naprawia potencjalne konflikty kolumn (SPARK-34356)
Wycofywanie i usuwanie
- Przestarzałe spark.launcher.childConnectionTimeout(SPARK-33717)
- przestarzałe GRUPUJ WEDŁUG... GRUPOWANIE ZESTAWÓW (...) i podwyższanie POZIOMU GRUPOWANIA WEDŁUG ZESTAWÓW GRUPOWANIA (...)(SPARK-34932)
- Przestarzałe interfejs API ps.broadcast(SPARK-35810)
- Wycofaj
num_files
argument (SPARK-35807) - Przestarzałe DataFrame.to_spark_io(SPARK-35811)
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 10.0.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (rolling ISO) | appdirs | 1.4.4 | backcall | 0.2.0 |
boto3 | 1.16.7 | botocore | 1.19.7 | certifi | 2020.12.5 |
chardet | 4.0.0 | rowerzysta | 0.10.0 | Cython | 0.29.23 |
dbus-python | 1.2.16 | dekorator | 5.0.6 | distlib | 0.3.3 |
dystrybucja informacji | 0.23ubuntu1 | aspekty — omówienie | 1.0.0 | filelock | 3.0.12 |
idna | 2.10 | ipykernel | 5.3.4 | ipython | 7.22.0 |
ipython-genutils | 0.2.0 | jedi | 0.17.2 | jmespath | 0.10.0 |
joblib | 1.0.1 | jupyter-client | 6.1.12 | jupyter-core | 4.7.1 |
kiwisolver | 1.3.1 | Koale | 1.8.1 | matplotlib | 3.4.2 |
numpy | 1.19.2 | Pandas | 1.2.4 | parso | 0.7.0 |
Patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Poduszka | 8.2.0 | 21.0.1 | kreślenie | 5.1.0 | |
prompt-toolkit | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
ptyprocess | 0.7.0 | pyarrow | 4.0.0 | Pygments | 2.8.1 |
PyGObject | 3.36.0 | pyparsing | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.6 |
python-dateutil | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
żądania | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | seaborn | 0.11.1 |
setuptools | 52.0.0 | Sześć | 1.15.0 | ssh-import-id | 5.10 |
statsmodels | 0.12.2 | Wytrzymałość | 8.0.1 | threadpoolctl | 2.1.0 |
tornado | 6.1 | traitlety | 5.0.5 | nienadzorowane uaktualnienia | 0.1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
koło | 0.36.2 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2021-09-21.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports (backports) | 1.2.1 |
base | 4.1.1 | base64enc | 0.1-3 | bitowe | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.2 | rozruch | 1.3-28 |
warzyć | 1.0-6 | Brio | 1.1.2 | miotła | 0.7.9 |
bslib | 0.3.0 | cachem | 1.0.6 | obiekt wywołujący | 3.7.0 |
caret | 6.0-88 | cellranger | 1.1.0 | chron | 2.3-56 |
class | 7.3-19 | cli | 3.0.1 | clipr | 0.7.1 |
cluster | 2.1.2 | codetools | 0.2-18 | przestrzeń kolorów | 2.0-2 |
commonmark | 1,7 | — kompilator | 4.1.1 | config | 0.3.1 |
cpp11 | 0.3.1 | kredka | 1.4.1 | poświadczenia | 1.3.1 |
lok | 4.3.2 | data.table | 1.14.0 | usługi Power BI | 4.1.1 |
DBI | 1.1.1 | dbplyr | 2.1.1 | Desc | 1.3.0 |
devtools | 2.4.2 | diffobj | 0.3.4 | trawić | 0.6.27 |
dplyr | 1.0.7 | dtplyr | 1.1.0 | wielokropek | 0.3.2 |
evaluate | 0,14 | fani | 0.5.0 | farver | 2.1.0 |
szybka mapa | 1.1.0 | forcats | 0.5.1 | foreach | 1.5.1 |
zagraniczny | 0.8-81 | kuźnia | 0.2.0 | Fs | 1.5.0 |
przyszłość | 1.22.1 | future.apply | 1.8.1 | płukać gardło | 1.2.0 |
Generyczne | 0.1.0 | Gert | 1.4.1 | ggplot2 | 3.3.5 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-2 |
globalna | 0.14.0 | klej | 1.4.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.0 | Gower | 0.2.2 | grafika | 4.1.1 |
grDevices | 4.1.1 | siatka | 4.1.1 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | przystań | 2.4.3 |
wysoki | 0,9 | Hms | 1.1.0 | htmltools | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.3 | httr | 1.4.2 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | Identyfikatory | 1.0.1 |
ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
Iteratory | 1.0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
KernSmooth | 2.23-20 | knitr | 1.34 | Etykietowania | 0.4.2 |
później | 1.3.0 | krata | 0.20-44 | lawa | 1.6.10 |
cykl życia | 1.0.0 | nasłuchiwanie | 0.8.0 | lubridate | 1.7.10 |
magrittr | 2.0.1 | Markdown | 1.1 | MASA | 7.3-54 |
Macierz | 1.3-4 | zapamiętywanie | 2.0.0 | metody | 4.1.1 |
mgcv | 1.8-37 | mim | 0,11 | Metryki modelu | 1.2.2.2 |
modeler | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-152 |
nnet | 7.3-16 | numDeriv | 2016.8-1.1 | openssl | 1.4.5 |
parallel | 4.1.1 | równolegle | 1.28.1 | filar | 1.6.2 |
pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | pkgload | 1.2.2 |
plogr | 0.2.0 | plyr | 1.8.6 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.5.2 |
prodlim | 2019.11.13 | Postęp | 1.2.2 | progressr | 0.8.0 |
Obietnice | 1.2.0.1 | Proto | 1.0.0 | PS | 1.6.0 |
purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
randomForest | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.3.3 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.1 |
readxl | 1.3.1 | przepisy | 0.1.16 | rewanż | 1.0.1 |
rewanż2 | 2.1.2 | Piloty | 2.4.0 | reprex | 2.0.1 |
zmień kształt2 | 1.4.4 | rlang | 0.4.11 | rmarkdown | 2,11 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
rstudioapi | 0,13 | rversions (rversions) | 2.1.1 | rvest | 1.0.1 |
Sass | 0.4.0 | waga | 1.1.1 | selektor | 0.4-2 |
sessioninfo | 1.1.1 | kształt | 1.4.6 | błyszczący | 1.6.0 |
sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
przestrzenny | 7.3-11 | Splajnów | 4.1.1 | sqldf | 0.4-11 |
KWADRAT | 2021.1 | Statystyki | 4.1.1 | stats4 | 4.1.1 |
stringi | 1.7.4 | stringr | 1.4.0 | przetrwanie | 3.2-13 |
sys | 3.4 | tcltk | 4.1.1 | NauczanieDemos | 2.10 |
testthat | 3.0.4 | tibble | 3.1.4 | tidyr | 1.1.3 |
tidyselect | 1.1.1 | tidyverse | 1.3.1 | timeDate | 3043.102 |
tinytex | 0.33 | tools | 4.1.1 | tzdb | 0.1.2 |
usethis | 2.0.1 | utf8 | 1.2.2 | narzędzia | 4.1.1 |
uuid | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
Vroom | 1.5.5 | Waldo | 0.3.1 | wąs | 0,4 |
withr | 2.4.2 | xfun | 0,26 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
zamek | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-klej | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.12.2 |
com.fasterxml.jackson.core | jackson-core | 2.12.2 |
com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
com.github.ben-manes.kofeina | kofeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 3.1.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 1.3.2 |
dev.ludovic.netlib | Blas | 1.3.2 |
dev.ludovic.netlib | lapack | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.19 |
io.delta | delta-sharing-spark_2.12 | 0.1.0 |
io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.63.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
drzewa maven | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolit | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 2.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 2.0.0 |
org.apache.arrow | arrow-memory-netty | 2.0.0 |
org.apache.arrow | wektor strzałki | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1,20 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | bluszcz | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | podkładki orc-shim | 1.6.10 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | kodowanie parquet | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.20 |
org.apache.yetus | adnotacje odbiorców | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | jute dozorców | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-security | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-server | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-webapp | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-api | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-client | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-server | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | Podkładki | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | trzydostępne dodatkowe | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |