Databricks Runtime 15.4 LTS
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 15.4 LTS obsługiwanym przez platformę Apache Spark 3.5.0.
Usługa Databricks wydała tę wersję w sierpniu 2024 r.
Uwaga
LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.
Napiwek
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.
Zmiany zachowań
VARIANT
Użycie jako typu danych wejściowych lub wyjściowych z funkcją UDF języka Python, UDAF lub UDTF zgłasza wyjątek- Zmiana domyślnego trybu powiązania schematu dla widoków
- Nie zezwalaj na używanie składni nieudokumentowanej
!
zamiastNOT
poza wyrażeniami logicznymi - Nie zezwalaj na nieudokumentowaną składnię definicji kolumny w widokach
- Spójna obsługa błędów dla dekodowania Base64 na platformie Spark i aplikacji Photon
CHECK
Dodanie ograniczenia dla nieprawidłowej kolumny zwraca teraz UNRESOLVED_COLUMN. WITH_SUGGESTION, klasa błędów
VARIANT
Użycie jako typu danych wejściowych lub wyjściowych z funkcją UDF języka Python, UDAF lub UDTF zgłasza wyjątek
[Zmiana powodująca niezgodność] W środowisku Databricks Runtime 15.3 lub nowszym wywoływanie dowolnej funkcji zdefiniowanej przez użytkownika języka Python (UDF), funkcji agregującej zdefiniowanej przez użytkownika (UDAF) lub funkcji tabeli zdefiniowanej przez użytkownika (UDTF), która używa VARIANT
typu jako argumentu lub wartości zwracanej zgłasza wyjątek. Ta zmiana jest wprowadzana w celu zapobiegania problemom, które mogą wystąpić z powodu nieprawidłowej wartości zwróconej przez jedną z tych funkcji. Aby dowiedzieć się więcej o typie VARIANT
, zobacz Przechowywanie danych częściowo ustrukturyzowanych przy użyciu VARIANTów.
Zmiana domyślnego trybu powiązania schematu dla widoków
Widoki są teraz dostosowywane do zmian schematu w zapytaniu źródłowym przy użyciu kompensacji schematu z regularnymi regułami rzutowania. Jest to zmiana z poprzedniego domyślnego BINDING
trybu, który zgłaszał błędy, gdy nie można wykonać bezpiecznego rzutowania podczas odwoływania się do widoku.
Zobacz CREATE VIEW and cast function (FUNKCJA CREATE VIEW i cast).
Nie zezwalaj na używanie składni nieudokumentowanej !
zamiast NOT
poza wyrażeniami logicznymi
W tej wersji użycie !
jako synonimu poza NOT
wyrażeniami logicznymi nie jest już dozwolone. Na przykład instrukcje, takie jak: CREATE ... IF ! EXISTS
, IS ! NULL, kolumna ! NULL
lub właściwość ! IN
pola i ! MIĘDZY elementami należy zastąpić wartościami: CREATE ... IF NOT EXISTS
, , IS NOT NULL
, kolumną lub właściwością NOT NULL
NOT IN
pola i NOT BETWEEN
.
Ta zmiana zapewnia spójność, jest zgodna ze standardem SQL i sprawia, że twój program SQL jest bardziej przenośny.
Operator prefiksu !
logicznego (na przykład !is_mgr
lub !(true AND false)
) nie ma wpływu na tę zmianę.
Nie zezwalaj na nieudokumentowaną składnię definicji kolumny w widokach
Usługa Databricks obsługuje funkcję CREATE VIEW z nazwanymi kolumnami i komentarzami kolumn. Wcześniej specyfikacja typów kolumn, NOT NULL
ograniczeń lub DEFAULT
została dozwolona. W tej wersji nie można już używać tej składni.
Ta zmiana zapewnia spójność, jest zgodna ze standardem SQL i obsługuje przyszłe ulepszenia.
Spójna obsługa błędów dla dekodowania Base64 na platformie Spark i aplikacji Photon
Ta wersja zmienia sposób obsługi błędów dekodowania Base64 przez program Photon w celu dopasowania ich do obsługi tych błędów przez platformę Spark. Przed wprowadzeniem tych zmian ścieżka generowania kodu Photon i Spark czasami nie może wywołać wyjątków analizy, podczas gdy poprawnie podniesione IllegalArgumentException
wykonanie zinterpretowane przez platformę Spark lub ConversionInvalidInputError
. Ta aktualizacja gwarantuje, że aplikacja Photon stale zgłasza te same wyjątki co platforma Spark podczas dekodowania Base64, zapewniając bardziej przewidywalną i niezawodną obsługę błędów.
CHECK
Dodanie ograniczenia dla nieprawidłowej kolumny zwraca teraz UNRESOLVED_COLUMN. WITH_SUGGESTION, klasa błędów
Aby zapewnić bardziej przydatne komunikaty o błędach, w środowisku Databricks Runtime 15.3 lub nowszym ALTER TABLE ADD CONSTRAINT
instrukcja zawierająca CHECK
ograniczenie odwołujące się do nieprawidłowej nazwy kolumny zwraca UNRESOLVED_COLUMN. WITH_SUGGESTION klasa błędów. INTERNAL_ERROR
Wcześniej element został zwrócony.
Nowe funkcje i ulepszenia
- Funkcje weryfikacji UTF-8
- funkcje to_avro i from_avro
- Typizowane interfejsy API zestawów danych z funkcjami UDF języka Scala
- Włączanie góry lodowej UniForm przy użyciu funkcji ALTER TABLE
- try_url_decode, funkcja
- Opcjonalnie zezwól optymalizatorowi na korzystanie z niewymuszonych ograniczeń klucza obcego
- Równoległe uruchomienia zadań dla selektywnych zastępowań
- Zwiększona wydajność zestawienia danych zmian dzięki selektywnym zastępowaniom
- Ulepszone opóźnienie zapytania dla
COPY INTO
polecenia - Obsługa usuwania funkcji tabeli ograniczeń sprawdzania
- Obliczenia pojedynczego użytkownika obsługują szczegółową kontrolę dostępu, zmaterializowane widoki i tabele przesyłania strumieniowego (publiczna wersja zapoznawcza)
- Rozszerzona obsługa bibliotek Java i Scala
- Rozszerzona obsługa operacji scala dataset
- Język Scala jest ogólnie dostępny w przypadku współużytkowanych zasobów obliczeniowych w wykazie aparatu Unity
- Dostęp do usług w chmurze zewnętrznych podlegających wykazowi aparatu Unity przy użyciu poświadczeń usługi (publiczna wersja zapoznawcza)
Funkcje weryfikacji UTF-8
W tej wersji wprowadzono następujące funkcje do sprawdzania poprawności ciągów UTF-8:
- is_valid_utf8 sprawdzić, czy ciąg jest prawidłowym ciągiem UTF-8.
- make_valid_utf8 konwertuje potencjalnie nieprawidłowy ciąg UTF-8 na prawidłowy ciąg UTF-8 przy użyciu znaków podstawienia
- validate_utf8 zgłasza błąd, jeśli dane wejściowe nie są prawidłowym ciągiem UTF-8.
- try_validate_utf8 zwraca
NULL
wartość , jeśli dane wejściowe nie są prawidłowym ciągiem UTF-8.
funkcje to_avro i from_avro
Funkcje to_avro i from_avro umożliwiają konwersję typów SQL na dane binarne Avro i z powrotem.
Typizowane interfejsy API zestawów danych z funkcjami UDF języka Scala
W tej wersji dodano obsługę typowych interfejsów API zestawów danych z funkcjami zdefiniowanymi przez użytkownika (z wyłączeniem funkcji agregujących zdefiniowanych przez użytkownika) w obliczeniach z obsługą wykazu aparatu Unity z trybem dostępu współdzielonego. Zobacz Typizowane interfejsy API zestawów danych.
Włączanie góry lodowej UniForm przy użyciu funkcji ALTER TABLE
Teraz możesz włączyć górę lodowa UniForm w istniejących tabelach bez ponownego zapisywania plików danych. Zobacz Włączanie przez zmianę istniejącej tabeli.
try_url_decode, funkcja
W tej wersji wprowadzono funkcję try_url_decode , która dekoduje ciąg zakodowany w adresie URL. Jeśli ciąg nie ma poprawnego formatu, funkcja zwraca NULL
zamiast zgłaszać błąd.
Opcjonalnie zezwól optymalizatorowi na korzystanie z niewymuszonych ograniczeń klucza obcego
Aby zwiększyć wydajność zapytań, możesz teraz określić RELY
słowo kluczowe dotyczące FOREIGN KEY
ograniczeń podczas tworzenia lub zmieniania tabeli.
Równoległe uruchomienia zadań dla selektywnych zastępowań
Selektywne zastępowanie przy użyciu teraz replaceWhere
uruchamia zadania, które usuwają dane i wstawiają nowe dane równolegle, zwiększając wydajność zapytań i wykorzystanie klastra.
Zwiększona wydajność zestawienia danych zmian dzięki selektywnym zastępowaniom
Selektywne zastępowanie przy użyciu replaceWhere
tabel ze źródłem danych zmian nie zapisuje już oddzielnych plików danych zmian dla wstawionych danych. Te operacje używają ukrytej _change_type
kolumny obecnej w źródłowych plikach danych Parquet do rejestrowania zmian bez wzmacniania zapisu.
Ulepszone opóźnienie zapytania dla COPY INTO
polecenia
Ta wersja zawiera zmianę, która poprawia opóźnienie zapytania dla COPY INTO
polecenia. To ulepszenie jest implementowane przez asynchroniczne ładowanie stanu przez magazyn stanów Bazy danych RocksDB. Dzięki tej zmianie powinna zostać wyświetlona poprawa czasu rozpoczęcia zapytań z dużymi stanami, takimi jak zapytania z dużą liczbą już pozyskanych plików.
Obsługa usuwania funkcji tabeli ograniczeń sprawdzania
Teraz możesz usunąć checkConstraints
funkcję tabeli z tabeli delty przy użyciu polecenia ALTER TABLE table_name DROP FEATURE checkConstraints
. Zobacz Wyłączanie ograniczeń sprawdzania.
Obliczenia pojedynczego użytkownika obsługują szczegółową kontrolę dostępu, zmaterializowane widoki i tabele przesyłania strumieniowego (publiczna wersja zapoznawcza)
Gdy obszar roboczy jest włączony na potrzeby przetwarzania bezserwerowego, środowisko Databricks Runtime 15.4 LTS dodaje obsługę szczegółowej kontroli dostępu w obliczeniach pojedynczego użytkownika. Gdy zapytanie uzyskuje dostęp do dowolnego z następujących obiektów, zasób obliczeniowy pojedynczego użytkownika w środowisku Databricks Runtime 15.4 LTS przekazuje zapytanie do bezserwerowego środowiska obliczeniowego w celu uruchomienia filtrowania danych:
- Widoki zdefiniowane w tabelach, na których użytkownik nie ma
SELECT
uprawnień. - Widoki dynamiczne.
- Tabele z zastosowanymi filtrami wierszy lub maskami kolumn.
- Zmaterializowane widoki i tabele przesyłania strumieniowego.
Te zapytania nie są obsługiwane w przypadku obliczeń pojedynczego użytkownika z uruchomionym środowiskiem Databricks Runtime 15.3 lub nowszym.
Aby uzyskać więcej informacji, zobacz Szczegółowe informacje dotyczące kontroli dostępu w obliczeniach pojedynczego użytkownika.
Rozszerzona obsługa bibliotek Java i Scala
Począwszy od środowiska Databricks Runtime 15.4 LTS, wszystkie biblioteki Java i Scala połączone ze środowiskiem Databricks Runtime są dostępne we wszystkich trybach dostępu obliczeniowego podczas korzystania z wykazu aparatu Unity. Aby dowiedzieć się więcej na temat obsługi języka w obliczeniach z obsługą wykazu aparatu Unity, zobacz Ograniczenia trybu dostępu obliczeniowego dla wykazu aparatu Unity.
Rozszerzona obsługa operacji scala dataset
W tej wersji zasoby obliczeniowe z obsługą wykazu aparatu Unity korzystające z trybu dostępu współdzielonego obsługują następujące operacje scalaDataset
: map
, , mapPartitions
foreachPartition
, flatMap
reduce
i filter
.
Język Scala jest ogólnie dostępny w przypadku współużytkowanych zasobów obliczeniowych w wykazie aparatu Unity
W tej wersji język Scala jest ogólnie dostępny w trybie dostępu współdzielonego z obsługą zasobów obliczeniowych aparatu Unity, w tym obsługę funkcji zdefiniowanych przez użytkownika (UDF, scalar user-defined functions). Funkcje agregacji ze strukturą, funkcje zdefiniowane przez użytkownika programu Hive, funkcje zdefiniowane przez użytkownika hive nie są obsługiwane. Aby uzyskać pełną listę ograniczeń, zobacz Ograniczenia trybu dostępu obliczeniowego dla wykazu aparatu Unity.
Dostęp do usług w chmurze zewnętrznych podlegających wykazowi aparatu Unity przy użyciu poświadczeń usługi (publiczna wersja zapoznawcza)
Poświadczenia usługi umożliwiają proste i bezpieczne uwierzytelnianie za pomocą usług dzierżawy w chmurze przy użyciu tożsamości zarządzanych platformy Azure (MI) i wykazu aparatu Unity. Zobacz Zarządzanie dostępem do zewnętrznych usług w chmurze przy użyciu poświadczeń usługi.
Poprawki błędów
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- azure-core z wersji 1.30.1 do 1.30.2
- google-auth z wersji 2.29.0 do 2.31.0
- google-cloud-storage z wersji 2.16.0 do 2.17.0
- google-resumable-media z 2.7.0 do 2.7.1
- googleapis-common-protos z 1.63.0 do 1.63.2
- mlflow-skinny z 2.11.3 do 2.11.4
- proto-plus z 1.23.0 do 1.24.0
- s3transfer z 0.10.1 do 0.10.2
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- com.databricks.databricks-sdk-java z wersji 0.17.1 do 0.27.0
- com.ibm.icu.icu4j z 72.1 do 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider z wersji 1.6.1-linux-x86_64 do wersji 1.6.2-linux-x86_64
Apache Spark
Środowisko Databricks Runtime 15.4 LTS obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 15.3 oraz następujące dodatkowe poprawki i ulepszenia platformy Spark:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Zezwalaj na grupowanie w wyrażeniach w podzapytaniach skalarnych, jeśli są one powiązane z wierszami zewnętrznymi
- [SPARK-48834] [ZACHOWANIE-79][SC-170972][SQL] Wyłączanie danych wejściowych/wyjściowych wariantu do scalarnych funkcji zdefiniowanych przez użytkownika języka Python, funkcji ZDEFINIOWANYch przez użytkownika, funkcji UDAFs podczas kompilacji zapytań
- [SPARK-48441] [SC-170980][SQL][WARMFIX] Naprawianie zachowania StringTrim w przypadku sortowania innych niż UTF8_BINARY
- [SPARK-48440] [SC-170895][SQL][WARMFIX] Naprawianie zachowania stringTranslate w przypadku sortowania innych niż UTF8_BINARY
- [SPARK-48872] [SC-170866][PYTHON] Zmniejszanie obciążenia związanego z _capture_call_site
- [SPARK-48862] [SC-170845][PYTHON][CONNECT] Unikaj wywoływania
_proto_to_string
, gdy poziom INFO nie jest włączony - [SPARK-48852] [SC-170837][CONNECT] Naprawianie funkcji przycinania ciągu w połączeniu
- [SPARK-48791] [SC-170658][CORE] Napraw regresję wydajności spowodowaną przez obciążenie rejestracji akumulatorów przy użyciu metody CopyOnWriteArrayList
- [SPARK-48118] [SQL] Obsługa
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
zmiennej env - [SPARK-48241] [SC-165811][SQL] Niepowodzenie analizowania woluminów CSV z kolumnami typu char/varchar
- [SPARK-48168] [SC-166900][SQL] Dodano obsługę operatorów przesunięcia bitowego
- [SPARK-48148] [SC-165630][CORE] Obiekty JSON nie powinny być modyfikowane podczas odczytywania jako CIĄGU
- [SPARK-46625] [SC-170561] CTE z klauzulą Identyfikator jako odwołanie
- [SPARK-48771] [SC-170546][SQL] Przyspieszanie
LogicalPlanIntegrity.validateExprIdUniqueness
obsługi dużych planów zapytań - [SPARK-48831] [ZACHOWANIE-76][SC-170554][CONNECT] Ustaw domyślną nazwę kolumny zgodną
cast
z klasyczną platformą Spark - [SPARK-48623] [SC-170544][CORE] Migracje rejestrowania strukturalnego [część 2]
- [SPARK-48296] [SC-166138][SQL] Obsługa programu Codegen dla programu
to_xml
- [SPARK-48027] [SC-165154][SQL] WstrzykiwanieRuntimeFilter dla sprzężenia wieloeziomowego powinno sprawdzać typ sprzężenia podrzędnego
- [SPARK-48686] [SC-170365][SQL] Zwiększanie wydajności narzędzia ParserUtils.unescapeSQLString
- [SPARK-48798] [SC-170588][PYTHON] Wprowadzenie
spark.profile.render
do profilowania opartego na platformie SparkSession - [SPARK-48048] [SC-169099] Przywróć "[SC-164846][CONNECT][SS] Dodano obsługę odbiornika po stronie klienta dla języka Scala"
- [SPARK-47910] [SC-168929][CORE] zamknij strumień, gdy diskBlockObjectWriter zamknijResources, aby uniknąć przecieku pamięci
- [SPARK-48816] [SC-170547][SQL] Skrót dla konwerterów interwałów w UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Dodawanie opcji snapshotStartBatchId i snapshotPartitionId do źródła danych stanu
- [SPARK-48280] [SC-170293][SQL] Ulepszanie obszaru powierzchni testowania sortowania przy użyciu chodzenia wyrażeń
- [SPARK-48837] [SC-170540][ML] W liczbieVectorizer odczytaj tylko parametr binarny raz na przekształcenie, a nie raz w wierszu
- [SPARK-48803] [SC-170541][SQL] Zgłaszanie błędu wewnętrznego w serializatorze Orc(De)w celu dopasowania do parquetWriteSupport
- [SPARK-48764] [SC-170129][PYTHON] Filtrowanie ramek powiązanych ze środowiskami IPython z stosu użytkownika
- [SPARK-48818] [SC-170414][PYTHON] Upraszczanie
percentile
funkcji - [SPARK-48479] [SC-169079][SQL] Obsługa tworzenia skalarnych i tabel zdefiniowanych przez użytkownika SQL w analizatorze
- [SPARK-48697] [SC-170122][LC-4703][SQL] Dodawanie filtrów ciągów obsługujących sortowanie
- [SPARK-48800] [SC-170409][CONNECT][SS] Deflake ClientStreamingQuerySuite
- [SPARK-48738] [SC-169814][SQL] Poprawna od wersji wbudowanego aliasu
random
func , ,mod
current_schema
cardinality
user
position
, ,session_user
char_length
character_length
- [SPARK-48638] [SC-169575][CONNECT] Dodawanie obsługi elementu ExecutionInfo dla ramki danych
- [SPARK-48064] [SC-164697][SQL] Aktualizowanie komunikatów o błędach dla rutynowych powiązanych klas błędów
- [SPARK-48810] [CONNECT] Interfejs API stop() sesji powinien być idempotentny i nie zakończyć się niepowodzeniem, jeśli sesja została już zamknięta przez serwer
- [SPARK-48650] [15.x][PYTHON] Wyświetlanie poprawnej witryny wywołania z poziomu notesu IPython
- [SPARK-48271] [SC-166076][SQL] Włączanie błędu dopasowania w elemencoderze RowEncoder w UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Naprawiono niezgodność rozpoznawania typów varchar dla usługi DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Naprawiono regresję operacji INSERT z listą kolumn częściowych do tabeli z znakiem/varcharem
- [SPARK-48767] [SC-170330][SQL] Naprawianie niektórych monitów o błędy, gdy
variant
typ danych jest nieprawidłowy - [SPARK-48719] [SC-170339][SQL] Naprawiono usterkę obliczania parametru
RegrSlope
iRegrIntercept
, gdy pierwszy parametr ma wartość null - [SPARK-48815] [SC-170334][CONNECT] Aktualizowanie środowiska podczas zatrzymywania sesji nawiązywania połączenia
- [SPARK-48646] [SC-169020][PYTHON] Uściślij wskazówki dotyczące tworzenia i pisania wskazówek dotyczących interfejsu API źródła danych języka Python
- [SPARK-48806] [SC-170310][SQL] Przekazywanie rzeczywistego wyjątku w przypadku niepowodzenia url_decode
- [SPARK-47777] [SC-168818] Poprawka testu połączenia ze źródłem danych przesyłania strumieniowego języka Python
- [SPARK-48732] [SC-169793][SQL] Czyszczenie przestarzałego użycia interfejsu API związane z
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Naprawianie tabeli pamięci podręcznej za pomocą kolumny sortowania
- [SPARK-48623] [SC-169034][CORE] Migracje rejestrowania strukturalnego
- [SPARK-48655] [SC-169542][SQL] SPJ: Dodawanie testów na potrzeby pomijania mieszania dla zagregowanych zapytań
- [SPARK-48586] [SC-169808][SS] Usuń przejęcie blokady w narzędziu doMaintenance(), tworząc głęboką kopię mapowań plików w narzędziu RocksDBFileManager w elemecie load()
- [SPARK-48799] [Backport][15.x][SC-170283][SS] Refaktoryzacja przechowywania wersji dla metadanych operatora odczytu/zapisu i wywołujących
- [SPARK-48808] [SC-170309][SQL] Naprawiono serwer NPE podczas nawiązywania połączenia z serwerem thriftserver za pośrednictwem programu Hive 1.2.1, a schemat wyników jest pusty
- [SPARK-48715] [SC-170291][SQL] Integrowanie weryfikacji utF8String z implementacjami funkcji ciągów obsługujących sortowanie
- [SPARK-48747] [SC-170120][SQL] Dodawanie iteratora wskaźnika kodu do elementu UTF8String
- [SPARK-48748] [SC-170115][SQL] Buforowanie argumentów numChars w formacie UTF8String
- [SPARK-48744] [SC-169817][Core] Wpis dziennika powinien być skonstruowany tylko raz
- [SPARK-46122] [SC-164313][SQL] Domyślnie ustaw
spark.sql.legacy.createHiveTableByDefault
wartość nafalse
- [SPARK-48765] [SC-170119][DEPLOY] Ulepszanie oceny wartości domyślnej dla SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Dodawanie dokumentu migracji dla funkcji CREATE TABLE AS SELECT zmienia zachowanie zmiany zachowania od platformy Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][CONNECT] Propagacja buforowanego schematu w operacjach ramek danych
- [SPARK-48766] [SC-170126][PYTHON] Dokumentowanie różnicy między zachowaniem
extraction
międzyelement_at
itry_element_at
- [SPARK-48768] [SC-170124][PYTHON][CONNECT] Nie należy buforować
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Zmień na metadane operatora odczytu raz w sterowniku, aby sprawdzić, czy możemy znaleźć informacje dla parametru numColsPrefixKey używanego dla zapytań agg okna sesji
- [SPARK-48656] [SC-169529][CORE] Sprawdź długość i wyrzuć błąd COLLECTION_SIZE_LIMIT_EXCEEDED
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817][SQL] Wprowadzenie znacznika dla właściwości isStreaming w tekście reprezentacji planu logicznego
- [SPARK-48472] [SC-169044][SQL] Włączanie wyrażeń odzwierciedlanych za pomocą ciągów sortowania
- [SPARK-48699] [SC-169597][SQL] Uściślij interfejs API sortowania
- [SPARK-48682] [SC-169812][SQL][ZACHOWANIE-58] Używanie funkcji ICU w wyrażeniu InitCap dla ciągów UTF8_BINARY
- [SPARK-48282] [SC-169813][SQL] Alter string search logic for UTF8_BINARY_LCASE collation (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][SQL] Włączanie obsługi sortowania dla wyrażenia Mode
- [SPARK-48320] [SPARK-48490] Synchronizowanie najnowszych cech rejestrowania i przypadków testowych z platformy Spark systemu operacyjnego
- [SPARK-48629] [SC-169479] Migrowanie kodu resztowego do struktury rejestrowania strukturalnego
- [SPARK-48681] [SC-169469][SQL][ZACHOWANIE-58] Używanie funkcji ICU w wyrażeniach niższych/górnych dla ciągów UTF8_BINARY
- [SPARK-48573] [15.x][SC-169582][SQL] Uaktualnianie wersji ICU
- [SPARK-48687] [Backport][15.x][SS] Dodawanie zmiany w celu przeprowadzenia weryfikacji schematu stanu i aktualizacji sterownika dla zapytań stanowych
- [SPARK-47579] [15.x][SC-167310][CORE][CZĘŚĆ4] Migrowanie logInfo ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48008] [SC-167363][1/2] Obsługa plików UDAFs w programie Spark Connect
- [SPARK-48578] [SC-169505][SQL] dodawanie funkcji związanych z walidacją ciągów UTF8
- [SPARK-48670] [SC-169598][SQL] Podanie sugestii w ramach komunikatu o błędzie w przypadku podania nieprawidłowej nazwy sortowania
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA... … RK-48291] Struktura dzienników strukturalnych po stronie języka Java
- [SPARK-47599] [15.x][SC-166000][MLLIB] MLLib: migrowanie logWarn ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48706] [SC-169589][PYTHON] Funkcja UDF języka Python w funkcjach o wyższej kolejności nie powinna zgłaszać błędu wewnętrznego
- [SPARK-48498] [ZACHOWANIE-38][SC-168060][SQL] Zawsze dopełnianie znaków w predykatach
- [SPARK-48662] [SC-169533][SQL] Naprawianie wyrażenia StructsToXml za pomocą sortowania
- [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates i dropDuplicatesWIthinWatermark powinny akceptować wartości args o zmiennej długości
- [SPARK-48678] [SC-169463][CORE] Optymalizacje wydajności dla platformy SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Zmień nazwę UTF8_BINARY_LCASE na UTF8_LCASE
- [SPARK-47927] [SC-164123][SQL]: Naprawianie atrybutu nullability w dekoderze UDF
- [SPARK-47579] [SC-165297][CORE][CZĘŚĆ1] Migrowanie informacji logInfo ze zmiennymi do struktury rejestrowania strukturalnego (nowe)
- [SPARK-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
nie należy używać przestarzałych metod - [SPARK-48431] [SC-167290][LC-4066][SQL] Nie przekazuj predykatów w kolumnach posadzonej do czytników plików
- [SPARK-47579] Przywróć "[SC-165297][CORE][PART1] Migrowanie informacji logInfo ze zmiennymi do struktury rejestrowania strukturalnego"
- [SPARK-47585] [SC-164306][SQL] Podstawowe informacje SQL: migrowanie informacji logInfo ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48466] [SC-169042][SQL] Tworzenie dedykowanego węzła dla elementu EmptyRelation w usłudze AQE
- [SPARK-47579] [SC-165297][CORE][CZĘŚĆ1] Migrowanie logInfo ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48410] [SC-168320][SQL] Poprawka wyrażenia InitCap dla sortowania UTF8_BINARY_LCASE i ICU
- [SPARK-48318] [SC-167709][SQL] Włączanie obsługi sprzężenia skrótów dla wszystkich sortowania (typów złożonych)
- [SPARK-48435] [SC-168128][SQL] Sortowanie UNICODE nie powinno obsługiwać równości binarnej
- [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Obsługa używania kolumn jako parametrów dla kilku funkcji w narzędziu pyspark/scala
- [SPARK-48591] [SC-169081][PYTHON] Dodawanie funkcji pomocniczej w celu uproszczenia
Column.py
- [SPARK-48574] [SC-169043][SQL] Poprawiono obsługę typów struktury za pomocą sortowania
- [SPARK-48305] [SC-166390][SQL] Dodawanie obsługi sortowania dla wyrażeń CurrentLike
- [SPARK-48342] [SC-168941][SQL] Wprowadzenie analizatora skryptów SQL
- [SPARK-48649] [SC-169024][SQL] Dodaj konfiguracje "ignoreInvalidPartitionPaths" i "spark.sql.files.ignoreInvalidPartitionPaths", aby umożliwić ignorowanie nieprawidłowych ścieżek partycji
- [SPARK-48000] [SC-167194][SQL] Włącz obsługę sprzężenia skrótu dla wszystkich sortowania (StringType)
- [SPARK-48459] [SC-168947][CONNECT][PYTHON] Implementowanie obiektu DataFrameQueryContext w programie Spark Connect
- [SPARK-48602] [SC-168692][SQL] Tworzenie generatora csv obsługuje inny styl danych wyjściowych za pomocą elementu spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][SQL] Modyfikowanie porównania ciągów dla UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830]Refaktoryzacja [SQL]: użyj pomocniczej kontrolki idMap zamiast OP_ID_TAG
- [SPARK-48634] [SC-169021][PYTHON][CONNECT] Unikaj statycznego inicjowania puli wątków w obiekcie ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][SQL] Wprowadzenie do uniwersalnego elementu BinaryFormatter w celu zapewnienia spójności danych wyjściowych binarnych
- [SPARK-48642] [SC-168889][CORE] Fałsz SparkOutOfMemoryError spowodowany przez zabicie zadania podczas rozlania
- [SPARK-48572] [SC-168844][SQL] Poprawiono wyrażenia DateSub, DateAdd, WindowTime, TimeWindow i SessionWindow
- [SPARK-48600] [SC-168841][SQL] Naprawianie niejawnego rzutowania wyrażeń FrameLessOffsetWindowFunction
- [SPARK-48644] [SC-168933][SQL] Wykonaj sprawdzanie długości i zgłaszaj błąd COLLECTION_SIZE_LIMIT_EXCEEDED w szesnastkowym szesnastkowym
- [SPARK-48587] [SC-168824][VARIANT] Unikaj wzmacniania magazynu podczas uzyskiwania dostępu do podtypu
- [SPARK-48647] [SC-168936][PYTHON][CONNECT] Uściślij komunikat o błędzie dla elementu
YearMonthIntervalType
indf.collect
- [SPARK-48307] [SC-167802][SQL] Funkcja InlineCTE powinna zachować relacje niezwierane w oryginalnym węźle WithCTE
- [SPARK-48596] [SC-168581][SQL] Ulepszenie wydajności do obliczania ciągu szesnastkowego przez długi czas
- [SPARK-48621] [SC-168726][SQL] Poprawka podobna do uproszczenia w optymalizatorze dla ciągów sortowania
- [SPARK-47148] [SC-164179][SQL] Unikaj materializowania AQE ExchangeQueryStageExec podczas anulowania
- [SPARK-48584] [SC-168579][SQL] Ulepszenie wydajności dla unescapePathName
- [SPARK-48281] [SC-167260][SQL] Alter string search logic for UTF8_BINARY_LCASE collation (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][SQL] Nieprawidłowa zamiana sekwencji bajtów UTF-8
- [SPARK-48595] [SC-168580][CORE] Czyszczenie przestarzałego użycia interfejsu API związane z
commons-compress
- [SPARK-48030] [SC-164303][SQL] SPJ: cache rowOrdering and structType for InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][SQL] Dodawanie cech writeFilesExecBase dla zapisu w wersji 1
- [SPARK-48551] [SC-168438][SQL] Ulepszenie wydajności dla escapePathName
- [SPARK-48565] [SC-168437][Interfejs użytkownika] Naprawianie wyświetlania zrzutu wątku w interfejsie użytkownika
- [SPARK-48364] [SC-166782][SQL] Dodawanie rzutowania typów AbstractMapType i naprawianie mapy parametrów RaiseError w celu pracy z ciągami sortowania
- [SPARK-48421] [SC-168689][SQL] SPJ: Dodawanie dokumentacji
- [SPARK-48604] [SC-168698][SQL] Zastąp przestarzałe
new ArrowType.Decimal(precision, scale)
wywołanie metody - [SPARK-46947] [SC-157561][CORE] Opóźnij inicjowanie menedżera pamięci do momentu załadowania wtyczki sterownika
- [SPARK-48411] [SC-168576][SS][PYTHON] Dodawanie testu E2E dla funkcji DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][SS] Śledzenie niepowodzeń walidacji wierszy stanu przy użyciu jawnej klasy błędów
- [SPARK-48221] [SC-167143][SQL] Alter string search logic for UTF8_BINARY_LCASE collation (Contains, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][SQL] Dodano obsługę sortowania dla wyrażenia Levenshtein
- [SPARK-48593] [SC-168719][PYTHON][CONNECT] Naprawianie reprezentacji ciągu funkcji lambda
- [SPARK-48622] [SC-168710][SQL] pobierz polecenie SQLConf raz podczas rozpoznawania nazw kolumn
- [SPARK-48594] [SC-168685][PYTHON][CONNECT] Zmień nazwę
parent
pola nachild
wColumnAlias
- [SPARK-48403] [SC-168319][SQL] Naprawianie wyrażeń dolnych i górnych dla sortowania UTF8_BINARY_LCASE i ICU
- [SPARK-48162] [SC-166062][SQL] Dodawanie obsługi sortowania dla wyrażeń MISC
- [SPARK-48518] [SC-167718][CORE] Aby kompresja LZF była w stanie działać równolegle
- [SPARK-48474] [SC-167447][CORE] Naprawianie nazwy klasy w dzienniku
SparkSubmitArguments
iSparkSubmit
- [SPARK-48012] [SC-168267][SQL] SPJ: obsługa wyrażeń transz dla jednostronnego mieszania
- [SPARK-48552] [SC-168212][SQL] Wielowierszowe wnioskowanie schematu CSV powinno również zgłaszać FAILED_READ_FILE
- [SPARK-48560] [SC-168268][SS][PYTHON] Utwórz tabelę settable StreamingQueryListener.spark
- [SPARK-48569] [SC-168321][SS][CONNECT] Obsługa przypadków brzegowych w query.name
- [SPARK-47260] [SC-167323][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_3250 klasy błędów
- [SPARK-48564] [SC-168327][PYTHON][CONNECT] Propagacja buforowanego schematu w operacjach zestawu
- [SPARK-48155] [SC-165910][SQL] Element AQEPropagateEmptyRelation dla sprzężenia powinien sprawdzić, czy pozostały element podrzędny to tylko BroadcastQueryStageExec
- [SPARK-48506] [SC-167720][CORE] Skróty kodera kompresji są bez uwzględniania wielkości liter z wyjątkiem rejestrowania zdarzeń
- [SPARK-48447] [SC-167607][SS] Sprawdź klasę dostawcy magazynu stanów przed wywołaniem konstruktora
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff i DateTimeUtils.timestampAdd nie powinny zgłaszać wyjątku INTERNAL_ERROR
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Dodawanie klasy błędów pod kątem zgodności schematu stanu i drobnej refaktoryzacji
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN with collation (ALTER COLUMN with collation)
- [SPARK-48561] [SC-168250][PS][CONNECT] Zgłaszanie
PandasNotImplementedError
nieobsługiwanych funkcji kreślenia - [SPARK-48465] [SC-167531][SQL] Unikaj propagacji relacji bez operacji
- [SPARK-48553] [SC-168166][PYTHON][CONNECT] Buforowanie większej liczby właściwości
- [SPARK-48540] [SC-168069][CORE] Unikaj ustawień ładowania danych wyjściowych ivy do stdout
- [SPARK-48535] [SC-168057][SS] Aktualizacja dokumentacji konfiguracji w celu wskazania możliwości utraty/uszkodzenia danych w przypadku pominięcia wartości null dla konfiguracji sprzężeń strumienia strumienia jest włączona
- [SPARK-48536] [SC-168059][PYTHON][CONNECT] Schemat określony przez użytkownika pamięci podręcznej w elemecie applyInPandas i applyInArrow
- [SPARK-47873] [SC-163473][SQL] Zapisywanie ciągów sortowanych w magazynie metadanych Hive przy użyciu zwykłego typu ciągu
- [SPARK-48461] [SC-167442][SQL] Zastąp wartość NullPointerExceptions klasą błędów w wyrażeniu AssertNotNull
- [SPARK-47833] [SC-163191][SQL][CORE] Dostarczanie stosu wywołującego dla checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][SQL] Port HIVE-12270: Dodawanie obsługi dbTokenStore do tokenu delegowania HS2
- [SPARK-47578] [SC-167497][R] Migrowanie narzędzi RPackageUtils ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-47875] [SC-162935][CORE] Usunąć
spark.deploy.recoverySerializer
- [SPARK-47552] [SC-160880][CORE] Ustaw
spark.hadoop.fs.s3a.connection.establish.timeout
wartość 30s, jeśli brakuje - [SPARK-47972] [SC-167692][SQL] Ograniczanie wyrażenia CAST dla sortowania
- [SPARK-48430] [SC-167489][SQL] Naprawianie wyodrębniania wartości mapy, gdy mapa zawiera sortowane ciągi
- [SPARK-47318] [SC-162712][CORE][3.5] Dodaje rundę HKDF do wyprowadzenia klucza AuthEngine w celu przestrzegania standardowych praktyk KEX
- [SPARK-48503] [ZACHOWANIE-29][ES-1135236][SQL] Naprawianie nieprawidłowych podzapytania skalarnego za pomocą kolumn grupowania w kolumnach, które były niepoprawnie dozwolone
- [SPARK-48508] [SC-167695][CONNECT][PYTHON] Buforowanie określonego schematu użytkownika w programie
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Naprawiono usterkę w systemie Windows, w której uruchamianie wielu wystąpień platformy Spark w ramach tej samej sekundy powoduje błąd
- [SPARK-45891] [SC-167608]Przywróć "Opisywanie schematu rozdrabniania dla wariantu"
- [SPARK-48391] [SC-167554][CORE]Używanie funkcji addAll zamiast funkcji w metodzie fromAccumulatorInfos klasy TaskMetrics
- [SPARK-48496] [SC-167600][CORE] Używanie statycznych wystąpień wzorca regex w środowiskach JavaUtils.timeStringAs i JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][SQL] naprawa komunikatu o błędzie SERWERA NPE dla pliku CSV ogranicznika o wartości null
- [SPARK-48489] [SC-167598][SQL] Zgłaszanie lepszego błędu podczas odczytywania nielegalnego schematu ze źródła danych tekstowych
- [SPARK-48471] [SC-167324][CORE] Ulepszanie dokumentacji i przewodnika użycia serwera historii
- [SPARK-45891] [SC-167597] Opis schematu rozdrabniania dla wariantu
- [SPARK-47333] [SC-159043][SQL] Użyj checkInputDataTypes, aby sprawdzić typy parametrów funkcji
to_xml
- [SPARK-47387] [SC-159310][SQL] Usuwanie niektórych nieużywanych klas błędów
- [SPARK-48265] [ES-1131440][SQL] Wywnioskowanie partii limitu grupy okien powinno wykonywać stałe składanie
- [SPARK-47716] [SC-167444][SQL] Unikaj konfliktu nazw widoku w semantycznym przypadku sortowania sqlQueryTestSuite
- [SPARK-48159] [SC-167141][SQL] Rozszerzanie obsługi ciągów sortowania w wyrażeniach daty/godziny
- [SPARK-48462] [SC-167271][SQL][Testy] Używanie z programemSQLConf w testach: Refaktoryzacja aplikacji HiveQuerySuite i HiveTableScanSuite
- [SPARK-48392] [SC-167195][CORE] Również załaduj
spark-defaults.conf
w przypadku podania--properties-file
- [SPARK-48468] [SC-167417] Dodawanie interfejsu LogicalQueryStage w katalizatorze
- [SPARK-47578] [SC-164988][CORE] Ręczne backportowanie dla żądania ściągnięcia platformy Spark #46309: Migrowanie logWarning ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48415] [SC-167321]Przywróć parametr TypeName refaktoryzacji "[PYTHON] w celu obsługi sparametryzowanych typów danych"
- [SPARK-46544] [SC-151361][SQL] Obsługa w wersji 2 DESCRIBE TABLE EXTENDED ze statystykami tabeli
- [SPARK-48325] [SC-166963][CORE] Zawsze określaj komunikaty w funkcji ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][SQL] Dodawanie obsługi sortowania dla ustawień regionalnych ICU i specyfikatorów sortowania
- [SPARK-47221] [SC-157870][SQL] Używa podpisów z klasy CsvParser do klasy AbstractParser
- [SPARK-47246] [SC-158138][SQL] Zastąp
InternalRow.fromSeq
ciąg ciągiem ,new GenericInternalRow
aby zapisać konwersję kolekcji - [SPARK-47597] [SC-163932][STREAMING] Ręczne backportowanie dla żądania ściągnięcia platformy Spark #46192: Przesyłanie strumieniowe: migrowanie informacji logInfo ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48415] [SC-167130][PYTHON] Refaktoryzacja
TypeName
do obsługi sparametryzowanych typów danych - [SPARK-48434] [SC-167132][PYTHON][CONNECT] Używanie
printSchema
buforowanego schematu - [SPARK-48432] [ES-1097114][SQL] Unikaj rozdzielania liczb całkowitych w univocityParser
- [SPARK-47463] [SC-162840][SQL] Użyj elementu V2Predicate do zawijania wyrażenia z zwracanymi typem wartości logicznej
- [SPARK-47781] [SC-162293][SQL] Obsługa ujemnych wartości dziesiętnych dla źródeł danych JDBC
- [SPARK-48394] [SC-166966][CORE] Oczyszczanie mapIdToMapIndex na mapoutput unregister
- [SPARK-47072] [SC-156933][SQL] Naprawianie obsługiwanych formatów interwałów w komunikatach o błędach
- [SPARK-47001] [SC-162487][SQL] Weryfikacja wypychania w optymalizatorze
- [SPARK-48335] [SC-166387][PYTHON][CONNECT] Zapewnienie
_parse_datatype_string
zgodności z usługą Spark Connect - [SPARK-48329] [SC-166518][SQL] Włącz
spark.sql.sources.v2.bucketing.pushPartValues.enabled
domyślnie - [SPARK-48412] [SC-166898][PYTHON] Refaktoryzacja typu danych json analizowania
- [SPARK-48215] [SC-166781][SQL] Rozszerzanie obsługi ciągów sortowania w wyrażeniu date_format
- [SPARK-45009] [SC-166873][SQL][KONTYNUACJA] Dodaj klasę błędów i testy podzapytania predykatu w warunku sprzężenia, które odwołują się do obu elementów podrzędnych sprzężenia podrzędnego
- [SPARK-47960] [SC-165295][SS][15.x] Zezwalaj na łączenie innych operatorów stanowych po operatorze transformWithState.
- [SPARK-48340] [SC-166468][PYTHON] Obsługa błędnych prefer_timestamp_ntz schematu wnioskowania timestampNTZ
- [SPARK-48157] [SC-165902][SQL] Dodawanie obsługi sortowania dla wyrażeń CSV
- [SPARK-48158] [SC-165652][SQL] Dodawanie obsługi sortowania dla wyrażeń XML
- [SPARK-48160] [SC-166064][SQL] Dodawanie obsługi sortowania dla wyrażeń XPATH
- [SPARK-48229] [SC-165901][SQL] Dodawanie obsługi sortowania dla wyrażeń inputFile
- [SPARK-48367] [SC-166487][CONNECT] Napraw lint-scala dla narzędzia scalafmt w celu wykrywania plików w celu poprawnego sformatowania
- [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] Refaktoryzacja struktury kontekstu błędu ramki danych
- [SPARK-48370] [SC-166787][CONNECT] Punkt kontrolny i lokalny Punkt kontrolny w kliencie Scala Spark Connect
- [SPARK-48247] [SC-166028][PYTHON] Użyj wszystkich wartości w dykcie podczas wnioskowania schematu MapType
- [SPARK-48395] [SC-166794][PYTHON] Poprawka
StructType.treeString
dotycząca typów sparametryzowanych - [SPARK-48393] [SC-166784][PYTHON] Przenoszenie grupy stałych do
pyspark.util
- [SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Narzędzie
StructType.treeString
- [SPARK-48258] [SC-166467][PYTHON][CONNECT] Punkt kontrolny i lokalny Punkt kontrolny w programie Spark Connect
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 15.4 LTS.
Środowisko systemu
- System operacyjny: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black (czarny) | 23.3.0 | kierunkowskaz | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kliknięcie | 8.0.4 | cloudpickle | 2.2.1 | Comm | 0.1.2 |
konturowy | 1.0.5 | kryptografia | 41.0.3 | rowerzysta | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | dekorator | 5.1.1 | distlib | 0.3.8 |
punkty wejścia | 0,4 | Wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
stan obiektu grpcio | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | biblioteka matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
więcej itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | opakowanie | 23.2 |
Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Poduszka | 9.4.0 | 23.2.1 | platformdirs | 3.10.0 | |
kreślenie | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
żądania | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Sześć | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5,11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | Wytrzymałość | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlety | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
koło | 0.38.4 | zipp | 3.11.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN posit Menedżer pakietów.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałkę | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports (backports) | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bitowe | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | rozruch | 1.3-28 |
warzyć | 1.0-10 | Brio | 1.1.4 | miotła | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | obiekt wywołujący | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
zegar | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
przestrzeń kolorów | 2.1-0 | commonmark | 1.9.1 | — kompilator | 4.3.2 |
config | 0.3.2 | Konflikt | 1.2.0 | cpp11 | 0.4.7 |
kredka | 1.5.2 | poświadczenia | 2.0.1 | lok | 5.2.0 |
data.table | 1.15.0 | usługi Power BI | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | Desc | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | trawić | 0.6.34 |
downlit (wyłączony) | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | wielokropek | 0.3.2 | evaluate | 0.23 |
fani | 1.0.6 | farver | 2.1.1 | szybka mapa | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
zagraniczny | 0.8-85 | kuźnia | 0.2.0 | Fs | 1.6.3 |
przyszłość | 1.33.1 | future.apply | 1.11.1 | płukać gardło | 1.5.2 |
Generyczne | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globalna | 0.16.2 | klej | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.2 | grDevices | 4.3.2 | siatka | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | przystań | 2.5.4 |
wysoki | 0.10 | Hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | Identyfikatory | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iteratory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | soicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | Etykietowania | 0.4.3 |
później | 1.3.2 | krata | 0.21-8 | lawa | 1.7.3 |
cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | MASA | 7.3-60 |
Macierz | 1.5-4.1 | zapamiętywanie | 2.0.1 | metody | 4.3.2 |
mgcv | 1.8-42 | mim | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | Metryki modelu | 1.2.2.2 | modeler | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
równolegle | 1.36.0 | filar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Postęp | 1.2.3 |
progressr | 0.14.0 | Obietnice | 1.2.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | z możliwością reagowania | 0.4.4 |
ReactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
przepisy | 1.0.9 | rewanż | 2.0.0 | rewanż2 | 2.1.2 |
Piloty | 2.4.2.1 | reprex | 2.1.0 | zmień kształt2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions (rversions) | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
waga | 1.3.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
kształt | 1.4.6 | błyszczący | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | przestrzenny | 7.3-15 | Splajnów | 4.3.2 |
sqldf | 0.4-11 | KWADRAT | 2021.1 | Statystyki | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
przetrwanie | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | zmiana czasu | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | narzędzia | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
Vroom | 1.6.5 | Waldo | 0.5.2 | wąs | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
gorliwość | 0.1.0 | zamek | 2.3.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-klej | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.kofeina | kofeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transport netto | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | format strzałki | 15.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | wektor strzałki | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | bluszcz | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | podkładki orc-shim | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.23 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | jute dozorców | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | kolekcje eclipse | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Podkładki | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | trzydostępne dodatkowe | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |