Databricks Runtime 14.1
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 14.1 obsługiwanym przez platformę Apache Spark 3.5.0.
Usługa Databricks wydała tę wersję w październiku 2023 r.
Napiwek
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.
Nowe funkcje i ulepszenia
- array_insert() jest oparty na indeksach ujemnych
- Punkty kontrolne funkcji Delta w wersji 2 są domyślnie włączone z klastrowaniem płynnym
- Usuwanie funkcji tabeli delty w publicznej wersji zapoznawczej
- Udostępnianie różnicowe: adresaci mogą wykonywać zapytania wsadowe w tabelach udostępnionych z wektorami usuwania (publiczna wersja zapoznawcza)
- Udostępnianie różnicowe: adresaci mogą wykonywać zapytania wsadowe w tabelach udostępnionych z mapowaniem kolumn (publiczna wersja zapoznawcza)
- Przesyłanie strumieniowe z widoków wykazu aparatu Unity w publicznej wersji zapoznawczej
- Łącznik Apache Pulsar w publicznej wersji zapoznawczej
- Uaktualniony sterownik Snowflake
- Zmienne sesji SQL
- Wywołanie nazwanego parametru dla usług SQL i Python UDF.
- Argumenty tabeli do funkcji obsługują partycjonowanie i porządkowanie.
- Nowe i ulepszone wbudowane funkcje SQL
- Ulepszona obsługa skorelowanych podzapytania
array_insert() jest oparty na indeksach ujemnych
Funkcja array_insert
jest oparta na 1 dla indeksów dodatnich i ujemnych. Teraz wstawia nowy element na końcu tablic wejściowych indeksu -1. Aby przywrócić poprzednie zachowanie, ustaw wartość spark.sql.legacy.negativeIndexInArrayInsert
true
.
Punkty kontrolne funkcji Delta w wersji 2 są domyślnie włączone z klastrowaniem płynnym
Nowo utworzone tabele delty z płynnym klastrowaniem domyślnie używają punktów kontrolnych w wersji 2. Zobacz Zgodność tabel z klastrowaniem płynnym.
Usuwanie funkcji tabeli delty w publicznej wersji zapoznawczej
Teraz możesz usunąć niektóre funkcje tabeli dla tabel delty. Bieżąca obsługa obejmuje usuwanie deletionVectors
i v2Checkpoint
. Zobacz Usuwanie funkcji tabeli delty.
Udostępnianie różnicowe: adresaci mogą wykonywać zapytania wsadowe w tabelach udostępnionych z wektorami usuwania (publiczna wersja zapoznawcza)
Adresaci udostępniania różnicowego mogą teraz wykonywać zapytania wsadowe w tabelach udostępnionych, które używają wektorów usuwania. Zobacz Dodawanie tabel z wektorami usuwania lub mapowaniem kolumn do udziału, Odczyt tabel z włączonymi wektorami usuwania lub mapowaniem kolumn oraz Odczyt tabel z włączonymi wektorami usuwania lub mapowaniem kolumn.
Udostępnianie różnicowe: adresaci mogą wykonywać zapytania wsadowe w tabelach udostępnionych z mapowaniem kolumn (publiczna wersja zapoznawcza)
Adresaci udostępniania różnicowego mogą teraz wykonywać zapytania wsadowe w tabelach udostępnionych, które używają mapowania kolumn. Zobacz Dodawanie tabel z wektorami usuwania lub mapowaniem kolumn do udziału, Odczyt tabel z włączonymi wektorami usuwania lub mapowaniem kolumn oraz Odczyt tabel z włączonymi wektorami usuwania lub mapowaniem kolumn.
Przesyłanie strumieniowe z widoków wykazu aparatu Unity w publicznej wersji zapoznawczej
Teraz możesz użyć przesyłania strumieniowego ze strukturą do wykonywania odczytów strumieniowych z widoków zarejestrowanych w wykazie aparatu Unity. Usługa Azure Databricks obsługuje tylko odczyty strumieniowe z widoków zdefiniowanych względem tabel delty. Zobacz Odczytywanie widoku wykazu aparatu Unity jako strumienia.
Łącznik Apache Pulsar w publicznej wersji zapoznawczej
Teraz możesz przesyłać strumieniowo dane z usługi Apache Pulsar w usłudze Azure Databricks przy użyciu przesyłania strumieniowego ze strukturą. Zobacz Strumień z usługi Apache Pulsar.
Uaktualniony sterownik Snowflake
Sterownik Snowflake JDBC używa teraz wersji 3.13.33.
Zmienne sesji SQL
W tej wersji wprowadzono możliwość deklarowania zmiennych tymczasowych w sesji, którą można ustawić, a następnie odwoływać się z poziomu zapytań. Zobacz Zmienne.
Wywołanie nazwanego parametru dla usług SQL i Python UDF.
Teraz można użyć wywołania nazwanego parametru w usługach SQL i Python UDF.
Argumenty tabeli do funkcji obsługują partycjonowanie i porządkowanie.
Teraz można użyć PARTITION BY
klauzul i ORDER BY
, aby kontrolować sposób przekazywania argumentów tabeli do funkcji podczas wywołania funkcji.
Nowe i ulepszone wbudowane funkcje SQL
Dodano następujące wbudowane funkcje:
- from_xml: analizuje kod XML
STRING
w obiekcieSTRUCT
. - schema_of_xml: tworzy schemat z pliku XML
STRING
. - session_user: zwraca zalogowanego użytkownika.
- try_reflect: Zwraca
NULL
wartość zamiast wyjątku, jeśli metoda Java zakończy się niepowodzeniem.
Ulepszono następujące wbudowane funkcje:
- tryb: obsługa opcjonalnego parametru wymuszania wyniku deterministycznego.
- to_char: Nowa obsługa systemu
DATE
,TIMESTAMP
iBINARY
. - to_varchar: nowa obsługa systemu
DATE
,TIMESTAMP
iBINARY
.
Ulepszona obsługa skorelowanych podzapytania
Możliwość przetwarzania korelacji w podzapytaniach została rozszerzona:
- Obsługa limitu i kolejności według skorelowanych podzapytania skalarnych (poprzecznych).
- Obsługa funkcji okien w skorelowanych podzapytaniach skalarnych.
- Obsługa skorelowanych odwołań w predykatach sprzężenia dla podzapytania skalarnego i bocznego
Zmiana zachowania
Ścisłe sprawdzanie typów w czytniku Photon Parquet
Funkcja Photon kończy się niepowodzeniem podczas próby odczytania wartości dziesiętnej z kolumny Parquet, która nie jest typem dziesiętnym. Funkcja Photon również kończy się niepowodzeniem podczas odczytywania tablicy bajtów o stałej długości z Parquet jako ciągu.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- filelock z wersji 3.12.2 do 3.12.3
- s3transfer z 0.6.1 do 0.6.2
- Uaktualnione biblioteki Java:
- com.uber.h3 z 3.7.0 do 3.7.3
- io.aircompressor od 0.24 do 0.25
- io.delta.delta-sharing-spark_2.12 z 0.7.1 do 0.7.5
- io.netty.netty-all from 4.1.93.Final do 4.1.96.Final
- io.netty.netty-buffer from 4.1.93.Final to 4.1.96.Final
- io.netty.netty-codec z wersji 4.1.93.Final do 4.1.96.Final
- io.netty.netty-codec-http from 4.1.93.Final do 4.1.96.Final
- io.netty.netty-codec-http2 z wersji 4.1.93.Final do 4.1.96.Final
- io.netty.netty-codec-skarpetki z wersji 4.1.93.Final do 4.1.96.Final
- io.netty.netty-common from 4.1.93.Final do 4.1.96.Final
- io.netty.netty-handler from 4.1.93.Final to 4.1.96.Final
- io.netty.netty-handler-proxy z wersji 4.1.93.Final do 4.1.96.Final
- io.netty.netty-resolver z wersji 4.1.93.Final do 4.1.96.Final
- io.netty.netty-transport z wersji 4.1.93.Final do wersji 4.1.96.Final
- io.netty.netty-transport-classes-epoll from 4.1.93.Final to 4.1.96.Final
- io.netty.netty-transport-classes-kqueue from 4.1.93.Final to 4.1.96.Final
- io.netty.netty-transport-native-epoll from 4.1.93.Final-linux-x86_64 to 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue from 4.1.93.Final-osx-x86_64 do 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common from 4.1.93.Final do 4.1.96.Final
- net.snowflake.snowflake-jdbc od 3.13.29 do 3.13.33
- org.apache.orc.orc-core z wersji 1.9.0-shaded-protobuf do wersji 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce from 1.9.0-shaded-protobuf to 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims od 1.9.0 do 1.9.1
Apache Spark
Środowisko Databricks Runtime 14.1 obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 14.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-45088] [DBRRM-557] Przywróć element "[SC-142785][PYTHON][CONNECT] Wykonaj pracę getitem z zduplikowaną kolumną"
- [SPARK-43453] [DBRRM-557]Przywróć wartość "[SC-143135][PS] Ignoruj wartość
names
"axis=1
concat
MultiIndex
- [SPARK-45225] [SC-143207][SQL] XML: obsługa adresów URL plików XSD
- [SPARK-45156] [SC-142782][SQL] Zawijanie
inputName
przez backticks wNON_FOLDABLE_INPUT
klasie błędów - [SPARK-44910] [SC-143082][SQL] Koders.bean nie obsługuje superklas z argumentami typu ogólnego
- [SPARK-43453] [SC-143135][PS] Ignoruj wartości
names
MultiIndex
, kiedyaxis=1
dlaconcat
- [SPARK-44463] [SS][CONNECT] Ulepszanie obsługi błędów w przypadku łączenia procesu roboczego w języku Python
- [SPARK-44960] [SC-141023][Interfejs użytkownika] Usuwanie krajobrazu i podsumowanie błędów na stronach interfejsu użytkownika
- [SPARK-44788] [SC-142980][CONNECT][PYTHON][SQL] Dodawanie from_xml i schema_of_xml do funkcji pyspark, spark connect i sql
- [SPARK-44614] [SC-138460][PYTHON][CONNECT][3.5] Dodawanie brakujących pakietów w setup.py
- [SPARK-45151] [SC-142861][CORE][Interfejs użytkownika] Obsługa zrzutu wątków na poziomie zadania
- [SPARK-45056] [SC-142779][PYTHON][SS][CONNECT] Testy zakończenia dla elementu streamingQueryListener i foreachBatch
- [SPARK-45084] [SC-142828][SS] StateOperatorProgress do używania dokładnego efektywnego numeru partycji mieszania
- [SPARK-44872] [SC-142405][CONNECT] Testowanie serwera infra i ReattachableExecuteSuite
- [SPARK-45197] [SC-142984][CORE]
JavaModuleOptions
DodajStandaloneRestServer
do sterowników - [SPARK-44404] [SC-139601][SQL] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297][SQL] Obsługa spJ, gdzie klucze sprzężenia są mniejsze niż klucze klastra
- [SPARK-45088] [SC-142785][PYTHON][CONNECT] Praca
getitem
z zduplikowanymi kolumnami - [SPARK-45128] [SC-142851][SQL] Obsługa
CalendarIntervalType
w strzałki - [SPARK-45130] [SC-142976][CONNECT][ML][PYTHON] Unikaj łączenia modelu uczenia maszynowego platformy Spark w celu zmiany ramki danych biblioteki pandas
- [SPARK-45034] [SC-142959][SQL] Obsługa funkcji trybu deterministycznego
- [SPARK-45173] [SC-142931][Interfejs użytkownika] Usuwanie niepotrzebnych plików sourceMapping w interfejsie użytkownika
- [SPARK-45162] [SC-142781][SQL] Obsługa map i parametrów tablicy skonstruowanych za pomocą metody
call_function
- [SPARK-45143] [SC-142840][PYTHON][CONNECT] Upewnij się, że PySpark jest zgodny z PyArrow 13.0.0
- [SPARK-45174] [SC-142837][CORE] Wsparcie
spark.deploy.maxDrivers
- [SPARK-45167] [SC-142956][CONNECT][PYTHON] Klient języka Python musi wywołać wywołanie
release_all
- [SPARK-36191] [SC-142777][SQL] Obsługa limitu i kolejności według skorelowanych podzapytania skalarnych (poprzecznych)
- [SPARK-45159] [SC-142829][PYTHON] Obsługa nazwanych argumentów tylko wtedy, gdy jest to konieczne
- [SPARK-45133] [SC-142512][CONNECT] Po zakończeniu ostatniego zadania wynikowego wykonywanie zapytań Spark Connect jest gotowe
- [SPARK-44801] [SC-140802][SQL][Interfejs użytkownika] Przechwytywanie analizy nieudanych zapytań w odbiorniku i interfejsie użytkownika
- [SPARK-45139] [SC-142527][SQL] Dodawanie elementu DatabricksDialect w celu obsługi konwersji typu SQL
- [SPARK-45157] [SC-142546][SQL] Unikaj powtarzających się
if
kontroli w[On|Off|HeapColumnVector
- [SPARK-45077] Przywróć "[SC-142069][UI] Upgrade dagre-d3.js z 04.3 do 0.6.4"
- [SPARK-45145] [SC-142521][PRZYKŁAD] Dodawanie przykładu JavaSparkSQLCli
- [SPARK-43295] Przywróć "[SC-142254][PS] Kolumny typu ciągów dla "
DataFrameGroupBy.sum
- [SPARK-44915] [SC-142383][CORE] Weryfikowanie sumy kontrolnej przetasowanych danych PCV przed odzyskaniem
- [SPARK-45147] [SC-142524][CORE] Usuwanie
System.setSecurityManager
użycia - [SPARK-45104] [SC-1422206][Interfejs użytkownika] Uaktualnianie
graphlib-dot.min.js
do wersji 1.0.2 - [SPARK-44238] [SC-141606][CORE][SQL] Wprowadzenie nowej
readFrom
metody z danymi wejściowymi tablicy bajtówBloomFilter
- [SPARK-45060] [SC-141742][SQL] Naprawianie błędu wewnętrznego z
to_char()
NULL
formatu - [SPARK-43252] [SC-142381][SQL] Zastąp klasę
_LEGACY_ERROR_TEMP_2016
błędów błędem wewnętrznym - [SPARK-45069] [SC-142279][SQL] Zmienna SQL powinna być zawsze rozpoznawana po odwołaniu zewnętrznym
- [SPARK-44911] [SC-142388][SQL] Tworzenie tabeli hive z nieprawidłową kolumną powinno zwrócić klasę błędów
- [SPARK-42754] [SC-125567][SQL][Interfejs użytkownika] Rozwiązywanie problemu ze zgodnością z poprzednimi wersjami w zagnieżdżonym wykonaniu sql
- [SPARK-45121] [SC-142375][CONNECT][PS] Obsługa
Series.empty
programu Spark Connect. - [SPARK-44805] [SC-142203][SQL] getBytes/getShorts/getInts/etc. powinien działać w wektorze kolumny, który ma słownik
- [SPARK-45027] [SC-142248][PYTHON] Ukrywanie wewnętrznych funkcji/zmiennych przed
pyspark.sql.functions
automatycznym uzupełnianiem - [SPARK-45073] [SC-141791][PS][CONNECT] Zastąp ciąg
LastNotNull
ciągiemLast(ignoreNulls=True)
- [SPARK-44901] [SC-141676][SQL] Ręczne importowanie: dodawanie interfejsu API w metodzie "analyze" języka Python w celu zwrócenia wyrażeń partycjonowania/zamawiania
- [SPARK-45076] [SC-141795][PS] Przełączanie do wbudowanej
repeat
funkcji - [SPARK-44162] [SC-141605][CORE] Obsługa G1GC w metrykach platformy Spark
- [SPARK-45053] [SC-141733][PYTHON][DROBNE] Ulepszenie dziennika w niezgodności wersji języka Python
- [SPARK-44866] [SC-142221][SQL] Dodaj
SnowflakeDialect
, aby poprawnie obsługiwać typ LOGICZNY - [SPARK-45064] [SC-141775][PYTHON][CONNECT] Dodaj brakujący
scale
parametr w plikuceil/ceiling
- [SPARK-45059] [SC-141757][CONNECT][PYTHON] Dodawanie
try_reflect
funkcji do języków Scala i Python - [SPARK-43251] [SC-142280][SQL] Zastąp klasę
_LEGACY_ERROR_TEMP_2015
błędów błędem wewnętrznym - [SPARK-45052] [SC-141736][SQL][PYTHON][CONNECT] Ustaw aliasy funkcji jako spójną nazwę kolumny wyjściowej z bazą danych SQL
- [SPARK-44239] [SC-141502][SQL] Wolna pamięć przydzielona przez duże wektory, gdy wektory są resetowane
- [SPARK-43295] [SC-142254][PS] Obsługa kolumn typu ciągu dla
DataFrameGroupBy.sum
- [SPARK-45080] [SC-142062][SS] Jawne wywoływanie obsługi kolumnar w źródłach danych przesyłania strumieniowego DSv2
- [SPARK-45036] [SC-141768][SQL] SPJ: uproszczenie logiki do obsługi częściowo klastrowanej dystrybucji
- [SPARK-45077] [SC-142069][Interfejs użytkownika] Uaktualnianie dagre-d3.js z wersji 0.4.3 do 0.6.4
- [SPARK-45091] [SC-142020][PYTHON][CONNECT][SQL] Funkcja
floor/round/bround
akceptuj typ kolumnyscale
- [SPARK-45090] [SC-142019][PYTHON][CONNECT]
DataFrame.{cube, rollup}
obsługa kolumn — standardowo - [SPARK-44743] [SC-141625][SQL] Dodawanie
try_reflect
funkcji - [SPARK-45086] [SC-142052][Interfejs użytkownika] Wyświetlanie szesnastkowe dla kodu skrótu blokady wątku
- [SPARK-44952] [SC-141644][SQL][PYTHON] Obsługa nazwanych argumentów w agregacji funkcji zdefiniowanej przez użytkownika biblioteki Pandas
- [SPARK-44987] [SC-141552][SQL] Przypisywanie nazwy do klasy błędów
_LEGACY_ERROR_TEMP_1100
- [SPARK-45032] [SC-141730][CONNECT] Naprawianie ostrzeżeń kompilacji związanych z
Top-level wildcard is not allowed and will error under -Xsource:3
- [SPARK-45048] [SC-141629][CONNECT] Dodawanie dodatkowych testów dla klienta języka Python i dołączanie wykonywania
- [SPARK-45072] [SC-141807][CONNECT] Naprawianie zakresów zewnętrznych dla klas ammonite
- [SPARK-45033] [SC-141759][SQL] Obsługa map według sparametryzowanych
sql()
- [SPARK-45066] [SC-141772][SQL][PYTHON][CONNECT] Make function accept column-type (Ustaw funkcję
repeat
na akceptowanie typu kolumny)n
- [SPARK-44860] [SC-141103][SQL] Dodawanie funkcji SESSION_USER
- [SPARK-45074] [SC-141796][PYTHON][CONNECT]
DataFrame.{sort, sortWithinPartitions}
obsługa kolumn — standardowo - [SPARK-45047] [SC-141774][PYTHON][CONNECT]
DataFrame.groupBy
reguły pomocy technicznej - [SPARK-44863] [SC-140798][Interfejs użytkownika] Dodawanie przycisku w celu pobrania zrzutu wątku jako txt w interfejsie użytkownika platformy Spark
- [SPARK-45026] [SC-141604][CONNECT]
spark.sql
powinna obsługiwać typy danych niezgodne ze strzałką - [SPARK-44999] [SC-141145][CORE] Refaktoryzacja
ExternalSorter
w celu zmniejszenia kontrolishouldPartition
podczas wywoływaniagetPartition
- [SPARK-42304] [SC-141501][SQL] Zmień nazwę
_LEGACY_ERROR_TEMP_2189
naGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
- [SPARK-43781] [SC-139450][SQL] Naprawiono wyjątek IllegalStateException podczas współgrupowania dwóch zestawów danych pochodzących z tego samego źródła
- [SPARK-45018] [SC-141516][PYTHON][CONNECT] Dodawanie elementu CalendarIntervalType do klienta języka Python
- [SPARK-45024] [SC-141513][PYTHON][CONNECT] Odfiltruj niektóre konfiguracje w obszarze Tworzenie sesji
- [SPARK-45017] [SC-141508][PYTHON] Dodaj
CalendarIntervalType
do programu PySpark - [SPARK-44720] [SC-139375][CONNECT] Używanie kodera zestawu danych zamiast AgnosticEncoder
- [SPARK-44982] [SC-141027][CONNECT] Oznacz konfiguracje serwera Spark Connect jako statyczne
- [SPARK-44839] [SC-140900][SS][CONNECT] Lepsze rejestrowanie błędów, gdy użytkownik próbuje serializować sesję platformy Spark
- [SPARK-44865] [SC-140905][SS] Tworzenie kolumny metadanych obsługi streamingRelationV2
- [SPARK-45001] [SC-141141][PYTHON][CONNECT] Implementowanie elementu DataFrame.foreachPartition
- [SPARK-44497] [SC-141017][WEBUI] Pokaż identyfikator partycji zadania w tabeli zadań
- [SPARK-45006] [SC-141143][Interfejs użytkownika] Użyj tego samego formatu daty innych elementów daty interfejsu użytkownika dla osi x osi osi czasu
- [SPARK-45000] [SC-141135][PYTHON][CONNECT] Implementowanie elementu DataFrame.foreach
- [SPARK-44967] [SC-141137][SQL][CONNECT] Przed użyciem wartości logicznej treeNodeTag należy najpierw rozważyć jednostkę
- [SPARK-44993] [SC-141088][CORE] Dodaj
ShuffleChecksumUtils.compareChecksums
, ponownie używając poleceniaShuffleChecksumTestHelp.compareChecksums
- [SPARK-44807] [SC-140176][CONNECT] Dodawanie elementu Dataset.metadataColumn do klienta Scala
- [SPARK-44965] [SC-141098][PYTHON] Ukryj funkcje/zmienne wewnętrzne z
pyspark.sql.functions
- [SPARK-44983] [SC-141030][SQL] Przekonwertuj plik binarny na ciąg
to_char
według dla formatów:hex
, ,base64
utf-8
- [SPARK-44980] [DBRRM-462][SC-141024][PYTHON][CONNECT] Naprawa dziedziczonej kolekcji nazwanych do pracy w elemeducie createDataFrame
- [SPARK-44985] [SC-141033][CORE] Użyj metody toString zamiast stostrace dla wątku żądnego zadania
- [SPARK-44984] [SC-141028][PYTHON][CONNECT] Usuwanie
_get_alias
z ramki danych - [SPARK-44975] [SC-141013][SQL] Usuwanie nieużytkowanego przesłonięcia binarnego
- [SPARK-44969] [SC-140957][SQL] Ponowne użycie
ArrayInsert
w programieArrayAppend
- [SPARK-44549] [SC-140714][SQL] Obsługa funkcji okien w skorelowanych podzapytaniach skalarnych
- [SPARK-44938] [SC-140811][SQL] Zmień wartość domyślną na
spark.sql.maxSinglePartitionBytes
128 m - [SPARK-44918] [SC-140816][SQL][PYTHON] Obsługa nazwanych argumentów w skalarnym języku Python/funkcjach zdefiniowanych przez użytkownika biblioteki Pandas
- [SPARK-44966] [SC-140907][CORE][CONNECT] Zmień nigdy nie zmieniono
var
wartości naval
- [SPARK-41471] [SC-140804][SQL] Zmniejsz mieszania platformy Spark, gdy tylko jedna strona sprzężenia to KeyGroupedPartitioning
- [SPARK-44214] [SC-140528][CORE] Obsługa interfejsu użytkownika dziennika na żywo sterownika Spark
- [SPARK-44861] [SC-140716][CONNECT] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][CONNECT] Dodawanie elementu ProducedRowCount do elementu SparkListenerConnectOperationFinished
- [SPARK-42017] [SC-140765][PYTHON][CONNECT]
df['col_name']
powinna zweryfikować nazwę kolumny - [SPARK-40178] [SC-140433][SQL][COONECT] Obsługa połączenia wskazówek z łatwością dla PySpark i R
- [SPARK-44840] [SC-140593][SQL] Tworzenie
array_insert()
1 na podstawie indeksów ujemnych - [SPARK-44939] [SC-140778][R] Obsługa języka Java 21 w systemie SparkRRequirements
- [SPARK-44936] [SC-140770][CORE] Uprość dziennik, gdy magazyn hybrydowy platformy Spark osiągnie limit pamięci
- [SPARK-44908] [SC-140712][ML][CONNECT] Naprawianie funkcji paramatora foldCol krzyżowego modułu sprawdzania poprawności
- [SPARK-44816] [SC-140717][CONNECT] Poprawianie komunikatu o błędzie, gdy nie znaleziono klasy UDF
- [SPARK-44909] [SC-140710][ML] Pomiń uruchamianie serwera przesyłania strumieniowego dziennika dystrybutora, gdy jest niedostępny
- [SPARK-44920] [SC-140707][CORE] Użyj metody await() zamiast awaitUninterruptibly() w elemecie TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][SQL] Stanowy lastRegex powoduje wyjątek NullPointerException dla wartości eval dla regexp_replace
- [SPARK-43987] [SC-139594][Shuffle] Oddzielne finalizowanie przetwarzaniaShuffleMerge do dedykowanych pul wątków
- [SPARK-42768] [SC-140549][SQL] Domyślnie włącz buforowany plan zastosuj AQE
- [SPARK-44741] [SC-139447][CORE] Obsługa filtru metryki opartej na regex w systemie
StatsdSink
- [SPARK-44751] [SC-140532][SQL] Implementacja interfejsu XML FileFormat
- [SPARK-44868] [SC-140438][SQL] Konwertowanie daty/godziny na ciąg według
to_char
/to_varchar
- [SPARK-44748] [SC-140504][SQL] Wykonywanie zapytań dla klauzuli PARTITION BY w argumentach TABELI UDTF
- [SPARK-44873] [SC-140427] Obsługa zmiany widoku przy użyciu kolumn zagnieżdżonych w kliencie programu Hive
- [SPARK-44876] [SC-140431][PYTHON] Poprawka zoptymalizowana pod kątem strzałek funkcja UDF języka Python w programie Spark Connect
- [SPARK-44520] [SC-137845][SQL] Zastąp termin UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY i głównym AE ujawnienia
- [SPARK-42664] [SC-139769][CONNECT] Funkcja pomocy technicznej
bloomFilter
dlaDataFrameStatFunctions
- [SPARK-43567] [SC-139227][PS] Obsługa
use_na_sentinel
factorize
- [SPARK-44859] [SC-140254][SS] Naprawianie nieprawidłowej nazwy właściwości w strukturalnych dokumentach przesyłania strumieniowego
- [SPARK-44822] [SC-140182][PYTHON][SQL] Ustaw domyślne funkcje UDF języka Python na niedeterministyczne
- [SPARK-44731] [SC-139524][PYTHON][CONNECT] Make TimestampNTZ współpracuje z literałami w programie Spark Connect języka Python
- [SPARK-44836] [SC-140180][PYTHON] Refaktoryzacja strzałki w języku Python UDTF
- [SPARK-44714] [SC-139238] Łatwość ograniczania rozpoznawania LCA w przypadku zapytań z posiadaniem
- [SPARK-44749] [SC-139664][SQL][PYTHON] Obsługa nazwanych argumentów w języku Python UDTF
- [SPARK-44737] [SC-139512][SQL][Interfejs użytkownika] Nie należy wyświetlać błędów formatu JSON na stronie SQL dla elementów innych niż SparkThrowable na karcie SQL
- [SPARK-44665] [SC-139307][PYTHON] Dodano obsługę elementu assertDataFrameEqual ramki danych biblioteki pandas
- [SPARK-44736] [SC-139622][CONNECT] Dodawanie elementu Dataset.eksploduje do klienta Spark Connect Scala
- [SPARK-44732] [SC-139422][SQL] Wbudowana obsługa źródła danych XML
- [SPARK-44694] [SC-139213][PYTHON][CONNECT] Refaktoryzacja aktywnych sesji i uwidocznienie ich jako interfejsu API
- [SPARK-44652] [SC-138881] Zgłaszaj błąd, gdy tylko jeden df ma wartość Brak
- [SPARK-44562] [SC-138824][SQL] Dodaj element OptimizeOneRowRelationSubquery w partii podzapytania
- [SPARK-44717] [SC-139319][PYTHON][PS] Respect TimestampNTZ in resampling (Uwzględnianie czasu znacznika czasu w ponownym próbkowaniu)
- [SPARK-42849] [SC-139365] [SQL] Zmienne sesji
- [SPARK-44236] [SC-139239][SQL] Wyłącz polecenie WholeStageCodegen po ustawieniu
spark.sql.codegen.factoryMode
wartości NO_CODEGEN - [SPARK-44695] [SC-139316][PYTHON] Ulepszanie komunikatu o błędzie dla elementu
DataFrame.toDF
- [SPARK-44680] [SC-139234][SQL] Poprawianie błędu parametrów w programie
DEFAULT
- [SPARK-43402] [SC-138321][SQL] PlikSourceScanExec obsługuje filtr wypychania danych z podzapytaniem skalarnymi
- [SPARK-44641] [SC-139216][SQL] Niepoprawny wynik w niektórych scenariuszach, gdy program SPJ nie jest wyzwalany
- [SPARK-44689] [SC-139219][CONNECT] Sprawianie, że obsługa wyjątków funkcji
SparkConnectPlanner#unpackScalarScalaUDF
jest bardziej uniwersalna - [SPARK-41636] [SC-139061][SQL] Upewnij się, że
selectFilters
zwraca predykaty w kolejności deterministycznej - [SPARK-44132] [SC-139197][SQL] Materializowanie
Stream
nazw kolumn sprzężenia w celu uniknięcia błędu generowania kodu - [SPARK-42330] [SC-138838][SQL] Przypisywanie nazwy
RULE_ID_NOT_FOUND
do klasy błędów_LEGACY_ERROR_TEMP_2175
- [SPARK-44683] [SC-139214][SS] Poziom rejestrowania nie jest prawidłowo przekazywany do dostawcy magazynu stanów bazy danych RocksDB
- [SPARK-44658] [SC-138868][CORE]
ShuffleStatus.getMapStatus
powinna zwrócićNone
zamiastSome(null)
- [SPARK-44603] [SC-138353] Dodawanie pliku pyspark.testing do setup.py
- [SPARK-44252] [SC-137505][SS] Zdefiniuj nową klasę błędów i zastosuj dla przypadku, w którym stan ładowania z systemu plików DFS kończy się niepowodzeniem
- [SPARK-29497] [DBRRM-396][SC-138477][CONNECT] Zgłaszaj błąd, gdy funkcja UDF nie jest deserializowana.
- [SPARK-44624] [DBRRM-396][SC-138900][CONNECT] Ponów próbę wykonaniaPlan w przypadku, gdy początkowe żądanie nie dotarło do serwera
- [SPARK-41400] [DBRRM-396][SC-138287][CONNECT] Usuń zależność katalizatora klienta connect
- [SPARK-44059] [SC-138833][SQL] Dodawanie lepszych komunikatów o błędach dla bazy danych SQL o nazwie argumnts
- [SPARK-44620] [SC-138831][SQL][PS][CONNECT] Zachowaj
ResolvePivot
Plan_ID_TAG
- [SPARK-43838] [SC-137413][SQL] Poprawka podzapytania w pojedynczej tabeli z brakiem możliwości optymalizacji klauzuli
- [SPARK-44555] [SC-138820][SQL] Użyj funkcji checkError(), aby sprawdzić wyjątek w pakiecie poleceń i przypisać nazwy klas błędów
- [SPARK-44280] [SC-138821][SQL] Dodawanie elementu convertJavaTimestampToTimestamp w interfejsie API JDBCDialect
- [SPARK-44602] [SC-138337][SQL][CONNECT][PS] Zachowaj
WidenSetOperationTypes
Plan_ID_TAG
- [SPARK-42941] [SC-138389][SS][CONNECT] Python StreamingQueryListener
- [SPARK-43838] Przywróć "[SC-137413][SQL] Poprawiono podzapytywanie w trybie jednokrotnym...
- [SPARK-44538] [SC-138178][CONNECT][SQL] Przywracanie elementu Row.jsonValue i znajomych
- [SPARK-44421] [SC-138434][SPARK-44423][CONNECT] Ponowne łączenie w programie Spark Connect
- [SPARK-43838] [SC-137413][SQL] Poprawka podzapytania w pojedynczej tabeli z brakiem możliwości optymalizacji klauzuli
- [SPARK-44587] [SC-138315][SQL][CONNECT] Zwiększ limit rekursji protobuf marshaller
- [SPARK-44605] [SC-138338][CORE] Uściślij wewnętrzny interfejs API shuffleWriteProcessor
- [SPARK-44394] [SC-138291][CONNECT][WEBUI] Dodawanie strony interfejsu użytkownika platformy Spark dla programu Spark Connect
- [SPARK-44585] [SC-138286][MLLIB] Naprawianie warunku ostrzeżenia w ndcgAk w usłudze MLLib RankingMetrics
- [SPARK-44198] [SC-138137][CORE] Obsługa propagacji poziomu dziennika do funkcji wykonawczych
- [SPARK-44454] [SC-138071][SQL][HIVE] HiveShim getTablesByType — rezerwowa obsługa
- [SPARK-44425] [SC-138135][CONNECT] Sprawdź, czy identyfikator sessionId podany przez użytkownika jest identyfikatorem UUID
- [SPARK-43611] [SC-138051][SQL][PS][CONNCECT] Zachowaj
ExtractWindowExpressions
PLAN_ID_TAG
- [SPARK-44560] [SC-138117][PYTHON][CONNECT] Ulepszanie testów i dokumentacji dla funkcji UDF języka Python strzałki
- [SPARK-44482] [SC-138067][CONNECT] Serwer połączenia powinien określać adres powiązania
- [SPARK-44528] [SC-138047][CONNECT] Obsługa prawidłowego użycia funkcji hasattr() dla ramki danych Connect
- [SPARK-44525] [SC-138043][SQL] Poprawianie komunikatu o błędzie, gdy nie można odnaleźć metody Invoke
- [SPARK-44355] [SC-137878][SQL] Przenoszenie withCTE do zapytań poleceń
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 14.1.
Środowisko systemu
- System operacyjny: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black (czarny) | 22.6.0 | wybielacz | 4.1.0 |
kierunkowskaz | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknięcie | 8.0.4 | Comm | 0.1.2 |
konturowy | 1.0.5 | kryptografia | 39.0.1 | rowerzysta | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | dekorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0,11 | punkty wejścia | 0,4 |
Wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 | fastjsonschema | 2.18.0 |
filelock | 3.12.3 | fonttools | 4.25.0 | Biblioteka środowiska uruchomieniowego GCC | 1.10.0 |
googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | stan obiektu grpcio | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | Jeepney | 0.7.1 |
Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.17.3 | jupyter-client | 7.3.4 | jupyter-server | 1.23.4 |
jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
keyring | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | biblioteka matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mistune | 0.8.4 | więcej itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
nodeenv | 1.8.0 | notes | 6.5.2 | notebook_shim | 0.2.2 |
numpy | 1.23.5 | oauthlib | 3.2.0 | opakowanie | 22,0 |
Pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.10.3 | Patsy | 0.5.3 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Poduszka | 9.4.0 | 22.3.1 | |
platformdirs | 2.5.2 | kreślenie | 5.9.0 | wtyczka | 1.0.0 |
prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pirstent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
żądania | 2.28.1 | lina | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | seaborn | 0.12.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 65.6.3 | Sześć | 1.16.0 |
wąchanie | 1.2.0 | zupy | 2.3.2.post1 | ssh-import-id | 5,11 |
stack-data | 0.2.0 | statsmodels | 0.13.5 | Wytrzymałość | 8.1.0 |
terminado | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
traitlety | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
wadllib | 1.3.6 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
websocket-client | 0.58.0 | whatthepatch | 1.0.2 | koło | 0.38.4 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
SciPy | 1.10.1 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN posit Menedżer pakietów 2023-02-10.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałkę | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports (backports) | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bitowe | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
rozruch | 1.3-28 | warzyć | 1.0-8 | Brio | 1.1.3 |
miotła | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
obiekt wywołujący | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | class | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | zegar | 0.7.0 | cluster | 2.1.4 |
codetools | 0.2-19 | przestrzeń kolorów | 2.1-0 | commonmark | 1.9.0 |
— kompilator | 4.3.1 | config | 0.3.1 | Konflikt | 1.2.0 |
cpp11 | 0.4.4 | kredka | 1.5.2 | poświadczenia | 1.3.2 |
lok | 5.0.1 | data.table | 1.14.8 | usługi Power BI | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | Desc | 1.4.2 |
devtools | 2.4.5 | diagram | 1.6.5 | diffobj | 0.3.5 |
trawić | 0.6.33 | downlit (wyłączony) | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | wielokropek | 0.3.2 |
evaluate | 0.21 | fani | 1.0.4 | farver | 2.1.1 |
szybka mapa | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | zagraniczny | 0.8-82 | kuźnia | 0.2.0 |
Fs | 1.6.2 | przyszłość | 1.33.0 | future.apply | 1.11.0 |
płukać gardło | 1.5.1 | Generyczne | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globalna | 0.16.2 | klej | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.1 | grDevices | 4.3.1 | siatka | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | przystań | 2.5.3 | wysoki | 0.10 |
Hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
Etykietowania | 0.4.2 | później | 1.3.1 | krata | 0.21-8 |
lawa | 1.7.2.1 | cykl życia | 1.0.3 | nasłuchiwanie | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | Markdown | 1,7 |
MASA | 7.3-60 | Macierz | 1.5-4.1 | zapamiętywanie | 2.0.1 |
metody | 4.3.1 | mgcv | 1.8-42 | mim | 0,12 |
miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modeler | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
równolegle | 1.36.0 | filar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | Postęp | 1.2.2 |
progressr | 0.13.0 | Obietnice | 1.2.0.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | przepisy | 1.0.6 |
rewanż | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.4.2 |
reprex | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions (rversions) | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.6 | waga | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | kształt | 1.4.6 |
błyszczący | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
SparkR | 3.5.0 | przestrzenny | 7.3-15 | Splajnów | 4.3.1 |
sqldf | 0.4-11 | KWADRAT | 2021.1 | Statystyki | 4.3.1 |
stats4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
przetrwanie | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
tcltk | 4.3.1 | testthat | 3.1.10 | textshaping | 0.3.6 |
tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 2.0.0 | zmiana czasu | 0.2.0 | timeDate | 4022.108 |
tinytex | 0,45 | tools | 4.3.1 | tzdb | 0.4.0 |
urlchecker | 1.0.1 | usethis | 2.2.2 | utf8 | 1.2.3 |
narzędzia | 4.3.1 | uuid | 1.1-0 | vctrs | 0.6.3 |
viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
wąs | 0.4.1 | withr | 2.5.0 | xfun | 0.39 |
xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zamek | 2.3.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-klej | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.7.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.kofeina | kofeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-spark_2.12 | 0.7.5 |
io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transport netto | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.33 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | format strzałki | 12.0.1 |
org.apache.arrow | strzałka-pamięć-rdzeń | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | wektor strzałki | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | bluszcz | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
org.apache.orc | podkładki orc-shim | 1.9.1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.23 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | jute dozorców | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | Podkładki | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.threeten | trzydostępne dodatkowe | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |