Aktualizacje konserwacji środowiska Databricks Runtime (zarchiwizowane)
Ta zarchiwizowana strona zawiera listę aktualizacji konserwacji wydanych dla wersji środowiska Databricks Runtime, które nie są już obsługiwane. Aby dodać aktualizację konserwacji do istniejącego klastra, uruchom ponownie klaster.
Ważne
Ta dokumentacja została wycofana i może nie zostać zaktualizowana. Produkty, usługi lub technologie wymienione w tej zawartości osiągnęły koniec wsparcia. Zobacz notatki o wydaniu Databricks Runtime - wersje i zgodność.
Uwaga
Ten artykuł zawiera odwołania do terminu białą listę, który nie jest używany przez usługę Azure Databricks. Po usunięciu tego terminu z oprogramowania usuniemy go również z artykułu.
Wersje środowiska Databricks Runtime
Aktualizacje serwisowe według wydania:
- Databricks Runtime 15.3
- Databricks Runtime 15.2
- Databricks Runtime 15.1
- Databricks Runtime 15.0
- Databricks Runtime 14.2
- Databricks Runtime 14.1
- Databricks Runtime 14.0
- Databricks Runtime 13.1
- Databricks Runtime 12.2 LTS
- Databricks Runtime 11.3 LTS
- Databricks Runtime 10.4 LTS
- Databricks Runtime 9.1 LTS
- Databricks Runtime 13.0 (EoS)
- Databricks Runtime 12.1 (EoS)
- Databricks Runtime 12.0 (EoS)
- Databricks Runtime 11.2 (EoS)
- Databricks Runtime 11.1 (EoS)
- Databricks Runtime 11.0 (EoS)
- Databricks Runtime 10.5 (EoS)
- Databricks Runtime 10.3 (EoS)
- Databricks Runtime 10.2 (EoS)
- Databricks Runtime 10.1 (EoS)
- Databricks Runtime 10.0 (EoS)
- Databricks Runtime 9.0 (EoS)
- Databricks Runtime 8.4 (EoS)
- Databricks Runtime 8.3 (EoS)
- Databricks Runtime 8.2 (EoS)
- Databricks Runtime 8.1 (EoS)
- Databricks Runtime 8.0 (EoS)
- Databricks Runtime 7.6 (EoS)
- Databricks Runtime 7.5 (EoS)
- Databricks Runtime 7.3 LTS (EoS)
- Rozszerzona obsługa środowiska Databricks Runtime 6.4 (EoS)
- Databricks Runtime 5.5 LTS (EoS)
- Rozszerzona obsługa usługi Databricks Light 2.4
- Databricks Runtime 7.4 (EoS)
- Databricks Runtime 7.2 (EoS)
- Databricks Runtime 7.1 (EoS)
- Databricks Runtime 7.0 (EoS)
- Databricks Runtime 6.6 (EoS)
- Databricks Runtime 6.5 (EoS)
- Databricks Runtime 6.3 (EoS)
- Databricks Runtime 6.2 (EoS)
- Databricks Runtime 6.1 (EoS)
- Databricks Runtime 6.0 (EoS)
- Databricks Runtime 5.4 ML (EoS)
- Databricks Runtime 5.4 (EoS)
- Databricks Runtime 5.3 (EoS)
- Databricks Runtime 5.2 (EoS)
- Databricks Runtime 5.1 (EoS)
- Databricks Runtime 5.0 (EoS)
- Databricks Runtime 4.3 (EoS)
- Databricks Runtime 4.2 (EoS)
- Databricks Runtime 4.1 ML (EoS)
- Databricks Runtime 4.1 (EoS)
- Databricks Runtime 4.0 (EoS)
- Databricks Runtime 3.5 LTS (EoS)
- Databricks Runtime 3.4 (EoS)
Aby uzyskać informacje o aktualizacjach konserwacji obsługiwanych wersji środowiska Databricks Runtime, zobacz Aktualizacje konserwacji środowiska Databricks Runtime.
Databricks Runtime 15.3
Zobacz Databricks Runtime 15.3 (EoS).
- 26 listopada 2024 r.
- W tej wersji można teraz wykonywać zapytania dotyczące funkcji
vector_search
przy użyciuquery_text
dla wprowadzania tekstu lubquery_vector
na potrzeby osadzania danych wejściowych. - Aktualizacje zabezpieczeń systemu operacyjnego.
- W tej wersji można teraz wykonywać zapytania dotyczące funkcji
- 5 listopada 2024 r.
- [SPARK-49905] Użyj dedykowanego elementu ShuffleOrigin dla operatora stanowego, aby uniemożliwić modyfikację mieszania przez funkcję AQE.
- [SPARK-49867][SQL] Ulepsz komunikat o błędzie, gdy indeks jest poza zakresem przy wywołaniu GetColumnByOrdinal
- [SPARK-48843][15.3,15.2] Zapobieganie nieskończonej pętli za pomocą parametrów BindParameters
- [SPARK-49829] Popraw optymalizację przy łączeniu strumień-strumień poprzez dodawanie danych wejściowych do magazynu stanowego (poprawka poprawności)
- [SPARK-49863][SQL] Naprawa parametru NormalizeFloatingNumbers w celu zachowania zerowości zagnieżdżonych struktur
- [SPARK-49782][SQL] Reguła ResolveDataFrameDropColumns rozwiązuje NierozwiązanyAtrybut z danymi wyjściowymi podrzędnego elementu
- [SPARK-46632][SQL] Naprawianie eliminacji podwyrażenia, gdy równoważne wyrażeniaternarne mają różne elementy podrzędne
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 października 2024 r.
- [SPARK-49905] Użyj dedykowanego elementu ShuffleOrigin dla operatora stanowego, aby zapobiec modyfikacji mieszania przez adaptacyjną realizację zapytań (AQE)
- [SPARK-49867][SQL] Ulepsz komunikat o błędzie, gdy indeks jest poza zakresem przy wywołaniu GetColumnByOrdinal
- [SPARK-48843][15.3,15.2] Zapobieganie nieskończonej pętli za pomocą parametrów BindParameters
- [SPARK-49829] Popraw optymalizację procesu dodawania danych wejściowych do magazynu stanów w łączeniu strumień-strumień (poprawka dotycząca poprawności)
- [SPARK-49863][SQL] Naprawa parametru NormalizeFloatingNumbers w celu zachowania zerowości zagnieżdżonych struktur
- [SPARK-49782][SQL] ResolveDataFrameDropColumns reguła rozwiązuje nierozwiązane atrybutyAttribute z podrzędnymi danymi wyjściowymi
- [SPARK-46632][SQL] Naprawianie eliminacji podwyrażenia, gdy równoważne wyrażeniaternarne mają różne elementy podrzędne
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 10 października 2024 r.
- [SPARK-49688][CONNECT] Naprawianie wyścigu danych między przerwaniami i wykonaniem planu
- [SPARK-49743][SQL] OptimizeCsvJsonExpr nie należy zmieniać pól schematu podczas oczyszczania pól GetArrayStructFields
- [BACKPORT] [SPARK-49474][SS] Klasyfikuj klasę błędów dla funkcji użytkownika FlatMapGroupsWithState
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 września 2024 r.
- [SPARK-49492][CONNECT] Ponowna próba dołączenia przy nieaktywnym uchwycie wykonania
- [SPARK-49628][SQL] ConstantFolding powinno skopiować wyrażenie stanowe przed przetworzeniem
- [SPARK-49000][SQL] Poprawka działania "select count(distinct 1) from t", gdzie t jest pustą tabelą, przez rozszerzenie funkcji RewriteDistinctAggregates
- [SPARK-49458][CONNECT][PYTHON] Podaj identyfikator sesji po stronie serwera za pomocą polecenia ReattachExecute
-
[SPARK-48719][SQL] Napraw usterkę obliczania
RegrSlope
&RegrIntercept
, gdy pierwszy parametr ma wartość null - Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 września 2024 r.
- [SPARK-49336][CONNECT] Ogranicz poziom zagnieżdżania podczas obcinania komunikatu protobuf
- [SPARK-49526][CONNECT][15.3.5] Obsługa ścieżek stylu systemu Windows w narzędziu ArtifactManager
- [SPARK-49366][CONNECT] Traktuj węzeł Union jako liść podczas rozwiązywania kolumny ramki danych
- [SPARK-43242][CORE] Napraw błąd „Nieoczekiwany typ BlockId” przy diagnozowaniu uszkodzenia procesu mieszania.
- [SPARK-49409][CONNECT] Dostosowywanie wartości domyślnej CONNECT_SESSION_PLAN_CACHE_SIZE
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 sierpnia 2024 r.
- [SPARK-49263][CONNECT] Klient Spark Connect w języku Python: spójna obsługa opcji czytnika DataFrame dla wartości logicznych.
- [SPARK-49056][SQL] ErrorClassesJsonReader nie może poprawnie obsłużyć wartości null
-
[SPARK-48862][PYTHON][CONNECT] Unikaj wywoływania
_proto_to_string
, gdy poziom INFO nie jest włączony - [SPARK-49146][SS] Przenieść błędy asercji związane z brakiem znacznika czasu w zapytaniach przesyłanych strumieniowo w trybie dołączania do frameworku błędów
- 14 sierpnia 2024 r.
- [SPARK-48941][SPARK-48970] Backport poprawek dotyczących zapisu/odczytu uczenia maszynowego
- [SPARK-48706][PYTHON] Funkcja UDF języka Python w funkcjach o wyższej kolejności nie powinna zgłaszać błędu wewnętrznego
- [SPARK-48954] try_mod() zastępuje try_remainder()
- [SPARK-48597][SQL] Wprowadzenie znacznika dla właściwości isStreaming w tekście reprezentacji planu logicznego
- [SPARK-49065][SQL] Rebasing w starszych formaterach/analitykach musi obsługiwać strefy czasowe inne niż domyślne dla JVM
- [SPARK-49047][PYTHON][CONNECT] Skrócenie komunikatu do rejestrowania
- [SPARK-48740][SQL] Wczesne wykrywanie błędu specyfikacji brakującego okna
- 1 sierpnia 2024 r.
- [Zmiana łamiąca zgodność] W środowisku Databricks Runtime 15.3 lub nowszym, wywołanie dowolnej funkcji zdefiniowanej przez użytkownika w Pythonie (UDF), agregującej (UDAF) lub tabeli (UDTF), która używa typu
VARIANT
jako argumentu lub wartości zwracanej, zgłasza wyjątek. Ta zmiana jest wprowadzana w celu zapobiegania problemom, które mogą wystąpić z powodu nieprawidłowej wartości zwróconej przez jedną z tych funkcji. Aby dowiedzieć się więcej o typieVARIANT
, patrz używaj VARIANTów do przechowywania częściowo ustrukturyzowanych danych. - W przypadku bezserwerowych obliczeń dla notebooków i zadań tryb SQL ANSI jest domyślnie włączony. Zobacz Obsługiwane parametry konfiguracji platformy Spark.
- W przypadku obliczeń skonfigurowanych w trybie dostępu współdzielonego operacje odczytu i zapisu wsadowego w Kafka mają teraz takie same ograniczenia, jak te udokumentowane w przypadku Strukturalnego przesyłania strumieniowego. Zobacz Ograniczenia dotyczące przesyłania strumieniowego i wymagania dotyczące standardowego trybu dostępu w Unity Catalog.
- Dane wyjściowe instrukcji
SHOW CREATE TABLE
zawierają teraz wszystkie filtry wierszy lub maski kolumn zdefiniowane w zmaterializowanym widoku lub tabeli przesyłania strumieniowego. Zobacz SHOW CREATE TABLE. Aby dowiedzieć się więcej o filtrach wierszy i maskach kolumn, zobacz Filtrowanie poufnych danych tabeli przy użyciu filtrów wierszy i masek kolumn. - [SPARK-46957][CORE] Likwidacja migrowanych plików tasowania powinna być możliwa do wykonania przez egzekutor.
- [SPARK-48648][PYTHON][CONNECT] Zadbaj o to, aby element SparkConnectClient.tags był poprawnie lokalny dla wątku.
- [SPARK-48896][SPARK-48909][SPARK-48883] Poprawki modułu zapisywania uczenia maszynowego platformy Spark w zapleczu
- [SPARK-48713][SQL] Dodaj weryfikację zakresu indeksu dla metody UnsafeRow.pointTo, jeśli obiekt baseObject jest tablicą bajtów
- [SPARK-48834][SQL] Wyłączanie wariantu danych wejściowych/wyjściowych dla skalarnych UDF-ów Pythona, UDTF-ów, UDAF-ów podczas kompilacji zapytań
- [SPARK-48934][SS] Typy daty/godziny języka Python przekonwertowane niepoprawnie dla ustawienia limitu czasu w applyInPandasWithState
- [SPARK-48705][PYTHON] Należy jawnie użyć worker_main, gdy uruchamia się z pyspark.
- [SPARK-48544][SQL] Zmniejsz obciążenie pamięci pustych bitowych zestawów TreeNode
- [SPARK-48889][SS] testStream do zwolnienia pamięci magazynów stanu przed zakończeniem
- [SPARK-49054][SQL] Wartość domyślna kolumny powinna obsługiwać funkcje current_*
- [SPARK-48653][PYTHON] Naprawianie nieprawidłowych odwołań do klas błędów źródła danych języka Python
- [SPARK-48463] Ustaw właściwość StringIndexer obsługując zagnieżdżone kolumny wejściowe
- [SPARK-48810][CONNECT] Interfejs API stop() sesji powinien być idempotentny i nie zakończyć się niepowodzeniem, jeśli sesja została już zamknięta przez serwer
- [SPARK-48873][SQL] Użyj elementu UnsafeRow w analizatorze JSON.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [Zmiana łamiąca zgodność] W środowisku Databricks Runtime 15.3 lub nowszym, wywołanie dowolnej funkcji zdefiniowanej przez użytkownika w Pythonie (UDF), agregującej (UDAF) lub tabeli (UDTF), która używa typu
- 11 lipca 2024 r.
- (Zmiana zachowania) Ramki danych buforowane względem źródeł tabeli delty są teraz unieważniane, jeśli tabela źródłowa została zastąpiona. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
.checkpoint()
do utrwalania stanu tabeli przez cały okres istnienia ramki danych. - Sterownik JDBC snowflake został zaktualizowany do wersji 3.16.1.
- Ta wersja zawiera poprawkę problemu, który uniemożliwiał poprawne wyświetlanie karty Środowisko w interfejsie użytkownika Spark podczas uruchamiania w usługach Kontenerowych Databricks.
- Aby zignorować nieprawidłowe partycje podczas odczytywania danych, źródeł danych opartych na plikach, takich jak Parquet, ORC, CSV lub JSON, można ustawić opcję ignoreInvalidPartitionPaths źródła danych na wartość true. Na przykład: spark.read.format("parquet").option("ignoreInvalidPartitionPaths", "true").load(...)`. Można również użyć konfiguracji SQL spark.sql.files.ignoreInvalidPartitionPaths. Jednak opcja źródła danych ma pierwszeństwo przed konfiguracją SQL. To ustawienie jest domyślnie fałszywe.
- [SPARK-48100][SQL] Napraw problemy z pomijaniem zagnieżdżonych pól struktury nie zaznaczonych w schemacie
- [SPARK-47463][SQL] Użyj elementu V2Predicate do zawijania wyrażenia z typem zwracanej wartości logicznej
- [SPARK-48292][CORE] Przywracanie [SPARK-39195][SQL] Spark OutputCommitCoordinator powinno przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-48475][PYTHON] Optymalizowanie _get_jvm_function w programie PySpark.
- [SPARK-48286] Naprawiono analizę kolumny z istniejącym wyrażeniem domyślnym — dodano komunikat o błędzie dla użytkownika
- [SPARK-48481][SQL][SS] Nie stosuj OptimizeOneRowPlan względem danych strumieniowych.
- Przywróć "[SPARK-47406][SQL] Handle TIMESTAMP and DATETIME in MYSQLDialect"
- [SPARK-48383][SS] Zgłaszanie lepszego błędu w przypadku niedopasowanych partycji w opcji startOffset na platformie Kafka
- [SPARK-48503][14.3-15.3][SQL] Naprawa nieprawidłowych skalarnych podzapytań z grupowaniem wg nierównoważnych kolumn, które były niepoprawnie dozwolone
- [SPARK-48445][SQL] Nie wbudowuj UDF z kosztownymi składnikami
- [SPARK-48252][SQL] Aktualizowanie biblioteki CommonExpressionRef w razie potrzeby
- [SPARK-48273][master][SQL] Poprawka późnego ponownego zapisywania PlanWithUnresolvedIdentifier
- [SPARK-48566][PYTHON] Usunięto usterkę polegającą na tym, że indeksy partycji są niepoprawne, gdy funkcja UDTF analyze() używa zarówno funkcji select, jak i partitionColumns
- [SPARK-48556][SQL] Poprawka nieprawidłowego komunikatu o błędzie wskazującego na UNSUPPORTED_GROUPING_EXPRESSION
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania) Ramki danych buforowane względem źródeł tabeli delty są teraz unieważniane, jeśli tabela źródłowa została zastąpiona. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
Databricks Runtime 15.2
Zobacz Databricks Runtime 15.2 (EoS).
- 26 listopada 2024 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 listopada 2024 r.
- [SPARK-49905] Użyj dedykowanego ShuffleOrigin dla operatora stanowego, aby zapobiec modyfikacji shuffle przez AQE
- [SPARK-48843][15.3,15.2] Zapobieganie nieskończonej pętli za pomocą parametrów BindParameters
- [SPARK-49829] Popraw optymalizację dodawania danych wejściowych do magazynu stanów w łączeniu strumień-strumień (poprawka poprawności)
- [SPARK-49863][SQL] Naprawa parametru NormalizeFloatingNumbers w celu zachowania zerowości zagnieżdżonych struktur
- [SPARK-49782][SQL] Reguła ResolveDataFrameDropColumns rozwiązuje nierozwiązany atrybut z danymi wyjściowymi elementu podrzędnego
- [SPARK-46632][SQL] Naprawianie eliminacji podwyrażenia, gdy równoważne wyrażeniaternarne mają różne elementy podrzędne
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 października 2024 r.
- [SPARK-49905] Użyj dedykowanego ShuffleOrigin dla operatora stanowego, aby zapobiec modyfikacji mieszania przez AQE.
- [SPARK-48843][15.3,15.2] Zapobieganie nieskończonej pętli za pomocą parametrów BindParameters
- [SPARK-49829] Popraw optymalizację dodawania danych wejściowych do magazynu stanów w sprzężeniu strumieniowym (naprawa poprawności)
- [SPARK-49863][SQL] Naprawa parametru NormalizeFloatingNumbers w celu zachowania zerowości zagnieżdżonych struktur
- [SPARK-49782][SQL] Zasada ResolveDataFrameDropColumns rozwiązuje NierozwiązanyAtrybut za pomocą podrzędnych danych wyjściowych
- [SPARK-46632][SQL] Naprawa eliminacji podwyrażenia, gdy równoważne wyrażenia ternarne mają różne dzieci
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 10 października 2024 r.
- [BACKPORT] [SPARK-49474][SS] Klasyfikuj klasę błędów dla funkcji użytkownika FlatMapGroupsWithState
- [SPARK-49743][SQL] OptimizeCsvJsonExpr nie należy zmieniać pól schematu podczas oczyszczania pól GetArrayStructFields
- [SPARK-49688][CONNECT] Naprawianie wyścigu danych między przerwaniami i wykonaniem planu
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 września 2024 r.
- [SPARK-49000][SQL] Poprawiono problem z "select count(distinct 1) from t", gdzie t jest pustą tabelą, poprzez rozszerzenie funkcji RewriteDistinctAggregates
- [SPARK-48719][SQL] Naprawiono usterkę obliczania regrSlope i RegrIntercept, gdy pierwszy parametr ma wartość null
- [SPARK-49458][CONNECT][PYTHON] Podaj identyfikator sesji po stronie serwera za pomocą polecenia ReattachExecute
- [SPARK-49628][SQL] ConstantFolding powinno skopiować wyrażenie z utrzymywanym stanem przed oceną
- [SPARK-49492][CONNECT] Próba ponownego dołączenia przy nieaktywnym obiekcie wykonawczym
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 września 2024 r.
- [SPARK-49336][CONNECT] Ogranicz poziom zagnieżdżania podczas obcinania komunikatu protobuf
- [SPARK-49526][CONNECT] Obsługa ścieżek w stylu systemu Windows w narzędziu ArtifactManager
- [SPARK-49366][CONNECT] Traktuj węzeł Unii jako liść w rozdzielczości kolumny ramki danych
- [SPARK-43242][CORE] Poprawka rzuca błąd "Nieoczekiwany typ BlockId" w diagnozowaniu uszkodzenia procesu mieszania danych
- [SPARK-49409][CONNECT] Dostosowywanie wartości domyślnej CONNECT_SESSION_PLAN_CACHE_SIZE
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 sierpnia 2024 r.
- [SPARK-49056][SQL] ErrorClassesJsonReader nie może poprawnie obsłużyć wartości null
- [SPARK-48597][SQL] Wprowadzenie znacznika dla właściwości isStreaming w tekście reprezentacji planu logicznego
-
[SPARK-48862][PYTHON][CONNECT] Unikaj wywoływania
_proto_to_string
, gdy poziom INFO nie jest włączony - [SPARK-49263][CONNECT] Klient Spark Connect w Pythonie: spójna obsługa logicznych opcji czytnika DataFrame
- [SPARK-49146][SS] Przenoszenie błędów asercji związanych z brakiem limitu w zapytaniach przesyłanych strumieniowo w trybie dołączania do platformy błędów
- 14 sierpnia 2024 r.
- [SPARK-48941][SPARK-48970] Przeniesienie poprawek pisarza/czytnika ML do starszej wersji
- [SPARK-48050][SS] Rejestrowanie planu logicznego podczas uruchamiania zapytania
- [SPARK-48706][PYTHON] Funkcja UDF języka Python w funkcjach o wyższej kolejności nie powinna zgłaszać błędu wewnętrznego
- [SPARK-48740][SQL] Wczesne wykrywanie błędu brakującej specyfikacji okna
- [SPARK-49065][SQL] Dostosowywanie w starszych formaterach/analizatorach musi wspierać strefy czasowe inne niż domyślne JVM
- [SPARK-49047][PYTHON][CONNECT] Obcięcie komunikatu na potrzeby logowania
- 1 sierpnia 2024 r.
- W przypadku bezserwerowych zasobów obliczeniowych dla notesów i zadań tryb SQL ANSI jest domyślnie włączony. Zobacz Obsługiwane parametry konfiguracji platformy Spark.
- W przypadku komputerów skonfigurowanych w trybie dostępu współdzielonego odczyty i zapisy wsadowe w platformie Kafka mają teraz takie same ograniczenia, jak te udokumentowane w przypadku strumieniowania uporządkowanego. Zobacz Ograniczenia dotyczące przesyłania strumieniowego i wymagania dotyczące standardowego trybu dostępu w Unity Catalog.
- Dane wyjściowe instrukcji
SHOW CREATE TABLE
zawierają teraz wszystkie filtry wierszy lub maski kolumn zdefiniowane w zmaterializowanym widoku lub tabeli przesyłania strumieniowego. Zobacz SHOW CREATE TABLE. Aby dowiedzieć się więcej o filtrach wierszy i maskach kolumn, zobacz Filtrowanie poufnych danych tabeli przy użyciu filtrów wierszy i masek kolumn. - [SPARK-48705][PYTHON] Jawne użycie worker_main, gdy rozpoczyna się od pyspark
- [SPARK-48047][SQL] Zmniejsz wykorzystanie pamięci pustych tagów TreeNode
- [SPARK-48810][CONNECT] Interfejs API do zatrzymywania sesji powinien być idempotentny i nie zgłaszać błędu, jeśli sesja została już zamknięta przez serwer.
- [SPARK-48873][SQL] Użyj elementu UnsafeRow w analizatorze JSON.
- [SPARK-46957][CORE] Migrowane pliki mieszania powinny być możliwe do usunięcia przez egzekutora
- [SPARK-48889][SS] testStream w celu zwolnienia magazynów stanów przed zakończeniem
- [SPARK-48713][SQL] Dodaj sprawdzenie zakresu indeksów dla elementu UnsafeRow.pointTo, gdy obiekt baseObject jest tablicą bajtów
- [SPARK-48896][SPARK-48909][SPARK-48883] Poprawki modułu zapisywania uczenia maszynowego platformy Spark w zapleczu
- [SPARK-48544][SQL] Zmniejszenie obciążenia pamięci przez puste zbiory bitów TreeNode
- [SPARK-48934][SS] Typy daty/godziny języka Python przekonwertowane niepoprawnie dla ustawienia limitu czasu w applyInPandasWithState
- [SPARK-48463] Dostosuj StringIndexer, aby obsługiwał zagnieżdżone kolumny wejściowe
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 11 lipca 2024 r.
- (Zmiana zachowania) Buforowane ramki danych względem tabel Delta są teraz unieważniane, jeśli tabela źródłowa zostanie nadpisana. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
.checkpoint()
do utrwalania stanu tabeli przez cały okres istnienia ramki danych. - Sterownik JDBC snowflake został zaktualizowany do wersji 3.16.1.
- Ta wersja zawiera poprawkę do problemu, który uniemożliwiał poprawne wyświetlanie karty Środowisko interfejsu użytkownika Spark podczas uruchamiania w Usługach Kontenerowych Databricks.
- W notesach i zadaniach bezserwerowych tryb SQL ANSI będzie domyślnie włączony i obsługuje krótkie nazwy
- Aby zignorować nieprawidłowe partycje podczas odczytywania danych, można ustawić opcję ignoreInvalidPartitionPaths na wartość true w źródłach danych opartych na plikach, takich jak Parquet, ORC, CSV lub JSON. Na przykład: spark.read.format("parquet").option("ignoreInvalidPartitionPaths", "true").load(...)`. Można również użyć konfiguracji SQL spark.sql.files.ignoreInvalidPartitionPaths. Jednak opcja źródła danych ma pierwszeństwo przed konfiguracją SQL. To ustawienie jest domyślnie fałszywe.
- [SPARK-48273][SQL] Naprawa późnej zmiany PlanWithUnresolvedIdentifier
- [SPARK-48292][CORE] Przywrócić [SPARK-39195][SQL] Spark OutputCommitCoordinator powinien przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-48100][SQL] Naprawa problemów z pomijaniem zagnieżdżonych pól struktury, które nie są wybrane w schemacie
- [SPARK-48286] Naprawa analizy kolumny z wyrażeniem domyślnym — dodanie błędu widocznego dla użytkownika
- [SPARK-48294][SQL] Obsługa małych liter w nestedTypeMissingElementTypeError
- [SPARK-48556][SQL] Poprawka nieprawidłowego komunikatu o błędzie wskazującego na UNSUPPORTED_GROUPING_EXPRESSION
- [SPARK-48648][PYTHON][CONNECT] Upewnij się, że element SparkConnectClient.tags jest poprawnie threadlocal
- [SPARK-48503][SQL] Napraw błędne podzapytania skalarnych z grupowaniem po nieekwiwalentnych kolumnach, które zostały niepoprawnie dozwolone
- [SPARK-48252][SQL] Aktualizowanie biblioteki CommonExpressionRef w razie potrzeby
- [SPARK-48475][PYTHON] Optymalizowanie _get_jvm_function w programie PySpark.
- [SPARK-48566][PYTHON] Usunięto usterkę polegającą na tym, że indeksy partycji są niepoprawne, gdy funkcja UDTF analyze() używa zarówno funkcji select, jak i partitionColumns
- [SPARK-48481][SQL][SS] Nie stosuj optymalizacji OptimizeOneRowPlan na danych strumieniowych
- [SPARK-47463][SQL] Użyj elementu V2Predicate do zawijania wyrażenia ze zwracanym typem wartości logicznej
- [SPARK-48383][SS] Generowanie lepszego komunikatu o błędzie w przypadku niedopasowanych partycji w opcji startOffset w Kafka
- [SPARK-48445][SQL] Nie udostępniaj wbudowanych funkcji zdefiniowanych przez użytkownika z kosztownymi dziećmi
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania) Buforowane ramki danych względem tabel Delta są teraz unieważniane, jeśli tabela źródłowa zostanie nadpisana. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
- 17 czerwca 2024 r.
-
applyInPandasWithState()
jest dostępny w udostępnionych klastrach. - Naprawia usterkę polegającą na tym, że optymalizacja klasyfikacji okien przy użyciu biblioteki Photon TopK niepoprawnie obsługiwała partycje ze strukturami.
- Usunięto usterkę w funkcji try_divide(), w której dane wejściowe zawierające liczby dziesiętne powodowały nieoczekiwane wyjątki.
- [SPARK-48197][SQL] Uniknięcie błędu asercji dla nieprawidłowej funkcji lambda
-
[SPARK-48276][PYTHON][CONNECT] Dodaj brakującą
__repr__
metodę dlaSQLExpression
- [SPARK-48014][SQL] Zmień błąd makeFromJava w pliku EvaluatePython na błąd napotykany przez użytkownika
- [SPARK-48016][SQL] Naprawiono usterkę w funkcji try_divide dla liczb dziesiętnych.
- [SPARK-47986][CONNECT][PYTHON] Nie można utworzyć nowej sesji, gdy sesja domyślna jest zamknięta przez serwer
- [SPARK-48173][SQL] Funkcja CheckAnalysis powinna wyświetlić cały plan zapytania
- [SPARK-48056][CONNECT][PYTHON] Wykonaj ponownie plan, jeśli zostanie zgłoszony błąd SESSION_NOT_FOUND i nie odebrano częściowej odpowiedzi
- [SPARK-48172][SQL] Rozwiązywanie problemów z ucieczką w zapleczu JDBCDialects do wersji 15.2
- [SPARK-48105][SS] Naprawa sytuacji wyścigu między zwalnianiem magazynu stanowego a tworzeniem migawki
- [SPARK-48288] Dodaj typ danych źródłowych dla wyrażenia rzutowania łącznika
- [SPARK-48310][PYTHON][CONNECT] Właściwości buforowane muszą zwracać kopie
- [SPARK-48277] Ulepszanie komunikatu o błędzie dla errorClassesJsonReader.getErrorMessage
- [SPARK-47986][CONNECT][PYTHON] Nie można utworzyć nowej sesji, gdy sesja domyślna jest zamknięta przez serwer
- Przywróć "[SPARK-47406][SQL] Obsłuż TIMESTAMP i DATETIME w MYSQLDialect"
- [SPARK-47994][SQL] Usunięto usterkę z wypchnięciem filtru kolumny CASE WHEN w programie SQLServer
- [SPARK-47764][CORE][SQL] Czyszczenie zależności mieszania na podstawie funkcji ShuffleCleanupMode
- [SPARK-47921][CONNECT] Poprawka tworzenia elementu ExecuteJobTag w elemecie ExecuteHolder
- [SPARK-48010][SQL] Unikaj powtarzających się wywołań narzędzia conf.resolver w pliku resolveExpression
- [SPARK-48146][SQL] Naprawić funkcję agregującą w asercji podrzędnej wyrażenia typu "WITH"
- [SPARK-48180][SQL] Popraw błąd, gdy wywołanie UDTF z TABLE arg zapomina o nawiasach wokół wielu PARTITION/ORDER BY wyrażeń
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
Databricks Runtime 15.1
Zobacz Databricks Runtime 15.1 (EoS).
- 22 października 2024 r.
- [SPARK-49863][SQL] Naprawa parametru NormalizeFloatingNumbers w celu zachowania zerowości zagnieżdżonych struktur
- [SPARK-46632][SQL] Naprawa eliminacji podwyrażeń, gdy równoważne wyrażenia ternarne mają różne dzieci
- [SPARK-49782][SQL] Reguła ResolveDataFrameDropColumns rozwiązuje nierozwiązane atrybuty w wynikach elementów podrzędnych
- [SPARK-49905] Użyj dedykowanego ShuffleOrigin dla operatora stanowego, aby zapobiec modyfikacji mieszania przez AQE
- [SPARK-49829] Popraw optymalizację dodawania danych wejściowych do magazynu stanów w sprzężeniu strumienia strumienia (poprawka poprawności)
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 10 października 2024 r.
- [SPARK-49688][CONNECT] Naprawianie wyścigu danych między przerwaniami i wykonaniem planu
- [SPARK-49743][SQL] OptimizeCsvJsonExpr nie należy zmieniać pól schematu podczas oczyszczania pól GetArrayStructFields
- [BACKPORT] [SPARK-49474][SS] Klasyfikuj klasę błędów dla funkcji użytkownika FlatMapGroupsWithState
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 września 2024 r.
- [SPARK-49628][SQL] StałeFoldowanie powinno skopiować wyrażenie stanowe przed oceną
- [SPARK-48719][SQL] Naprawiono usterkę obliczania regrSlope i RegrIntercept, gdy pierwszy parametr ma wartość null
- [SPARK-49492][CONNECT] Ponowiono próbę dołączenia do nieaktywnej jednostki wykonawczej
- [SPARK-49000][SQL] Poprawka "select count(distinct 1) from t", gdzie t jest pustą tabelą, poprzez rozszerzenie RewriteDistinctAggregates
- [SPARK-49458][CONNECT][PYTHON] Podaj identyfikator sesji po stronie serwera za pomocą polecenia ReattachExecute
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 września 2024 r.
- [SPARK-49336][CONNECT] Ogranicz poziom zagnieżdżania podczas skracania komunikatu protobuf
- [SPARK-49526][CONNECT] Obsługa ścieżek w stylu systemu Windows w narzędziu ArtifactManager
- [SPARK-49409][CONNECT] Dostosowywanie wartości domyślnej CONNECT_SESSION_PLAN_CACHE_SIZE
- [SPARK-43242][CORE] Naprawa zgłaszania wyjątku 'Nieoczekiwany typ BlockId' podczas diagnozowania korupcji w procesie shuffle
- [SPARK-49366][CONNECT] Należy traktować węzeł Union jako liść w rozwiązywaniu kolumn ramki danych
- 29 sierpnia 2024 r.
- [SPARK-49263][CONNECT] Klient Spark Connect w języku Python: spójne zarządzanie opcjami logicznymi w czytniku struktury danych (DataFrame)
- [SPARK-49056][SQL] ErrorClassesJsonReader nie może poprawnie obsłużyć wartości null
-
[SPARK-48862][PYTHON][CONNECT] Unikaj wywoływania
_proto_to_string
, gdy poziom INFO nie jest włączony - [SPARK-49146][SS] Przeniesienie błędów asercji związanych z brakiem znacznika wodnego w zapytaniach przesyłanych strumieniowo w trybie dołączania do mechanizmu obsługi błędów
- 14 sierpnia 2024 r.
- [SPARK-48941][SPARK-48970] Wprowadzenie poprawek pisarza/czytnika ML z nowszych wersji
- [SPARK-48050][SS] Rejestrowanie planu logicznego podczas uruchamiania zapytania
- [SPARK-48706][PYTHON] Funkcja UDF języka Python w funkcjach o wyższej kolejności nie powinna zgłaszać błędu wewnętrznego
- [SPARK-48597][SQL] Wprowadzenie znacznika dla właściwości isStreaming w tekście reprezentacji planu logicznego
- [SPARK-49065][SQL] Przeformatowywanie w starszych formaterach/analizatorach musi obsługiwać strefy czasowe inne niż domyślne JVM
- [SPARK-49047][PYTHON][CONNECT] Skrócenie komunikatu na potrzeby logowania
- [SPARK-48740][SQL] Wczesne wykrywanie błędu braku specyfikacji okna
- 1 sierpnia 2024 r.
- W przypadku bezserwerowego przetwarzania dla notebooków i zadań tryb SQL ANSI jest domyślnie włączony. Zobacz Obsługiwane parametry konfiguracji platformy Spark.
- W przypadku obliczeń skonfigurowanych w trybie dostępu współdzielonego operacje wsadowe odczytu i zapisu w Kafce mają teraz takie same ograniczenia, jak te udokumentowane w przypadku Strukturowanego Przesyłania Strumieniowego. Zobacz Ograniczenia dotyczące przesyłania strumieniowego i wymagania dotyczące standardowego trybu dostępu w Unity Catalog.
- Dane wyjściowe instrukcji
SHOW CREATE TABLE
zawierają teraz wszystkie filtry wierszy lub maski kolumn zdefiniowane w zmaterializowanym widoku lub tabeli przesyłania strumieniowego. Zobacz SHOW CREATE TABLE. Aby dowiedzieć się więcej o filtrach wierszy i maskach kolumn, zobacz Filtrowanie poufnych danych tabeli przy użyciu filtrów wierszy i masek kolumn. - [SPARK-48544][SQL] Zmniejsz wykorzystanie pamięci pustych zestawów bitów TreeNode
- [SPARK-46957][CORE] Likwidowanie migrowanych plików tasowania powinno być możliwe do wyczyszczenia z wykonawcy
- [SPARK-47202][PYTHON] Naprawiono literówkę powodującą problemy z datami i godzinami z użyciem tzinfo.
- [SPARK-48713][SQL] Dodanie sprawdzania zakresu indeksów dla UnsafeRow.pointTo, gdy baseObject jest tablicą bajtów
- [SPARK-48896][SPARK-48909][SPARK-48883] Poprawki modułu zapisywania uczenia maszynowego platformy Spark w zapleczu
- [SPARK-48810][CONNECT] Interfejs API stop() sesji powinien być idempotentny i nie zakończyć się niepowodzeniem, jeśli sesja została już zamknięta przez serwer
- [SPARK-48873][SQL] Użyj elementu UnsafeRow w analizatorze JSON.
- [SPARK-48934][SS] Typy daty/godziny języka Python przekonwertowane niepoprawnie dla ustawienia limitu czasu w applyInPandasWithState
- [SPARK-48705][PYTHON] Wyraźne użycie worker_main, gdy zaczyna się od pyspark
- [SPARK-48889][SS] testStream, aby zwolnić magazyny stanów przed zakończeniem
- [SPARK-48047][SQL] Zmniejsz wykorzystanie pamięci pustych tagów TreeNode
- [SPARK-48463] Spraw, aby StringIndexer obsługiwał zagnieżdżone kolumny wejściowe
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 11 lipca 2024 r.
- (Zmiana zachowania) Ramki danych buforowane w odniesieniu do źródeł tabeli Delta są teraz unieważniane, jeśli tabela źródłowa zostanie nadpisana. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
.checkpoint()
do utrwalania stanu tabeli przez cały okres istnienia ramki danych. - Sterownik JDBC snowflake został zaktualizowany do wersji 3.16.1.
- Ta wersja zawiera poprawkę problemu, który uniemożliwiał poprawne wyświetlanie karty Środowisko w interfejsie użytkownika Spark podczas uruchamiania w usługach kontenerowych Databricks.
- W przypadku bezserwerowych zasobów obliczeniowych dla notesów i zadań tryb SQL ANSI jest domyślnie włączony. Zobacz Obsługiwane parametry konfiguracji platformy Spark.
- Aby zignorować nieprawidłowe partycje podczas odczytywania danych, w przypadku źródeł danych opartych na plikach, takich jak Parquet, ORC, CSV lub JSON, można ustawić opcję źródła danych ignoreInvalidPartitionPaths na wartość true. Na przykład: spark.read.format("parquet").option("ignoreInvalidPartitionPaths", "true").load(...)`. Można również użyć konfiguracji SQL spark.sql.files.ignoreInvalidPartitionPaths. Jednak opcja źródła danych ma pierwszeństwo przed konfiguracją SQL. To ustawienie jest domyślnie fałszywe.
- [SPARK-48383][SS] Zgłaszanie lepszego błędu w przypadku niedopasowanych partycji w opcji startOffset na platformie Kafka
- [SPARK-48481][SQL][SS] Nie stosuj planu OptimizeOneRowPlan względem strumieniowego zestawu danych
- [SPARK-48100][SQL] Napraw problemy z pomijaniem pól zagnieżdżonej struktury, które nie są wybrane w schemacie
- [SPARK-47463][SQL] Użyj elementu V2Predicate do zawijania wyrażenia z zwracanymi typem wartości logicznej
- [SPARK-48445][SQL] Nie wstawiaj funkcji zdefiniowanych przez użytkownika (UDF) z kosztownymi elementami potomnymi
- [SPARK-48292][CORE] Przywracanie [SPARK-39195][SQL] Spark OutputCommitCoordinator powinno przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-48566][PYTHON] Usunięto usterkę polegającą na tym, że indeksy partycji są niepoprawne, gdy funkcja UDTF analyze() używa zarówno funkcji select, jak i partitionColumns
- [SPARK-48648][PYTHON][CONNECT] Upewnij się, że element SparkConnectClient.tags jest poprawnie threadlocal
- [SPARK-48503][SQL] Naprawa nieprawidłowych podzapytań skalarnych z grupowaniem według różnych kolumn, które były niepoprawnie dozwolone
- [SPARK-48252][SQL] Aktualizowanie biblioteki CommonExpressionRef w razie potrzeby
- [SPARK-48475][PYTHON] Optymalizowanie _get_jvm_function w programie PySpark.
- [SPARK-48294][SQL] Przetwarzanie małych liter w NestedTypeMissingElementTypeError
- [SPARK-48286] Naprawiono analizę kolumny z domyślnym wyrażeniem — dodano komunikat o błędzie widoczny dla użytkownika
- [SPARK-47309][SQL] XML: Dodawanie testów wnioskowania schematu dla tagów wartości
- [SPARK-47309][SQL][XML] Dodawanie testów jednostkowych wnioskowania schematu
- [SPARK-48273][SQL] Naprawa opóźnionego przepisania PlanWithUnresolvedIdentifier
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania) Ramki danych buforowane w odniesieniu do źródeł tabeli Delta są teraz unieważniane, jeśli tabela źródłowa zostanie nadpisana. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
- 17 czerwca 2024 r.
-
applyInPandasWithState()
jest dostępny w udostępnionych klastrach. - Naprawia usterkę polegającą na tym, że optymalizacja klasyfikacji okien przy użyciu biblioteki Photon TopK niepoprawnie obsługiwała partycje ze strukturami.
- [SPARK-48310][PYTHON][CONNECT] Właściwości buforowane muszą zwracać kopie
-
[SPARK-48276][PYTHON][CONNECT] Dodaj brakującą
__repr__
metodęSQLExpression
- [SPARK-48277] Ulepszanie komunikatu o błędzie dla errorClassesJsonReader.getErrorMessage
- [SPARK-47764][CORE][SQL] Czyszczenie zależności związanych z tasowaniem w oparciu o tryb ShuffleCleanupMode
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
- 21 maja 2024 r.
- Usunięto usterkę w funkcji try_divide(), w której dane wejściowe zawierające liczby dziesiętne powodowały nieoczekiwane wyjątki.
- [SPARK-48173][SQL] Funkcja CheckAnalysis powinna wyświetlić cały plan zapytania
- [SPARK-48016][SQL] Naprawiono usterkę w funkcji try_divide przy użyciu liczb dziesiętnych.
- [SPARK-48105][SS] Naprawa warunku wyścigu między rozładowywaniem magazynu stanów a tworzeniem migawek
- [SPARK-48197][SQL] Unikaj błędu asercji dla nieprawidłowej funkcji lambda
- [SPARK-48180][SQL] Popraw błąd, gdy wywołanie UDTF z TABLE arg zapomina o nawiasach wokół wielu PARTITION/ORDER BY wyrażeń
- [SPARK-48014][SQL] Zmień błąd makeFromJava w pliku EvaluatePython na błąd napotykany przez użytkownika
- [SPARK-48056][CONNECT][PYTHON] Wykonaj ponownie plan, jeśli zostanie zgłoszony błąd SESSION_NOT_FOUND i nie odebrano częściowej odpowiedzi
- [SPARK-48146][SQL] Napraw funkcję agregującą w wyrażeniu pochodnym asercji
- [SPARK-47994][SQL] Naprawiono błąd związany z przepychaniem filtrów kolumny CASE WHEN w systemie SQLServer
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 9 maja 2024 r.
- [SPARK-47543][CONNECT][PYTHON] Wnioskowanie dict as MapType z ramki danych Pandas w celu umożliwienia tworzenia ramki danych
- [SPARK-47739][SQL] Rejestruj typ logiczny avro
-
[SPARK-48044][PYTHON][CONNECT] Pamięć podręczna
DataFrame.isStreaming
-
[SPARK-47855][CONNECT] Dodaj
spark.sql.execution.arrow.pyspark.fallback.enabled
do listy nieobsługiwanych - [SPARK-48010][SQL] Unikaj powtarzających się wywołań narzędzia conf.resolver w pliku resolveExpression
- [SPARK-47941] [SS] [Połącz] Propagacja błędów inicjowania procesu roboczego ForeachBatch dla użytkowników programu PySpark
- [SPARK-47819][CONNECT][Cherry-pick-15.0] Użyj asynchronicznego wywołania zwrotnego do czyszczenia po wykonaniu
- [SPARK-47956][SQL] Weryfikacja poprawności dla nierozwiązanego odniesienia LCA
- [SPARK-47839][SQL] Naprawiono usterkę agregacji w rewriteWithExpression
- [SPARK-48018][SS] Naprawiono problem z wartością null groupId, powodujący błąd z brakującym parametrem podczas zgłaszania wyjątku KafkaException.couldNotReadOffsetRange
- [SPARK-47371] [SQL] XML: Ignoruj tagi wierszy znalezione w CDATA
- [SPARK-47907][SQL] Umieść huk pod konfiguracją
- [SPARK-47895][SQL] grupowanie według wszystkich powinno być idempotentne
- [SPARK-47973][CORE] Zaloguj miejsce wywołania w SparkContext.stop() oraz później w SparkContext.assertNotStopped()
- [SPARK-47986][CONNECT][PYTHON] Nie można utworzyć nowej sesji, gdy sesja domyślna jest zamknięta przez serwer
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 15.0
Zobacz Databricks Runtime 15.0 (EoS).
- 30 maja 2024 r.
- (Zmiana zachowania)
dbutils.widgets.getAll()
jest teraz obsługiwana, aby uzyskać wszystkie wartości widżetów w notatniku.
- (Zmiana zachowania)
- 25 kwietnia 2024 r.
- [SPARK-47786]SELECT DISTINCT () nie powinny stać się SELECT DISTINCT struct() (przywróć poprzednie zachowanie)
- [SPARK-47802][SQL] Przywróć () ze znaczenia struct z powrotem do znaczenia *
- [SPARK-47509][SQL] Blokuj wyrażenia podzapytania w funkcjach lambda i funkcjach wyższego rzędu
- [SPARK-47722] Przed zamknięciem poczekaj na zakończenie pracy w tle bazy danych RocksDB
- [SPARK-47081][CONNECT][OBSERWUJ] Poprawa użyteczności obsługiwacza postępu
- [SPARK-47694][CONNECT] Ustawianie maksymalnego rozmiaru komunikatu konfigurowalnego po stronie klienta
-
[SPARK-47669][SQL][CONNECT][PYTHON] Dodawać
Column.try_cast
- [SPARK-47664][PYTHON][CONNECT][Cherry-pick-15.0] Weryfikowanie nazwy kolumny przy użyciu buforowanego schematu
- [SPARK-47818][CONNECT][Cherry-pick-15.0] Wprowadzenie pamięci podręcznej planu w rozwiązaniu SparkConnectPlanner w celu zwiększenia wydajności żądań analizy
- [SPARK-47704][SQL] Analizowanie kodu JSON kończy się niepowodzeniem z komunikatem "java.lang.ClassCastException" po włączeniu spark.sql.json.enablePartialResults
- [SPARK-47755][CONNECT] Funkcja przestawna powinna nie działać, gdy liczba unikalnych wartości jest zbyt duża
- [SPARK-47713][SQL][CONNECT] Naprawianie błędu samosprzężenia
- [SPARK-47812][CONNECT] Obsługa serializacji platformy SparkSession dla procesu roboczego ForEachBatch
-
[SPARK-47828][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
napotyka błąd z powodu nieprawidłowego planu - [SPARK-47862][PYTHON][CONNECT]Naprawa generowania plików proto
- [SPARK-47800][SQL] Utwórz nową metodę konwersji identyfikatora na tableIdentifier
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 3 kwietnia 2024 r.
- (Zmiana zachowania) Aby zapewnić spójne zachowanie we wszystkich typach obliczeń, funkcje zdefiniowane przez użytkownika (UDF) PySpark na udostępnionych klastrach są teraz zgodne z funkcjami w klastrach bez izolacji i przypisanych. Ta aktualizacja obejmuje następujące zmiany, które mogą spowodować przerwanie istniejącego kodu:
- Funkcje zdefiniowane przez użytkownika z typem zwracanym
string
nie konwertują już niejawnie wartości innych niżstring
na wartościstring
. Wcześniej funkcje definiowane przez użytkownika z typem zwracanymstr
zawijały wartość zwracaną funkcjąstr()
niezależnie od rzeczywistego typu danych tej wartości. - Funkcje zdefiniowane przez użytkownika o typach zwracanych
timestamp
nie stosują już niejawnie konwersji natimestamp
przy użyciutimezone
. - Konfiguracje klastra
spark.databricks.sql.externalUDF.*
Spark nie mają już zastosowania do UDFów PySpark w udostępnionych klastrach. - Konfiguracja klastra Spark
spark.databricks.safespark.externalUDF.plan.limit
nie ma już wpływu na funkcje zdefiniowane przez użytkownika (UDF) PySpark, co oznacza zniesienie ograniczenia publicznej wersji zapoznawczej do 5 UDF na zapytanie. - Konfiguracja klastra Spark
spark.databricks.safespark.sandbox.size.default.mib
nie ma już zastosowania do PySpark UDFs na udostępnionych klastrach. Zamiast tego jest używana dostępna pamięć w systemie. Aby ograniczyć pamięć funkcji zdefiniowanych przez użytkownika PySpark, użyjspark.databricks.pyspark.udf.isolation.memoryLimit
z minimalną wartością100m
.
- Funkcje zdefiniowane przez użytkownika z typem zwracanym
- Typ
TimestampNTZ
danych jest teraz obsługiwany jako kolumna klastrowania z klastrowaniem płynnym. Zobacz Użyj płynnego klastrowania dla tabel typu Delta). - [SPARK-47218][SQL] XML: Ignoruj skomentowane tagi wierszy w tokenizatorze XML
- [SPARK-46990][SQL] Naprawa ładowania pustych plików Avro emitowanych przez Event Hubs
- [SPARK-47033][SQL] Poprawka EXECUTE IMMEDIATE USING nie rozpoznaje nazw zmiennych sesji
- [SPARK-47368][SQL] Usuń sprawdzanie konfiguracji inferTimestampNTZ w pliku ParquetRowConverter
- [SPARK-47561][SQL] Rozwiązywanie problemów z kolejnością reguł analizatora dotyczących aliasu
- [SPARK-47638][PS][CONNECT] Pomiń walidację nazwy kolumny w programie PS
- [SPARK-46906][BACKPORT][SS] Dodawanie sprawdzania zmiany operatora stanowego dla przesyłania strumieniowego
- [SPARK-47569][SQL] Nie zezwalaj na porównywanie wariantu.
- [SPARK-47241][SQL] Napraw problemy z kolejnością reguł dla ExtractGenerator
- [SPARK-47218] [SQL] XML: Zmieniono polecenie SchemaOfXml, aby nie powiodło się w trybie DROPMALFORMED
-
[SPARK-47300][SQL]
quoteIfNeeded
należy umieścić w cudzysłowie identyfikator zaczynający się od cyfr - [SPARK-47009][SQL][Sortowanie] Włącz obsługę tworzenia tabeli na potrzeby sortowania
-
[SPARK-47322][PYTHON][CONNECT] Upewnij się, że obsługa
withColumnsRenamed
duplikacji nazw kolumn jest spójna zwithColumnRenamed
- [SPARK-47544][PYTHON] Metoda konstruktora SparkSession jest niezgodna z funkcją IntelliSense w Visual Studio Code
- [SPARK-47511][SQL] Kanonizuj wyrażenia "With" poprzez ponowne przypisanie identyfikatorów
- [SPARK-47385] Napraw enkodery krotek z danymi wejściowymi typu Option.
- [SPARK-47200][SS] Klasa błędu dla błędu funkcji użytkownika ujścia wsadowego foreach
- [SPARK-47135][SS] Implementowanie klas błędów dla wyjątków utraty danych platformy Kafka
- [SPARK-38708][SQL] Uaktualnianie klienta magazynu metadanych Hive do wersji 3.1.3 dla programu Hive 3.1
- [SPARK-47305][SQL] Napraw narzędzie PruneFilters, aby poprawnie oznaczyć flagę isStreaming w kontekście LocalRelation, gdy plan zawiera zarówno przetwarzanie wsadowe, jak i strumieniowe.
- [SPARK-47380][CONNECT] Upewnij się, że SparkSession jest taka sama po stronie serwera
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania) Aby zapewnić spójne zachowanie we wszystkich typach obliczeń, funkcje zdefiniowane przez użytkownika (UDF) PySpark na udostępnionych klastrach są teraz zgodne z funkcjami w klastrach bez izolacji i przypisanych. Ta aktualizacja obejmuje następujące zmiany, które mogą spowodować przerwanie istniejącego kodu:
Databricks Runtime 14.2
Zobacz Databricks Runtime 14.2 (EoS).
- 22 października 2024 r.
- [SPARK-49782][SQL] Reguła ResolveDataFrameDropColumns rozwiązuje nierozwiązany atrybut z danymi wyjściowymi podrzędnymi
- [SPARK-49905] Użycie dedykowanego ShuffleOrigin dla operatora stanowego w celu zapobiegania modyfikacjom shuffle przez AQE
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 10 października 2024 r.
- [SPARK-49743][SQL] OptimizeCsvJsonExpr nie należy zmieniać pól schematu podczas oczyszczania pól GetArrayStructFields
- [BACKPORT] [SPARK-49474][SS] Klasyfikuj klasę błędów dla funkcji użytkownika FlatMapGroupsWithState
- 25 września 2024 r.
- [SPARK-48719][SQL] Napraw usterkę obliczania "RegrS...
- [SPARK-49628][SQL] ConstantFolding powinno skopiować wyrażenie stanowe przed ewaluacją
- [SPARK-49000][SQL] Napraw "select count(distinct 1) from t", gdzie t jest pustą tabelą, rozszerzając RewriteDistinctAggregates
- [SPARK-43242][CORE] Poprawka zgłasza błąd "Nieoczekiwany typ identyfikatora bloku" w diagnozowaniu uszkodzenia mieszania
- [SPARK-46601] [CORE] Naprawianie błędu dziennika w handleStatusMessage
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 września 2024 r.
- [SPARK-49526][CONNECT] Obsługa ścieżek w stylu systemu Windows w narzędziu ArtifactManager
- 29 sierpnia 2024 r.
- [SPARK-49263][CONNECT] Klient platformy Spark Connect w języku Python: spójna obsługa opcji czytnika elementów logicznych ramek danych
- [SPARK-49146][SS] Przeniesienie błędów asercji związanych z brakiem watermarku w zapytaniach przesyłanych strumieniowo w trybie dołączania do struktury błędów
- [SPARK-49056][SQL] ErrorClassesJsonReader nie może poprawnie obsłużyć wartości null
- 14 sierpnia 2024 r.
- [SPARK-48050][SS] Rejestrowanie planu logicznego podczas uruchamiania zapytania
- [SPARK-48597][SQL] Wprowadzenie znacznika dla właściwości isStreaming w tekście reprezentacji planu logicznego
- [SPARK-49065][SQL] Zmiana podstawy w starszych formaterach/analizatorach musi obsługiwać inne niż domyślne strefy czasowe JVM
- [SPARK-48706][PYTHON] Funkcja UDF języka Python w funkcjach o wyższej kolejności nie powinna zgłaszać błędu wewnętrznego
- 1 sierpnia 2024 r.
- Ta wersja zawiera poprawkę błędów dla
ColumnVector
klas iColumnarArray
w interfejsie Java platformy Spark. Przed tę poprawką, gdy wystąpienie jednej z tych klas zawierało wartościnull
, mogło wystąpićArrayIndexOutOfBoundsException
lub mogły być zwrócone nieprawidłowe dane. - Dane wyjściowe instrukcji
SHOW CREATE TABLE
zawierają teraz wszystkie filtry wierszy lub maski kolumn zdefiniowane w zmaterializowanym widoku lub tabeli przesyłania strumieniowego. Zobacz SHOW CREATE TABLE. Aby dowiedzieć się więcej o filtrach wierszy i maskach kolumn, zobacz Filtrowanie poufnych danych tabeli przy użyciu filtrów wierszy i masek kolumn. - [SPARK-47202][PYTHON] Poprawiono literówkę, która powodowała problemy z datami/godzinami z tzinfo.
- [SPARK-48705][PYTHON] Jawne użycie worker_main, gdy rozpoczyna się od pyspark
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Ta wersja zawiera poprawkę błędów dla
- 11 lipca 2024 r.
- (c0:Zmiana zachowania) Buforowane ramki danych w odniesieniu do źródeł tabel Delta są teraz unieważniane, jeśli tabela źródłowa zostanie zastąpiona. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
.checkpoint()
do utrwalania stanu tabeli przez cały okres istnienia ramki danych. - Sterownik Snowflake JDBC został zaktualizowany do wersji 3.16.1
- Ta wersja zawiera poprawkę dla problemu, który uniemożliwiał poprawne wyświetlanie karty Środowisko interfejsu użytkownika platformy Spark podczas uruchamiania w Databricks Container Services.
- [SPARK-48292][CORE] Przywracanie [SPARK-39195][SQL] Spark OutputCommitCoordinator powinno przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-48273][SQL] Naprawa późnego przepisywania "PlanWithUnresolvedIdentifier"
- [SPARK-48503][SQL] Napraw nieprawidłowe podzapytania skalarne z grupowaniem według nieekwiwalentnych kolumn, które były nieprawidłowo akceptowane
- [SPARK-48481][SQL][SS] Nie stosuj OptimizeOneRowPlan względem strumieniowego zbioru danych
- [SPARK-48475][PYTHON] Optymalizowanie _get_jvm_function w programie PySpark.
- [SPARK-48100][SQL] Rozwiązywanie problemów z pomijaniem zagnieżdżonych pól struktury nie zaznaczonych w schemacie
- [SPARK-48445][SQL] Nie wstawiaj funkcji zdefiniowanych przez użytkownika (UDF) z kosztownymi elementami podrzędnymi
- [SPARK-48383][SS] Rzucenie lepszego błędu w przypadku niedopasowania partycji w opcji startOffset w Kafka
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (c0:Zmiana zachowania) Buforowane ramki danych w odniesieniu do źródeł tabel Delta są teraz unieważniane, jeśli tabela źródłowa zostanie zastąpiona. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
- 17 czerwca 2024 r.
- Naprawia usterkę polegającą na tym, że optymalizacja klasyfikacji okien przy użyciu biblioteki Photon TopK niepoprawnie obsługiwała partycje ze strukturami.
-
[SPARK-48276][PYTHON][CONNECT] Dodaj brakującą
__repr__
metodę dlaSQLExpression
- [SPARK-48277] Ulepszanie komunikatu o błędzie dla errorClassesJsonReader.getErrorMessage
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 21 maja 2024 r.
- (Zmiana zachowania)
dbutils.widgets.getAll()
jest teraz obsługiwana w celu uzyskania wszystkich wartości widgetów w notebooku. - [SPARK-48173][SQL] Funkcja CheckAnalysis powinna wyświetlić cały plan zapytania
- [SPARK-48197][SQL] Unikaj błędu asercji dla nieprawidłowej funkcji lambda
- [SPARK-47994][SQL] Usunięto usterkę z wypchnięciem filtru kolumny CASE WHEN w programie SQLServer
- [SPARK-48105][SS] Naprawienie warunku wyścigu między zwalnianiem magazynu stanów a migawkami
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania)
- 9 maja 2024 r.
-
[SPARK-48044][PYTHON][CONNECT] Pamięć podręczna
DataFrame.isStreaming
- [SPARK-47956][SQL] Sprawdzanie kondycji dla nierozwiązanej dokumentacji LCA
- [SPARK-47371] [SQL] XML: Ignoruj tagi wierszy znalezione w CDATA
- [SPARK-47812][CONNECT] Obsługa serializacji sesji Spark dla agenta ForEachBatch
- [SPARK-47895][SQL] grupowanie według wszystkich powinno być idempotentne
- [SPARK-47973][CORE] Rejestrowanie miejsca wywołania w SparkContext.stop() i później w SparkContext.assertNotStopped()
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-48044][PYTHON][CONNECT] Pamięć podręczna
- 25 kwietnia 2024 r.
- [SPARK-47704][SQL] Analizowanie kodu JSON kończy się niepowodzeniem z komunikatem "java.lang.ClassCastException" po włączeniu spark.sql.json.enablePartialResults
-
[SPARK-47828][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
błąd z powodu nieprawidłowego planu - Aktualizacje zabezpieczeń systemu operacyjnego.
- 11 kwietnia 2024 r.
- [SPARK-47309][SQL][XML] Dodawanie testów jednostkowych wnioskowania schematu
- [SPARK-46990][SQL] Naprawa ładowania pustych plików Avro emitowanych przez centry zdarzeń
- [SPARK-47638][PS][CONNECT] Pomiń walidację nazwy kolumny w programie PS
- [SPARK-47509][SQL] Blokuj wyrażenia podzapytania w funkcjach lambda i funkcjach wyższego rzędu
- [SPARK-38708][SQL] Uaktualnianie klienta magazynu metadanych Hive do wersji 3.1.3 dla programu Hive 3.1
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 kwietnia 2024 r.
-
[SPARK-47322][PYTHON][CONNECT] Upewnij się, że obsługa
withColumnsRenamed
duplikacji nazw kolumn jest spójna zwithColumnRenamed
- [SPARK-47385] Napraw enkodery krotek z wejściami typu Option.
- [SPARK-47070] Napraw nieprawidłową agregację po ponownym zapisaniu podzapytania
- [SPARK-47218] [SQL] XML: Zmieniono SchemaOfXml, aby nie działało w trybie DROPMALFORMED.
- [SPARK-47305][SQL] Napraw narzędzie PruneFilters, aby ustawić flagę isStreaming właściwości LocalRelation prawidłowo, gdy plan ma zarówno przetwarzanie wsadowe, jak i strumieniowe.
- [SPARK-47218][SQL] XML: Ignoruj skomentowane tagi wierszy w tokenizatorze XML
- Przywróć "[SPARK-46861][CORE] Unikaj zakleszczenia w DAGScheduler"
-
[SPARK-47300][SQL]
quoteIfNeeded
identyfikatory rozpoczynające się od cyfr powinny być ujmowane w cudzysłów - [SPARK-47368][SQL] Usuń sprawdzanie konfiguracji inferTimestampNTZ w pliku ParquetRowConverter
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-47322][PYTHON][CONNECT] Upewnij się, że obsługa
- 14 marca 2024 r.
- [SPARK-47035][SS][CONNECT] Protokół odbiornika po stronie klienta
- [SPARK-47121][CORE] Unikaj RejectedExecutionExceptions podczas zamykania StandaloneSchedulerBackend
- [SPARK-47145][SQL] Przekaż identyfikator tabeli do narzędzia exec skanowania źródła danych wierszy dla strategii w wersji 2.
- [SPARK-47176][SQL] Funkcja pomocnika ResolveAllExpressionsUpWithPruning
- [SPARK-47167][SQL] Dodaj konkretną klasę dla anonimowej relacji JDBC
- [SPARK-47129][CONNECT][SQL] Prawidłowe tworzenie planu połączeń z pamięcią podręczną
- [SPARK-47044][SQL] Dodawanie wykonanego zapytania dla zewnętrznych źródeł danych JDBC w celu wyjaśnienia danych wyjściowych
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 lutego 2024 r.
- Rozwiązano problem, w którym używanie kolekcji lokalnej jako źródła w poleceniu MERGE mogło spowodować, że metryka numSourceRows raportowała dwukrotnie większą niż poprawna liczbę wierszy.
- Aby utworzyć schemat ze zdefiniowaną lokalizacją, użytkownik musi teraz mieć przywileje SELECT oraz MODYFIKUJ w DOWOLNYM PLIKU.
- Teraz można pozyskiwać pliki XML przy użyciu narzędzia Autoloader, read_files, COPY INTO, DLT i DBSQL. Obsługa plików XML może automatycznie wnioskować i rozwijać schemat, ratować dane z niezgodnościami typów, weryfikować kod XML przy użyciu XSD, obsługiwać wyrażenia SQL, takie jak from_xml, schema_of_xml i to_xml. Aby uzyskać więcej informacji, zobacz Obsługa plików XML. Jeśli wcześniej używano zewnętrznego pakietu spark-xml, zobacz tutaj , aby uzyskać wskazówki dotyczące migracji.
- [SPARK-46954][SQL] XML: Opakować InputStreamReader w BufferedReader
- [SPARK-46630][SQL] XML: Weryfikowanie nazwy elementu XML podczas zapisu
- [SPARK-46248][SQL] XML: Obsługa opcji ignoreCorruptFiles i ignoreMissingFiles
- [SPARK-46954][SQL] XML: Optymalizowanie wyszukiwania indeksu schematu
- [SPARK-47059][SQL] Dołącz kontekst błędu dla polecenia ALTER COLUMN v1
- [SPARK-46993][SQL] Naprawa stałego zwijania dla zmiennych sesji
- 8 lutego 2024 r.
- Zapytania dotyczące zmiany danych (CDF) w zmaterializowanych widokach Unity Catalog nie są obsługiwane, a próba uruchomienia zapytania CDF z takim widokiem zwraca błąd. Tabele przesyłania strumieniowego w katalogu Unity obsługują zapytania CDF na tabelach innych niż
APPLY CHANGES
w środowisku Databricks Runtime 14.1 lub nowszym. Zapytania CDF nie są obsługiwane w przypadku tabel strumieniowych katalogu Unity w Databricks Runtime 14.0 i wcześniejszych wersjach. - [SPARK-46930] Dodano obsługę niestandardowego prefiksu dla pól typu Union w formacie Avro.
- [SPARK-46822] Należy uwzględnić spark.sql.legacy.charVarcharAsString podczas konwersji typu jdbc do typu catalyst w jdbc.
- [SPARK-46952] XML: Ogranicz rozmiar uszkodzonego rekordu.
- [SPARK-46644] Zmień dodawanie i scalanie w metryce SQLMetric, aby używać funkcji isZero.
- [SPARK-46861] Unikaj zawieszenia w DAGScheduler.
- [SPARK-46794] Usuń podzapytania z ograniczeń LogicalRDD.
- [SPARK-46941] Nie można wstawić węzła limitu grupy okien dla obliczeń top-k, jeśli zawiera SizeBasedWindowFunction.
- [SPARK-46933] Dodaj miarę czasu wykonywania zapytania do łączników używających JDBCRDD.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Zapytania dotyczące zmiany danych (CDF) w zmaterializowanych widokach Unity Catalog nie są obsługiwane, a próba uruchomienia zapytania CDF z takim widokiem zwraca błąd. Tabele przesyłania strumieniowego w katalogu Unity obsługują zapytania CDF na tabelach innych niż
- 31 stycznia 2024 r.
-
[SPARK-46382] XML: Zaktualizuj dokument dla elementu
ignoreSurroundingSpaces
. - [SPARK-46382] XML: wyłapuj wartości wplecione pomiędzy elementami.
- [SPARK-46763] Naprawiono błąd asercji w elemencie ReplaceDeduplicateWithAggregate dla zduplikowanych atrybutów.
- Przywróć [SPARK-46769] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu.
-
[SPARK-46677] Naprawa rozdzielczości
dataframe["*"]
. - [SPARK-46382] XML: Domyślna wartość dla ignorowania otaczających spacji to true.
- [SPARK-46633] Napraw czytnik Avro w celu obsługi bloków o zerowej długości.
- [SPARK-45964] Usuń prywatne akcesory SQL w pakiecie XML i JSON pod pakietem katalizatora.
- [SPARK-46581] Aktualizuj komentarz dotyczący isZero w AccumulatorV2.
- [SPARK-45912] Ulepszenie interfejsu API XSDToSchema: Zmiana na interfejs API HDFS w celu ułatwienia dostępu do przechowywania w chmurze.
- [SPARK-45182] Ignoruj ukończenie zadania ze starego etapu po ponowieniu próby wykonania etapu nadrzędnego w sposób określony przez sumę kontrolną.
- [SPARK-46660] ReattachExecute wymaga aktualizacji aktywności komponentu SessionHolder.
- [SPARK-46610] Tworzenie tabeli powinno zgłaszać wyjątek, jeśli nie ma wartości klucza w opcjach.
-
[SPARK-46383] Zmniejsz użycie pamięci sterty przez zmniejszenie czasu życia
TaskInfo.accumulables()
. - [SPARK-46769] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu.
- [SPARK-46684] Napraw CoGroup.applyInPandas/Arrow, aby prawidłowo przekazywał argumenty.
- [SPARK-46676] dropDuplicatesWithinWatermark nie powinno zakończyć się niepowodzeniem w kanonizacji planu.
-
[SPARK-45962] Usuń
treatEmptyValuesAsNulls
i użyjnullValue
opcji zamiast tego w formacie XML. - [SPARK-46541] Napraw niejednoznaczne odwołanie do kolumny w łączeniu własnym.
- [SPARK-46599] XML: Użyj typeCoercion.findTightestCommonType w celu sprawdzenia zgodności.
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-46382] XML: Zaktualizuj dokument dla elementu
- 17 stycznia 2024 r.
-
shuffle
Węzeł planu wyjaśnień zwrócony przez zapytanie Photon jest aktualizowany w celu dodaniacausedBroadcastJoinBuildOOM=true
flagi, gdy podczas mieszania, który jest częścią sprzężenia emisji, występuje błąd braku pamięci. - Aby uniknąć zwiększonego opóźnienia podczas komunikacji za pośrednictwem protokołu TLSv1.3, ta wersja konserwacji zawiera poprawkę do instalacji zestawu JDK 8 w celu naprawienia błędu JDK JDK-8293562.
-
[SPARK-46261]
DataFrame.withColumnsRenamed
powinna zachować kolejność dykt/mapy. -
[SPARK-46538] Rozwiązano niejednoznaczny problem z odwołaniem do kolumny w pliku
ALSModel.transform
. - [SPARK-46145] spark.catalog.listTables nie zgłasza wyjątku, gdy nie znaleziono tabeli lub widoku.
-
[SPARK-46484] Spraw, aby funkcje pomocnicze
resolveOperators
zachowały identyfikator planu. -
[SPARK-46394] Rozwiąż problemy z parametrem spark.catalog.listDatabases() w schematach ze znakami specjalnymi po
spark.sql.legacy.keepCommandOutputSchema
ustawieniu wartości true. - [SPARK-46609] Unikaj eksplozji wykładniczej w PartitioningPreservingUnaryExecNode.
- [SPARK-46446] Wyłącz podzapytania skorelowane OFFSET, aby naprawić usterkę poprawności.
- [SPARK-46152] XML: Dodano obsługę typu dziesiętnego w wnioskowaniu schematu XML.
-
[SPARK-46602] Przenoś
allowExisting
podczas tworzenia widoku, gdy widok/tabela nie istnieje. - [SPARK-45814] Spraw, aby ArrowConverters.createEmptyArrowBatch wywołało close(), aby uniknąć przecieku pamięci.
- [SPARK-46058] Dodaj oddzielną flagę privateKeyPassword.
- [SPARK-46132] Obsługa hasła klucza dla kluczy JKS dla protokołu SSL RPC.
- [SPARK-46600] Przenieś współużytkowany kod między elementami SqlConf i SqlApiConf do elementu SqlApiConfHelper.
- [SPARK-46478] Przywróć SPARK-43049, aby użyć Oracle varchar(255) dla tekstu.
- [SPARK-46417] Nie kończy się niepowodzeniem podczas wywoływania elementu hive.getTable i throwException ma wartość false.
- [SPARK-46153] XML: Dodaj obsługę atrybutu TimestampNTZType.
- [SPARK-46056][BACKPORT] Naprawa wektoryzowanego odczytu Parquet NPE z wartością domyślną byteArrayDecimalType.
- [SPARK-46466] Wektorowy czytnik formatu parquet nigdy nie powinien repozycjonować znaczników czasu ntz.
-
[SPARK-46260]
DataFrame.withColumnsRenamed
powinien przestrzegać porządku dyktowania. - [SPARK-46036] Usuwanie klasy error z funkcji raise_error.
- [SPARK-46294] Uporządkuj semantykę inicjalizacji i wartości zerowej.
- [SPARK-46173] Pomijanie wywołania trimAll podczas analizowania dat.
- [SPARK-46250] Deflake test_parity_listener.
- [SPARK-46587] XML: Naprawiono konwersję dużej liczby całkowitej XSD.
- [SPARK-46396] Interpretacja znacznika czasu nie powinna zgłaszać wyjątku.
- [SPARK-46241] Napraw procedurę obsługi błędów, aby nie wchodziła w nieskończoną rekursję.
- [SPARK-46355] XML: Zamknij inputStreamReader po zakończeniu odczytu.
- [SPARK-46370] Naprawiono usterkę podczas wykonywania zapytań z tabeli po zmianie wartości domyślnych kolumn.
- [SPARK-46265] Asercje w addArtifact RPC sprawiają, że klient połączenia stał się niekompatybilny ze starszymi klastrami.
- [SPARK-46308] Zakaz rekursywnej obsługi błędów.
-
[SPARK-46337] Upewnij się, że
CTESubstitution
zachowujePLAN_ID_TAG
.
-
- 14 grudnia 2023 r.
- [SPARK-46141] Zmień wartość domyślną spark.sql.legacy.ctePrecedencePolicy na POPRAWIONE.
- [SPARK-45730] Spraw, aby X509TrustManagerSuite działało bardziej stabilnie.
- [SPARK-45852] Elegancko radzić sobie z błędem rekursji podczas logowania.
- [SPARK-45808] Lepsza obsługa błędów dla wyjątków SQL.
- [SPARK-45920] grupowanie według porządków powinno być idempotentne.
- Cofnij "[SPARK-45649] Ujednolicenie struktury przygotowywania dla
OffsetWindowFunctionFrame
". - [SPARK-45733] Obsługa wielu zasad ponawiania prób.
- [SPARK-45509] Naprawiono zachowanie odwołania do kolumn df dla programu Spark Connect.
- [SPARK-45655] Zezwalaj na wyrażenia niedeterministyczne wewnątrz funkcji AggregateFunctions w funkcji CollectMetrics.
- [SPARK-45905] Najmniej typowy typ między typami dziesiętnym powinien najpierw zachować cyfry całkowite.
- [SPARK-45136] Rozszerzenie obsługi ClosureCleaner o wsparcie dla Ammonite.
- [SPARK-46255] Obsługa typu złożonego —> konwersja ciągów.
- [SPARK-45859] Utwórz obiekty UDF w ml.functions z opóźnieniem.
-
[SPARK-46028] Spraw, by
Column.__getitem__
akceptował kolumnę wejściową. - [SPARK-45798] Potwierdzenie identyfikatora sesji po stronie serwera.
- pl-PL: [SPARK-45892] Refaktoryzacja walidacji planu optymalizatora w celu oddzielenia
validateSchemaOutput
ivalidateExprIdUniqueness
. - [SPARK-45844] Wprowadź ignorowanie wielkości liter dla XML.
-
[SPARK-45770] Wprowadzić plan
DataFrameDropColumns
dlaDataframe.drop
. - [SPARK-44790] XML: implementacja i powiązania to_xml dla języka Python, connect i języka SQL.
- [SPARK-45851] Obsługa wielu zasad w kliencie scala.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 listopada 2023 r.
- Zainstalowano nowy pakiet
pyarrow-hotfix
w celu skorygowania luki w zabezpieczeniach RCE PyArrow. - Rozwiązano problem polegający na tym, że znaki podkreślenia w sekwencjach ucieczki w
getColumns
operacjach pochodzących z klientów JDBC lub ODBC były błędnie interpretowane jako symbole wieloznaczne. -
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. - [SPARK-45852] Klient języka Python dla programu Spark Connect przechwytuje teraz błędy rekursji podczas konwersji tekstu.
- [SPARK-45808] Ulepszona obsługa błędów dla wyjątków SQL.
-
[SPARK-45920]
GROUP BY
porządkowy nie zastępuje porządkowego. - Przywróć [SPARK-45649].
- [SPARK-45733] Dodano obsługę wielu zasad ponawiania prób.
- [SPARK-45509] Poprawiono działanie odwołań do kolumn w Spark Connect.
-
[SPARK-45655] Zezwalaj na wyrażenia niedeterministyczne wewnątrz
AggregateFunctions
wCollectMetrics
. - [SPARK-45905] Najmniej typowy typ między typami dziesiętnym zachowuje teraz cyfry całkowite jako pierwsze.
-
[SPARK-45136] Ulepsz
ClosureCleaner
dodając obsługę Ammonite. -
[SPARK-45859] Obiekty UDF zostały ustawione jako leniwe
ml.functions
. -
[SPARK-46028]
Column.__getitem__
akceptuje kolumny wejściowe. - [SPARK-45798] Potwierdzenie identyfikatora sesji po stronie serwera.
-
[SPARK-45892] Refaktoryzacja walidacji planu optymalizatora w celu oddzielenia
validateSchemaOutput
ivalidateExprIdUniqueness
. - [SPARK-45844] Wprowadź niezależność od wielkości liter dla XML.
-
[SPARK-45770] Naprawiono ustawienia kolumn
DataFrameDropColumns
dlaDataframe.drop
. -
[SPARK-44790] Dodano
to_xml
implementację i powiązania dla języków Python, Spark Connect i SQL. - [SPARK-45851] Dodano obsługę wielu zasad w kliencie Scala.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Zainstalowano nowy pakiet
Databricks Runtime 14.1
Zobacz Databricks Runtime 14.1 (EoS).
- 10 grudnia 2024 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 listopada 2024 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 listopada 2024 r.
- [SPARK-49782][SQL] Reguła ResolveDataFrameDropColumns rozwiązuje nierozwiązany atrybut z danymi wyjściowymi potomnymi
- [SPARK-49905] Użyj dedykowanego elementu ShuffleOrigin dla operatora stanowego, aby zapobiec modyfikacji mieszania z usługi AQE
- 22 października 2024 r.
- [SPARK-49782][SQL] Reguła ResolveDataFrameDropColumns rozwiązuje nierozwiązany atrybut z wyjściem elementów podrzędnych
- [SPARK-49905] Użyj dedykowanego elementu ShuffleOrigin dla operatora stanowego, aby zapobiec modyfikacji mieszania przez AQE.
- 10 października 2024 r.
- [BACKPORT] [SPARK-49474][SS] Klasyfikuj klasę błędów dla funkcji użytkownika FlatMapGroupsWithState
- [SPARK-49743][SQL] OptimizeCsvJsonExpr nie należy zmieniać pól schematu podczas oczyszczania pól GetArrayStructFields
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 września 2024 r.
- [SPARK-49628][SQL] ConstantFolding powinno skopiować stanowe wyrażenia przed ewaluacją
- [SPARK-43242][CORE] Naprawiono błąd 'Unexpected type of BlockId' w diagnozowaniu uszkodzenia tasowania
- [SPARK-48719][SQL] Napraw usterkę obliczania "RegrS...
- [SPARK-49000][SQL] Poprawka "select count(distinct 1) from t", gdzie t jest pustą tabelą, poprzez zastosowanie metody RewriteDistinctAggregates.
- [SPARK-46601] [CORE] Naprawianie błędu dziennika w handleStatusMessage
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 września 2024 r.
- [SPARK-49526][CONNECT] Obsługa ścieżek w stylu systemu Windows w narzędziu ArtifactManager
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 sierpnia 2024 r.
- [SPARK-49263][CONNECT] Klient Spark Connect w języku Python: spójna obsługa opcji logicznych czytnika danych DataFrame
- [SPARK-49056][SQL] ErrorClassesJsonReader nie może poprawnie obsłużyć wartości null
- 14 sierpnia 2024 r.
- [SPARK-48706][PYTHON] Funkcja UDF języka Python w funkcjach o wyższej kolejności nie powinna zgłaszać błędu wewnętrznego
- [SPARK-48597][SQL] Wprowadzenie znacznika dla właściwości isStreaming w tekście reprezentacji planu logicznego
- [SPARK-49065][SQL] Przekształcanie w starszych formaterach/analizatorach musi obsługiwać strefy czasowe inne niż domyślne JVM
- [SPARK-48050][SS] Rejestrowanie planu logicznego podczas uruchamiania zapytania
- 1 sierpnia 2024 r.
- Ta wersja zawiera poprawkę błędów dla
ColumnVector
klas iColumnarArray
w interfejsie Java platformy Spark. Przed tą poprawką mogło dojść do rzuceniaArrayIndexOutOfBoundsException
lub zwrócenia nieprawidłowych danych, gdy wystąpienie jednej z tych klas zawierałonull
wartości. - Dane wyjściowe instrukcji
SHOW CREATE TABLE
zawierają teraz wszystkie filtry wierszy lub maski kolumn zdefiniowane w zmaterializowanym widoku lub tabeli przesyłania strumieniowego. Zobacz SHOW CREATE TABLE. Aby dowiedzieć się więcej o filtrach wierszy i maskach kolumn, zobacz Filtrowanie poufnych danych tabeli przy użyciu filtrów wierszy i masek kolumn. - [SPARK-48705][PYTHON] Jawne użycie worker_main, gdy rozpoczyna się od pyspark
- [SPARK-47202][PYTHON] Poprawiono niezgodność daty/godziny literówki za pomocą polecenia tzinfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Ta wersja zawiera poprawkę błędów dla
- 11 lipca 2024 r.
- (Zmiana zachowania) Ramki danych keszowane względem źródeł tabeli Delta są teraz unieważniane, jeśli tabela źródłowa została zastąpiona. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
.checkpoint()
do utrwalania stanu tabeli przez cały okres istnienia ramki danych. - Ta wersja zawiera poprawkę dla problemu, który uniemożliwiał poprawne wyświetlanie karty Środowiska interfejsu użytkownika Spark podczas uruchamiania w Databricks Container Services.
- [SPARK-48475][PYTHON] Optymalizowanie _get_jvm_function w programie PySpark.
- [SPARK-48445][SQL] Nie udostępniaj wbudowanych funkcji zdefiniowanych przez użytkownika z kosztownymi dziećmi
- [SPARK-48481][SQL][SS] Nie stosuj OptimizeOneRowPlan względem zestawu danych strumieniowych
- [SPARK-48292][CORE] Przywracanie [SPARK-39195][SQL] Spark OutputCommitCoordinator powinno przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-48503][SQL] Napraw nieprawidłowe podzapytania skalarne z grupowaniem po kolumnach nieekwiwalentnych, które zostały niepoprawnie dopuszczone
- [SPARK-48273][SQL] Naprawa późnego przepisywania PlanWithUnresolvedIdentifier
- [SPARK-48100][SQL] Rozwiązywanie problemów z pomijaniem zagnieżdżonych pól struktury, które nie są zaznaczone w schemacie
- [SPARK-48383][SS] Zgłoś lepszy błąd w przypadku niedopasowanych partycji w opcji startOffset w Kafka
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania) Ramki danych keszowane względem źródeł tabeli Delta są teraz unieważniane, jeśli tabela źródłowa została zastąpiona. Ta zmiana oznacza, że wszystkie zmiany stanu w tabelach delty teraz unieważniają buforowane wyniki. Służy
- 17 czerwca 2024 r.
- Naprawia usterkę polegającą na tym, że optymalizacja klasyfikacji okien przy użyciu biblioteki Photon TopK niepoprawnie obsługiwała partycje ze strukturami.
-
[SPARK-48276][PYTHON][CONNECT] Dodaj brakującą
__repr__
metodę dlaSQLExpression
- [SPARK-48277] Ulepszanie komunikatu o błędzie dla errorClassesJsonReader.getErrorMessage
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 21 maja 2024 r.
- (Zmiana zachowania)
dbutils.widgets.getAll()
jest teraz obsługiwana, aby uzyskać wszystkie wartości widżetów w notesie. - [SPARK-47994][SQL] Usunięto usterkę z wypchnięciem filtru kolumny CASE WHEN w programie SQLServer
- [SPARK-48105][SS] Naprawienie wyścigu między zwalnianiem przechowywania stanów i tworzeniem migawki
- [SPARK-48173][SQL] Funkcja CheckAnalysis powinna wyświetlić cały plan zapytania
- Aktualizacje zabezpieczeń systemu operacyjnego.
- (Zmiana zachowania)
- 9 maja 2024 r.
- [SPARK-47371] [SQL] XML: Ignorowanie tagów wierszy znalezionych w CDATA
- [SPARK-47895][SQL] grupowanie według wszystkich powinno być idempotentne
- [SPARK-47956][SQL] Sprawdzenie poprawności dla nierozwiązanej referencji LCA
-
[SPARK-48044][PYTHON][CONNECT] Pamięć podręczna
DataFrame.isStreaming
- [SPARK-47973][CORE] Rejestrowanie lokalizacji wywołania w SparkContext.stop() i potem w SparkContext.assertNotStopped()
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 kwietnia 2024 r.
- [SPARK-47704][SQL] Analizowanie kodu JSON kończy się niepowodzeniem z komunikatem "java.lang.ClassCastException" po włączeniu spark.sql.json.enablePartialResults
-
[SPARK-47828][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
nie powiódł się z powodu nieprawidłowego planu - Aktualizacje zabezpieczeń systemu operacyjnego.
- 11 kwietnia 2024 r.
- [SPARK-47638][PS][CONNECT] Pomiń walidację nazwy kolumny w programie PS
- [SPARK-38708][SQL] Uaktualnianie klienta magazynu metadanych Hive do wersji 3.1.3 dla programu Hive 3.1
- [SPARK-47309][SQL][XML] Dodawanie testów jednostkowych wnioskowania schematu
- [SPARK-47509][SQL] Blokuj wyrażenia podzapytania w funkcjach lambda i wyższej kolejności
- [SPARK-46990][SQL] Napraw ładowanie pustych plików Avro emitowanych przez centra zdarzeń
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 kwietnia 2024 r.
- [SPARK-47305][SQL] Napraw funkcję PruneFilters, aby oznaczyć flagę isStreaming w LocalRelation poprawnie, gdy plan ma zarówno batch, jak i przesyłanie strumieniowe
- [SPARK-47218][SQL] XML: Ignoruj skomentowane tagi wierszy w tokenizatorze XML
-
[SPARK-47300][SQL]
quoteIfNeeded
identyfikatory zaczynające się od cyfr powinny być ujęte w cudzysłów - [SPARK-47368][SQL] Usuń sprawdzanie konfiguracji inferTimestampNTZ w pliku ParquetRowConverter
- [SPARK-47070] Napraw nieprawidłową agregację po ponownym zapisaniu podzapytania
-
[SPARK-47322][PYTHON][CONNECT] Upewnij się, że obsługa
withColumnsRenamed
duplikacji nazw kolumn jest spójna zwithColumnRenamed
- [SPARK-47300] Poprawka dotycząca decomposerSuite
- [SPARK-47218] [SQL] XML: Zmieniono polecenie SchemaOfXml, aby nie powiodło się w trybie DROPMALFORMED
- [SPARK-47385] Napraw kodery dla krotek z wejściami typu Option.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 14 marca 2024 r.
- [SPARK-47176][SQL] Funkcja pomocnika ResolveAllExpressionsUpWithPruning
- [SPARK-47145][SQL] Przekaż identyfikator tabeli do wykonania skanowania źródła danych wierszy dla strategii V2.
- [SPARK-47167][SQL] Dodaj konkretną klasę dla anonimowej relacji JDBC
- [SPARK-47129][CONNECT][SQL] Zapewnij prawidłowe połączenie planu pamięci podręcznej
- Przywróć "[SPARK-46861][CORE] Unikanie zakleszczenia w DAGScheduler"
- [SPARK-47044][SQL] Dodawanie wykonanego zapytania dla zewnętrznych źródeł danych JDBC w celu wyjaśnienia danych wyjściowych
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 lutego 2024 r.
- Naprawiono problem, w którym używanie kolekcji lokalnej jako źródła w poleceniu MERGE mogło spowodować, że metryka numSourceRows zgłaszała liczbę wierszy jako dwukrotnie większą niż poprawna.
- Aby utworzyć schemat ze zdefiniowaną lokalizacją, użytkownik musi teraz mieć przywileje SELECT oraz MODYFIKUJ w DOWOLNYM PLIKU.
- Teraz można pozyskiwać pliki XML przy użyciu narzędzia Autoloader, read_files, COPY INTO, DLT i DBSQL. Obsługa plików XML może automatycznie wnioskować i rozwijać schemat, ratować dane z niezgodnościami typów, weryfikować kod XML przy użyciu XSD, obsługiwać wyrażenia SQL, takie jak from_xml, schema_of_xml i to_xml. Aby uzyskać więcej informacji, zobacz Obsługa plików XML. Jeśli wcześniej używano zewnętrznego pakietu spark-xml, zobacz tutaj , aby uzyskać wskazówki dotyczące migracji.
- [SPARK-46248][SQL] XML: Obsługa opcji ignoreCorruptFiles i ignoreMissingFiles
- [SPARK-47059][SQL] Dołącz kontekst błędu dla polecenia ALTER COLUMN v1
- [SPARK-46954][SQL] XML: Owijanie InputStreamReader przy użyciu BufferedReader
- [SPARK-46954][SQL] XML: Optymalizowanie wyszukiwania indeksu schematu
- [SPARK-46630][SQL] XML: Weryfikowanie nazwy elementu XML podczas zapisu
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 lutego 2024 r.
- Zapytania kanału danych (CDF) dotyczące zmaterializowanych widoków w Katalogu Unity nie są obsługiwane, a próba uruchomienia zapytania CDF z użyciem zmaterializowanego widoku Katalogu Unity zwraca błąd. Tabele przesyłania strumieniowego w Unity Catalog obsługują zapytania CDF w tabelach innych niż
APPLY CHANGES
w środowisku uruchomieniowym Databricks 14.1 lub nowszym. Zapytania CDF nie są obsługiwane w przypadku tabel przesyłania strumieniowego w Unity Catalog w środowisku Databricks Runtime 14.0 i starszych wersjach. - [SPARK-46952] XML: Ogranicz rozmiar uszkodzonego rekordu.
- [SPARK-45182] Ignoruj ukończenie zadania ze starego etapu po ponownym podjęciu próby wykonania etapu nadrzędnego, którego nie można określić, jak określono przez sumę kontrolną.
- [SPARK-46794] Usuń podzapytania z ograniczeń LogicalRDD.
- [SPARK-46933] Dodaj metrykę czasu wykonania zapytania do łączników, które używają JDBCRDD.
- [SPARK-46861] Unikaj zakleszczenia w DAGScheduler.
- [SPARK-45582] Upewnij się, że wystąpienie magazynu nie jest używane po wywołaniu zatwierdzenia w trybie wyjściowym agregacji przesyłania strumieniowego.
- [SPARK-46930] Dodano obsługę niestandardowego prefiksu dla pól typu Union w Avro.
- [SPARK-46941] Nie można wstawić węzła limitu grupy okien dla obliczeń top-k, jeśli zawiera SizeBasedWindowFunction.
- [SPARK-46396] Wnioskowanie znacznika czasu nie powinno zgłaszać wyjątku.
- [SPARK-46822] Należy uwzględniać spark.sql.legacy.charVarcharAsString podczas rzutowania typu jdbc do typu Catalyst w jdbc.
- [SPARK-45957] Unikaj generowania planu wykonywania dla poleceń innych niż wykonywalne.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Zapytania kanału danych (CDF) dotyczące zmaterializowanych widoków w Katalogu Unity nie są obsługiwane, a próba uruchomienia zapytania CDF z użyciem zmaterializowanego widoku Katalogu Unity zwraca błąd. Tabele przesyłania strumieniowego w Unity Catalog obsługują zapytania CDF w tabelach innych niż
- 31 stycznia 2024 r.
- [SPARK-46684] Napraw działanie CoGroup.applyInPandas/Arrow, aby prawidłowo przekazywać argumenty.
- [SPARK-46763] Naprawiono błąd asercji w elemencie ReplaceDeduplicateWithAggregate dla zduplikowanych atrybutów.
- [SPARK-45498] Kontynuacja: ignoruj ukończenie zadań ze starych prób etapów.
-
[SPARK-46382] XML: Zaktualizuj dokument dla elementu
ignoreSurroundingSpaces
. -
[SPARK-46383] Zmniejszenie użycia sterty pamięci sterownika poprzez skrócenie żywotności
TaskInfo.accumulables()
. - [SPARK-46382] XML: Domyślnie ignoruj otaczające spacje ustawione na prawda.
-
[SPARK-46677] Naprawa
dataframe["*"]
rozdzielczości. - [SPARK-46676] dropDuplicatesWithinWatermark nie powinno zakończyć się niepowodzeniem w kanonizacji planu.
- [SPARK-46633] Napraw czytnik Avro w celu obsługi bloków o zerowej długości.
- [SPARK-45912] Ulepszenie interfejsu API XSDToSchema: zmiana na interfejs API HDFS dla lepszej dostępności do magazynów w chmurze.
- [SPARK-46599] XML: Użyj typeCoercion.findTightestCommonType w celu sprawdzenia zgodności.
- [SPARK-46382] XML: przechwyć wartości przeplatane między elementami.
- [SPARK-46769] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu.
- [SPARK-46610] Tworzenie tabeli powinno zgłaszać wyjątek, jeśli nie ma wartości klucza w opcjach.
- [SPARK-45964] Usuń prywatny akcesor SQL w pakiecie XML i JSON w pakiecie Catalyst.
- Przywróć [SPARK-46769] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu.
-
[SPARK-45962] Usuń
treatEmptyValuesAsNulls
i użyjnullValue
opcji zamiast tego w formacie XML. - [SPARK-46541] Napraw niejednoznaczne odwołanie do kolumny w sprzężeniu własnym.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 stycznia 2024 r.
-
shuffle
Węzeł planu wyjaśnień zwrócony przez zapytanie Photon jest aktualizowany, aby dodaćcausedBroadcastJoinBuildOOM=true
flagę, gdy podczas mieszania, będącego częścią łączenia transmisyjnego, wystąpi błąd braku pamięci. - Aby uniknąć zwiększonego opóźnienia podczas komunikacji za pośrednictwem protokołu TLSv1.3, ta wersja konserwacji zawiera poprawkę do instalacji zestawu JDK 8 w celu naprawienia błędu JDK JDK-8293562.
-
[SPARK-46538] Rozwiązano niejednoznaczny problem z odwołaniem do kolumny w pliku
ALSModel.transform
. - [SPARK-46417] Nie kończ działania błędem przy wywołaniu hive.getTable, gdy throwException ma wartość false.
-
[SPARK-46484] Zadbaj, aby funkcje pomocnicze
resolveOperators
zachowały identyfikator planu. - [SPARK-46153] XML: Dodaj obsługę atrybutu TimestampNTZType.
- [SPARK-46152] XML: Dodano obsługę typu dziesiętnego w wnioskowaniu schematu XML.
- [SPARK-46145] spark.catalog.listTables nie zgłasza wyjątku, gdy nie znaleziono tabeli lub widoku.
- [SPARK-46478] Przywróć SPARK-43049, aby użyć Oracle varchar(255) dla typu string.
-
[SPARK-46394] Rozwiąż problemy z parametrem spark.catalog.listDatabases() w schematach ze znakami specjalnymi po
spark.sql.legacy.keepCommandOutputSchema
ustawieniu wartości true. -
[SPARK-46337] Spraw, aby
CTESubstitution
zachowałPLAN_ID_TAG
. - [SPARK-46466] Wektoryzowany czytnik parquet nigdy nie powinien wykonywać rebase dla znacznika czasu ntz.
- [SPARK-46587] XML: Napraw konwersję dużej liczby całkowitej XSD.
- [SPARK-45814] Wywołaj metodę close() w ArrowConverters.createEmptyArrowBatch, aby uniknąć przecieku pamięci.
- [SPARK-46132] Obsługa hasła klucza dla kluczy JKS dla protokołu SSL RPC.
-
[SPARK-46602] Propaguj
allowExisting
podczas tworzenia widoku, jeśli widok lub tabela nie istnieje. - [SPARK-46173] Pomijanie wywołania trimAll podczas analizowania dat.
- [SPARK-46355] XML: Zamknij inputStreamReader po zakończeniu odczytu.
- [SPARK-46600] Przenieś współużytkowany kod między elementami SqlConf i SqlApiConf do elementu SqlApiConfHelper.
-
[SPARK-46261]
DataFrame.withColumnsRenamed
powinna zachować kolejność dykt/mapy. - [SPARK-46056] Naprawiono wektoryzowany odczyt Parquet, który powodował NPE z wartością domyślną typu "byteArrayDecimalType".
-
[SPARK-46260]
DataFrame.withColumnsRenamed
powinien przestrzegać kolejności słownika. - [SPARK-46250] Stabilizuj test_parity_listener.
- [SPARK-46370] Naprawiono usterkę podczas wykonywania zapytań z tabeli po zmianie wartości domyślnych kolumn.
- [SPARK-46609] Unikaj eksplozji wykładniczej w PartitioningPreservingUnaryExecNode.
- [SPARK-46058] Dodaj oddzielną flagę privateKeyPassword.
-
- 14 grudnia 2023 r.
- Rozwiązano problem, w którym ucieczone znaki podkreślenia w operacjach getColumns z klientów JDBC lub ODBC były obsługiwane niepoprawnie i interpretowane jako znaki wieloznaczne.
- [SPARK-45509] Naprawiono zachowanie odwołania do kolumn df dla programu Spark Connect.
- [SPARK-45844] Zaimplementuj niezależność od wielkości liter dla XML.
- [SPARK-46141] Zmień wartość domyślną spark.sql.legacy.ctePrecedencePolicy na POPRAWIONE.
-
[SPARK-46028] Spraw, aby
Column.__getitem__
akceptował kolumnę wejściową. - [SPARK-46255] Obsługa typu złożonego —> konwersja ciągów.
- [SPARK-45655] Zezwalaj na wyrażenia niedeterministyczne wewnątrz funkcji AggregateFunctions w funkcji CollectMetrics.
- [SPARK-45433] Poprawiono wnioskowanie schematu CSV/JSON, gdy znaczniki czasu nie są zgodne z określonym formatem znaczników czasu.
-
[SPARK-45316] Dodaj nowe parametry
ignoreCorruptFiles
/ignoreMissingFiles
doHadoopRDD
iNewHadoopRDD
. - [SPARK-45852] Bezproblemowo radzić sobie z błędem rekursji podczas rejestrowania.
- [SPARK-45920] grupowanie według porządków powinno być idempotentne.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 listopada 2023 r.
- Zainstalowano nowy pakiet,
pyarrow-hotfix
w celu naprawienia luki w zabezpieczeniach PyArrow RCE. - Rozwiązano problem polegający na tym, że ucieczkowe znaki podkreślenia w operacjach
getColumns
pochodzących z klientów JDBC lub ODBC były błędnie interpretowane jako symbole wieloznaczne. - Podczas pozyskiwania danych CSV za pomocą Auto Loader lub tabel przesyłania strumieniowego, duże pliki CSV mogą być teraz podzielone i przetwarzane równolegle, zarówno podczas wnioskowania schematu, jak i przetwarzania danych.
-
[SPARK-45892] Zrefaktoruj walidację planu optymalizatora, aby oddzielić
validateSchemaOutput
ivalidateExprIdUniqueness
. - [SPARK-45620] Interfejsy API związane z funkcją UDF języka Python używają teraz camelCase.
-
[SPARK-44790] Dodano
to_xml
implementację i powiązania dla języków Python, Spark Connect i SQL. -
[SPARK-45770] Naprawiono rozwiązywanie kolumn z
DataFrameDropColumns
dlaDataframe.drop
. -
[SPARK-45859] UDF-y ustawiono na leniwe
ml.functions
. -
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. - [SPARK-44784] Uczynił testowanie SBT hermetycznym.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Zainstalowano nowy pakiet,
- 10 listopada 2023 r.
-
[SPARK-45545]
SparkTransportConf
dziedziczySSLOptions
po utworzeniu. - [SPARK-45250] Dodano obsługę profilu zasobów zadań na poziomie etapu dla klastrów YARN, gdy dynamiczna alokacja jest wyłączona.
- [SPARK-44753] Dodano czytnik i moduł zapisywania ramek danych XML dla języka SQL PySpark.
-
[SPARK-45396] Dodano wpis dokumentu dla modułu
PySpark.ml.connect
. -
[SPARK-45584] Naprawiono problem z uruchamianiem podzapytania związany z
TakeOrderedAndProjectExec
. - [SPARK-45541] Dodano protokół SSLFactory.
-
[SPARK-45577] Naprawiono
UserDefinedPythonTableFunctionAnalyzeRunner
, aby przekazywać zagięte wartości z nazwanych argumentów. - [SPARK-45562] Element "rowTag" jest wymaganą opcją.
-
[SPARK-45427] Dodano ustawienia SSL dla RPC do
SSLOptions
iSparkTransportConf
. - [SPARK-43380] Naprawiono spowolnienie odczytu Avro.
-
[SPARK-45430]
FramelessOffsetWindowFunction
nie kończy się już niepowodzeniem, gdyIGNORE NULLS
ioffset > rowCount
. - [SPARK-45429] Dodano klasy pomocnika dla komunikacji RPC SSL.
-
[SPARK-45386] Rozwiązano problem polegający na tym, że
StorageLevel.NONE
niepoprawnie zwracano wartość 0. - [SPARK-44219] Dodano kontrole poprawności poszczególnych reguł pod kątem przekształceń optymalizacyjnych.
-
[SPARK-45543] Rozwiązano problem z
InferWindowGroupLimit
, który występował, gdy inne funkcje okna nie miały takiej samej ramki okna jak funkcje podobne do funkcji rankingowych. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45545]
- 27 września 2023 r.
-
[SPARK-44823] Zaktualizowano
black
do wersji 23.9.1 i usunięto błędne sprawdzanie. - [SPARK-45339] Teraz PySpark loguje błędy, które ponawia.
- Przywróć [SPARK-42946] Wyredagowane poufne dane osadzone w ramach podstawień zmiennych.
- [SPARK-44551] Edytowane komentarze, aby zsynchronizować z oprogramowaniem open source.
-
[SPARK-45360] Konstruktor sesji platformy Spark obsługuje inicjowanie z programu
SPARK_REMOTE
. -
[SPARK-45279] Dołączono
plan_id
do wszystkich planów logicznych. -
[SPARK-45425] Zamapowano
TINYINT
naShortType
dlaMsSqlServerDialect
. - [SPARK-45419] Usunięto wpis mapy wersji pliku dla większych wersji, aby uniknąć ponownego użycia identyfikatorów plików sst.
-
[SPARK-45488] Dodano obsługę wartości w
rowTag
elemecie . -
[SPARK-42205] Usunięto rejestrowanie
Accumulables
w zdarzeniach uruchamianiaTask/Stage
w dziennikach zdarzeńJsonProtocol
. -
[SPARK-45426] Dodano obsługę elementu
ReloadingX509TrustManager
. -
[SPARK-45256]
DurationWriter
kończy się niepowodzeniem podczas zapisywania większej liczby wartości niż pojemność początkowa. -
[SPARK-43380] Rozwiązano
Avro
problemy z konwersją typów danych bez powodowania regresji wydajności. - [SPARK-45182] Dodano obsługę wycofywania etapu mapy shuffle, dzięki czemu wszystkie zadania etapu można zrestartować, gdy dane wyjściowe etapu są nieokreślone.
-
[SPARK-45399] Dodano opcje XML przy użyciu polecenia
newOption
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44823] Zaktualizowano
Databricks Runtime 14.0
Zobacz Databricks Runtime 14.0 (EoS).
- 8 lutego 2024 r.
- [SPARK-46396] Inferencja znacznika czasu nie powinna zgłaszać wyjątku.
- [SPARK-46794] Usuń podzapytania z ograniczeń LogicalRDD.
- [SPARK-45182] Ignoruj ukończenie zadania ze starego etapu po ponowieniu próby wykonania etapu nadrzędnego w sposób określony przez sumę kontrolną.
- [SPARK-46933] Dodaj metrykę czasu wykonywania zapytania do łączników, które używają JDBCRDD.
- [SPARK-45957] Unikaj generowania planu wykonywania dla poleceń innych niż wykonywalne.
- [SPARK-46861] Unikaj zakleszczenia w DAGScheduler.
- [SPARK-46930] Dodano obsługę niestandardowego prefiksu dla pól typu „union” w formacie Avro.
- [SPARK-46941] Nie można wstawić węzła limitu grupy okien dla obliczeń top-k, jeśli zawiera SizeBasedWindowFunction.
- [SPARK-45582] Upewnij się, że instancja sklepu nie jest używana po wywołaniu zatwierdzenia w trybie wyjściowym agregacji strumieniowej.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 31 stycznia 2024 r.
- [SPARK-46541] Napraw niejednoznaczne odwołanie do kolumny w sprzężeniu własnym.
- [SPARK-46676] dropDuplicatesWithinWatermark nie powinno zakończyć się niepowodzeniem w kanonizacji planu.
- [SPARK-46769] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu.
- [SPARK-45498] Dalsze działania: ignoruj ukończenie zadania z poprzednich prób etapu.
- Przywróć [SPARK-46769] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu.
-
[SPARK-46383] Zmniejsz użycie pamięci sterownika, skracając czas życia
TaskInfo.accumulables()
. - [SPARK-46633] Napraw czytnik Avro w celu obsługi bloków o zerowej długości.
-
[SPARK-46677] Naprawa
dataframe["*"]
rozdzielczości. - [SPARK-46684] Naprawiono CoGroup.applyInPandas/Arrow, aby prawidłowo przekazywać argumenty.
- [SPARK-46763] Naprawiono błąd asercji w elemencie ReplaceDeduplicateWithAggregate dla zduplikowanych atrybutów.
- [SPARK-46610] Tworzenie tabeli powinno zgłaszać wyjątek, jeśli nie ma wartości klucza w opcjach.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 17 stycznia 2024 r.
-
shuffle
Węzeł planu objaśnień zwrócony przez zapytanie Photon jest aktualizowany w celu dodaniacausedBroadcastJoinBuildOOM=true
flagi, gdy podczas mieszania, które jest częścią łączenia rozgłoszeniowego, występuje błąd braku pamięci. - Aby uniknąć zwiększonego opóźnienia podczas komunikacji za pośrednictwem protokołu TLSv1.3, ta wersja konserwacji zawiera poprawkę do instalacji zestawu JDK 8 w celu naprawienia błędu JDK JDK-8293562.
-
[SPARK-46394] Rozwiąż problemy z parametrem spark.catalog.listDatabases() w schematach ze znakami specjalnymi po
spark.sql.legacy.keepCommandOutputSchema
ustawieniu wartości true. - [SPARK-46250] Deflake test_parity_listener.
- [SPARK-45814] Wywołaj metodę close() w ArrowConverters.createEmptyArrowBatch, aby uniknąć przecieku pamięci.
- [SPARK-46173] Pomijanie wywołania trimAll podczas analizowania dat.
-
[SPARK-46484] Spraw, aby
resolveOperators
funkcje pomocnicze zachowywały identyfikator planu. - [SPARK-46466] Wektoryzowany czytnik parquet nigdy nie powinien wykonywać rebase dla znacznika czasu ntz.
- [SPARK-46056] Naprawiono wektoryzowany odczyt Parquet NPE z wartością domyślną byteArrayDecimalType.
- [SPARK-46058] Dodaj oddzielną flagę privateKeyPassword.
- [SPARK-46478] Przywróć SPARK-43049, aby użyć Oracle varchar(255) dla ciągu.
- [SPARK-46132] Obsługa hasła klucza dla kluczy JKS dla protokołu SSL RPC.
- [SPARK-46417] Nie występuje błąd podczas wywoływania hive.getTable, gdy throwException jest ustawione na false.
-
[SPARK-46261]
DataFrame.withColumnsRenamed
powinna zachować kolejność dykt/mapy. - [SPARK-46370] Naprawiono usterkę podczas wykonywania zapytań z tabeli po zmianie wartości domyślnych kolumn.
- [SPARK-46609] Unikaj eksplozji wykładniczej w PartitioningPreservingUnaryExecNode.
- [SPARK-46600] Przenieś współużytkowany kod między elementami SqlConf i SqlApiConf do elementu SqlApiConfHelper.
-
[SPARK-46538] Rozwiązano niejednoznaczny problem z odwołaniem do kolumny w pliku
ALSModel.transform
. -
[SPARK-46337] Zachowaj
CTESubstitution
PLAN_ID_TAG
. -
[SPARK-46602] Propaguj
allowExisting
w tworzeniu widoku, jeśli widok lub tabela nie istnieje. -
[SPARK-46260]
DataFrame.withColumnsRenamed
powinien przestrzegać kolejności słownika. - [SPARK-46145] spark.catalog.listTables nie zgłasza wyjątku, gdy nie znaleziono tabeli lub widoku.
-
- 14 grudnia 2023 r.
- Rozwiązano problem polegający na tym, że znaki podkreślenia z ucieczką w operacjach getColumns pochodzących od klientów JDBC lub ODBC były obsługiwane niepoprawnie i interpretowane jako symbole wieloznaczne.
- [SPARK-46255] Obsługa konwersji typu złożonego na ciągi.
-
[SPARK-46028] Umożliw
Column.__getitem__
akceptację kolumny wejściowej. - [SPARK-45920] grupowanie według indeksów powinno być idempotentne.
- [SPARK-45433] Poprawiono wnioskowanie schematu CSV/JSON, gdy znaczniki czasu nie są zgodne z określonym formatem znaczników czasu.
- [SPARK-45509] Napraw zachowanie odwołań do kolumn df w Spark Connect.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 listopada 2023 r.
- Zainstalowano nowy pakiet
pyarrow-hotfix
w celu usunięcia luki w zabezpieczeniach PyArrow RCE. - Rozwiązano problem polegający na tym, że uciekające znaki podkreślenia w
getColumns
operacjach pochodzących z klientów JDBC lub ODBC były błędnie interpretowane jako symbole wieloznaczne. - Podczas pozyskiwania danych CSV przy użyciu Auto Loader lub tabel przesyłania strumieniowego, duże pliki CSV są obecnie możliwe do podzielenia i mogą być przetwarzane równolegle, zarówno podczas wnioskowania schematu, jak i przetwarzania danych.
- Łącznik spark-snowflake został uaktualniony do wersji 2.12.0.
-
[SPARK-45859] Obiekty UDF są wykonywane leniwie
ml.functions
. - Przywróć [SPARK-45592].
-
[SPARK-45892] Refaktoryzacja walidacji planu optymalizatora w celu rozdzielenia
validateSchemaOutput
ivalidateExprIdUniqueness
. -
[SPARK-45592] Rozwiązano problem z poprawnością w AQE dotyczący
InMemoryTableScanExec
. - [SPARK-45620] Interfejsy API związane z funkcjami UDF w Pythonie używają teraz camelCase.
- [SPARK-44784] Uczyniono testowanie SBT hermetycznym.
-
[SPARK-45770] Naprawiono rozdzielczość kolumn z
DataFrameDropColumns
dlaDataframe.drop
. -
[SPARK-45544] Zintegrowana obsługa protokołu SSL w usłudze
TransportContext
. -
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Zainstalowano nowy pakiet
- 10 listopada 2023 r.
- Zmieniono zapytania o kanał danych w tabelach przesyłania strumieniowego w Unity Catalog i zmaterializowanych widokach w celu wyświetlania komunikatów o błędach.
-
[SPARK-45545]
SparkTransportConf
dziedziczySSLOptions
po utworzeniu. -
[SPARK-45584] Naprawiono błąd uruchamiania podzapytania z
TakeOrderedAndProjectExec
. -
[SPARK-45427] Dodano ustawienia SSL RPC do
SSLOptions
iSparkTransportConf
. -
[SPARK-45541] Dodano
SSLFactory
element. -
[SPARK-45430]
FramelessOffsetWindowFunction
nigdy już nie kończy się niepowodzeniem, gdyIGNORE NULLS
ioffset > rowCount
. - [SPARK-45429] Dodano klasy pomocnika dla komunikacji RPC SSL.
- [SPARK-44219] Dodano dodatkowe walidacje poszczególnych reguł na potrzeby ponownego zapisywania optymalizacji.
-
[SPARK-45543] Rozwiązano problem
InferWindowGroupLimit
polegający na tym, że generowały błąd, jeśli inne funkcje okna nie miały tej samej ramki okna co funkcje typu rank. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 23 października 2023 r.
-
[SPARK-45426] Dodano obsługę elementu
ReloadingX509TrustManager
. -
[SPARK-45396] Dodano wpis do dokumentacji dla modułu
PySpark.ml.connect
, oraz dodanoEvaluator
do__all__
naml.connect
. -
[SPARK-45256] Rozwiązano problem polegający na tym, że
DurationWriter
wystąpił błąd podczas zapisywania większej liczby wartości niż pojemność początkowa. -
[SPARK-45279] Dołączono
plan_id
do wszystkich planów logicznych. - [SPARK-45250] Dodano obsługę profilu zasobów zadań na poziomie etapu dla klastrów YARN po wyłączeniu dynamicznej alokacji.
- [SPARK-45182] Dodano obsługę wycofywania etapu mapowania shuffle, dzięki czemu wszystkie zadania danego etapu można ponowić, gdy dane wyjściowe tego etapu są nieokreślone.
-
[SPARK-45419] Unikaj ponownego użycia
rocksdb sst
plików w innej instancjirocksdb
, usuwając wpisy mapy wersji pliku dotyczące większych wersji. -
[SPARK-45386] Rozwiązano problem polegający na tym, że
StorageLevel.NONE
niepoprawnie zwracano wartość 0. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45426] Dodano obsługę elementu
- 13 października 2023 r.
- Zależność Snowflake-jdbc została uaktualniona z wersji 3.13.29 do 3.13.33.
- Funkcja
array_insert
jest oparta na 1 dla indeksów dodatnich i ujemnych, podczas gdy wcześniej była oparta na 0 indeksach ujemnych. Obecnie wstawia nowy element na końcu tablic wejściowych, używając indeksu -1. Aby przywrócić poprzednie zachowanie, ustaw wartośćspark.sql.legacy.negativeIndexInArrayInsert
true
. - Usługa Azure Databricks nie ignoruje już uszkodzonych plików przy użyciu Auto Loader, gdy włączono wnioskowanie schematu CSV
ignoreCorruptFiles
. -
[SPARK-45227] Rozwiązano subtelny problem z bezpieczeństwem wątków w programie
CoarseGrainedExecutorBackend
. -
[SPARK-44658]
ShuffleStatus.getMapStatus
powinien zwracaćNone
zamiastSome(null)
. -
[SPARK-44910]
Encoders.bean
nie obsługuje superklas z argumentami typu ogólnego. - [SPARK-45346] Wnioskowanie schematu Parquet uwzględnia flagi rozróżniania wielkości liter podczas scalania schematu.
- Przywróć [SPARK-42946].
- [SPARK-42205] Zaktualizowano protokół JSON, aby usunąć rejestrowanie kumulatywne w zdarzeniach rozpoczęcia zadania lub etapu.
-
[SPARK-45360] Konstruktor sesji platformy Spark obsługuje inicjowanie z programu
SPARK_REMOTE
. -
[SPARK-45316] Dodaj nowe parametry
ignoreCorruptFiles
/ignoreMissingFiles
doHadoopRDD
iNewHadoopRDD
. - [SPARK-44909] Pomiń uruchamianie serwera przesyłania strumieniowego dziennika dystrybutora, jeśli nie jest dostępny.
-
[SPARK-45084]
StateOperatorProgress
teraz używa dokładnego numeru partycji mieszania. - [SPARK-45371] Rozwiązano problemy z cieniowaniem w kliencie Spark Connect Scala.
-
[SPARK-45178] Przywrócenie do uruchamiania pojedynczego zestawu dla
Trigger.AvailableNow
nieobsługiwanych źródeł zamiast używania opakowania. -
[SPARK-44840] Ustaw
array_insert()
na bazę 1 dla ujemnych indeksów. - [SPARK-44551] Edytowano komentarze, aby zsynchronizować z oprogramowaniem open source.
-
[SPARK-45078] Funkcja
ArrayInsert
wykonuje teraz jawne rzutowanie, gdy typ elementu nie jest równy typowi składnika pochodnego. - [SPARK-45339] Narzędzie PySpark rejestruje teraz błędy ponawiania prób.
-
[SPARK-45057] Unikaj uzyskiwania blokady odczytu, gdy
keepReadLock
jest fałszem. -
[SPARK-44908] Naprawiono funkcjonalność parametru krzyżowego
foldCol
. - Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 13.1
Zobacz Databricks Runtime 13.1 (EoS).
- 29 listopada 2023 r.
- Rozwiązano problem polegający na tym, że znaki podkreślenia ucieczki w
getColumns
operacjach pochodzących z klientów JDBC lub ODBC były błędnie interpretowane jako symbole wieloznaczne. -
[SPARK-44846] Usunięto złożone wyrażenia grupowania po .
RemoveRedundantAggregates
- [SPARK-43802] Rozwiązano problem polegający na tym, że generowanie kodu dla wyrażeń unhex i unbase64 kończyło się niepowodzeniem.
-
[SPARK-43718] Naprawiono nulowalność dla kluczy w
USING
łączeniach. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem polegający na tym, że znaki podkreślenia ucieczki w
- 14 listopada 2023 r.
- Filtry partycji w zapytaniach przesyłania strumieniowego Delta Lake są przesuwane w dół przed ograniczeniem przepustowości, aby osiągnąć lepsze wykorzystanie.
- Zmieniono zapytania dotyczące źródła danych w tabelach przesyłania strumieniowego usługi Unity Catalog i zmaterializowanych widokach w celu wyświetlenia komunikatów o błędach.
-
[SPARK-45584] Naprawiono błąd uruchamiania podzapytania przy użyciu
TakeOrderedAndProjectExec
. -
[SPARK-45430]
FramelessOffsetWindowFunction
nie powoduje już błędu, gdyIGNORE NULLS
ioffset > rowCount
. -
[SPARK-45543] Rozwiązano problem
InferWindowGroupLimit
polegający na tym, że przyczyną problemu było to, że inne funkcje okna nie miały tej samej ramki okna co funkcje podobne do rangi. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 24 października 2023 r.
-
[SPARK-43799] Dodano opcję binarną deskryptora do interfejsu API PySpark
Protobuf
. - Przywróć [SPARK-42946].
- [SPARK-45346] Wnioskowanie schematu Parquet uwzględnia teraz flagę wrażliwą na wielkość liter podczas scalania schematu.
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-43799] Dodano opcję binarną deskryptora do interfejsu API PySpark
- 13 października 2023 r.
- Zależność Snowflake-jdbc została uaktualniona z wersji 3.13.29 do 3.13.33.
- Nie ignoruj już uszkodzonych plików, gdy
ignoreCorruptFiles
jest włączona podczas wnioskowania schematu CSV za pomocą Auto Loader. -
[SPARK-44658]
ShuffleStatus.getMapStatus
zwracaNone
zamiastSome(null)
. - [SPARK-45178] Zamiast użycia wrappera, powrót do uruchamiania pojedynczej partii dla nieobsługiwanych źródeł.
- [SPARK-42205] Zaktualizowano protokół JSON, aby usunąć rejestrowanie Accumulables w zdarzeniach rozpoczynania zadania lub etapu.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 12 września 2023 r.
-
[SPARK-44718] Dopasuj
ColumnVector
domyślną konfigurację trybu pamięci doOffHeapMemoryMode
wartości konfiguracji. -
SPARK-44878 Wyłączył ścisły limit dla menedżera
RocksDB
zapisu, aby uniknąć wyjątku wstawiania po zakończeniu buforowania. - Różne poprawki.
-
[SPARK-44718] Dopasuj
- 30 sierpnia 2023 r.
- [SPARK-44871] Naprawiono zachowanie percentile_disc.
- [SPARK-44714] Złagodzenie ograniczeń dotyczących rozwiązywania LCA w odniesieniu do zapytań.
-
[SPARK-44245]
PySpark.sql.dataframe sample()
Testy dokumentacji są teraz tylko ilustracyjne. -
[SPARK-44818] Naprawiono problem konkurencji dla oczekujących przerwań zadania wydanych przed zainicjowaniem
taskThread
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 sierpnia 2023 r.
-
[SPARK-44485] Zoptymalizowane
TreeNode.generateTreeString
. -
[SPARK-44643] Naprawiono
Row.__repr__
, gdy wiersz był pusty. - [SPARK-44504] Zadanie konserwacji usuwa teraz załadowanych dostawców po błędzie zatrzymania.
-
[SPARK-44479] Naprawiono
protobuf
konwersję z pustego typu struktury. -
[SPARK-44464] Naprawiono działanie polegające na generowaniu wierszy wyjściowych, które mają
Null
jako pierwszą wartość kolumny. - Różne poprawki.
-
[SPARK-44485] Zoptymalizowane
- 27 lipca 2023 r.
- Rozwiązano problem, w którym
dbutils.fs.ls()
zwróciłINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
przy wywołaniu dla ścieżki lokalizacji magazynu, która nakładała się z inną lokalizacją magazynu zewnętrznego lub zarządzanego. -
[SPARK-44199]
CacheManager
nie odświeżafileIndex
już niepotrzebnie. -
[SPARK-44448] Usunięto nieprawidłową usterkę wyników z
DenseRankLimitIterator
iInferWindowGroupLimit
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem, w którym
- 24 lipca 2023 r.
- Przywróć [SPARK-42323].
-
[SPARK-41848] Rozwiązano problem z przepełnionym harmonogramem zadania przy użyciu
TaskResourceProfile
. -
[SPARK-44136] Rozwiązano problem polegający na tym, że
StateManager
został zmaterializowany w wykonawcy zamiast w sterowniku wFlatMapGroupsWithStateExec
. -
[SPARK-44337] Rozwiązano problem polegający na tym, że dowolne pole ustawione na
Any.getDefaultInstance
powodowało błędy analizy. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 27 czerwca 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2023 r.
- Fotonized
approx_count_distinct
. - Analizator JSON w trybie
failOnUnknownFields
teraz usuwa rekord w trybieDROPMALFORMED
i kończy się niepowodzeniem bezpośrednio w trybieFAILFAST
. - Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
- Pole
PubSubRecord
atrybutów jest przechowywane jako kod JSON zamiast ciągu z mapy Scala w celu bardziej prostej serializacji i deserializacji. - Polecenie
EXPLAIN EXTENDED
zwraca teraz uprawnienia do pamięci podręcznej wyników zapytania. - Popraw wydajność aktualizacji przyrostowych za pomocą
SHALLOW CLONE
Iceberg i Parquet. - [SPARK-43032] Poprawka usterek języka Python SQM.
- [SPARK-43404]Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
- [SPARK-43340] Obsługa brakującego pola śledzenia stosu w dziennikach zdarzeń.
-
[SPARK-43527] Naprawiono
catalog.listCatalogs
w PySpark. -
[SPARK-43541] Propagacja wszystkich
Project
tagów podczas rozwiązywania wyrażeń i brakujących kolumn. -
[SPARK-43300]
NonFateSharingCache
opakowanie dla Guava Cache. -
[SPARK-43378] Poprawnie zamknij obiekty strumieniowe w
deserializeFromChunkedBuffer
. -
[SPARK-42852] Przywróć powiązane zmiany z
EquivalentExpressions
. -
[SPARK-43779]
ParseToDate
teraz ładujeEvalMode
się w głównym wątku. -
[SPARK-43413] Napraw
IN
podzapytanieListQuery
pod kątem nullowalności. -
[SPARK-43889] Dodaj sprawdzanie nazwy kolumny,
__dir__()
aby odfiltrować nazwy kolumn podatnych na błędy. -
[SPARK-43043] Ulepszono wydajność
MapOutputTracker
funkcji .updateMapOutput - [SPARK-43522] Naprawiono tworzenie nazwy kolumny strukturalnej z wykorzystaniem indeksu tablicy.
- [SPARK-43457] Rozszerz agent użytkownika o wersje systemu operacyjnego, Pythona i Sparka.
-
[SPARK-43286] Zaktualizowano
aes_encrypt
tryb CBC w celu wygenerowania losowych wektorów inicjacyjnych. -
[SPARK-42851] Ochrona
EquivalentExpressions.addExpr()
za pomocą poleceniasupportedExpression()
. - Przywróć [SPARK-43183].
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Fotonized
Databricks Runtime 12.2 LTS
Zobacz Databricks Runtime 12.2 LTS.
29 listopada 2023 r.
- Rozwiązano problem polegający na błędnym interpretowaniu jako symbole wieloznaczne znaków podkreślenia, którym dodano znak ucieczki, w operacjach pochodzących z klientów JDBC lub ODBC.
-
[SPARK-42205] Usunięto możliwości rejestrowania w zdarzeniach
Stage
iTask
uruchamiania. -
[SPARK-44846] Usunięto złożone wyrażenia grupowania po .
RemoveRedundantAggregates
-
[SPARK-43718] Naprawiono obsługę wartości null dla kluczy w
USING
łączeniach. -
[SPARK-45544] Zintegrowana obsługa protokołu SSL w usłudze
TransportContext
. - [SPARK-43973] Interfejs użytkownika Structured Streaming teraz prawidłowo wyświetla zapytania, które zakończyły się niepowodzeniem.
-
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. -
[SPARK-45859] Obiekty UDF są inicjalizowane leniwie
ml.functions
. - Aktualizacje zabezpieczeń systemu operacyjnego.
14 listopada 2023 r.
- Filtry partycji w zapytaniach przesyłania strumieniowego usługi Delta Lake są wypychane przed ograniczeniem szybkości w celu osiągnięcia lepszego wykorzystania.
-
[SPARK-45545]
SparkTransportConf
dziedziczySSLOptions
po utworzeniu. -
[SPARK-45427] Dodano ustawienia SSL dla RPC do
SSLOptions
iSparkTransportConf
. -
[SPARK-45584] Naprawiono błąd uruchamiania podzapytania z
TakeOrderedAndProjectExec
. -
[SPARK-45541] Dodano
SSLFactory
. -
[SPARK-45430]
FramelessOffsetWindowFunction
nie kończy się już niepowodzeniem, gdyIGNORE NULLS
ioffset > rowCount
. - [SPARK-45429] Dodano klasy pomocnika dla komunikacji RPC SSL.
- Aktualizacje zabezpieczeń systemu operacyjnego.
24 października 2023 r.
-
[SPARK-45426] Dodano obsługę elementu
ReloadingX509TrustManager
. - Różne poprawki.
-
[SPARK-45426] Dodano obsługę elementu
13 października 2023
- Zależność Snowflake-jdbc została uaktualniona z wersji 3.13.29 do 3.13.33.
- [SPARK-42553] Upewnij się, że w interwale istnieje co najmniej jedna jednostka czasowa.
- [SPARK-45346] Wnioskowanie schematu Parquet uwzględnia flagę wrażliwą na wielkość liter podczas scalania schematu.
-
[SPARK-45178] Powrót do uruchamiania pojedynczego przetwarzania wsadowego dla
Trigger.AvailableNow
nieobsługiwanych źródeł zamiast używania wrappera. -
[SPARK-45084]
StateOperatorProgress
aby użyć dokładnego, odpowiedniego numeru partycji mieszania.
12 września 2023 r.
- [SPARK-44873] Dodano obsługę z kolumnami zagnieżdżonymi w kliencie programu Hive.
-
[SPARK-44718] Dopasuj
ColumnVector
domyślną konfigurację trybu pamięci doOffHeapMemoryMode
wartości konfiguracji. -
[SPARK-43799] Dodano opcję binarną deskryptora do interfejsu API PySpark
Protobuf
. - Różne poprawki.
30 sierpnia 2023 r.
- [SPARK-44485] Zoptymalizowane.
-
[SPARK-44818] Naprawiono wyścig dla oczekującego przerwania zadania wystawionego zanim
taskThread
zostanie zainicjowane. -
[SPARK-44871][11.3-13.0] Naprawiono
percentile_disc
zachowanie. - [SPARK-44714] Złagodzono ograniczenie rozpoznawania LCA w odniesieniu do zapytań.
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 sierpnia 2023 r.
- [SPARK-44504] Zadanie konserwacji czyści załadowanych dostawców po błędzie zatrzymania.
-
[SPARK-44464] Poprawiono mechanizm
applyInPandasWithStatePythonRunner
do generowania wierszy wyjściowych, które mająNull
jako pierwszą wartość kolumny. - Aktualizacje zabezpieczeń systemu operacyjnego.
29 lipca 2023 r.
- Rozwiązano problem polegający na tym, że
dbutils.fs.ls()
zwracałoINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
, gdy wywołano ścieżkę lokalizacji magazynu, która kolidowała z inną zewnętrzną lub zarządzaną lokalizacją magazynu. -
[SPARK-44199]
CacheManager
nie odświeżafileIndex
już niepotrzebnie. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem polegający na tym, że
24 lipca 2023 roku
-
[SPARK-44337] Rozwiązano problem, w którym ustawienie dowolnego pola na
Any.getDefaultInstance
powodowało błędy analizy. -
[SPARK-44136] Rozwiązano problem, w którym
StateManager
był materializowany w wykonawcy zamiast w driverze wFlatMapGroupsWithStateExec
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44337] Rozwiązano problem, w którym ustawienie dowolnego pola na
23 czerwca 2023 roku
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 czerwca 2023 r.
- Fotonyzowany
approx_count_distinct
. - Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
-
[SPARK-43779]
ParseToDate
teraz ładujeEvalMode
się w głównym wątku. -
[SPARK-43156][SPARK-43098] Test błędu liczenia podzapytań skalarnych rozszerzony przy wyłączonym
decorrelateInnerQuery
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Fotonyzowany
2 czerwca 2023 roku
- Analizator JSON w
failOnUnknownFields
trybie usuwa rekord wDROPMALFORMED
trybie i bezpośrednio zawodzi wFAILFAST
trybie. - Zwiększ wydajność aktualizacji przyrostowych dzięki technologiom Iceberg i Parquet.
- Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
- [SPARK-43404] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
-
[SPARK-43413][11.3-13.0] Naprawiono
IN
nullowalnośćListQuery
podzapytania. - [SPARK-43522] Naprawiono generowanie nazwy kolumny strukturalnej z indeksu tablicy.
-
[SPARK-43541] Propagowanie wszystkich
Project
tagów podczas rozpoznawania wyrażeń i brakujących kolumn. -
[SPARK-43527] Naprawiono
catalog.listCatalogs
w PySpark. - [SPARK-43123] Wewnętrzne metadane pól nie wyciekają już do wykazów.
- [SPARK-43340] Naprawiono brakujące pole śledzenia stosu w dziennikach zdarzeń.
-
[SPARK-42444]
DataFrame.drop
teraz poprawnie obsługuje zduplikowane kolumny. -
[SPARK-42937]
PlanSubqueries
teraz ustawia wartośćInSubqueryExec#shouldBroadcast
true. -
[SPARK-43286] Zaktualizowano
aes_encrypt
tryb CBC do generowania losowych wektorów inicjalizujących. -
[SPARK-43378] Poprawnie zamknij obiekty strumieniowe w
deserializeFromChunkedBuffer
.
- Analizator JSON w
17 maja 2023 r.
- Skanowanie Parquet jest teraz niezawodne w stosunku do OOM podczas skanowania wyjątkowo ustrukturyzowanych plików przez dynamiczne dostosowywanie rozmiaru partii. Metadane plików są analizowane, aby prewencyjnie zmniejszyć rozmiar partii i ponownie zmniejszane w przypadku ponownych prób zadania, jako ostateczne zabezpieczenie.
- Jeśli plik Avro został odczytany przy użyciu opcji
failOnUnknownFields
lub Automatycznego Ładowania w trybie ewolucji schematufailOnNewColumns
, kolumny z różnymi typami danych zostaną odczytane jakonull
zamiast wyrzucając błąd informujący, że nie można odczytać pliku. Te odczyty kończą się teraz niepowodzeniem i zalecamy użytkownikom korzystanie z opcjirescuedDataColumn
. - Funkcja automatycznego modułu ładującego wykonuje teraz następujące czynności.
-
- Poprawnie odczytuje i nie obsługuje już typów
Integer
,Short
orazByte
, jeśli zostanie podany jeden z tych typów danych, ale plik Avro sugeruje jeden z pozostałych dwóch typów.
- Poprawnie odczytuje i nie obsługuje już typów
-
- Uniemożliwia odczytywanie typów interwałów jako typów daty lub znacznika czasu, aby uniknąć uszkodzeń dat.
-
- Zapobiega odczytywaniu
Decimal
typów z niższą precyzją.
- Zapobiega odczytywaniu
- [SPARK-43172] Uwidacznia hosta i token z klienta spark connect.
-
[SPARK-43293]
__qualified_access_only
jest ignorowany w normalnych kolumnach. -
[SPARK-43098] Naprawiono usterkę poprawności
COUNT
, gdy podzapytanie skalarne jest grupowane według klauzuli. -
[SPARK-43085] Obsługa przypisywania kolumn
DEFAULT
dla nazw tabel wieloczęściowych. -
[SPARK-43190]
ListQuery.childOutput
jest teraz zgodny z pomocniczymi danymi wyjściowymi. - [SPARK-43192] Usunięto weryfikację zestawu znaków agenta użytkownika.
- Aktualizacje zabezpieczeń systemu operacyjnego.
25 kwietnia 2023 r.
- Jeśli plik Parquet został odczytany tylko z
failOnUnknownFields
opcją lub z automatycznym modułem ładującym wfailOnNewColumns
trybie ewolucji schematu, kolumny, które miały różne typy danych, będą odczytywane jakonull
zamiast zgłaszać błąd informujący, że nie można odczytać pliku. Te operacje odczytu kończą się teraz niepowodzeniem, a użytkownikom zaleca się korzystanie z opcjirescuedDataColumn
. - Automatyczny ładownik teraz poprawnie odczytuje i nie obsługuje typów
Integer
,Short
orazByte
, jeśli jeden z tych typów danych jest dostarczany. Plik Parquet wskazuje na jeden z dwóch innych typów. Kiedy wcześniej przywrócona kolumna danych była aktywna, niezgodność typów danych powodowała zapisanie kolumn, mimo że były one czytelne. -
[SPARK-43009] Sparametryzowane
sql()
zeAny
stałymi - [SPARK-42406] Zakończenie cyklicznych pól Protobuf poprzez usunięcie pola
-
[SPARK-43038] Obsługa trybu CBC przez
aes_encrypt()
/aes_decrypt()
-
[SPARK-42971] Zmień, aby wydrukować
workdir
, jeśliappDirs
ma wartość null, gdy pracownik obsługujeWorkDirCleanup
zdarzenie - [SPARK-43018] Poprawka usterki w przypadku poleceń INSERT z literałami znacznika czasu
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Jeśli plik Parquet został odczytany tylko z
wtorek, 11 kwietnia 2023 r.
- Obsługa starszych formatów źródeł danych w poleceniu
SYNC
. - Rozwiązano problem w działaniu %autoreload w notatnikach spoza repozytorium.
- Rozwiązano problem polegający na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia po wykryciu nowej kolumny w schemacie zagnieżdżonego obiektu JSON.
-
[SPARK-42928] Synchronizuje
resolvePersistentFunction
. - [SPARK-42936] Rozwiązuje problem LCan, gdy klauzula może zostać rozwiązana bezpośrednio przez jego agregację podrzędną.
-
[SPARK-42967] Naprawia
SparkListenerTaskStart.stageAttemptId
problemy, gdy zadanie rozpoczyna się po anulowaniu etapu. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Obsługa starszych formatów źródeł danych w poleceniu
29 marca 2023 r.
Usługa Sql usługi Databricks obsługuje teraz określanie wartości domyślnych dla kolumn tabel usługi Delta Lake w czasie tworzenia tabeli lub później. Kolejne
INSERT
,UPDATE
,DELETE
iMERGE
mogą odwoływać się do domyślnej wartości dowolnej kolumny przy użyciu jawnego słowa kluczowegoDEFAULT
. Ponadto, jeśli jakiekolwiekINSERT
przypisanie ma jawną listę z mniejszą liczbą kolumn niż tabela docelowa, odpowiednie wartości domyślne kolumn są stosowane dla pozostałych kolumn (lub NULL, jeśli nie określono wartości domyślnej).Na przykład:
CREATE TABLE t (first INT, second DATE DEFAULT CURRENT_DATE()); INSERT INTO t VALUES (0, DEFAULT); INSERT INTO t VALUES (1, DEFAULT); SELECT first, second FROM t; \> 0, 2023-03-28 1, 2023-03-28z
Auto Loader inicjuje teraz co najmniej jedno synchroniczne oczyszczanie logów RocksDB dla strumieni
Trigger.AvailableNow
w celu sprawdzenia, czy punkt kontrolny może być regularnie czyszczony w przypadku szybko działających strumieni Auto Loader. Może to spowodować, że zamknięcie niektórych strumieni potrwa dłużej, ale pozwoli to zaoszczędzić koszty przechowywania i poprawić wydajność Auto Loader w przyszłych uruchomieniach.Teraz możesz zmodyfikować tabelę delty, aby dodać obsługę funkcji tabeli przy użyciu polecenia
DeltaTable.addFeatureSupport(feature_name)
.[SPARK-42794] Zwiększ wartość lockAcquireTimeoutMs do 2 minut, aby pozyskać magazyn stanów bazy danych RocksDB w Structured Streaming
[SPARK-42521] Dodawanie NULL-i dla instrukcji INSERT z listami określonymi przez użytkownika o mniejszej liczbie kolumn niż tabela docelowa
[SPARK-42702][SPARK-42623] Obsługa zapytania sparametryzowanego w podzapytaniu i CTE
[SPARK-42668] Przechwytywanie wyjątku podczas próby zamknięcia skompresowanego strumienia w funkcji zatrzymywania HDFSStateStoreProvider
[SPARK-42403] Kod JsonProtocol powinien obsługiwać ciągi JSON o wartości null
8 marca 2023 r.
- Komunikat o błędzie "Niepowodzenie inicjowania konfiguracji" został ulepszony w celu zapewnienia większego kontekstu dla klienta.
- Istnieje zmiana terminologii dotycząca dodawania funkcji do tabeli delty przy użyciu właściwości tabeli. Preferowana składnia to teraz
'delta.feature.featureName'='supported'
zamiast'delta.feature.featureName'='enabled'
. W celu zapewnienia zgodności z poprzednimi wersjami użycie'delta.feature.featureName'='enabled'
nadal działa i będzie nadal działać. - Począwszy od tej wersji, można utworzyć/zastąpić tabelę dodatkową właściwością
delta.ignoreProtocolDefaults
tabeli, aby zignorować konfiguracje platformy Spark związane z protokołem, w tym domyślne wersje czytnika i składników zapisywania oraz funkcje tabeli obsługiwane domyślnie. - [SPARK-42070] Zmień wartość domyślną argumentu funkcji Mask z -1 na NULL
- [SPARK-41793] Niepoprawny wynik ram okiennych zdefiniowanych przez klauzulę zakresu dla znaczących cyfr dziesiętnych
- [SPARK-42484] Lepsza wiadomość o błędzie dla UnsafeRowUtils
- [SPARK-42516] Zawsze zapisz ustawienia strefy czasowej sesji podczas tworzenia widoków
- [SPARK-42635] Napraw wyrażenie TimestampAdd.
- [SPARK-42622] Wyłącz podstawianie w wartościach
- [SPARK-42534] Poprawa klauzuli LIMIT dialectu DB2
- [SPARK-42121] Dodaj wbudowane funkcje tabelowe posexplode, posexplode_outer, json_tuple i stack
- [SPARK-42045] Tryb SQL ANSI: Funkcja Round/Bround powinna zwrócić błąd dotyczący niewielkiego/małego/znaczącego przepełnienia liczb całkowitych
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 11.3 LTS
Zobacz Databricks Runtime 11.3 LTS.
- 29 listopada 2023 r.
- Rozwiązano problem, w którym podkreślenia z poprzedzeniem ukośnikiem odwrotnym w operacjach
getColumns
pochodzących od klientów JDBC lub ODBC były błędnie interpretowane jako symbole wieloznaczne. - [SPARK-43973] Interfejs użytkownika dla strumieniowej transmisji o strukturze teraz poprawnie wyświetla zapytania zakończone niepowodzeniem.
-
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. -
[SPARK-45544] Zintegrowana obsługa protokołu SSL w usłudze
TransportContext
. -
[SPARK-45859] Funkcje definiowane przez użytkownika (UDF) uczyniono leniwymi
ml.functions
. -
[SPARK-43718] Naprawiono obsługę wartości null dla kluczy w
USING
sprzężeniach. -
[SPARK-44846] Usunięto złożone wyrażenia grupowania po .
RemoveRedundantAggregates
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem, w którym podkreślenia z poprzedzeniem ukośnikiem odwrotnym w operacjach
- 14 listopada 2023 r.
- Filtry partycji w zapytaniach przesyłania strumieniowego usługi Delta Lake są wypychane przed ograniczeniem szybkości w celu osiągnięcia lepszego wykorzystania.
- [SPARK-42205] Usunięto możliwości rejestrowania w zdarzeniach uruchamiania etapu i zadania.
-
[SPARK-45545]
SparkTransportConf
dziedziczySSLOptions
po utworzeniu. - Przywróć [SPARK-33861].
-
[SPARK-45541] Dodano
SSLFactory
. - [SPARK-45429] Dodano klasy pomocnika dla komunikacji RPC SSL.
-
[SPARK-45584] Naprawiono błąd uruchamiania podzapytania przy użyciu
TakeOrderedAndProjectExec
. -
[SPARK-45430]
FramelessOffsetWindowFunction
nie kończy się już niepowodzeniem, gdyIGNORE NULLS
ioffset > rowCount
. -
[SPARK-45427] Dodano ustawienia SSL protokołu RPC do
SSLOptions
iSparkTransportConf
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 24 października 2023 r.
-
[SPARK-45426] Dodano obsługę elementu
ReloadingX509TrustManager
. - Różne poprawki.
-
[SPARK-45426] Dodano obsługę elementu
- 13 października 2023 r.
- Zależność Snowflake-jdbc została uaktualniona z wersji 3.13.29 do 3.13.33.
- [SPARK-45178] Przejście na uruchamianie pojedynczej partii w przypadku nieobsługiwanych źródeł zamiast używania opakowania.
-
[SPARK-45084]
StateOperatorProgress
aby użyć dokładnego, odpowiedniego numeru partycji mieszania. - [SPARK-45346] Wnioskowanie schematu Parquet uwzględnia teraz flagę wrażliwą na wielkość liter podczas scalania schematu.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 10 września 2023 r.
- Różne poprawki.
- 30 sierpnia 2023 r.
-
[SPARK-44818] Naprawiono warunek wyścigu dla oczekujących przerwań zadania wydanych przed
taskThread
zainicjowaniem. -
[SPARK-44871][11.3-13.0] Naprawiono
percentile_disc
zachowanie. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44818] Naprawiono warunek wyścigu dla oczekujących przerwań zadania wydanych przed
- 15 sierpnia 2023 r.
-
[SPARK-44485] Zoptymalizowane
TreeNode.generateTreeString
. - [SPARK-44504] Zadanie konserwacji usuwa załadowanych dostawców w przypadku błędu zatrzymania systemu.
-
[SPARK-44464] Naprawiono problem związany z
applyInPandasWithStatePythonRunner
tak, aby wiersze wyjściowe miałyNull
jako pierwszą wartość kolumny. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44485] Zoptymalizowane
- 27 lipca 2023 r.
- Rozwiązano problem, w którym
dbutils.fs.ls()
zwracałaINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
po wywołaniu dla ścieżki lokalizacji magazynu, która kolidowała z inną lokalizacją magazynu zewnętrznego lub zarządzanego. -
[SPARK-44199]
CacheManager
nie odświeżafileIndex
już niepotrzebnie. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem, w którym
- 24 lipca 2023 r.
- [SPARK-44136] Rozwiązano problem polegający na tym, że element StateManager mógł być zmaterializowany w funkcji wykonawczej zamiast sterownika w elemecie FlatMapGroupsWithStateExec.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 23 czerwca 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2023 r.
- Fotonyzowany
approx_count_distinct
. - Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
-
[SPARK-43779]
ParseToDate
teraz ładujeEvalMode
się w głównym wątku. - [SPARK-40862] Obsługa niezagregowanych podzapytań w funkcji RewriteCorrelatedScalarSubquery
-
[SPARK-43156][SPARK-43098] Rozszerzono test błędu liczenia podzapytań skalarnych przy wyłączonej opcji
decorrelateInnerQuery
. - [SPARK-43098] Naprawiono błąd w poprawności funkcji COUNT, gdy podzapytanie skalarne posiada klauzulę GROUP BY
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Fotonyzowany
- 2 czerwca 2023 r.
- Analizator JSON w
failOnUnknownFields
trybie usuwa rekord wDROPMALFORMED
trybie i kończy się niepowodzeniem bezpośrednio wFAILFAST
trybie. - Zwiększ wydajność aktualizacji przyrostowych z Iceberg i Parquet.
- Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
- [SPARK-43404]Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
-
[SPARK-43527] Naprawiono
catalog.listCatalogs
w PySpark. -
[SPARK-43413][11.3-13.0] Naprawiono
IN
nullowalność podzapytaniaListQuery
. - [SPARK-43340] Naprawiono brakujące pole śledzenia stosu w dziennikach zdarzeń.
- Analizator JSON w
Databricks Runtime 10.4 LTS
Zobacz Databricks Runtime 10.4 LTS.
- 29 listopada 2023 r.
-
[SPARK-45544] Zintegrowana obsługa protokołu SSL w usłudze
TransportContext
. -
[SPARK-45859] Obiekty UDF w
ml.functions
są leniwe. -
[SPARK-43718] Naprawiono właściwości nullability dla kluczy w
USING
sprzężeniach. -
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. - [SPARK-42205] Usunięto możliwości logowania w zdarzeniach rozpoczynania etapu i zadania.
-
[SPARK-44846] Usunięto złożone wyrażenia grupowania po .
RemoveRedundantAggregates
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45544] Zintegrowana obsługa protokołu SSL w usłudze
- 14 listopada 2023 r.
-
[SPARK-45541] Dodano
SSLFactory
element. -
[SPARK-45545]
SparkTransportConf
dziedziczySSLOptions
po utworzeniu. -
[SPARK-45427] Dodano ustawienia SSL dla protokołu RPC do
SSLOptions
iSparkTransportConf
. - [SPARK-45429] Dodano klasy pomocnika dla komunikacji RPC SSL.
-
[SPARK-45584] Naprawiono błąd uruchamiania podzapytania z poleceniem
TakeOrderedAndProjectExec
. - Przywróć [SPARK-33861].
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45541] Dodano
- 24 października 2023 r.
-
[SPARK-45426] Dodano obsługę elementu
ReloadingX509TrustManager
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45426] Dodano obsługę elementu
- 13 października 2023 r.
-
[SPARK-45084]
StateOperatorProgress
aby użyć dokładnego, odpowiedniego numeru partycji mieszania. -
[SPARK-45178] Powrót do uruchamiania pojedynczej partii dla
Trigger.AvailableNow
nieobsługiwanych źródeł zamiast używania opakowania. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45084]
- 10 września 2023 r.
- Różne poprawki.
- 30 sierpnia 2023 r.
-
[SPARK-44818] Naprawiono wyścig dla oczekujących przerwań zadania wystawionych przed
taskThread
zainicjowaniem. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44818] Naprawiono wyścig dla oczekujących przerwań zadania wystawionych przed
- 15 sierpnia 2023 r.
- [SPARK-44504] Zadanie konserwacji czyści załadowanych dostawców po błędzie zatrzymania.
- [SPARK-43973] Interfejs użytkownika Structured Streaming teraz prawidłowo wyświetla zakończone niepowodzeniem zapytania.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 23 czerwca 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2023 r.
- Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
- [SPARK-43098] Naprawiono usterkę dotyczącą poprawności COUNT, gdy podzapytywanie skalarne ma klauzulę GROUP BY
- [SPARK-40862] Obsługa nieagregowanych podzapytań w funkcji RewriteCorrelatedScalarSubquery
-
[SPARK-43156][SPARK-43098] Rozszerzony test liczby podzapytania skalarnych z wyłączonym
decorrelateInnerQuery
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 2 czerwca 2023 r.
- Analizator JSON w
failOnUnknownFields
trybie usuwa rekord wDROPMALFORMED
trybie i zawodzi bezpośrednio wFAILFAST
trybie. - Rozwiązano problem z analizą danych z odzysku w formacie JSON, aby zapobiec powstawaniu
UnknownFieldException
. - Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
- [SPARK-43404] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
-
[SPARK-43413] Naprawiono
IN
nullowość podzapytaniaListQuery
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Analizator JSON w
- 17 maja 2023 r.
- Skanowanie Parquet jest teraz niezawodne w stosunku do OOM podczas skanowania wyjątkowo ustrukturyzowanych plików przez dynamiczne dostosowywanie rozmiaru partii. Metadane plików są analizowane, aby zapobiegawczo zmniejszyć rozmiar partii i są ponownie zmniejszane przy ponownych próbach wykonania zadania jako ostateczna sieć bezpieczeństwa.
-
[SPARK-41520] Podziel
AND_OR
wzorzec drzewa na oddzielneAND
iOR
. -
[SPARK-43190]
ListQuery.childOutput
jest teraz zgodny z drugorzędnymi danymi wyjściowymi. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 kwietnia 2023 r.
-
[SPARK-42928] Ustaw
resolvePersistentFunction
synchronizację. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-42928] Ustaw
- 11 kwietnia 2023 r.
- Rozwiązano problem polegający na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia po wykryciu nowej kolumny w schemacie zagnieżdżonego obiektu JSON.
-
[SPARK-42937]
PlanSubqueries
teraz ustawiaInSubqueryExec#shouldBroadcast
na wartość true. - [SPARK-42967] Poprawiono element SparkListenerTaskStart.stageAttemptId w sytuacji, gdy zadanie jest uruchomione po anulowaniu etapu.
- 29 marca 2023 r.
- [SPARK-42668] Przechwytywanie wyjątku podczas próby zamknięcia skompresowanego strumienia przy zatrzymywaniu HDFSStateStoreProvider
- [SPARK-42635] Napraw ...
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 14 marca 2023 r.
- [SPARK-41162] Naprawianie anty-i półsprzężenia na potrzeby samodzielnego sprzężenia za pomocą agregacji
- [SPARK-33206] Napraw obliczanie wagi pamięci podręcznej indeksu shuffle dla małych plików indeksowych
-
[SPARK-42484] Ulepszono komunikat o błędzie
UnsafeRowUtils
- Różne poprawki.
- 28 lutego 2023 r.
- Obsługa generowanej kolumny dla formatu daty rrrr-MM-dd. Ta zmiana obsługuje oczyszczanie partycji dla rrrr-MM-dd jako date_format w wygenerowanych kolumnach.
- Użytkownicy mogą teraz odczytywać i zapisywać określone tabele delty wymagające czytnika w wersji 3 i składnika zapisywania w wersji 7 przy użyciu środowiska Databricks Runtime 9.1 LTS lub nowszego. Aby odnieść sukces, funkcje tabel wymienione w protokole tabel muszą być obsługiwane przez bieżącą wersję środowiska Databricks Runtime.
- Obsługa generowanej kolumny dla date_format yyyy-MM-dd. Ta zmiana obsługuje oczyszczanie partycji dla rrrr-MM-dd jako date_format w wygenerowanych kolumnach.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 16 lutego 2023 r.
- [SPARK-30220] Umożliwienie używania subzapytań Exists/In poza węzłem Filtru
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 31 stycznia 2023 r.
- Typy tabel tabel JDBC są teraz domyślnie zewnętrzne.
- 18 stycznia 2023 r.
- Łącznik usługi Azure Synapse zwraca bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
Azure Synapse Analytics failed to run the JDBC query produced by the connector. Check column names do not include not valid characters such as ';' or white space
. - [SPARK-38277] Czyszczenie partii zapisu po zatwierdzeniu magazynu stanów bazy danych RocksDB
- [SPARK-41199] Rozwiązano problem z metrykami, gdy źródło przesyłania strumieniowego DSv1 i źródło przesyłania strumieniowego DSv2 są współużytowane
- [SPARK-41198] Naprawianie metryk w zapytaniu przesyłanym strumieniowo o źródle przesyłania strumieniowego CTE i DSv1
- [SPARK-41339] Zamknij i utwórz ponownie partię zapisu bazy danych RocksDB zamiast tylko wyczyścić
- [SPARK-41732] Zastosowanie przycinania opartego na wzorcach drzew w regule SessionWindowing
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Łącznik usługi Azure Synapse zwraca bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
- 29 listopada 2022 r.
- Użytkownicy mogą konfigurować zachowanie wiodących i końcowych spacji przy zapisywaniu danych za pomocą łącznika Redshift. Dodano następujące opcje do zarządzania obsługą białych znaków.
-
csvignoreleadingwhitespace
, gdy jest ustawiony natrue
, usuwa wiodące białe znaki z wartości podczas zapisu, gdytempformat
jest ustawiony naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
. -
csvignoretrailingwhitespace
, gdy ustawione natrue
, usuwa kończące białe znaki z wartości podczas zapisu, jeślitempformat
jest ustawione naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
.
-
- Rozwiązano problem z analizowaniem JSON w Auto Loader, gdy wszystkie kolumny były pozostawione jako ciągi (
cloudFiles.inferColumnTypes
nie zostały ustawione lub ustawione nafalse
), a JSON zawierał zagnieżdżone obiekty. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Użytkownicy mogą konfigurować zachowanie wiodących i końcowych spacji przy zapisywaniu danych za pomocą łącznika Redshift. Dodano następujące opcje do zarządzania obsługą białych znaków.
- 15 listopada 2022 r.
- Uaktualniono wersję apache commons-text do wersji 1.10.0.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby włączyć ulepszone działanie, ustaw
spark.sql.json.enablePartialResults
natrue
. Flaga jest domyślnie wyłączona, aby zachować oryginalne zachowanie. -
[SPARK-40292] Naprawianie nazw kolumn w
arrays_zip
funkcji, gdy tablice są przywoływane z zagnieżdżonych struktur - Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 listopada 2022 r.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale źródło danych zmian zostało wyłączone w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - Rozwiązano problem z funkcją automatycznego ładowania, który polegał na tym, że plik mógł być zduplikowany w tej samej mikrosadowej partii, gdy
allowOverwrites
jest włączony - [SPARK-40697] Dodawanie dopełnienia znaków po stronie odczytu w celu pokrycia zewnętrznych plików danych
- [SPARK-40596] Wypełnić ExecutorDecommission komunikatami w ExecutorDecommissionInfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
- 18 października 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 października 2022 r.
-
[SPARK-40468] Napraw oczyszczanie kolumn w pliku CSV, gdy
_corrupt_record
jest zaznaczone. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-40468] Napraw oczyszczanie kolumn w pliku CSV, gdy
- 22 września 2022 r.
- Użytkownicy mogą ustawić spark.conf.set(
spark.databricks.io.listKeysWithPrefix.azure.enabled
,true
), aby ponownie włączyć wbudowaną listę dla Auto Loader w usłudze ADLS. Wbudowana lista została wcześniej wyłączona z powodu problemów z wydajnością, co mogło doprowadzić do zwiększenia kosztów przechowywania dla klientów. - [SPARK-40315] Dodaj hashCode() dla Literału z ArrayBasedMapData
- [SPARK-40213] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- [SPARK-40380] Napraw stałe składanie elementu InvokeLike, aby uniknąć nieserializowalnego literału osadzonego w planie
- [SPARK-38404] Ulepsz rozpoznawanie CTE, gdy zagnieżdżone CTE odwołuje się do zewnętrznego CTE
- [SPARK-40089] Naprawianie sortowania niektórych typów dziesiętnych
- [SPARK-39887] RemoveRedundantAliases powinno zachować aliasy, które czynią dane wyjściowe węzłów projekcji unikatowymi
- Użytkownicy mogą ustawić spark.conf.set(
- 6 września 2022 r.
- [SPARK-40235] Użyj blokady przerywalnej zamiast zsynchronizowanej blokady w funkcji Executor.updateDependencies()
- [SPARK-40218] ZESTAWY GRUPOWANIA powinny zachować kolumny grupowania
- [SPARK-39976] Funkcja ArrayIntersect powinna poprawnie obsługiwać wartość null w wyrażeniu po lewej stronie
-
[SPARK-40053] Dodawanie
assume
do dynamicznych przypadków anulowania, które wymagają środowiska uruchomieniowego języka Python - [SPARK-35542] Poprawka: Moduł bucketizer utworzony dla wielu kolumn z parametrami splitsArray, inputCols i outputCols nie można załadować po zapisaniu go
- [SPARK-40079] Dodać walidację inputCols w Imputerze dla przypadku pustego wejścia
- 24 sierpnia 2022 r.
- [SPARK-39983] Nie buforuj nieserializowane relacje emisji na sterowniku
- [SPARK-39775] Wyłącz weryfikowanie wartości domyślnych podczas analizowania schematów Avro
- [SPARK-39962] Zastosuj projekcję, gdy atrybuty grupy są puste
- [SPARK-37643] jeśli parametr charVarcharAsString ma wartość true, w przypadku zapytania predykatu typu char należy pominąć regułę rpadding
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 9 sierpnia 2022 r.
- [SPARK-39847] Napraw stan wyścigu w pliku RocksDBLoader.loadLibrary(), jeśli wątek wywołujący zostanie przerwany
- [SPARK-39731] Rozwiązano problem ze źródłami danych CSV i JSON podczas analizowania dat w formacie "yyyMMdd" przy użyciu zasad analizatora czasu POPRAWIONO
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 27 lipca 2022 r.
- [SPARK-39625] Dodawanie Dataset.as(StructType)
-
[SPARK-39689]Obsługa 2 znaków
lineSep
w źródle danych CSV - [SPARK-39104] InMemoryRelation#isCachedColumnBuffersLoaded powinien być bezpieczny wątkowo
- [SPARK-39570] Tabela śródliniowa powinna zezwalać na wyrażenia z aliasem
- [SPARK-39702] Zmniejsz obciążenie pamięcią funkcji TransportCipher$EncryptedMessage przy użyciu udostępnionego bajtuRawChannel
- [SPARK-39575] dodaj ByteBuffer#rewind po ByteBuffer#get w AvroDeserializerze
- [SPARK-39476] Wyłącz optymalizację odpakowania rzutowania podczas rzutowania z Long na Float/ Double lub z Integer na Float
- [SPARK-38868] Nie propaguj wyjątków z predykatu filtru podczas optymalizowania sprzężeń zewnętrznych
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 20 lipca 2022 r.
- Upewnij się, że operacja delta MERGE jest spójna, gdy źródło nie jest deterministyczne.
- [SPARK-39355] Pojedyncza kolumna używa cudzysłowia do konstruowania atrybutu UnresolvedAttribute
- [SPARK-39548] Polecenie CreateView z zapytaniem z klauzulą okna powoduje problem z nieprawidłową definicją okna.
- [SPARK-39419] Napraw klasę ArraySort, aby zgłosić wyjątek, gdy komparator zwraca wartość null
- Wyłączono użycie wbudowanych interfejsów API chmury przez Auto Loader do uzyskiwania listy katalogów na platformie Azure.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 lipca 2022 r.
- [SPARK-39376] Ukryj zduplikowane kolumny w rozszerzaniu aliasu podzapytania z NATURAL/USING JOIN
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2022 r.
- [SPARK-39283] Naprawa zakleszczenia między elementami TaskMemoryManager i UnsafeExternalSorter.SpillableIterator
- [SPARK-39285] Platforma Spark nie powinna sprawdzać nazw pól podczas odczytywania plików
- [SPARK-34096] Zwiększanie wydajności nth_value ignorowanie wartości null w oknie przesunięcia
- [SPARK-36718] Naprawa sprawdzania w CollapseProject
- 2 czerwca 2022 r.
- [SPARK-39093] Unikaj błędu kompilacji kodu podczas dzielenia interwałów rok-miesiąc lub interwałów dzień-czas przez liczbę całkowitą
- [SPARK-38990] Unikaj wystąpienia NullPointerException podczas oceniania formatu date_trunc/trunc jako referencja zdefiniowana
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Naprawia potencjalny wbudowany wyciek pamięci w Auto Loaderu.
- [SPARK-38918] Zagnieżdżone oczyszczanie kolumn powinno filtrować atrybuty, które nie należą do bieżącej relacji
- [SPARK-37593] Zmniejsz domyślny rozmiar strony przez LONG_ARRAY_OFFSET, jeśli są używane G1GC i ON_HEAP
- [SPARK-39084] Poprawka df.rdd.isEmpty() przy użyciu elementu TaskContext w celu zatrzymania iteratora po zakończeniu zadania
- [SPARK-32268] Dodawanie kolumnyPruning w iniekcjiBloomFilter
- [SPARK-38974] Filtrowanie zarejestrowanych funkcji przy użyciu danej nazwy bazy danych w funkcjach listy
- [SPARK-38931] Utworzenie katalogu głównego dfs dla elementu RocksDBFileManager z nieznaną liczbą kluczy podczas pierwszego punktu kontrolnego
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 kwietnia 2022 r.
- Uaktualniono zestaw JAVA AWS SDK z wersji 1.11.655 do wersji 1.12.1899.
- Rozwiązano problem z bibliotekami ograniczonymi do notesu, które nie działały w zadaniach strumieniowych wsadowych.
- [SPARK-38616] Śledź tekst zapytania SQL w węźle Catalyst TreeNode
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 6 kwietnia 2022 r.
- Następujące funkcje Spark SQL są teraz dostępne w tej wersji:
-
timestampadd()
idateadd()
: Dodaj czas trwania w określonej jednostce do wyrażenia znacznika czasowego. -
timestampdiff()
idatediff()
: Oblicz różnicę czasu między dwoma znacznikami czasu w określonej jednostce.
-
- Parquet-MR został uaktualniony do wersji 1.12.2
- Ulepszona obsługa pełnych schematów w plikach typu parquet
- [SPARK-38631] Używa implementacji opartej na języku Java do cofania tarringu w pliku Utils.unpack
-
[SPARK-38509][SPARK-38481] Wybierz trzy
timestmapadd/diff
zmiany. - [SPARK-38523] Poprawka odwołująca się do uszkodzonej kolumny rekordu z pliku CSV
-
[SPARK-38237] Zezwalaj
ClusteredDistribution
na wymaganie pełnych kluczy klastrowania - [SPARK-38437] Pobłażliwa serializacja daty/godziny z źródła danych
- [SPARK-38180] Zezwalaj na bezpieczne rzutowanie w górę w skorelowanych wyrażeniach warunków równości
- [SPARK-38155] Nie zezwalaj na odrębne agregowanie w podzapytaniach bocznych z nieobsługiwanymi predykatami
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Następujące funkcje Spark SQL są teraz dostępne w tej wersji:
Databricks Runtime 9.1 LTS
Zobacz Databricks Runtime 9.1 LTS.
- 29 listopada 2023 r.
-
[SPARK-45859] Obiekty UDF w
ml.functions
zostały zainicjowane leniwie. -
[SPARK-45544] Zintegrowana obsługa protokołu SSL w usłudze
TransportContext
. -
[SPARK-45730] Ulepszone ograniczenia czasowe dla elementu
ReloadingX509TrustManagerSuite
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45859] Obiekty UDF w
- 14 listopada 2023 r.
-
[SPARK-45545]
SparkTransportConf
dziedziczySSLOptions
po utworzeniu. - [SPARK-45429] Dodano klasy pomocnika dla komunikacji RPC SSL.
-
[SPARK-45427] Dodano ustawienia SSL dla RPC do
SSLOptions
iSparkTransportConf
. -
[SPARK-45584] Naprawiono błąd uruchomienia podzapytania z
TakeOrderedAndProjectExec
. -
[SPARK-45541] Dodano
SSLFactory
element. - [SPARK-42205] Usunięto możliwości rejestrowania w zdarzeniach uruchamiania etapu i zadania.
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45545]
- 24 października 2023 r.
-
[SPARK-45426] Dodano obsługę elementu
ReloadingX509TrustManager
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-45426] Dodano obsługę elementu
- 13 października 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 10 września 2023 r.
- Różne poprawki.
- 30 sierpnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 sierpnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 23 czerwca 2023 r.
- Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2023 r.
- [SPARK-43098] Naprawiono błąd poprawności przy użyciu funkcji COUNT, gdy podzapytanie skalarne zawiera klauzulę grupowania według
-
[SPARK-43156][SPARK-43098] Rozszerz test błędu liczenia podzapytań skalarnych przy wyłączonej opcji
decorrelateInnerQuery
. - [SPARK-40862] Obsługa niezagregowanych podzapytań w funkcji RewriteCorrelatedScalarSubquery
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 2 czerwca 2023 r.
- Analizator JSON w trybie
failOnUnknownFields
usuwa rekord w trybieDROPMALFORMED
, a w trybieFAILFAST
kończy się natychmiastowym niepowodzeniem. - Rozwiązano problem z analizą danych uratowanych w formacie JSON, aby zapobiec
UnknownFieldException
. - Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
-
[SPARK-37520] Dodaj funkcje
startswith()
iendswith()
string -
[SPARK-43413] Naprawiono
IN
nullowalność podzapytaniaListQuery
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Analizator JSON w trybie
- 17 maja 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 kwietnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 11 kwietnia 2023 r.
- Rozwiązano problem polegający na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia po wykryciu nowej kolumny w schemacie zagnieżdżonego obiektu JSON.
- [SPARK-42967] Naprawiono element SparkListenerTaskStart.stageAttemptId, gdy zadanie jest uruchamiane po anulowaniu etapu.
- 29 marca 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 14 marca 2023 r.
-
[SPARK-42484] Ulepszony komunikat o błędzie dla elementu
UnsafeRowUtils
. - Różne poprawki.
-
[SPARK-42484] Ulepszony komunikat o błędzie dla elementu
- 28 lutego 2023 r.
- Użytkownicy mogą teraz odczytywać i zapisywać określone tabele Delta, wymagające wersji Reader 3 i Writer 7, przy użyciu środowiska Databricks Runtime 9.1 LTS lub nowszego. Aby osiągnąć sukces, funkcje tabel wymienione w protokole tabel muszą być obsługiwane przez bieżącą wersję środowiska Databricks Runtime.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 16 lutego 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 31 stycznia 2023 r.
- Typy tabel JDBC są teraz domyślnie zewnętrzne.
- 18 stycznia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 29 listopada 2022 r.
- Rozwiązano problem z analizowaniem JSON w Auto Loader, gdy wszystkie kolumny były pozostawione jako ciągi znaków (nie były ustawione lub były ustawione na
false
), a JSON zawierał zagnieżdżone obiekty. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem z analizowaniem JSON w Auto Loader, gdy wszystkie kolumny były pozostawione jako ciągi znaków (nie były ustawione lub były ustawione na
- 15 listopada 2022 r.
- Uaktualniono wersję apache commons-text do wersji 1.10.0.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki.
- 1 listopada 2022 r.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale źródło danych zmian zostało wyłączone w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - Rozwiązano problem z funkcją automatycznego ładowania, który polegał na tym, że plik mógł być zduplikowany w tej samej mikropartii, jeśli
allowOverwrites
jest włączony - [SPARK-40596] Wypełnianie modułu Decommission komunikatami w kontekście ExecutorDecommissionInfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
- 18 października 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 października 2022 r.
- Różne poprawki.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2022 r.
- Użytkownicy mogą ustawić ustawienie spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true"), aby ponownie włączyć wbudowaną funkcję listowania dla Auto Loader w usłudze ADLS. Wbudowana lista została wcześniej wyłączona z powodu problemów z wydajnością, ale mogło doprowadzić do zwiększenia kosztów przechowywania dla klientów.
- [SPARK-40315] Dodaj hashCode() dla Literału ArrayBasedMapData
- [SPARK-40089] Naprawianie sortowania niektórych typów dziesiętnych
- [SPARK-39887] RemoveRedundantAliases powinno zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- 6 września 2022 r.
- [SPARK-40235] Użyj blokady przerywanej zamiast zsynchronizowanej w metodzie Executor.updateDependencies()
- [SPARK-35542] Poprawka: Moduł bucketizer utworzony dla wielu kolumn z parametrami splitsArray, inputCols i outputCols nie można załadować po zapisaniu go
- [SPARK-40079] Dodawanie walidacji danych inputCols imputera dla pustego przypadku wejściowego
- 24 sierpnia 2022 r.
-
[SPARK-39666] Użyj metody UnsafeProjection.create, aby uwzględniać
spark.sql.codegen.factoryMode
w ExpressionEncoder - [SPARK-39962] Zastosuj projekcję, gdy atrybuty grupy są puste
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-39666] Użyj metody UnsafeProjection.create, aby uwzględniać
- 9 sierpnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 27 lipca 2022 r.
- Upewnij się, że operacja delta MERGE jest spójna, gdy źródło nie jest deterministyczne.
-
[SPARK-39689] Obsługa 2 znaków
lineSep
w źródle danych CSV -
[SPARK-39575] Dodano
ByteBuffer#rewind
poByteBuffer#get
wAvroDeserializer
. - [SPARK-37392] Naprawiono błąd wydajności optymalizatora katalizatora.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 13 lipca 2022 r.
-
[SPARK-39419]
ArraySort
zgłasza wyjątek, gdy komparator zwraca wartość null. - Wyłączono użycie wbudowanych interfejsów API chmury przez Auto Loader na potrzeby listy katalogów na platformie Azure.
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-39419]
- 5 lipca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki.
- 15 czerwca 2022 r.
-
[SPARK-39283] Naprawiono zakleszczenie między elementami
TaskMemoryManager
iUnsafeExternalSorter.SpillableIterator
.
-
[SPARK-39283] Naprawiono zakleszczenie między elementami
- 2 czerwca 2022 r.
-
[SPARK-34554] Zaimplementuj metodę
copy()
w plikuColumnarMap
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-34554] Zaimplementuj metodę
- 18 maja 2022 r.
- Naprawiono potencjalny wyciek wbudowanej pamięci w module automatycznego ładowania.
- Uaktualnij zestaw AWS SDK z wersji 1.11.655 do wersji 1.11.678.
- [SPARK-38918] Zagnieżdżone oczyszczanie kolumn powinno filtrować atrybuty, które nie należą do bieżącej relacji
-
[SPARK-39084] Poprawka
df.rdd.isEmpty()
przy użyciu poleceniaTaskContext
w celu zatrzymania iteratora po zakończeniu zadania - Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki.
- 6 kwietnia 2022 r.
- [SPARK-38631] Używa implementacji opartej na języku Java do cofania tarringu w pliku Utils.unpack
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 marca 2022 r.
- Zmieniono bieżący katalog roboczy notebooków w klastrach o wysokiej współbieżności z kontrolą dostępu do tabeli lub przekazywaniem poświadczeń, tak aby prowadził do katalogu domowego użytkownika. Wcześniej usługa Active Directory miała wartość
/databricks/driver
. - [SPARK-38437] Pobłażliwe podejście do serializacji dat i czasu ze źródła danych
- [SPARK-38180] Zezwolenie na bezpieczne rzutowanie wyrażeń w skorelowanych predykatach równościowych
- [SPARK-38155] Nie zezwalaj na odrębne agregowanie w podzapytaniach bocznych z nieobsługiwanymi predykatami
- [SPARK-27442] Usunięto pole wyboru podczas odczytywania lub zapisywania danych w parquet.
- Zmieniono bieżący katalog roboczy notebooków w klastrach o wysokiej współbieżności z kontrolą dostępu do tabeli lub przekazywaniem poświadczeń, tak aby prowadził do katalogu domowego użytkownika. Wcześniej usługa Active Directory miała wartość
- 14 marca 2022 r.
- [SPARK-38236] Bezwzględne ścieżki plików określone w tabeli tworzenia/zmiany są traktowane jako względne
-
[SPARK-34069] Przerywanie wątku zadania, jeśli właściwość
SPARK_JOB_INTERRUPT_ON_CANCEL
lokalna jest ustawiona na true.
- 23 lutego 2022 r.
- [SPARK-37859] Tabele SQL utworzone za pomocą JDBC z platformą Spark 3.1 nie są czytelne dla platformy Spark 3.2.
- 8 lutego 2022 r.
- [SPARK-27442] Usunięto pole wyboru podczas odczytywania lub zapisywania danych w parquet.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 stycznia 2022 r.
- Rozwiązano problem polegający na tym, że współbieżne transakcje na tabelach Delta mogły być zatwierdzane w nieserializowalnej kolejności w pewnych rzadkich warunkach.
- Rozwiązano problem, w którym polecenie
OPTIMIZE
mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
- 19 stycznia 2022 r.
- Drobne poprawki i ulepszenia zabezpieczeń.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 4 listopada 2021 r.
- Rozwiązano problem, który mógł powodować niepowodzenie strumieni przesyłania strumieniowego ze strukturą z powodu błędu
ArrayIndexOutOfBoundsException
. - Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania poprzez wystąpienie wyjątku takiego jak IOException
java.io.IOException: No FileSystem for scheme
lub który może sprawić, że modyfikacjesparkContext.hadoopConfiguration
nie zostaną wprowadzone w życie w zapytaniach. - Konektor Apache Spark dla Delta Sharing został zaktualizowany do 0.2.0.
- Rozwiązano problem, który mógł powodować niepowodzenie strumieni przesyłania strumieniowego ze strukturą z powodu błędu
- 20 października 2021 r.
- Uaktualniono łącznik BigQuery z wersji 0.18.1 do 0.22.2. Dodaje obsługę typu BigNumeric.
Databricks Runtime 13.0 (EoS)
Zobacz Databricks Runtime 13.0 (EoS).
13 października 2023
- Zależność Snowflake-jdbc została uaktualniona z wersji 3.13.29 do 3.13.33.
- [SPARK-42553][SQL] Zapewnij co najmniej jedną jednostkę czasu po interwale.
-
[SPARK-45178] Zastosowanie uruchamiania pojedynczej partii dla
Trigger.AvailableNow
z nieobsługiwanymi źródłami zamiast używania opakowania. -
[SPARK-44658][CORE]
ShuffleStatus.getMapStatus
zwracaNone
zamiastSome(null)
. -
[SPARK-42205][CORE] Usuń rejestrowanie funkcji Accumulables w zdarzeniach uruchamiania zadania/etapu w programie
JsonProtocol
. - Aktualizacje zabezpieczeń systemu operacyjnego.
12 września 2023 r.
-
[SPARK-44485][SQL] Zoptymalizuj
TreeNode.generateTreeString
. -
[SPARK-44718][SQL] Dopasuj
ColumnVector
domyślną konfigurację trybu pamięci doOffHeapMemoryMode
wartości konfiguracji. - Różne poprawki błędów.
-
[SPARK-44485][SQL] Zoptymalizuj
30 sierpnia 2023 r.
-
[SPARK-44818][Backport] Naprawiono stan wyścigu dla oczekujących przerwania zadania wydanych przed
taskThread
zainicjowaniem. - [SPARK-44714] Złagodzenie ograniczeń związanych z rozpoznawaniem LCA dla zapytań.
-
[SPARK-44245][PYTHON]
pyspark.sql.dataframe sample()
Testy dokumentu są teraz ilustracyjne. -
[SPARK-44871][11.3-13.0][SQL] Naprawiono
percentile_disc
zachowanie. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44818][Backport] Naprawiono stan wyścigu dla oczekujących przerwania zadania wydanych przed
15 sierpnia 2023 r.
-
[SPARK-44643][SQL][PYTHON] Poprawka
Row.__repr__
, gdy wiersz jest pusty. - [SPARK-44504][Backport] Zadanie konserwacji czyści załadowanych dostawców po błędzie zatrzymania.
-
[SPARK-44479][CONNECT][PYTHON] Naprawiono
protobuf
konwersję z pustego typu struktury. -
[SPARK-44464][SS] Naprawiono
applyInPandasWithStatePythonRunner
w celu wyświetlania wierszy, które mająNull
jako wartość pierwszej kolumny. - Różne poprawki błędów.
-
[SPARK-44643][SQL][PYTHON] Poprawka
29 lipca 2023 r.
- Usunięto usterkę, w której
dbutils.fs.ls()
zwracałoINVALID_PARAMETER_VALUE.LOCATION_OVERLAP
w przypadku wywołania dla ścieżki lokalizacji magazynu, która konfliktowała z innymi lokalizacjami magazynu zewnętrznego lub zarządzanego. -
[SPARK-44199]
CacheManager
nie odświeżafileIndex
już niepotrzebnie. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Usunięto usterkę, w której
24 lipca 2023 roku
-
[SPARK-44337][PROTOBUF] Naprawiono problem, w którym dowolne ustawienie pola na
Any.getDefaultInstance
powodowało błędy analizy. -
[SPARK-44136] [SS] Rozwiązano problem, w którym
StateManager
został zmaterializowany w wykonawcy zamiast w sterowniku w kontekścieFlatMapGroupsWithStateExec
. -
Przywróć [SPARK-42323][SQL] Przypisz nazwę do
_LEGACY_ERROR_TEMP_2332
. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-44337][PROTOBUF] Naprawiono problem, w którym dowolne ustawienie pola na
23 czerwca 2023 roku
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 czerwca 2023 r.
- Fotonized
approx_count_distinct
. - Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
- [SPARK-43156][SPARK-43098][SQL] Rozszerzenie testu wykrywającego błędy w obliczaniu liczby podzapytań skalarnych z wyłączoną funkcją decorrelateInnerQuery
-
[SPARK-43779][SQL]
ParseToDate
teraz ładujeEvalMode
w głównym wątku. -
[SPARK-42937][SQL]
PlanSubqueries
powinna mieć ustawionąInSubqueryExec#shouldBroadcast
wartość true - Aktualizacje zabezpieczeń systemu operacyjnego.
- Fotonized
2 czerwca 2023 roku
- Analizator JSON w
failOnUnknownFields
trybie usuwa rekord wDROPMALFORMED
trybie i zawodzi od razu wFAILFAST
trybie. - Zwiększ wydajność aktualizacji przyrostowej z użyciem
SHALLOW CLONE
Iceberg i Parquet. - Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
- [SPARK-43404][Backport] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
- [SPARK-43340][CORE] Naprawiono brakujące pole śledzenia stosu w dziennikach zdarzeń.
-
[SPARK-43300][CORE]
NonFateSharingCache
opakowanie dla Guava Cache. -
[SPARK-43378][CORE] Poprawnie zamknij obiekty strumienia w
deserializeFromChunkedBuffer
. - [SPARK-16484][SQL] Użyj rejestrów 8-bitowych do reprezentowania zestawów DataSketches.
- [SPARK-43522][SQL] Poprawiono błąd związany z tworzeniem nazwy kolumny struktury z indeksem tablicy.
-
[SPARK-43413][11.3-13.0][SQL] Naprawiono
IN
nullowalność podzapytaniaListQuery
. -
[SPARK-43043][CORE] Zwiększona
MapOutputTracker.updateMapOutput
wydajność. - [SPARK-16484][SQL] Dodano obsługę funkcji DataSketches HllSketch.
- [SPARK-43123][SQL] Wewnętrzne metadane pól nie wyciekają już do wykazów.
-
[SPARK-42851][SQL] Ochrona
EquivalentExpressions.addExpr()
za pomocą poleceniasupportedExpression()
. -
[SPARK-43336][SQL] Rzutowanie między
Timestamp
aTimestampNTZ
wymaga określenia strefy czasowej. -
[SPARK-43286][SQL] Zaktualizowano
aes_encrypt
tryb CBC w celu wygenerowania losowych wektorów początkowych. -
[SPARK-42852][SQL] Przywrócono powiązane zmiany związane z
EquivalentExpressions
. -
[SPARK-43541][SQL] Rozpowszechniaj wszystkie
Project
tagi podczas rozwiązywania wyrażeń i odnajdowania brakujących kolumn. -
[SPARK-43527][PYTHON] Naprawiono
catalog.listCatalogs
w PySpark. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Analizator JSON w
31 maja 2023 r.
- Domyślna zoptymalizowana obsługa zapisu dla tabel Delta zarejestrowanych w Unity Catalog została rozszerzona w celu objęcia
CTAS
instrukcji orazINSERT
operacji dla tabel partycjonowanych. To zachowanie jest zgodne z wartościami domyślnymi w usłudze SQL Warehouse. Zobacz Zoptymalizowane zapisy dla usługi Delta Lake w usłudze Azure Databricks.
- Domyślna zoptymalizowana obsługa zapisu dla tabel Delta zarejestrowanych w Unity Catalog została rozszerzona w celu objęcia
17 maja 2023 r.
- Naprawiono regresję polegającą na tym, że
_metadata.file_path
i_metadata.file_name
zwracały niepoprawnie sformatowane ciągi. Na przykład teraz ścieżka ze spacjami jest reprezentowana jakos3://test-bucket/some%20directory/some%20data.csv
zamiasts3://test-bucket/some directory/some data.csv
. - Skanowanie Parquet jest teraz odporne na OOM podczas skanowania nietypowo ustrukturyzowanych plików przez dynamiczne dostosowywanie się rozmiaru partii danych. Metadane plików są analizowane w celu wstępnego obniżenia rozmiaru partii, a podczas ponownych prób zadania są ponownie obniżane jako ostateczna sieć bezpieczeństwa.
-
- Jeśli plik Avro został odczytany tylko z opcją
failOnUnknownFields
lub za pomocą Auto Loader w trybie ewolucji schematufailOnNewColumns
, kolumny z różnymi typami danych będą odczytywane jakonull
zamiast zgłaszać błąd informujący, że nie można odczytać pliku. Te odczyty teraz się nie udają i zaleca się użytkownikom użycie opcjirescuedDataColumn
.
- Jeśli plik Avro został odczytany tylko z opcją
- Funkcja automatycznego modułu ładującego wykonuje teraz następujące czynności.
-
- Poprawnie odczytuje i przestaje obsługiwać typy
Integer
,Short
orazByte
jeśli podano jeden z tych typów danych, ale plik Avro sugeruje jeden z pozostałych dwóch typów.
- Poprawnie odczytuje i przestaje obsługiwać typy
-
- Zapobiega odczytywaniu typów interwałów jako typów dat lub znaczników czasu, aby uniknąć błędnych dat.
-
- Zapobiega odczytywaniu
Decimal
typów o niższej precyzji.
- Zapobiega odczytywaniu
- [SPARK-43172] [CONNECT] Uwidacznia hosta i token z klienta spark connect.
-
[SPARK-43293][SQL]
__qualified_access_only
jest ignorowany w normalnych kolumnach. -
[SPARK-43098][SQL] Naprawiono usterkę poprawności
COUNT
, gdy podzapytanie skalarne jest grupowane według klauzuli. -
[SPARK-43085][SQL] Obsługa przypisywania kolumn
DEFAULT
dla nazw tabel wieloczęściowych. -
[SPARK-43190][SQL]
ListQuery.childOutput
jest teraz zgodny z pomocniczymi danymi wyjściowymi. - [SPARK-43192] [CONNECT] Usunięto weryfikację zestawu znaków agenta użytkownika.
- Naprawiono regresję polegającą na tym, że
25 kwietnia 2023 r.
- Tabelę delty można zmodyfikować, aby dodać obsługę funkcji tabeli delty przy użyciu polecenia
DeltaTable.addFeatureSupport(feature_name)
. - Polecenie
SYNC
obsługuje teraz starsze formaty źródeł danych. - Usunięto usterkę polegającą na tym, że używanie formatatora języka Python przed uruchomieniem innych poleceń w notesie języka Python mogło spowodować brak ścieżki notesu z
sys.path.
- Usługa Azure Databricks obsługuje teraz określanie wartości domyślnych dla kolumn tabel delty.
INSERT
,UPDATE
,DELETE
iMERGE
mogą odwoływać się do wartości domyślnej kolumny przy użyciu słowa kluczowegoDEFAULT
. W przypadkuINSERT
poleceń z jawną listą mniej kolumn niż tabela docelowa odpowiednie wartości domyślne kolumn są zastępowane pozostałymi kolumnami (lubNULL
jeśli nie określono wartości domyślnej).
- Tabelę delty można zmodyfikować, aby dodać obsługę funkcji tabeli delty przy użyciu polecenia
Naprawia usterkę polegającą na tym, że nie można było używać terminalu internetowego do uzyskiwania dostępu do plików w
/Workspace
programie dla niektórych użytkowników.- Jeśli plik Parquet został odczytany tylko z
failOnUnknownFields
opcją lub z automatycznym modułem ładującym wfailOnNewColumns
trybie ewolucji schematu, kolumny, które miały różne typy danych, będą odczytywane jakonull
zamiast zgłaszać błąd informujący, że nie można odczytać pliku. Te operacje odczytu kończą się teraz niepowodzeniem i zalecamy użytkownikom korzystanie z opcjirescuedDataColumn
. - Moduł automatycznego ładowania teraz poprawnie odczytuje i nie ratuje
Integer
już typów ,Short
jeśliByte
podano jeden z tych typów danych. Plik Parquet sugeruje jeden z dwóch pozostałych typów. Gdy uratowana kolumna danych została wcześniej włączona, niezgodność typów danych spowoduje uratowanie kolumn, mimo że można je było odczytać. - Usunięto usterkę polegającą na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia, gdy nowa kolumna zostanie wykryta w schemacie zagnieżdżonego obiektu JSON.
- [SPARK-42794][SS] Zwiększ wartość lockAcquireTimeoutMs do 2 minut, aby uzyskać magazyn stanów bazy danych RocksDB w strumieniu struktury.
- [SPARK-39221][SQL] Zapewnij poprawne redagowanie informacji wrażliwych na karcie zadania/etapu serwera Thrift.
-
[SPARK-42971][CORE] Zmiana, aby wydrukować
workdir
jeśliappDirs
jest null, gdy proces roboczy obsługuje wydarzenieWorkDirCleanup
. - [SPARK-42936][SQL] Napraw usterkę LCA, gdy klauzula posiadania może zostać rozwiązana bezpośrednio przez jej agregację podrzędną.
-
[SPARK-43018][SQL] Naprawiono usterkę dla
INSERT
poleceń z literałami znacznika czasu. - Przywróć [SPARK-42754][SQL][UI] Rozwiązano problem ze zgodnością z poprzednimi wersjami w zagnieżdżonym uruchomieniu SQL.
- Przywróć [SPARK-41498] propagowanie metadanych przez Union.
-
[SPARK-43038][SQL] Obsługa trybu CBC przez .
aes_encrypt()
/aes_decrypt()
-
[SPARK-42928][SQL] Ustaw
resolvePersistentFunction
synchronizację. -
[SPARK-42521][SQL] Dodaj
NULL
wartości dlaINSERT
z listami określonymi przez użytkownika o mniejszej liczbie kolumn niż tabela docelowa. -
[SPARK-41391][SQL] Nazwa kolumny wyjściowej
groupBy.agg(count_distinct)
była niepoprawna. -
[SPARK-42548][SQL] Dodaj
ReferenceAllColumns
, aby pominąć przepisanie atrybutów. - [SPARK-42423][SQL] Dodaj początek i długość bloku pliku kolumny metadanych.
-
[SPARK-42796][SQL] Obsługa dostępu do kolumn w
CachedBatch
. - [SPARK-42266][PYTHON] Usuń katalog nadrzędny przy uruchamianiu shell.py przy użyciu IPython.
-
[SPARK-43011][SQL]
array_insert
powinna zakończyć się niepowodzeniem z powodu indeksu 0. -
[SPARK-41874][CONNECT][PYTHON] Obsługa
SameSemantics
programu Spark Connect. - [SPARK-42702][SPARK-42623][SQL] Obsługa sparametryzowanego zapytania w podzapytaniu i CTE.
-
[SPARK-42967][CORE] Napraw
SparkListenerTaskStart.stageAttemptId
gdy zadanie zostanie rozpoczęte po anulowaniu etapu. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Jeśli plik Parquet został odczytany tylko z
Databricks Runtime 12.1 (EoS)
Zobacz Databricks Runtime 12.1 (EoS).
23 czerwca 2023 roku
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 czerwca 2023 r.
- Sfotonizowany
approx_count_distinct
. - Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
-
[SPARK-43779][SQL]
ParseToDate
teraz ładuje się w głównym wątku. - [SPARK-43156][SPARK-43098][SQL] Rozszerz test liczenia błędów podzapytań skalarnych z wyłączoną funkcją decorrelateInnerQuery
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Sfotonizowany
2 czerwca 2023 roku
- Analizator JSON w trybie
failOnUnknownFields
usuwa rekord w trybieDROPMALFORMED
i zawodzi bezpośrednio w trybieFAILFAST
. - Zwiększ wydajność aktualizacji przyrostowej z
SHALLOW CLONE
Iceberg i Parquet. - Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
- [SPARK-43404][Backport] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
-
[SPARK-43413][11.3-13.0][SQL] Naprawiono
IN
wartość null podzapytaniaListQuery
. - [SPARK-43522][SQL] Naprawiono tworzenie nazwy kolumny struktury przy pomocy indeksu tablicy.
-
[SPARK-42444][PYTHON]
DataFrame.drop
teraz obsługuje prawidłowo zduplikowane kolumny. -
[SPARK-43541][SQL] Propaguj wszystkie
Project
tagi podczas rozwiązywania wyrażeń i brakujących kolumn. - [SPARK-43340][CORE] Naprawiono brakujące pole śledzenia stosu w dziennikach zdarzeń.
-
[SPARK-42937][SQL]
PlanSubqueries
teraz ustawia wartośćInSubqueryExec#shouldBroadcast
true. -
[SPARK-43527][PYTHON] Naprawiono
catalog.listCatalogs
w PySpark. -
[SPARK-43378][CORE] Poprawnie zamknij obiekty strumienia w
deserializeFromChunkedBuffer
.
- Analizator JSON w trybie
17 maja 2023 r.
- Skanowanie Parquet jest teraz niezawodne w stosunku do OOM podczas skanowania wyjątkowo ustrukturyzowanych plików przez dynamiczne dostosowywanie rozmiaru partii. Metadane plików są analizowane, aby prewencyjnie zmniejszyć rozmiar partii, a następnie rozmiar ten jest ponownie obniżany przy ponawianiu prób zadania, jako ostateczna ochrona.
- Jeśli plik Avro został odczytany tylko z opcją
failOnUnknownFields
lub z Auto Loaderem w trybie ewolucji schematufailOnNewColumns
, kolumny z różnymi typami danych odczytuje się jakonull
zamiast wywoływania błędu informującego, że nie można odczytać pliku. Te operacje odczytu kończą się teraz niepowodzeniem, a użytkownikom zalecamy korzystanie z opcjirescuedDataColumn
. - Funkcja automatycznego modułu ładującego wykonuje teraz następujące czynności.
-
- Poprawnie odczytuje i nie przywraca już typów
Integer
,Short
,Byte
jeśli podano jeden z tych typów danych, ale plik Avro sugeruje jeden z pozostałych dwóch typów.
- Poprawnie odczytuje i nie przywraca już typów
-
- Zapobiega traktowaniu typów interwałów jako typów dat lub znaczników czasu, aby uniknąć zniekształcenia dat.
-
- Zapobiega odczytywaniu
Decimal
typów o niższej precyzji.
- Zapobiega odczytywaniu
-
[SPARK-43098][SQL] Naprawiono usterkę poprawności
COUNT
, gdy podzapytanie skalarne jest grupowane według klauzuli. -
[SPARK-43190][SQL]
ListQuery.childOutput
jest teraz zgodny z pomocniczymi danymi wyjściowymi. - Aktualizacje zabezpieczeń systemu operacyjnego.
25 kwietnia 2023 r.
- Jeśli plik Parquet został odczytany tylko z opcją
failOnUnknownFields
lub za pomocą Auto Loader w trybie ewolucji schematufailOnNewColumns
, kolumny, które miały różne typy danych, będą odczytywane jakonull
zamiast zgłaszać błąd informujący, że nie można odczytać pliku. Te operacje odczytu kończą się teraz niepowodzeniem i zalecamy użytkownikom korzystanie z opcjirescuedDataColumn
. - Moduł automatycznego ładowania teraz poprawnie odczytuje typy
Integer
,Short
,Byte
i nie ratuje tych typów danych, jeśli którykolwiek z nich jest podany. Plik Parquet sugeruje jeden z dwóch pozostałych typów. Gdy odzyskiwanie kolumn danych było wcześniej włączone, niezgodność typów danych powodowała odzyskiwanie kolumn, mimo że można było je odczytać. -
[SPARK-43009][SQL] Sparametryzowane
sql()
zeAny
stałymi. -
[SPARK-42971][CORE] Zmień, aby drukować
workdir
, jeśliappDirs
jest pusta, gdy proces roboczy obsługuje zdarzenieWorkDirCleanup
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Jeśli plik Parquet został odczytany tylko z opcją
11 kwietnia 2023 r.
- Obsługa formatów starszych źródeł danych w poleceniu SYNC.
- Naprawia błąd w zachowaniu %autoreload w notebookach, które znajdują się poza repozytorium.
- Usunięto usterkę polegającą na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia, gdy nowa kolumna zostanie wykryta w schemacie zagnieżdżonego obiektu JSON.
-
[SPARK-42928][SQL] Synchronizuje
resolvePersistentFunction
. -
[SPARK-42967][CORE] Naprawia
SparkListenerTaskStart.stageAttemptId
gdy zadanie rozpoczyna się po anulowaniu etapu. - Aktualizacje zabezpieczeń systemu operacyjnego.
29 marca 2023 r.
- Automatyczny moduł ładowania teraz wyzwala co najmniej jedno synchroniczne czyszczenie dziennika RocksDB dla
Trigger.AvailableNow
strumieni, aby zapewnić regularne czyszczenie punktu kontrolnego dla szybko działających strumieni. Może to spowodować, że niektóre strumienie będą trwały dłużej przed ich zamknięciem, ale pozwoli to zaoszczędzić koszty magazynowania i poprawić doświadczenie z Auto Loader w przyszłych uruchomieniach. - Teraz możesz zmodyfikować tabelę delty, aby dodać obsługę funkcji tabeli przy użyciu polecenia
DeltaTable.addFeatureSupport(feature_name)
. - [SPARK-42702][SPARK-42623][SQL] Obsługa zapytania sparametryzowanego w podzapytaniu i CTE
- [SPARK-41162][SQL] Naprawianie anty-i półsprzężenia na potrzeby samodzielnego sprzężenia za pomocą agregacji
- [SPARK-42403][CORE] Kod JsonProtocol powinien obsługiwać ciągi JSON o wartości null
- [SPARK-42668][SS] Przechwycenie wyjątku podczas próby zamknięcia skompresowanego strumienia w HDFSStateStoreProvider podczas przerwania
- [SPARK-42794][SS] Zwiększ lockAcquireTimeoutMs do 2 minut w celu uzyskania dostępu do magazynu stanów RocksDB w Strukturalnym Strumieniowaniu
- Automatyczny moduł ładowania teraz wyzwala co najmniej jedno synchroniczne czyszczenie dziennika RocksDB dla
14 marca 2023
- Istnieje zmiana terminologii dotycząca dodawania funkcji do tabeli delty przy użyciu właściwości tabeli. Preferowana składnia to teraz
'delta.feature.featureName'='supported'
zamiast'delta.feature.featureName'='enabled'
. W przypadku kompatybilności wstecznej użycie'delta.feature.featureName'='enabled'
nadal działa i będzie działać w przyszłości. - [SPARK-42622][CORE] Wyłącz zamianę w wartościach
- [SPARK-42534][SQL] Naprawa klauzuli LIMIT dla DB2Dialect
- [SPARK-42635][SQL] Napraw wyrażenie TimestampAdd.
- [SPARK-42516][SQL] Zawsze zapisz konfigurację strefy czasowej sesji podczas tworzenia widoków
- [SPARK-42484] [SQL] Lepszy komunikat o błędzie w UnsafeRowUtils
- [SPARK-41793][SQL] Niepoprawny wynik ramek okien zdefiniowanych przez klauzulę zakresu dla dużych dziesiętnych
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Istnieje zmiana terminologii dotycząca dodawania funkcji do tabeli delty przy użyciu właściwości tabeli. Preferowana składnia to teraz
24 lutego 2023
- Teraz możesz użyć ujednoliconego zestawu opcji (
host
,port
,database
user
, )password
do nawiązywania połączenia ze źródłami danych obsługiwanymi w usłudze Query Federation (PostgreSQL, MySQL, Synapse, Snowflake, Redshift, SQL Server). Należy pamiętać, żeport
jest opcjonalny i używa domyślnego numeru portu dla każdego źródła danych, jeśli nie zostanie podany.
Przykład konfiguracji połączenia PostgreSQL
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );
Przykład konfiguracji połączenia usługi Snowflake
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );
- [SPARK-41989][PYTHON] Unikaj zakłócania konfiguracji rejestrowania z biblioteki pyspark.pandas
- [SPARK-42346][SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
-
[SPARK-41990][SQL] Użyj
FieldReference.column
zamiastapply
w konwersji filtrów od wersji 1 do wersji 2 - Przywracanie [SPARK-41848][CORE] Naprawianie zadania nadmiernie zaplanowanego za pomocą polecenia TaskResourceProfile
- [SPARK-42162] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonizowania dużych drzew wyrażeń przemiennych.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Teraz możesz użyć ujednoliconego zestawu opcji (
16 lutego 2023 r.
- SYNC polecenie obsługuje synchronizowanie ponownie utworzonych tabel magazynu metadanych Hive. Jeśli tabela HMS została wcześniej zsynchronizowana z katalogiem Unity, ale następnie usunięta i utworzona ponownie, kolejna synchronizacja będzie działać, zamiast zgłaszać kod stanu TABLE_ALREADY_EXISTS.
- [SPARK-41219][SQL] IntegralDivide używa dziesiętnych (1, 0) do reprezentacji 0
- [SPARK-36173][CORE] Umożliwienie pobierania liczby CPU w TaskContext
- [SPARK-41848][CORE] Rozwiązywanie problemów z nadmiernym harmonogramem zadania za pomocą elementu TaskResourceProfile
- [SPARK-42286][SQL] Powrót do poprzedniej ścieżki kodu codegen dla złożonego expr z funkcją CAST
31 stycznia 2023 r.
- Aby utworzyć schemat ze zdefiniowaną lokalizacją, użytkownik musi teraz mieć przywileje SELECT oraz MODYFIKUJ w DOWOLNYM PLIKU.
- [SPARK-41581][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1230
- [SPARK-41996][SQL][SS] Naprawiono test Kafka w celu zweryfikowania utraconych partycji w związku z powolnymi operacjami Kafka
- [SPARK-41580][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2137
-
[SPARK-41666][PYTHON] Obsługa sparametryzowanego kodu SQL przez
sql()
- [SPARK-41579][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1249
- [SPARK-41573][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2136
- [SPARK-41574][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2009
- [SPARK-41049][Kontynuacja] Naprawianie regresji synchronizacji kodu dla funkcji ConvertToLocalRelation
- [SPARK-41576][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2051
- [SPARK-41572][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2149
- [SPARK-41575][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2054
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 12.0 (EoS)
Zobacz Databricks Runtime 12.0 (EoS).
15 czerwca 2023 r.
- Fotonizowane
approx_count_distinct
. - Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
- [SPARK-43156][SPARK-43098][SQL] Rozszerzanie testu błędów liczby podzapytań skalarnych za pomocą funkcji decorrelateInnerQuery wyłączone
-
[SPARK-43779][SQL] teraz ładuje się
EvalMode
w głównym wątku. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Fotonizowane
2 czerwca 2023 roku
- Analizator JSON w
failOnUnknownFields
trybie usuwa rekord wDROPMALFORMED
trybie i kończy się niepowodzeniem bezpośrednio wFAILFAST
trybie. - Zwiększ wydajność aktualizacji przyrostowej z użyciem
SHALLOW CLONE
Iceberga i Parquet. - Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
-
[SPARK-42444][PYTHON]
DataFrame.drop
teraz obsługuje prawidłowo zduplikowane kolumny. - [SPARK-43404][Backport] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów.
-
[SPARK-43413][11.3-13.0][SQL] Naprawiono
IN
zerowalność podzapytańListQuery
. -
[SPARK-43527][PYTHON] Naprawiono
catalog.listCatalogs
w PySpark. - [SPARK-43522][SQL] Naprawiono problem z tworzeniem nazwy kolumny w strukturze przy użyciu indeksu tablicy.
-
[SPARK-43541][SQL] Propaguj wszystkie
Project
tagi podczas rozwiązywania wyrażeń i uzupełniania brakujących kolumn. - [SPARK-43340][CORE] Naprawiono brakujące pole śledzenia stosu w dziennikach zdarzeń.
-
[SPARK-42937][SQL]
PlanSubqueries
ustawInSubqueryExec#shouldBroadcast
na true.
- Analizator JSON w
17 maja 2023 r.
- Skanowanie Parquet jest teraz niezawodne w stosunku do OOM podczas skanowania wyjątkowo ustrukturyzowanych plików przez dynamiczne dostosowywanie rozmiaru partii. Metadane plików są analizowane w celu prewencyjnego obniżenia rozmiaru partii i są ponownie obniżane, gdy zadanie jest ponawiane jako ostateczne zabezpieczenie.
- Jeśli plik Avro został odczytany tylko z
failOnUnknownFields
opcją lub z automatycznym modułem ładującym wfailOnNewColumns
trybie ewolucji schematu, kolumny z różnymi typami danych będą odczytywane jakonull
zamiast zgłaszać błąd informujący, że nie można odczytać pliku. Te operacje odczytu kończą się teraz niepowodzeniem i zalecamy użytkownikom korzystanie zrescuedDataColumn
tej opcji. - Funkcja automatycznego modułu ładującego wykonuje teraz następujące czynności.
-
- Poprawnie odczytuje i nie przetwarza typów
Integer
,Short
,Byte
, jeśli podano jeden z tych typów danych, ale plik Avro sugeruje jeden z pozostałych dwóch typów.
- Poprawnie odczytuje i nie przetwarza typów
-
- Zapobiega odczytywaniu typów przedziałów czasowych jako typów dat lub znaczników czasu w celu uniknięcia uszkodzenia dat.
-
- Zapobiega odczytywaniu typów
Decimal
o niższej precyzji.
- Zapobiega odczytywaniu typów
- [SPARK-43172] [CONNECT] Uwidacznia hosta i token z klienta spark connect.
-
[SPARK-41520][SQL] Podziel
AND_OR
wzorzec drzewa na oddzielneAND
iOR
. -
[SPARK-43098][SQL] Naprawiono usterkę poprawności
COUNT
, gdy podzapytanie skalarne jest grupowane według klauzuli. -
[SPARK-43190][SQL]
ListQuery.childOutput
jest teraz zgodny z pomocniczymi danymi wyjściowymi. - Aktualizacje zabezpieczeń systemu operacyjnego.
25 kwietnia 2023 r.
- Jeśli plik Parquet został odczytany tylko z opcją
failOnUnknownFields
lub z Auto Loader w trybie ewolucji schematufailOnNewColumns
, kolumny, które miały różne typy danych, odczytywane są jakonull
zamiast zgłaszać błąd o niemożności odczytania pliku. Te operacje odczytu kończą się teraz niepowodzeniem i zaleca się użytkownikom korzystanie z opcjirescuedDataColumn
. - Moduł automatycznego ładowania teraz poprawnie odczytuje i nie ratuje typów
Integer
,Short
,Byte
, jeśli podany jest jeden z tych typów danych. Plik Parquet sugeruje jeden z dwóch pozostałych typów. Gdy wcześniej włączono uratowaną kolumnę danych, niezgodność typów danych powodowała uratowanie kolumn, mimo że można je było odczytać. -
[SPARK-42971][CORE] Zmień, aby drukować
workdir
, jeśliappDirs
jest null, gdy pracownik obsługuje zdarzenieWorkDirCleanup
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Jeśli plik Parquet został odczytany tylko z opcją
wtorek, 11 kwietnia 2023 r.
- Obsługuje formaty starszych źródeł danych w poleceniu
SYNC
. - Naprawia usterkę w zachowaniu %autoreload w notatnikach, które znajdują się poza repozytorium.
- Usunięto usterkę polegającą na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia, gdy nowa kolumna zostanie wykryta w schemacie zagnieżdżonego obiektu JSON.
-
[SPARK-42928][SQL] Synchronizuje
resolvePersistentFunction
. - [SPARK-42967][CORE] Poprawki stosowane, gdy zadanie rozpoczyna się po anulowaniu etapu.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Obsługuje formaty starszych źródeł danych w poleceniu
29 marca 2023 r.
- [SPARK-42794][SS] Zwiększ wartość lockAcquireTimeoutMs do 2 minut podczas pozyskiwania stanowej bazy danych RocksDB w Przetwarzaniu Strumieniowym
- [SPARK-41162][SQL] Naprawianie anty-i półsprzężenia na potrzeby samodzielnego sprzężenia za pomocą agregacji
- [SPARK-42403][CORE] Kod JsonProtocol powinien obsługiwać ciągi JSON o wartości null
- [SPARK-42668][SS] Przechwyć wyjątek podczas próby zamknięcia skompresowanego strumienia w HDFSStateStoreProvider w trakcie przerywania
- Różne poprawki błędów.
14 marca 2023
- [SPARK-42534][SQL] Poprawka klauzuli LIMIT dla DB2Dialect
- [SPARK-42622][CORE] Wyłącz podstawianie w wartościach
- [SPARK-41793][SQL] Niepoprawny wynik ramek okien zdefiniowanych przez klauzulę zakresu dla dużych dziesiętnych
- [SPARK-42484] [SQL] Lepszy komunikat o błędzie w UnsafeRowUtils
- [SPARK-42635][SQL] Napraw wyrażenie TimestampAdd.
- [SPARK-42516][SQL] Zawsze przechwytuj konfigurację strefy czasowej sesji podczas tworzenia widoków
- Aktualizacje zabezpieczeń systemu operacyjnego.
24 lutego 2023
Standardowe opcje połączenia dla federacji zapytaniowej
Teraz możesz użyć ujednoliconego zestawu opcji (
host
,port
,database
user
, )password
do nawiązywania połączenia ze źródłami danych obsługiwanymi w usłudze Query Federation (PostgreSQL, MySQL, Synapse, Snowflake, Redshift, SQL Server). Należy pamiętać, żeport
jest opcjonalny i będzie używać domyślnego numeru portu dla każdego źródła danych, jeśli nie zostanie podany.Przykład konfiguracji połączenia PostgreSQL
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );
Przykład konfiguracji połączenia usługi Snowflake
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );
Przywracanie [SPARK-41848][CORE] Naprawianie zadania nadmiernie zaplanowanego za pomocą polecenia TaskResourceProfile
[SPARK-42162] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonizowania dużych drzew wyrażeń przemiennych
[SPARK-41990][SQL] Użyj
FieldReference.column
zamiastapply
przy konwersji filtru z wersji 1 do wersji 2[SPARK-42346][SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
Aktualizacje zabezpieczeń systemu operacyjnego.
16 lutego 2023 r.
- Użytkownicy mogą teraz odczytywać i zapisywać niektóre tabele delty, które wymagają czytnika w wersji 3 i składnika zapisywania w wersji 7, przy użyciu środowiska Databricks Runtime 9.1 lub nowszego. Aby odnieść sukces, funkcje tabel wyszczególnione w protokole tabel muszą być obsługiwane przez bieżącą wersję Databricks Runtime.
- SYNC polecenie obsługuje synchronizowanie ponownie utworzonych tabel magazynu metadanych Hive. Jeśli tabela HMS została wcześniej zsynchronizowana z Unity Catalog, ale następnie usunięta i utworzona ponownie, kolejna ponowna synchronizacja będzie działać zamiast zwracać kod błędu TABLE_ALREADY_EXISTS.
- [SPARK-36173][CORE] Obsługa pobierania numeru procesora CPU w obiekcie TaskContext
- [SPARK-42286][SQL] Powrót do poprzedniej ścieżki kodu codegen dla złożonego expr z funkcją CAST
- [SPARK-41848][CORE] Rozwiązywanie problemów z nadmiernym harmonogramem zadania za pomocą elementu TaskResourceProfile
- [SPARK-41219][SQL] IntegralDivide używa dziesiętnej (1, 0) do reprezentowania 0
25 stycznia 2023 r.
- [SPARK-41660][SQL] Propagacja kolumn metadanych tylko w przypadku ich użycia
- [SPARK-41379][SS][PYTHON] Zapewnianie sklonowanej sesji spark w ramce danych w funkcji użytkownika dla ujścia foreachBatch w PySpark
- [SPARK-41669][SQL] Wczesne przycinanie w canCollapseExpressions
- Aktualizacje zabezpieczeń systemu operacyjnego.
18 stycznia 2023 r.
-
REFRESH FUNCTION
Polecenie SQL obsługuje teraz funkcje SQL i funkcje tabel SQL. Na przykład polecenie może służyć do odświeżania trwałej funkcji SQL, która została zaktualizowana w innej sesji SQL. - Źródło danych JDBC (Java Database Connectivity) w wersji 1 obsługuje teraz wypychanie klauzuli LIMIT w celu zwiększenia wydajności zapytań. Ta funkcja jest domyślnie włączona i może być wyłączona przez ustawienie
spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled
nafalse
. - W klastrach tablic ACL w trybie zgodności z poprzednimi wersjami, tworzenie funkcji odwołujących się do klas JVM teraz wymaga uprawnienia
MODIFY_CLASSPATH
. - Źródło danych JDBC (Java Database Connectivity) w wersji 1 obsługuje teraz wypychanie klauzuli LIMIT w celu zwiększenia wydajności zapytań. Ta funkcja jest domyślnie włączona i może być wyłączona, ustawiając spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled na false.
- Łącznik usługi Azure Synapse zwraca teraz bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - Strumieniowe przesyłanie danych w ramach Spark Structured Streaming działa teraz z formatem „deltasharing” na tabeli Delta Sharing jako źródle.
- [SPARK-38277][SS] Czyszczenie partii zapisu po zatwierdzeniu magazynu stanów bazy danych RocksDB
- [SPARK-41733][SQL][SS] Zastosowanie przycinania bazującego na wzorcach drzew dla reguły ResolveWindowTime
- [SPARK-39591][SS] Śledzenie postępu asynchronicznego
- [SPARK-41339][SQL] Zamknij i utwórz ponownie partię zapisu bazy danych RocksDB zamiast tylko wyczyścić
- [SPARK-41198][SS] Naprawa metryk w zapytaniu przesyłanym strumieniowo posiadającym źródło przesyłania strumieniowego oparte na CTE i DSv1
- [SPARK-41539][SQL] Przemapowanie statystyk i ograniczeń względem danych wyjściowych w planie logicznym dla LogicalRDD
- [SPARK-41732][SQL][SS] Stosowanie przycinania opartego na wzorcu drzewnym dla reguły SessionWindowing
- [SPARK-41862][SQL] Naprawiono usterkę poprawności związaną z wartościami DOMYŚLNYmi w czytniku Orc
- [SPARK-41199][SS] Rozwiązano problem z metrykami, gdy źródło przesyłania strumieniowego DSv1 i źródło przesyłania strumieniowego DSv2 są współużytowane
- [SPARK-41261][PYTHON][SS] Rozwiązano problem z funkcją applyInPandasWithState, gdy kolumny kluczy grupowania nie są umieszczone w porządku chronologicznym
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
17 maja 2023 r.
- Skanowanie Parquet jest teraz niezawodne w stosunku do OOM podczas skanowania wyjątkowo ustrukturyzowanych plików przez dynamiczne dostosowywanie rozmiaru partii. Metadane plików są analizowane w celu wcześniejszego obniżenia rozmiaru partii i są ponownie obniżane w przypadku ponawiania prób zadania jako ostatecznego zabezpieczenia.
- Naprawiono błąd, który powodował, że zadania usługi Azure Databricks były utrwalane po nieudanej próbie połączenia z magazynem metadanych podczas inicjowania klastra.
-
[SPARK-41520][SQL] Podziel
AND_OR
wzorzec drzewa na oddzielneAND
iOR
. -
[SPARK-43190][SQL]
ListQuery.childOutput
jest teraz zgodny z drugorzędnymi danymi wyjściowymi. - Aktualizacje zabezpieczeń systemu operacyjnego.
25 kwietnia 2023 r.
- Jeśli plik Parquet został odczytany tylko przy użyciu opcji
failOnUnknownFields
lub modułu automatycznego ładowania działającego w trybie ewolucji schematufailOnNewColumns
, kolumny o różnych typach danych będą odczytywane jakonull
, zamiast zgłaszać błąd dotyczący niemożności odczytania pliku. Te operacje odczytu kończą się teraz niepowodzeniem i zalecamy użytkownikom korzystanie z opcjirescuedDataColumn
. - Moduł automatycznego ładowania teraz poprawnie odczytuje i już nie ratuje typów
Integer
,Short
,Byte
jeśli podano jeden z tych typów danych. Plik Parquet sugeruje jeden z dwóch pozostałych typów. Gdy kolumna z uratowanymi danymi była wcześniej włączona, niezgodność typów danych spowodowała uratowanie kolumn, nawet jeśli można je było odczytać. -
[SPARK-42937][SQL]
PlanSubqueries
teraz ustawia wartośćInSubqueryExec#shouldBroadcast
true. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Jeśli plik Parquet został odczytany tylko przy użyciu opcji
wtorek, 11 kwietnia 2023 r.
- Obsługa starszych formatów źródeł danych w poleceniu SYNC.
- Naprawia usterkę w działaniu %autoreload w notatnikach, które znajdują się poza repozytorium.
- Usunięto usterkę polegającą na tym, że ewolucja schematu modułu automatycznego ładowania mogła przechodzić w nieskończoną pętlę niepowodzenia, gdy nowa kolumna zostanie wykryta w schemacie zagnieżdżonego obiektu JSON.
- [SPARK-42928][SQL] Zsynchronizuj polecenie resolvePersistentFunction.
- [SPARK-42967][CORE] Poprawa SparkListenerTaskStart.stageAttemptId, gdy zadanie zostaje uruchomione po anulowaniu etapu.
29 marca 2023 r.
- [SPARK-42794][SS] Zwiększ wartość lockAcquireTimeoutMs do 2 minut, aby uzyskać magazyn stanów w RocksDB w Streamingu Strukturalnym
- [SPARK-42403][CORE] Kod JsonProtocol powinien obsługiwać ciągi JSON o wartości null
- [SPARK-42668][SS] Złap wyjątek podczas próby zamknięcia skompresowanego strumienia w HDFSStateStoreProvider anulowanie
- Aktualizacje zabezpieczeń systemu operacyjnego.
14 marca 2023
- [SPARK-42635][SQL] Napraw wyrażenie TimestampAdd.
- [SPARK-41793][SQL] Niepoprawny wynik ramek okien zdefiniowanych przez klauzulę zakresu dla dużych dziesiętnych
- [SPARK-42484] [SQL] Lepszy komunikat o błędzie w UnsafeRowUtils
- [SPARK-42534][SQL] Poprawka klauzuli LIMIT w DB2Dialect
- [SPARK-41162][SQL] Naprawianie anty-i półsprzężenia na potrzeby samodzielnego sprzężenia za pomocą agregacji
- [SPARK-42516][SQL] Zawsze zachowuj konfigurację strefy czasowej sesji podczas tworzenia widoków
- Różne poprawki błędów.
28 lutego 2023 r.
Standardowe opcje połączenia dla federacji zapytań
Teraz możesz użyć ujednoliconego zestawu opcji (
host
,port
,database
user
, )password
do nawiązywania połączenia ze źródłami danych obsługiwanymi w usłudze Query Federation (PostgreSQL, MySQL, Synapse, Snowflake, Redshift, SQL Server). Należy pamiętać, żeport
jest opcjonalny i używa domyślnego numeru portu dla każdego źródła danych, jeśli nie zostanie podany.Przykład konfiguracji połączenia PostgreSQL
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );
Przykład konfiguracji połączenia usługi Snowflake
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );
[SPARK-42286][SQL] Powrót do poprzedniej ścieżki generowania kodu dla złożonego wyrażenia z funkcją CAST
[SPARK-41989][PYTHON] Unikaj zrywania konfiguracji rejestrowania w pyspark.pandas
[SPARK-42346][SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
[SPARK-41360][CORE] Unikaj ponownej rejestracji elementu BlockManager, jeśli egzekutor został utracony
[SPARK-42162] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonizacji dużych drzew wyrażeń przemiennych.
[SPARK-41990][SQL] Użyj
FieldReference.column
zamiastapply
w konwersji filtru z wersji 1 na wersję 2Aktualizacje zabezpieczeń systemu operacyjnego.
16 lutego 2023 r.
- Użytkownicy mogą teraz odczytywać i zapisywać niektóre tabele Delta, które wymagają użycia czytnika w wersji 3 oraz zapisującego w wersji 7, przy użyciu środowiska Databricks Runtime w wersji 9.1 lub nowszej. Aby odnieść sukces, funkcje wymienione w protokole tabel muszą być obsługiwane przez bieżącą wersję środowiska Databricks Runtime.
- SYNC polecenie obsługuje synchronizowanie ponownie utworzonych tabel magazynu metadanych Hive. Jeśli tabela HMS została wcześniej zsynchronizowana z katalogiem Unity, ale następnie usunięta i utworzona ponownie, możliwe jest jej ponowne zsynchronizowanie bez zgłaszania kodu stanu TABLE_ALREADY_EXISTS.
- [SPARK-41219][SQL] IntegralDivide używa dziesiętnej (1, 0) do przedstawienia 0
-
[SPARK-40382][SQL] Grupowanie unikatowych wyrażeń agregacji według semantycznie równoważnych elementów podrzędnych
RewriteDistinctAggregates
- Aktualizacje zabezpieczeń systemu operacyjnego.
25 stycznia 2023 r.
- [SPARK-41379][SS][PYTHON] Udostępnienie sklonowanej sesji Spark w DataFrame w funkcji użytkowej dla foreachBatch sink w PySpark
- [SPARK-41660][SQL] Propagacja kolumn metadanych tylko w przypadku ich użycia
- [SPARK-41669][SQL] Wczesne przycinanie w canCollapseExpressions
- Różne poprawki błędów.
18 stycznia 2023 r.
-
REFRESH FUNCTION
Polecenie SQL obsługuje teraz funkcje SQL i funkcje tabel SQL. Na przykład polecenie może służyć do odświeżania trwałej funkcji SQL, która została zaktualizowana w innej sesji SQL. - Źródło danych JDBC (Java Database Connectivity) w wersji 1 obsługuje teraz wypychanie klauzuli LIMIT w celu zwiększenia wydajności zapytań. Ta funkcja jest domyślnie włączona i może być wyłączona po ustawieniu
spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled
nafalse
. - Źródło danych JDBC (Java Database Connectivity) w wersji 1 obsługuje teraz wypychanie klauzuli LIMIT w celu zwiększenia wydajności zapytań. Ta funkcja jest domyślnie włączona i może być wyłączona poprzez ustawienie parametru spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled na false.
- Łącznik usługi Azure Synapse zwraca teraz bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - [SPARK-41198][SS] Naprawienie metryk w zapytaniu strumieniowym z wykorzystaniem CTE i źródła przesyłania strumieniowego DSv1
- [SPARK-41862][SQL] Naprawiono usterkę poprawności związaną z wartościami DOMYŚLNYmi w czytniku Orc
- [SPARK-41539][SQL] Przemapowanie statystyk i ograniczeń na dane wyjściowe w planie logicznym dla LogicalRDD
- [SPARK-39591][SS] Śledzenie postępu asynchronicznego
- [SPARK-41199][SS] Rozwiązano problem z metrykami, gdy źródło przesyłania strumieniowego DSv1 i źródło przesyłania strumieniowego DSv2 są współużytowane
- [SPARK-41261][PYTHON][SS] Naprawiono problem z applyInPandasWithState, gdy kolumny kluczy grupujących nie są uporządkowane w kolejności od najwcześniejszych
- [SPARK-41339][SQL] Zamknij i utwórz ponownie partię zapisu bazy danych RocksDB zamiast tylko wyczyścić
- [SPARK-41732][SQL][SS] Stosowanie przycinania opartego na wzorcu drzewa do reguły SessionWindowing
- [SPARK-38277][SS] Wyczyść partię danych po zatwierdzeniu przechowywania stanów w RocksDB
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
29 listopada 2022 r.
- Użytkownicy mogą konfigurować zachowanie wiodących i końcowych białych znaków podczas zapisywania danych przy użyciu łącznika Redshift. Do zarządzania białymi znakami dodano następujące opcje:
-
csvignoreleadingwhitespace
, w przypadku ustawienia natrue
, usuwa wiodące białe znaki z wartości podczas zapisu, gdytempformat
jest ustawione naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
. -
csvignoretrailingwhitespace
, gdy zostanie ustawiony natrue
, usuwa końcowe białe znaki z wartości podczas zapisu, gdytempformat
jest ustawiony naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
.
-
- Usunięto błąd w procesie parsowania JSON w Auto Loaderze, gdy wszystkie kolumny pozostawiono jako ciągi znakowe (
cloudFiles.inferColumnTypes
nie ustawiono lub ustawiono nafalse
), a JSON zawierał zagnieżdżone obiekty. - Uaktualnij
snowflake-jdbc
zależność do wersji 3.13.22. - Typy tabel JDBC są teraz domyślnie ustawione jako ZEWNETRZNE.
-
[SPARK-40906][SQL]
Mode
powinno skopiować klucze przed wstawieniem do mapy - Aktualizacje zabezpieczeń systemu operacyjnego.
- Użytkownicy mogą konfigurować zachowanie wiodących i końcowych białych znaków podczas zapisywania danych przy użyciu łącznika Redshift. Do zarządzania białymi znakami dodano następujące opcje:
15 listopada 2022 r.
- ACL tabel i udostępnione klastry UC umożliwiają teraz używanie metody Dataset.toJSON z Pythona.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszony zestaw zachowań
spark.sql.json.enablePartialResults
dotrue
. Flaga jest domyślnie wyłączona, aby zachować oryginalne zachowanie - [SPARK-40903][SQL] Unikaj zmieniania kolejności dodawania liczb dziesiętnych dla kanonizacji, jeśli typ danych zostanie zmieniony
- [SPARK-40618][SQL] Usunięto usterkę w regule MergeScalarSubqueries z zagnieżdżonym podzapytaniem przy użyciu śledzenia odwołań
- [SPARK-40697][SQL] Dodawanie dopełnienia znaków po stronie odczytu w celu pokrycia zewnętrznych plików danych
- Aktualizacje zabezpieczeń systemu operacyjnego.
1 listopada 2022 r.
- Strukturalne przesyłanie strumieniowe w katalogu Unity teraz obsługuje odświeżanie tymczasowych tokenów dostępu. Obciążenia przesyłania strumieniowego uruchamiane za pomocą katalogu Unity na uniwersalnych lub zadaniowych klastrach nie kończą się już niepowodzeniem po wygaśnięciu początkowego tokenu.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale zmiana źródła danych została wyłączona w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - Rozwiązano problem, gdzie uruchomienie
MERGE
i użycie dokładnie 99 kolumn ze źródła w warunku mogło doprowadzić dojava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow
. - Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że plik mógł zostać zduplikowany w tej samej mikropartii, gdy
allowOverwrites
jest włączony. - Uaktualniono wersję apache commons-text do wersji 1.10.0.
- [SPARK-38881][DSTREAMS][KINESIS][PYSPARK] Dodano obsługę funkcji CloudWatch MetricsLevel Config
- [SPARK-40596][CORE] Uzupełnianie ExecutorDecommission wiadomościami w ExecutorDecommissionInfo
- [SPARK-40670][SS][PYTHON] Naprawiono element NPE w elemecie applyInPandasWithState, gdy schemat wejściowy ma kolumny "non-nullable"
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 11.2 (EoS)
Zobacz Databricks Runtime 11.2 (EoS).
- 28 lutego 2023 r.
- [SPARK-42286][SQL] Przywrócenie poprzedniej ścieżki generowania kodu dla złożonego wyrażenia w funkcji CAST
- [SPARK-42346][SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 16 lutego 2023 r.
- Użytkownicy mogą teraz odczytywać i zapisywać niektóre tabele delty, które wymagają czytnika w wersji 3 i składnika zapisywania w wersji 7, przy użyciu środowiska Databricks Runtime 9.1 lub nowszego. Aby osiągnąć sukces, funkcje tabeli wymienione w protokole tabel muszą być obsługiwane przez bieżącą wersję środowiska Databricks Runtime.
- SYNC polecenie obsługuje synchronizowanie ponownie utworzonych tabel magazynu metadanych Hive. Jeśli tabela HMS została wcześniej zsynchronizowana z Unity Catalog, ale następnie została usunięta i utworzona ponownie, kolejna re-synchronizacja zadziała zamiast zgłaszania kodu statusu TABLE_ALREADY_EXISTS.
- [SPARK-41219][SQL] IntegralDivide używa typu dziesiętnego (1, 0) do reprezentacji zera.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 31 stycznia 2023 r.
- Typy tabel JDBC są teraz domyślnie ustawione jako ZEWNĘTRZNE.
- [SPARK-41379][SS][PYTHON] Udostępnienie sklonowanej sesji Spark w DataFrame w funkcji użytkownika dla ujścia foreachBatch w PySpark
- 18 stycznia 2023 r.
- Łącznik usługi Azure Synapse zwraca teraz bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - [SPARK-41198][SS] Naprawiono metryki w zapytaniu strumieniowym mającym źródło przesyłania strumieniowego CTE i DSv1
- [SPARK-41862][SQL] Naprawiono usterkę poprawności związaną z wartościami DOMYŚLNYmi w czytniku Orc
- [SPARK-41539][SQL] Mapowanie statystyk i ograniczeń względem wyjścia w planie logicznym dla LogicalRDD
- [SPARK-41199][SS] Rozwiązano problem z metrykami, gdy źródło przesyłania strumieniowego DSv1 i źródło przesyłania strumieniowego DSv2 są współużytowane
- [SPARK-41339][SQL] Zamknij i utwórz ponownie partię zapisu bazy danych RocksDB zamiast tylko wyczyścić
- [SPARK-41732][SQL][SS] Zastosowanie przycinania opartego na wzorze drzewnym dla reguły SessionWindowing
- [SPARK-38277][SS] Wyczyść partię zapisu po zatwierdzeniu magazynu stanów bazy danych RocksDB
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Łącznik usługi Azure Synapse zwraca teraz bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
- 29 listopada 2022 r.
- Użytkownicy mogą skonfigurować sposób traktowania wiodących i końcowych białych znaków podczas zapisywania danych za pomocą łącznika Redshift. Do obsługi białych znaków dodano następujące opcje:
-
csvignoreleadingwhitespace
, gdy ustawiony na wartośćtrue
, usuwa wiodące spacje z wartości podczas zapisu, gdytempformat
jest ustawiona na wartośćCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
. -
csvignoretrailingwhitespace
, w przypadku ustawienia na wartośćtrue
, usuwa końcowe białe znaki z wartości podczas zapisu, gdytempformat
jest ustawione na wartośćCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
.
-
- Usunięto usterkę przy parsowaniu JSON w Auto Loaderze, gdy wszystkie kolumny były pozostawione jako ciągi (
cloudFiles.inferColumnTypes
nie były ustawione lub były ustawione nafalse
), a JSON zawierał zagnieżdżone obiekty. -
[SPARK-40906][SQL]
Mode
powinien skopiować klucze przed wstawieniem do mapy - Aktualizacje zabezpieczeń systemu operacyjnego.
- Użytkownicy mogą skonfigurować sposób traktowania wiodących i końcowych białych znaków podczas zapisywania danych za pomocą łącznika Redshift. Do obsługi białych znaków dodano następujące opcje:
- 15 listopada 2022 r.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszoną funkcjonalność, ustaw
spark.sql.json.enablePartialResults
natrue
. Flaga jest domyślnie wyłączona, aby zachować oryginalne zachowanie - [SPARK-40618][SQL] Naprawiono błąd w regule MergeScalarSubqueries z zagnieżdżonymi podzapytaniami z wykorzystaniem śledzenia odwołań
- [SPARK-40697][SQL] Dodawanie dopełnienia znaków po stronie odczytu w celu pokrycia zewnętrznych plików danych
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszoną funkcjonalność, ustaw
- 1 listopada 2022 r.
- Uaktualniono wersję apache commons-text do wersji 1.10.0.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale zmiana źródła danych została wyłączona w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - Rozwiązano problem polegający na tym, że uruchamianie
MERGE
i używanie dokładnie 99 kolumn ze źródła w warunku mogło spowodowaćjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow
. - Rozwiązano problem z funkcją automatycznego ładowania, który polegał na tym, że plik mógł być zduplikowany w tej samej mikrocząstce, gdy
allowOverwrites
jest włączony - [SPARK-40596][CORE] Wypełnij ExecutorDecommission komunikatami w ExecutorDecommissionInfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 października 2022 r.
- Rozwiązano problem z użyciem COPY INTO z tymczasowymi poświadczeniami w klastrach/magazynach obsługujących katalog Unity.
- [SPARK-40213][SQL] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 października 2022 r.
- Użytkownicy mogą ustawić właściwość spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true"), aby ponownie włączyć natywne listowanie dla Auto Loadera w usłudze ADLS. Natywne listowanie zostało wcześniej wyłączone z powodu problemów z wydajnością, ale mogło doprowadzić do wzrostu kosztów przechowywania dla klientów. Ta zmiana została wdrożona w wersji DBR 10.4 i 9.1 w poprzedniej aktualizacji serwisowej.
- [SPARK-40315][SQL]Obsługa kodowania/dekodowania adresu URL jako wbudowanej funkcji i porządkowania funkcji związanych z adresem URL
-
[SPARK-40156][SQL]
url_decode()
powinna zwrócić klasę błędu - [SPARK-40169] Nie wypychaj filtrów Parquet bez odwołania do schematu danych
-
[SPARK-40460][SS] Napraw metryki strumieniowe podczas wybierania
_metadata
- [SPARK-40468][SQL] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
- [SPARK-40055][SQL] listCatalogs powinna również zwrócić spark_catalog nawet wtedy, gdy implementacja spark_catalog jest domyślnaSessionCatalog
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2022 r.
- [SPARK-40315][SQL] Dodaj hashCode() dla Literal of ArrayBasedMapData
- [SPARK-40389][SQL] Liczby dziesiętne nie mogą być rzutowane na typy całkowite, jeśli rzutowanie może spowodować przepełnienie.
- [SPARK-40380][SQL] Napraw stałe składanie elementu InvokeLike, aby uniknąć niesererowalnego literału osadzonego w planie
- [SPARK-40066][SQL][KONTYNUACJA] Sprawdź, czy ElementAt został rozwiązany przed pobraniem jego dataType
- [SPARK-40109][SQL] Nowa funkcja SQL: get()
- [SPARK-40066][SQL] Tryb ANSI: zawsze zwraca wartość null w nieprawidłowym dostępie do kolumny mapy
- [SPARK-40089][SQL] Naprawianie sortowania niektórych typów dziesiętnych
- [SPARK-39887][SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- [SPARK-40152][SQL] Rozwiązywanie problemu z kompilacją split_part codegen
- [SPARK-40235][CORE] Użyj blokady przerywanej zamiast zsynchronizowanej w funkcji Executor.updateDependencies()
- [SPARK-40212][SQL] Funkcja castPartValue platformy SparkSQL nie obsługuje prawidłowo typów byte, short ani float.
- [SPARK-40218][SQL] ZESTAWY GRUPOWANIA powinny zachować kolumny grupowania
- [SPARK-35542][ML] Poprawka: Bucketizer utworzony dla wielu kolumn z parametrami
- [SPARK-40079] Dodaj walidację kolumn imputera inputCols dla pustego przypadku wejściowego
- [SPARK-39912]SPARK-39828[SQL] Doprecyzuj CatalogImpl
Databricks Runtime 11.1 (EoS)
Zobacz Databricks Runtime 11.1 (EoS).
31 stycznia 2023 r.
- [SPARK-41379][SS][PYTHON] Zapewnienie sklonowanej sesji Spark w DataFrame w funkcji użytkownika dla sinku foreachBatch w PySpark
- Różne poprawki błędów.
18 stycznia 2023 r.
- Łącznik usługi Azure Synapse zwraca teraz bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace
. - [SPARK-41198][SS] Naprawianie metryk w zapytaniu przesyłanym strumieniowo o źródle przesyłania strumieniowego CTE i DSv1
- [SPARK-41862][SQL] Naprawiono usterkę poprawności związaną z wartościami DOMYŚLNYmi w czytniku Orc
- [SPARK-41199][SS] Rozwiązano problem z metrykami, gdy źródło przesyłania strumieniowego DSv1 i źródło przesyłania strumieniowego DSv2 są współużytowane
- [SPARK-41339][SQL] Zamknij i utwórz ponownie partię zapisu bazy danych RocksDB zamiast tylko wyczyścić
- [SPARK-41732][SQL][SS] Zastosuj przycinanie oparte na wzorcu drzewa dla zasady SessionWindowing
- [SPARK-38277][SS] Czyszczenie partii zapisu po zatwierdzeniu magazynu stanów bazy danych RocksDB
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Łącznik usługi Azure Synapse zwraca teraz bardziej opisowy komunikat o błędzie, gdy nazwa kolumny zawiera nieprawidłowe znaki, takie jak białe znaki lub średniki. W takich przypadkach zostanie zwrócony następujący komunikat:
29 listopada 2022 r.
- Użytkownicy mogą konfigurować zachowanie wiodących i końcowych spacji i odstępów podczas zapisywania danych przy użyciu łącznika Redshift. Aby zarządzać białymi znakami, dodano następujące opcje:
-
csvignoreleadingwhitespace
, ustawiany natrue
, usuwa wiodące spacje z wartości podczas zapisu, gdytempformat
jest ustawione naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
. -
csvignoretrailingwhitespace
, ustawiony natrue
, usuwa końcowe spacje z wartości podczas zapisu, gdytempformat
jest ustawione naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
.
-
- Usunięto usterkę podczas analizowania kodu JSON w narzędziu do automatycznego ładowania, gdy wszystkie kolumny były pozostawione w postaci ciągów (
cloudFiles.inferColumnTypes
nie zostały ustawione lub ustawione nafalse
) i kiedy JSON zawierał zagnieżdżone obiekty. - [SPARK-39650][SS] Naprawiono nieprawidłowy schemat wartości w deduplikacji przesyłania strumieniowego przy zachowaniu zgodności wstecznej
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Użytkownicy mogą konfigurować zachowanie wiodących i końcowych spacji i odstępów podczas zapisywania danych przy użyciu łącznika Redshift. Aby zarządzać białymi znakami, dodano następujące opcje:
15 listopada 2022 r.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszone zachowanie, ustaw wartość
spark.sql.json.enablePartialResults
true
. Flaga jest domyślnie wyłączona, aby zachować oryginalne zachowanie - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszone zachowanie, ustaw wartość
1 listopada 2022 r.
- Uaktualniono wersję apache commons-text do wersji 1.10.0.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale zmiana źródła danych została wyłączona w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - Rozwiązano problem polegający na tym, że uruchamianie
MERGE
i używanie dokładnie 99 kolumn ze źródła w warunku mogło spowodować wystąpieniejava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow
. - Rozwiązano problem z funkcją Auto Loader, który polegał na tym, że plik mógł być zduplikowany w tej samej mikropartii, gdy
allowOverwrites
jest włączony. - [SPARK-40697][SQL] Dodaj wypełnienie znaków po stronie odczytu dla pokrycia zewnętrznych plików danych
- [SPARK-40596][CORE] Wypełnianie ExecutorDecommission komunikatami w ExecutorDecommissionInfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
18 października 2022 r.
- Rozwiązano problem z użyciem COPY INTO z tymczasowymi poświadczeniami w klastrach/magazynach obsługujących katalog Unity.
- [SPARK-40213][SQL] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- Aktualizacje zabezpieczeń systemu operacyjnego.
5 października 2022 r.
- Użytkownicy mogą ustawić właściwość spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true"), aby ponownie włączyć natywne listowanie dla Auto Loader na ADLS. Lista natywna została wcześniej wyłączona z powodu problemów z wydajnością, ale mogła doprowadzić do wzrostu kosztów magazynowania dla klientów. Ta zmiana została wdrożona w wersji DBR 10.4 i 9.1 podczas poprzedniej poprawki konserwacyjnej.
- [SPARK-40169] Nie wypychaj filtrów Parquet bez odwołania do schematu danych
-
[SPARK-40460][SS] Napraw metryki przesyłania strumieniowego podczas wybierania
_metadata
- [SPARK-40468][SQL] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
- [SPARK-40055][SQL] listCatalogs powinna również zwrócić spark_catalog nawet wtedy, gdy implementacja spark_catalog jest domyślnaSessionCatalog
- Aktualizacje zabezpieczeń systemu operacyjnego.
22 września 2022 r.
- [SPARK-40315][SQL] Dodaj hashCode() dla Literału w ArrayBasedMapData
- [SPARK-40380][SQL] Napraw stałe składanie elementu InvokeLike, aby uniknąć niesererowalnego literału osadzonego w planie
- [SPARK-40089][SQL] Naprawianie sortowania niektórych typów dziesiętnych
- [SPARK-39887][SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- [SPARK-40152][SQL] Rozwiązywanie problemu z kompilacją split_part codegen
6 września 2022 r.
- Zaktualizowaliśmy model uprawnień w kontrolkach dostępu do tabel (ACL tabel), aby tylko uprawnienia MODIFY były potrzebne do zmiany schematu lub właściwości tabeli przy użyciu ALTER TABLE. Wcześniej te operacje wymagały od użytkownika posiadania tabeli. Posiadanie jest nadal wymagane, aby udzielić uprawnień do tabeli, zmienić jej właściciela, zmienić jej lokalizację lub zmienić nazwę. Ta zmiana powoduje, że model uprawnień dla ACL tabeli jest bardziej spójny z katalogiem Unity.
- [SPARK-40235][CORE] Użyj blokady przerywanej zamiast zsynchronizowanej w funkcji Executor.updateDependencies()
- [SPARK-40212][SQL] Funkcja castPartValue w SparkSQL nie obsługuje prawidłowo typów byte, short ani float.
- [SPARK-40218][SQL] ZESTAWY GRUPOWANIA powinny zachować kolumny grupowania
- [SPARK-39976][SQL] Funkcja ArrayIntersect powinna poprawnie obsługiwać wartość null w wyrażeniu po lewej stronie
-
[SPARK-40053][CORE][SQL][TESTY] Dodawanie
assume
do dynamicznych przypadków anulowania, które wymagają środowiska uruchomieniowego języka Python - [SPARK-35542][CORE][ML] Poprawka: Moduł bucketizer utworzony dla wielu kolumn z parametrami splitsArray, inputCols i outputCols nie można załadować po zapisaniu go
- [SPARK-40079][CORE] Dodaj walidację inputCols imputera dla przypadku pustego wejścia
24 sierpnia 2022 r.
- Udziały, dostawcy i adresaci obsługują teraz polecenia SQL w celu zmiany właściciela, dodawania komentarzy i zmiany nazwy.
- [SPARK-39983][CORE][SQL] Nie buforuj nieserializowane relacje emisji na sterowniku
- [SPARK-39912][SPARK-39828][SQL] Doprecyzuj CatalogImpl
- [SPARK-39775][CORE][AVRO] Wyłącz weryfikowanie wartości domyślnych podczas analizowania schematów Avro
- [SPARK-39806] Rozwiązano problem z awarią zapytań podczas uzyskiwania dostępu do struktury METADANYCH w tabelach podzielonych na partycje
- [SPARK-39867][SQL] Limit globalny nie powinien dziedziczyć parametru OrderPreservingUnaryNode
- [SPARK-39962][PYTHON][SQL] Zastosuj projekcję, gdy atrybuty grupy są puste
- [SPARK-39839][SQL] Obsługa specjalnego przypadku liczby dziesiętnej o zmiennej długości z niezerowym offsetAndSize w weryfikacji integralności strukturalnej UnsafeRow
- [SPARK-39713][SQL] Tryb ANSI: dodawanie sugestii dotyczących używania try_element_at dla błędu INVALID_ARRAY_INDEX
- [SPARK-39847][SS] Napraw warunek wyścigu w RocksDBLoader.loadLibrary(), jeśli wątek wywołujący zostanie przerwany
- [SPARK-39731][SQL] Rozwiązano problem ze źródłami danych CSV i JSON podczas analizowania dat w formacie "yyyyMMdd" przy użyciu polityki poprawionego analizatora czasu.
- Aktualizacje zabezpieczeń systemu operacyjnego.
10 sierpnia 2022 r.
- W przypadku tabel delty z kontrolą dostępu do tabel automatyczna ewolucja schematu za pomocą instrukcji DML, takich jak
INSERT
iMERGE
jest teraz dostępna dla wszystkich użytkowników, którzy mająMODIFY
uprawnienia do takich tabel. Ponadto uprawnienia wymagane do wykonania ewolucji schematu za pomocąCOPY INTO
są teraz zmniejszane zOWNER
doMODIFY
, co zapewnia spójność z innymi poleceniami. Te zmiany sprawiają, że model zabezpieczeń ACL tabeli jest bardziej spójny z modelem zabezpieczeń katalogu Unity oraz innymi operacjami, takimi jak zamiana tabeli.
- [SPARK-39889] Ulepszanie komunikatu o błędzie dzielenia o 0
- [SPARK-39795] [SQL] Nowa funkcja SQL: try_to_timestamp
- [SPARK-39749] Zawsze używaj reprezentacji zwykłego ciągu podczas rzutowania dziesiętnego jako ciągu w trybie ANSI
- [SPARK-39625] Zmienianie nazwy df.as na df.to
- [SPARK-39787] [SQL] Użyj klasy błędu w przypadku błędu analizowania funkcji to_timestamp
- [SPARK-39625] [SQL] Dodawanie Dataset.as(StructType)
-
[SPARK-39689] Obsługa 2 znaków
lineSep
w źródle danych CSV - [SPARK-39579] [SQL][python][R] Umożliwienie kompatybilności ListFunctions/getFunction/functionExists z trójwarstwową przestrzenią nazw
- [SPARK-39702] [CORE] Zmniejsz obciążenie pamięcią funkcji TransportCipher$EncryptedMessage przy użyciu udostępnionego bajtuRawChannel
- [SPARK-39575] [AVRO] dodaj operację ByteBuffer#rewind po ByteBuffer#get w AvroDeserializer
- [SPARK-39265] [SQL] Naprawianie błędu testu po włączeniu SPARK_ANSI_SQL_MODE
- [SPARK-39441] [SQL] Przyspieszenie deduplikacji relacji
- [SPARK-39497] [SQL] Poprawa komunikatu o błędzie analizy brakującej kolumny klucza mapy
- [SPARK-39476] [SQL] Wyłącz optymalizację rzutowania Unwrap przy rzutowaniu z Long na Float/ Double lub z Integer na Float
- [SPARK-39434] [SQL] Zapewnij kontekst zapytania dla błędu czasu wykonywania, gdy indeks tablicy jest poza zakresem
- W przypadku tabel delty z kontrolą dostępu do tabel automatyczna ewolucja schematu za pomocą instrukcji DML, takich jak
Databricks Runtime 11.0 (EoS)
Zobacz Databricks Runtime 11.0 (EoS).
- 29 listopada 2022 r.
- Użytkownicy mogą ustawiać zachowanie wiodących i końcowych spacji podczas zapisywania danych za pomocą łącznika Redshift. Do zarządzania białymi znakami dodano następujące opcje:
-
csvignoreleadingwhitespace
, w przypadku ustawienia natrue
, usuwa wiodące białe znaki z wartości podczas zapisu, gdytempformat
jest ustawiona naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy konfiguracja jest ustawiona nafalse
. Domyślna wartość totrue
. -
csvignoretrailingwhitespace
, po ustawieniu natrue
, usuwa końcowe spacje z wartości podczas zapisu, gdytempformat
jest ustawione naCSV
lubCSV GZIP
. Odstępy są zachowywane, gdy ustawienie konfiguracji tofalse
. Domyślna wartość totrue
.
-
- Naprawiono błąd związany z analizowaniem JSON w narzędziu do automatycznego ładowania, który występował, gdy wszystkie kolumny były pozostawione jako ciągi znaków (
cloudFiles.inferColumnTypes
nie było ustawione lub było ustawione nafalse
), a JSON zawierał zagnieżdżone obiekty. - [SPARK-39650][SS] Poprawiono błędny schemat wartości w deduplikacji przesyłania strumieniowego z zachowaniem zgodności z poprzednimi wersjami
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Użytkownicy mogą ustawiać zachowanie wiodących i końcowych spacji podczas zapisywania danych za pomocą łącznika Redshift. Do zarządzania białymi znakami dodano następujące opcje:
- 15 listopada 2022 r.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszone działanie, ustaw
spark.sql.json.enablePartialResults
natrue
. Flaga jest domyślnie wyłączona, aby zachować oryginalne zachowanie.
-
[SPARK-40646] Analizowanie w formacie JSON dla struktur, map i tablic zostało naprawione, więc gdy część rekordu nie jest zgodna ze schematem, pozostała część rekordu może być nadal analizowana poprawnie zamiast zwracać wartości null. Aby wyrazić zgodę na ulepszone działanie, ustaw
- 1 listopada 2022 r.
- Uaktualniono wersję apache commons-text do wersji 1.10.0.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale zmiana źródła danych została wyłączona w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - Rozwiązano problem z Auto Loaderem, który polegał na tym, że plik mógł być zduplikowany w tym samym mikropakiecie, gdy
allowOverwrites
jest włączony. - [SPARK-40697][SQL] Dodawanie dopełnienia znaków po stronie odczytu w celu pokrycia zewnętrznych plików danych
- [SPARK-40596][CORE] Wypełnianie funkcji wykonawczejDecommission komunikatami w funkcji ExecutorDecommissionInfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 października 2022 r.
- [SPARK-40213][SQL] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 października 2022 r.
- Użytkownicy mogą ustawić właściwość spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true"), aby ponownie włączyć natywne listowanie dla Automatycznego Ładowacza w usłudze Azure Data Lake Storage (ADLS). Lista natywna została wcześniej wyłączona z powodu problemów z wydajnością, ale mogła doprowadzić do wzrostu kosztów magazynowania dla klientów. Ta zmiana została wdrożona w wersjach DBR 10.4 i 9.1 w poprzedniej aktualizacji serwisowej.
- [SPARK-40169] Nie wypychaj filtrów Parquet bez odwołania do schematu danych
-
[SPARK-40460][SS] Napraw metryki przesyłania strumieniowego podczas wybierania
_metadata
- [SPARK-40468][SQL] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2022 r.
- [SPARK-40315][SQL] Dodaj hashCode() dla Literału ArrayBasedMapData
- [SPARK-40380][SQL] Popraw mechanizm stałego składania InvokeLike, aby uniknąć osadzenia nieserializowalnego literału w planie
- [SPARK-40089][SQL] Naprawianie sortowania niektórych typów dziesiętnych
- [SPARK-39887][SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- [SPARK-40152][SQL] Rozwiązywanie problemu z kompilacją split_part codegen
- 6 września 2022 r.
- [SPARK-40235][CORE] Użyj blokady przerywanej zamiast zsynchronizowanej w funkcji Executor.updateDependencies()
- [SPARK-40212][SQL] Funkcja castPartValue platformy SparkSQL nieprawidłowo obsługuje typy byte, short lub float
- [SPARK-40218][SQL] ZESTAWY GRUPOWANIA powinny zachować kolumny grupowania
- [SPARK-39976][SQL] Funkcja ArrayIntersect powinna poprawnie obsługiwać wartość null w wyrażeniu po lewej stronie
-
[SPARK-40053][CORE][SQL][TESTY] Dodawanie
assume
do dynamicznych przypadków anulowania, które wymagają środowiska uruchomieniowego języka Python - [SPARK-35542][CORE][ML] Poprawka: Moduł bucketizer utworzony dla wielu kolumn z parametrami splitsArray, inputCols i outputCols nie można załadować po zapisaniu go
- [SPARK-40079][CORE] Dodać walidację inputCols dla imputera w przypadku pustego wejścia
- 24 sierpnia 2022 r.
- [SPARK-39983][CORE][SQL] Nie buforuj nieserializowane relacje emisji na sterowniku
- [SPARK-39775][CORE][AVRO] Wyłącz weryfikowanie wartości domyślnych podczas analizowania schematów Avro
- [SPARK-39806] Rozwiązano problem z awarią zapytań podczas uzyskiwania dostępu do struktury METADANYCH w tabelach partycjonowanych
- [SPARK-39867][SQL] Limit globalny nie powinien dziedziczyć parametru OrderPreservingUnaryNode
- [SPARK-39962][PYTHON][SQL] Zastosuj projekcję, gdy atrybuty grupy są puste
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 9 sierpnia 2022 r.
- [SPARK-39713][SQL] Tryb ANSI: dodawanie sugestii dotyczących używania try_element_at dla błędu INVALID_ARRAY_INDEX
- [SPARK-39847] Napraw warunek wyścigu w RocksDBLoader.loadLibrary(), jeśli wątek wywołujący zostanie przerwany
- [SPARK-39731][SQL] Rozwiązano problem ze źródłami danych CSV i JSON podczas analizowania dat w formacie "yyyyMMdd" zgodnie z zasadą analizatora czasu SKORYGOWANA
- [SPARK-39889] Ulepszanie komunikatu o błędzie dzielenia o 0
- [SPARK-39795][SQL] Nowa funkcja SQL: try_to_timestamp
- [SPARK-39749] Zawsze używaj zwykłej reprezentacji łańcucha przy przekształcaniu liczby dziesiętnej na ciąg znaków w trybie ANSI
- [SPARK-39625][SQL] Dodawanie Dataset.to(StructType)
- [SPARK-39787][SQL] Użyj klasy błędu w błędzie parsowania funkcji to_timestamp
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 27 lipca 2022 r.
-
[SPARK-39689]Obsługa 2 znaków
lineSep
w źródle danych CSV - [SPARK-39104][SQL] InMemoryRelation#isCachedColumnBuffersLoaded powinna być bezpieczna wątkowo
- [SPARK-39702][CORE] Zmniejsz obciążenie pamięcią funkcji TransportCipher$EncryptedMessage przy użyciu udostępnionego bajtuRawChannel
- [SPARK-39575][AVRO] dodaj ByteBuffer#rewind po ByteBuffer#get w AvroDeserializer
- [SPARK-39497][SQL] Poprawienie wyjątku analizy dotyczącego brakującej kolumny klucza mapy
- [SPARK-39441][SQL] Przyspiesz deduplikację relacji
- [SPARK-39476][SQL] Wyłącz optymalizację rzutowania z pominięciem, gdy rzutujesz z Long na Float/Double lub z Integer na Float.
- [SPARK-39434][SQL] Umożliw kontekst zapytania z błędem czasu wykonania, gdy indeks tablicy jest poza zakresem.
- [SPARK-39570][SQL] Tabela śródliniowa powinna zezwalać na wyrażenia z aliasem
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-39689]Obsługa 2 znaków
- 13 lipca 2022 r.
- Upewnij się, że operacja delta MERGE jest spójna, gdy źródło nie jest deterministyczne.
- Rozwiązano problem związany z funkcją TVF cloud_files_state podczas pracy na ścieżkach innych niż DBFS.
- Wyłączono użycie funkcji Auto Loader do korzystania z natywnych interfejsów API chmury w celu wyświetlania listy katalogów na platformie Azure.
- [SPARK-38796][SQL] Aktualizowanie funkcji to_number i try_to_number w celu umożliwienia żądania ściągnięcia z liczbami dodatnimi
- [SPARK-39272][SQL] Zwiększ pozycję początkową kontekstu zapytania o 1
- [SPARK-39419][SQL] Napraw klasę ArraySort, aby zgłosić wyjątek, gdy komparator zwraca wartość null
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 lipca 2022 r.
- Ulepszenie komunikatów o błędach dla zakresu klas błędów.
- [SPARK-39451][SQL] Obsługa interwałów rzutowania do całkowitoliczników w trybie ANSI
- [SPARK-39361] Nie używaj rozszerzonego wzorca konwersji zgłaszanej w usłudze Log4J2 w domyślnych konfiguracjach rejestrowania
-
[SPARK-39354][SQL] Upewnij się, że pokazuj
Table or view not found
, nawet wtedy, gdy sądataTypeMismatchError
powiązane zFilter
w tym samym czasie - [SPARK-38675][CORE] Napraw warunek wyścigu podczas odblokowywania w menedżerze BlockInfoManager
- [SPARK-39392][SQL] Uściślij komunikaty o błędach ANSI dla wskazówek funkcji try_*
- [SPARK-39214][SQL][3.3] Poprawianie błędów związanych z rzutowaniem
- [SPARK-37939][SQL] Używanie klas błędów w błędach analizowania właściwości
-
[SPARK-39085][SQL] Przenieś komunikat o błędzie
INCONSISTENT_BEHAVIOR_CROSS_VERSION
do error-classes.json - pl-PL: [SPARK-39376][SQL] Ukryj zduplikowane kolumny w rozszerzeniu aliasu podzapytania z użyciem NATURAL/USING JOIN
- [SPARK-39283][CORE] Naprawa blokady między TaskMemoryManager a UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Platforma Spark nie powinna sprawdzać nazw pól podczas odczytywania plików
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 10.5 (EoS)
Zobacz Databricks Runtime 10.5 (EoS).
- 1 listopada 2022 r.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
_change_type
, ale zmiana źródła danych została wyłączona w tej tabeli, dane w tej kolumnie niepoprawnie wypełniały wartości NULL podczas uruchamiania poleceniaMERGE
. - [SPARK-40697][SQL] Dodawanie dopełnienia znaków po stronie odczytu w celu pokrycia zewnętrznych plików danych
- [SPARK-40596][CORE] Wypełnianie ExecutorDecommission wiadomościami w ExecutorDecommissionInfo
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Rozwiązano problem polegający na tym, że jeśli tabela delty miała kolumnę zdefiniowaną przez użytkownika o nazwie
- 18 października 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 października 2022 r.
- Użytkownicy mogą ustawić właściwość spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true"), aby ponownie włączyć listę natywną dla Auto Loadera w usłudze ADLS. Natywne umieszczanie było wcześniej wyłączone z powodu problemów z wydajnością, ale mogło prowadzić do wzrostu kosztów przechowywania dla klientów. Ta zmiana została wdrożona w wersji DBR 10.4 i 9.1 w poprzedniej aktualizacji konserwacyjnej.
- reload4j zostało uaktualnione do wersji 1.2.19 w celu naprawienia luk w zabezpieczeniach.
-
[SPARK-40460][SS] Napraw metryki przesyłania strumieniowego przy wyborze
_metadata
- [SPARK-40468][SQL] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2022 r.
- [SPARK-40315][SQL] Dodaj hashCode() dla Literal z ArrayBasedMapData
- [SPARK-40213][SQL] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- [SPARK-40380][SQL] Napraw stałe składanie wyrażeń InvokeLike, aby uniknąć nieserializowalnego literału osadzonego w planie
- [SPARK-38404][SQL] Ulepszanie rozpoznawania CTE, gdy zagnieżdżone CTE odwołuje się do zewnętrznego CTE
- [SPARK-40089][SQL] Naprawianie sortowania niektórych typów dziesiętnych
- [SPARK-39887][SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 6 września 2022 r.
- [SPARK-40235][CORE] Użyj blokady przerywanej zamiast zsynchronizowanej w funkcji Executor.updateDependencies()
- [SPARK-39976][SQL] Funkcja ArrayIntersect powinna poprawnie obsługiwać wartość null w wyrażeniu po lewej stronie
-
[SPARK-40053][CORE][SQL][TESTY] Dodawanie
assume
do dynamicznych przypadków anulowania, które wymagają środowiska uruchomieniowego języka Python - [SPARK-35542][CORE][ML] Poprawka: Moduł bucketizer utworzony dla wielu kolumn z parametrami splitsArray, inputCols i outputCols nie można załadować po zapisaniu go
- [SPARK-40079][CORE] Dodaj walidację kolumn wejściowych Imputer dla pustego przypadku wejściowego
- 24 sierpnia 2022 r.
- [SPARK-39983][CORE][SQL] Nie buforuj nieserializowane relacje emisji na sterowniku
- [SPARK-39775][CORE][AVRO] Wyłącz weryfikowanie wartości domyślnych podczas analizowania schematów Avro
- [SPARK-39806] Rozwiązano problem z awarią zapytań podczas uzyskiwania dostępu do struktury METADANYCH w tabelach podzielonych na partycje
- [SPARK-39962][PYTHON][SQL] Zastosuj projekcję, gdy atrybuty grupy są puste
- [SPARK-37643][SQL] gdy parametr charVarcharAsString ma wartość true, w przypadku zapytania predykatu typu char należy pominąć regułę rpadding
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 9 sierpnia 2022 r.
- [SPARK-39847] Napraw warunek wyścigu w RocksDBLoader.loadLibrary(), jeśli wątek wywołujący zostanie przerwany
- [SPARK-39731][SQL] Rozwiązano problem ze źródłami danych CSV i JSON podczas analizowania dat w formacie "yyyyMMdd" przy użyciu polityki poprawionego parsera czasu.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 27 lipca 2022 r.
- [SPARK-39625][SQL] Dodawanie Dataset.as(StructType)
-
[SPARK-39689]Obsługa 2 znaków
lineSep
w źródle danych CSV - [SPARK-39104][SQL] InMemoryRelation#isCachedColumnBuffersLoaded powinna być bezpieczna wątkowo
- [SPARK-39570][SQL] Tabela śródliniowa powinna zezwalać na wyrażenia z aliasem
- [SPARK-39702][CORE] Zmniejsz obciążenie pamięcią funkcji TransportCipher$EncryptedMessage przy użyciu udostępnionego bajtuRawChannel
- [SPARK-39575][AVRO] dodaj ByteBuffer#rewind po ByteBuffer#get w AvroDeserializer
- [SPARK-39476][SQL] Wyłącz optymalizację rzutowania Unwrap przy rzutowaniu z Long na Float/Double lub z Integer na Float
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 13 lipca 2022 r.
- Upewnij się, że operacja delta MERGE jest spójna, gdy źródło nie jest deterministyczne.
- [SPARK-39355][SQL] Pojedyncza kolumna używa cudzysłowia do konstruowania atrybutu UnresolvedAttribute
- [SPARK-39548][SQL] Polecenie CreateView z zapytaniem zawierającym klauzulę okna napotkało problem z powodu braku prawidłowej definicji okna.
- [SPARK-39419][SQL] Napraw klasę ArraySort, aby zgłosić wyjątek, gdy komparator zwraca wartość null
- Wyłączono użycie natywnych interfejsów API chmury przez Auto Loader do wyświetlania listy katalogów na platformie Azure.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 lipca 2022 r.
- pl-PL: [SPARK-39376][SQL] Ukryj zduplikowane kolumny w rozszerzeniu aliasu podzapytania z użyciem NATURAL/USING JOIN
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2022 r.
- [SPARK-39283][CORE] Naprawa zakleszczenia między komponentami TaskMemoryManager i UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Platforma Spark nie powinna sprawdzać nazw pól podczas odczytywania plików
- [SPARK-34096][SQL] Poprawa wydajności funkcji nth_value z pominięciem wartości null w oknie przesunięcia
-
[SPARK-36718][SQL][KONTYNUACJA] Napraw sprawdzenie
isExtractOnly
w CollapseProject
- 2 czerwca 2022 r.
- [SPARK-39166][SQL] Podaj kontekst zapytania o błędzie środowiska uruchomieniowego dla arytmetyki binarnej, gdy WSCG jest wyłączona
- [SPARK-39093][SQL] Unikaj błędu kompilacji kodu podczas dzielenia interwałów roku-miesiąca lub dnia-czasu przez liczbę całkowitą
- [SPARK-38990][SQL] Unikaj NullPointerException podczas oceniania formatu date_trunc/trunc jako odwołania powiązanego
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Naprawia potencjalny wyciek pamięci natywnej w narzędziu automatycznego ładowania.
- [SPARK-38868][SQL]Nie propaguj wyjątków z predykatu filtru podczas optymalizowania sprzężeń zewnętrznych
- [SPARK-38796][SQL] Implementowanie funkcji to_number i try_to_number SQL zgodnie z nową specyfikacją
- [SPARK-38918][SQL] Zagnieżdżone oczyszczanie kolumn powinno filtrować atrybuty, które nie należą do bieżącej relacji
- [SPARK-38929][SQL] Ulepsz komunikaty o błędach w przypadku niepowodzeń rzutowania w ANSI
- [SPARK-38926][SQL] Typy danych wyjściowych w komunikatach o błędach w stylu SQL
- [SPARK-39084][PYSPARK] Poprawka df.rdd.isEmpty() przy użyciu elementu TaskContext w celu zatrzymania iteratora po zakończeniu zadania
- [SPARK-32268][SQL] Dodaj ColumnPruning w injectBloomFilter
- [SPARK-38908][SQL] Uwzględnienie kontekstu zapytania w błędzie wykonywania rzutowania z ciągu na liczbę/datę/sygnaturę czasową/wartość logiczną
- [SPARK-39046][SQL] Zwraca pusty ciąg kontekstu, jeśli właściwość TreeNode.origin jest niepoprawnie ustawiona
- [SPARK-38974][SQL] Filtrowanie zarejestrowanych funkcji przy użyciu danej nazwy bazy danych w funkcjach listy
- [SPARK-38762][SQL] Udostępnij kontekst zapytania w błędach przepełnienia liczby dziesiętnej
- [SPARK-38931][SS] Utwórz katalog główny dfs dla menedżera RocksDBFileManager z nieznaną liczbą kluczy przy pierwszym punkcie kontrolnym
- [SPARK-38992][CORE] Unikać używania bash -c w ShellBasedGroupsMappingProvider
- [SPARK-38716][SQL] Podaj kontekst zapytania w przypadku błędu, gdy klucz mapy nie istnieje
- [SPARK-38889][SQL] Kompilowanie filtrów kolumn logicznych w celu użycia typu bitowego dla źródła danych MSSQL
- [SPARK-38698][SQL] Podaj kontekst zapytania w błędzie wykonania funkcji Divide/Div/Reminder/Pmod
-
[SPARK-38823][SQL] Uczynienie
NewInstance
niemożliwym do złożenia w celu naprawienia problemu z uszkodzeniem buforu agregacji - [SPARK-38809][SS] Zaimplementuj opcję pomijania wartości null w implementacji symetrycznego skrótu łączeń strumień-strumień
- [SPARK-38676][SQL] Podaj kontekst zapytania SQL w komunikacie o błędzie czasu wykonywania polecenia Add/Subtract/Multiply
- [SPARK-38677][PYSPARK] Python MonitorThread powinna wykryć zakleszczenie z powodu blokowania operacji we/wy
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 10.3 (EoS)
Zobacz Databricks Runtime 10.3 (EoS).
- 27 lipca 2022 r.
-
[SPARK-39689]Obsługa 2 znaków
lineSep
w źródle danych CSV - [SPARK-39104][SQL] InMemoryRelation#isCachedColumnBuffersLoaded powinna być bezpieczna dla wątków
- [SPARK-39702][CORE] Zmniejsz obciążenie pamięcią funkcji TransportCipher$EncryptedMessage przy użyciu udostępnionego bajtuRawChannel
- Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-39689]Obsługa 2 znaków
- 20 lipca 2022 r.
- Upewnij się, że operacja delta MERGE jest spójna, gdy źródło nie jest deterministyczne.
- [SPARK-39476][SQL] Wyłącz optymalizację rozpakowanie przy rzutowaniu z Long na Float/Double lub z Integer na Float
- [SPARK-39548][SQL] Polecenie CreateView z zapytaniem z klauzulą okna napotkało problem związany z brakiem zdefiniowanej definicji okna.
- [SPARK-39419][SQL] Napraw klasę ArraySort, aby zgłosić wyjątek, gdy komparator zwraca wartość null
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 lipca 2022 r.
- pl-PL: [SPARK-39376][SQL] Ukryj zduplikowane kolumny w rozszerzeniu aliasu podzapytania z użyciem NATURAL/USING JOIN
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2022 r.
- [SPARK-39283][CORE] Naprawa zakleszczenia między elementami TaskMemoryManager i UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Platforma Spark nie powinna sprawdzać nazw pól podczas odczytywania plików
- [SPARK-34096][SQL] Poprawa wydajności dla nth_value ignorując wartości null w oknie przesunięcia
- [SPARK-36718][SQL][KONTYNUACJA] Naprawa sprawdzania w ZwijanieProjektu
- 2 czerwca 2022 r.
- [SPARK-38990][SQL] Unikaj NullPointerException przy ocenianiu formatu date_trunc/trunc jako powiązane odwołanie
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Naprawia potencjalny wyciek pamięci systemowej w Auto Loaderze.
- [SPARK-38918][SQL] Zagnieżdżone oczyszczanie kolumn powinno filtrować atrybuty, które nie należą do bieżącej relacji
- [SPARK-37593][CORE] Zmniejsz domyślny rozmiar strony przez LONG_ARRAY_OFFSET, jeśli są używane G1GC i ON_HEAP
- [SPARK-39084][PYSPARK] Poprawka df.rdd.isEmpty() przy użyciu elementu TaskContext w celu zatrzymania iteratora po zakończeniu zadania
- [SPARK-32268][SQL] Dodaj ColumnPruning do injectBloomFilter
- [SPARK-38974][SQL] Filtrowanie zarejestrowanych funkcji przy użyciu danej nazwy bazy danych w funkcjach listy
- [SPARK-38889][SQL] Kompilowanie filtrów kolumn logicznych w celu użycia typu bitowego dla źródła danych MSSQL
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 4 maja 2022 r.
- Uaktualniono zestaw JAVA AWS SDK z wersji 1.11.655 do wersji 1.12.1899.
- 19 kwietnia 2022 r.
- [SPARK-38616][SQL] Monitoruj tekst zapytania SQL w TreeNode Catalyst
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 6 kwietnia 2022 r.
- [SPARK-38631][CORE] Używa implementacji opartej na języku Java do cofania tarringu w pliku Utils.unpack
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 marca 2022 r.
- Zmieniono katalog roboczy notesów w klastrach o dużej współbieżności z włączoną kontrolą dostępu do tabel lub przekazywaniem poświadczeń na katalog domowy użytkownika. Wcześniej katalog roboczy był
/databricks/driver
. - [SPARK-38437][SQL] Pobłażliwa serializacja dat i godzin ze źródła danych
- [SPARK-38180][SQL] Umożliwienie bezpiecznego rozszerzającego rzutowania w skorelowanych predykatach równości.
- [SPARK-38155][SQL] Nie zezwalaj na odrębne agregowanie w podzapytaniach bocznych z nieobsługiwanymi predykatami
- [SPARK-38325][SQL] Tryb ANSI: unikaj potencjalnego błędu środowiska uruchomieniowego w pliku HashJoin.extractKeyExprAt()
- Zmieniono katalog roboczy notesów w klastrach o dużej współbieżności z włączoną kontrolą dostępu do tabel lub przekazywaniem poświadczeń na katalog domowy użytkownika. Wcześniej katalog roboczy był
- 14 marca 2022 r.
- Lepsze wykrywanie konfliktów w przypadku pustych transakcji w Delta Lake.
- [SPARK-38185][SQL] Naprawianie niepoprawnych danych, jeśli funkcja agregacji jest pusta
- [SPARK-38318][SQL] regresja podczas zastępowania widoku zestawu danych
- [SPARK-38236][SQL] Bezwzględne ścieżki plików określone w tabeli tworzenia/zmiany są traktowane jako względne
- [SPARK-35937][SQL] Wyodrębnianie pola daty ze znacznika czasu powinno działać w trybie ANSI
-
[SPARK-34069][SQL] Zadania bariery zabijania powinny przestrzegać
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Zezwalaj na przypisanie magazynu pomiędzy TimestampNTZ a Datą/Znacznikiem czasu
- 23 lutego 2022 r.
- [SPARK-27442][SQL] Usuń sprawdzanie nazwy pola podczas odczytu/zapisu danych w formacie Parquet
Databricks Runtime 10.2 (EoS)
Zobacz Databricks Runtime 10.2 (EoS).
- 15 czerwca 2022 r.
- [SPARK-39283][CORE] Naprawa zakleszczenia między elementami TaskMemoryManager i UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Platforma Spark nie powinna sprawdzać nazw pól podczas odczytywania plików
- [SPARK-34096][SQL] Zwiększanie wydajności nth_value ignorowanie wartości null w oknie przesunięcia
- 2 czerwca 2022 r.
- [SPARK-38918][SQL] Zagnieżdżone oczyszczanie kolumn powinno filtrować atrybuty, które nie należą do bieżącej relacji
- [SPARK-38990][SQL] Unikaj NullPointerException podczas oceniania formatu date_trunc/trunc jako odwołania do zmiennej powiązanej
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Naprawia potencjalny wyciek pamięci natywnej w Auto Loaderze.
- [SPARK-39084][PYSPARK] Poprawka df.rdd.isEmpty() przy użyciu elementu TaskContext w celu zatrzymania iteratora po zakończeniu zadania
- [SPARK-38889][SQL] Kompilowanie filtrów kolumn logicznych w celu użycia typu bit dla źródła danych MSSQL
- [SPARK-38931][SS] Utworzyć katalog główny dfs dla RocksDBFileManager z nieznaną liczbą kluczy podczas pierwszego punktu kontrolnego
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 4 maja 2022 r.
- Uaktualniono zestaw JAVA AWS SDK z wersji 1.11.655 do wersji 1.12.1899.
- 19 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
- 6 kwietnia 2022 r.
- [SPARK-38631][CORE] Używa implementacji opartej na języku Java do cofania tarringu w pliku Utils.unpack
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 marca 2022 r.
- Zmieniono aktualny katalog roboczy zeszytów w klastrach o wysokiej współbieżności z włączoną kontrolą dostępu do tabeli lub przekazywaniem poświadczeń do katalogu macierzystego użytkownika. Wcześniej katalog roboczy był
/databricks/driver
. - [SPARK-38437][SQL] Pobłażliwa serializacja daty/godziny z źródła danych
- [SPARK-38180][SQL] Zezwalaj na bezpieczne wyrażenia rzutowania w górę w skorelowanych predykatach równości
- [SPARK-38155][SQL] Nie zezwalaj na odrębne agregowanie w podzapytaniach bocznych z nieobsługiwanymi predykatami
- [SPARK-38325][SQL] Tryb ANSI: unikaj potencjalnego błędu w czasie wykonania w HashJoin.extractKeyExprAt()
- Zmieniono aktualny katalog roboczy zeszytów w klastrach o wysokiej współbieżności z włączoną kontrolą dostępu do tabeli lub przekazywaniem poświadczeń do katalogu macierzystego użytkownika. Wcześniej katalog roboczy był
- 14 marca 2022 r.
- Ulepszono wykrywanie konfliktów transakcyjnych dla pustych transakcji w Delta Lake.
- [SPARK-38185][SQL] Naprawianie niepoprawnych danych, jeśli funkcja agregacji jest pusta
- [SPARK-38318][SQL] regresja podczas zastępowania widoku zestawu danych
- [SPARK-38236][SQL] Bezwzględne ścieżki plików określone w tabeli tworzenia/zmiany są traktowane jako względne
- [SPARK-35937][SQL] Wyodrębnianie pola daty ze znacznika czasu powinno działać w trybie ANSI
-
[SPARK-34069][SQL] Zadania bariery zabijania powinny przestrzegać
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Zezwól na przypisanie pomiędzy TimestampNTZ a Data/Znacznik czasu
- 23 lutego 2022 r.
- [SPARK-37577][SQL] Naprawiono wyjątek ClassCastException: Nie można rzutować obiektu ArrayType na typ struktury na potrzeby generowania oczyszczania
- 8 lutego 2022 r.
- [SPARK-27442][SQL] Usuń sprawdzanie nazwy pola podczas odczytywania/zapisywania danych w Parquet.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 stycznia 2022 r.
- Usunięto błąd, który powodował, że współbieżne transakcje z tabelami Delta mogły zostać zatwierdzone w kolejności nieserializowalnej w pewnych rzadkich warunkach.
- Usunięto usterkę polegającą na tym, że polecenie OPTIMIZE mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
- 19 stycznia 2022 r.
- Wprowadzono obsługę osadzania tymczasowych poświadczeń w COPY INTO, aby ładować dane źródłowe bez wymagania uprawnień ANY_FILE SQL.
- Poprawki błędów i ulepszenia zabezpieczeń.
- 20 grudnia 2021 r.
- Usunięto rzadką usterkę z filtrowaniem opartym na indeksie kolumn Parquet.
Databricks Runtime 10.1 (EoS)
Zobacz Databricks Runtime 10.1 (EoS).
- 15 czerwca 2022 r.
- [SPARK-39283][CORE] Naprawa zakleszczenia między elementami TaskMemoryManager i UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Platforma Spark nie powinna sprawdzać nazw pól podczas odczytywania plików
- [SPARK-34096][SQL] Poprawa wydajności funkcji nth_value z ignorowaniem wartości null w oknie przesunięcia.
- 2 czerwca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Naprawia potencjalny wyciek pamięci natywnej w funkcji automatycznego ładowania.
- [SPARK-39084][PYSPARK] Poprawka df.rdd.isEmpty() przy użyciu elementu TaskContext w celu zatrzymania iteratora po zakończeniu zadania
- [SPARK-38889][SQL] Kompilowanie filtrów kolumn logicznych w celu użycia typu bitowego dla źródła danych MSSQL
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 kwietnia 2022 r.
- [SPARK-37270][SQL] Naprawa wypychania zwijanego do gałęzi CaseWhen, jeśli wartość elseValue jest pusta
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 6 kwietnia 2022 r.
- [SPARK-38631][CORE] Używa implementacji opartej na języku Java do cofania tarringu w pliku Utils.unpack
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 marca 2022 r.
- [SPARK-38437][SQL] Łagodna serializacja daty/godziny ze źródła danych
- [SPARK-38180][SQL] Zezwalaj na bezpieczne rzutowanie w górę w skorelowanych predykatach równości
- [SPARK-38155][SQL] Nie zezwalaj na odrębne agregowanie w podzapytaniach bocznych z nieobsługiwanymi predykatami
- [SPARK-38325][SQL] Tryb ANSI: unikaj potencjalnego błędu środowiska uruchomieniowego w pliku HashJoin.extractKeyExprAt()
- 14 marca 2022 r.
- Ulepszone wykrywanie konfliktów transakcji dla pustych transakcji w usłudze Delta Lake.
- [SPARK-38185][SQL] Naprawianie niepoprawnych danych, jeśli funkcja agregacji jest pusta
- [SPARK-38318][SQL] regresja podczas zastępowania widoku zestawu danych
- [SPARK-38236][SQL] Bezwzględne ścieżki plików określone w tabeli tworzenia/zmiany są traktowane jako względne
- [SPARK-35937][SQL] Wyodrębnianie pola daty ze znacznika czasu powinno działać w trybie ANSI
-
[SPARK-34069][SQL] Zadania bariery zabijania powinny przestrzegać
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Zezwól na przypisanie pomiędzy TimestampNTZ a Date/Timestamp
- 23 lutego 2022 r.
- [SPARK-37577][SQL] Naprawiono wyjątek ClassCastException: Nie można rzutować obiektu ArrayType na StructType w kontekście generowania przycinania
- 8 lutego 2022 r.
- [SPARK-27442][SQL] Usuń sprawdzanie nazwy pola podczas odczytywania/zapisywania danych w formacie Parquet.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 stycznia 2022 r.
- Usunięto usterkę polegającą na tym, że współbieżne transakcje w tabelach Delta mogły być zatwierdzane w kolejności nieserializowalnej w pewnych rzadkich przypadkach.
- Usunięto usterkę polegającą na tym, że polecenie OPTIMIZE mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
- 19 stycznia 2022 r.
- Wprowadzono obsługę osadzania tymczasowych poświadczeń w COPY INTO, aby ładować dane źródłowe bez wymagania uprawnień ANY_FILE SQL.
- Rozwiązano problem z brakiem pamięci z buforowaniem wyników zapytania w określonych warunkach.
- Rozwiązano problem z
USE DATABASE
, który występował, gdy użytkownik przełączał bieżący katalog na katalog inny niż domyślny. - Poprawki błędów i ulepszenia zabezpieczeń.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 20 grudnia 2021 r.
- Usunięto rzadką usterkę z filtrowaniem opartym na indeksie kolumn Parquet.
Databricks Runtime 10.0 (EoS)
Zobacz Databricks Runtime 10.0 (EoS).
- 19 kwietnia 2022 r.
- [SPARK-37270][SQL] Poprawa przenoszenia elementów możliwych do złożenia do gałęzi CaseWhen, jeśli wartość elseValue jest pusta
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 6 kwietnia 2022 r.
- [SPARK-38631][CORE] Używa implementacji opartej na języku Java do cofania tarringu w pliku Utils.unpack
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 marca 2022 r.
- [SPARK-38437][SQL] Pobłażliwa serializacja daty i godziny z źródła danych
- [SPARK-38180][SQL] Zezwól na bezpieczne rzutowanie wyrażeń w predykatach korelacyjnych równości
- [SPARK-38155][SQL] Nie zezwalaj na odrębne agregowanie w podzapytaniach bocznych z nieobsługiwanymi predykatami
- [SPARK-38325][SQL] Tryb ANSI: unikaj potencjalnego błędu w czasie wykonania w HashJoin.extractKeyExprAt()
- 14 marca 2022 r.
- Ulepszone wykrywanie konfliktów transakcyjnych dla pustych transakcji w Delta Lake.
- [SPARK-38185][SQL] Naprawianie niepoprawnych danych, jeśli funkcja agregacji jest pusta
- [SPARK-38318][SQL] regresja podczas zastępowania widoku zestawu danych
- [SPARK-38236][SQL] Bezwzględne ścieżki plików określone w tabeli tworzenia/zmiany są traktowane jako względne
- [SPARK-35937][SQL] Wyodrębnianie pola daty ze znacznika czasu powinno działać w trybie ANSI
-
[SPARK-34069][SQL] Zadania przerywania bariery powinny przestrzegać
SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-37707][SQL] Umożliwiaj przypisanie między TimestampNTZ a Datą/Znacznikiem czasu
- 23 lutego 2022 r.
- [SPARK-37577][SQL] Naprawiono wyjątek ClassCastException: Nie można rzutować obiektu ArrayType na typ struktury na potrzeby generowania oczyszczania
- 8 lutego 2022 r.
- [SPARK-27442][SQL] Usuń sprawdzanie nazwy pola podczas odczytu/zapisu danych w formacie Parquet.
- [SPARK-36905][SQL] Naprawa odczytu widoków Hive bez jawnych nazw kolumn
- [SPARK-37859][SQL] Rozwiązano problem polegający na tym, że tabele SQL utworzone za pomocą interfejsu JDBC z platformą Spark 3.1 nie są czytelne w wersji 3.2
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 stycznia 2022 r.
- Usunięto usterkę polegającą na tym, że współbieżne transakcje w tabelach Delta mogły być zatwierdzane w kolejności nieserializowalnej pod pewnymi rzadkimi warunkami.
- Usunięto usterkę polegającą na tym, że polecenie OPTIMIZE mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
- 19 stycznia 2022 r.
- Poprawki błędów i ulepszenia zabezpieczeń.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 20 grudnia 2021 r.
- Usunięto rzadki błąd związany z filtrowaniem opartym na indeksie kolumn Parquet.
- 9 listopada 2021 r.
- Wprowadzono dodatkowe flagi konfiguracji, aby umożliwić szczegółową kontrolę zachowań ANSI.
- 4 listopada 2021 r.
- Usunięto usterkę, która mogła spowodować niepowodzenie strukturalnego przesyłania strumieniowego przez ArrayIndexOutOfBoundsException.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z IOException podobnym do
java.io.IOException: No FileSystem for scheme
lub może spowodować, że modyfikacjesparkContext.hadoopConfiguration
nie będą wprowadzone w zapytaniach. - Konektor Apache Spark dla Delta Sharing został zaktualizowany do wersji 0.2.0.
- 30 listopada 2021 r.
- Rozwiązano problem z analizowaniem znacznika czasu, który polegał na tym, że ciąg strefy czasowej bez dwukropka był uznawany za nieprawidłowy.
- Rozwiązano problem związany z brakiem pamięci przy buforowaniu wyników zapytania pod pewnymi warunkami.
- Naprawiono problem z
USE DATABASE
podczas przełączania przez użytkownika bieżącego katalogu na inny niż domyślny.
Databricks Runtime 9.0 (EoS)
Zobacz Databricks Runtime 9.0 (EoS).
- 8 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 stycznia 2022 r.
- Usunięto usterkę polegającą na tym, że polecenie OPTIMIZE mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
- 19 stycznia 2022 r.
- Poprawki błędów i ulepszenia zabezpieczeń.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 4 listopada 2021 r.
- Usunięto usterkę, który mógł powodować awarię strumieni Structured Streaming z powodu błędu typu ArrayIndexOutOfBoundsException.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z wyjątkiem IOException, takim jak
java.io.IOException: No FileSystem for scheme
, lub może powodować, że modyfikacjesparkContext.hadoopConfiguration
nie będą miały efektu w zapytaniach. - Łącznik Apache Spark Connector for Delta Sharing został uaktualniony do wersji 0.2.0.
- 22 września 2021 r.
- Naprawiono błąd w procesie rzutowania tablicy Spark z wartością null na ciąg znaków
- 15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
- 8 września 2021 r.
- Dodano obsługę nazwy schematu (format
databaseName.schemaName.tableName
) jako nazwy tabeli docelowej dla łącznika Azure Synapse. - Dodano obsługę typów geometrycznych i geograficznych JDBC dla usługi Spark SQL.
- [SPARK-33527][SQL] Rozszerzono funkcję dekodowania tak, aby była spójna z głównymi bazami danych.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie w
CoarseGrainedExecutorBackend.onDisconnected
, aby uniknąćexecutorsconnected
i zapobiec zawieszeniu podczas zamykania funkcji wykonawczej.
- Dodano obsługę nazwy schematu (format
- 25 sierpnia 2021 r.
- Biblioteka sterowników programu SQL Server została uaktualniona do wersji 9.2.1.jre8.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
- Naprawiono przerwany link do najlepszego notesu wersji próbnej na stronie eksperymentu rozwiązania AutoML.
Databricks Runtime 8.4 (EoS)
Zobacz Databricks Runtime 8.4 (EoS).
19 stycznia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
4 listopada 2021 r.
- Usunięto usterkę, która mogła spowodować niepowodzenie strumieni Structured Streaming z powodu błędu ArrayIndexOutOfBoundsException.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z IOException, jak
java.io.IOException: No FileSystem for scheme
, lub który może spowodować, że modyfikacjesparkContext.hadoopConfiguration
nie będą zastosowane w zapytaniach. - Łącznik Apache Spark dla Delta Sharing został uaktualniony do wersji 0.2.0.
22 września 2021 r.
- Sterownik Spark JDBC został uaktualniony do wersji 2.6.19.1030
- [SPARK-36734][SQL] Uaktualnianie usługi ORC do wersji 1.5.1
15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
8 września 2021 r.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie w
CoarseGrainedExecutorBackend.onDisconnected
, aby uniknąćexecutorsconnected
i zapobiec zawieszeniu się zamykania wykonawcy.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie w
25 sierpnia 2021 r.
- Biblioteka sterowników programu SQL Server została uaktualniona do wersji 9.2.1.jre8.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
- Naprawia usterkę w przekazywaniu poświadczeń spowodowaną przez nową optymalizację pobierania wstępnego Parquet, gdzie poświadczenia użytkownika mogą nie zostać odnalezione przy uzyskiwaniu dostępu do plików.
11 sierpnia 2021 r.
- Naprawiono problem z niezgodnością RocksDB, który uniemożliwia działanie starszej wersji środowiska Databricks Runtime 8.4. Dzięki temu poprawiono zgodność z usługą Auto Loader,
COPY INTO
i stanowymi aplikacjami przesyłania strumieniowego. - Naprawia usterkę podczas używania modułu ładującego automatycznego do odczytywania plików CSV z niezgodnymi plikami nagłówków. Jeśli nazwy kolumn nie są zgodne, kolumna zostanie wypełniona wartościami null. Teraz, jeśli podano schemat, zakłada, że schemat jest taki sam i zapisze tylko niezgodności kolumn, jeśli uratowane kolumny danych są włączone.
- Dodaje nową opcję o nazwie
externalDataSource
do łącznika usługi Azure Synapse, aby usunąć wymogiCONTROL
dotyczące uprawnień w bazie danych do odczytu przy użyciu PolyBase.
- Naprawiono problem z niezgodnością RocksDB, który uniemożliwia działanie starszej wersji środowiska Databricks Runtime 8.4. Dzięki temu poprawiono zgodność z usługą Auto Loader,
29 lipca 2021 r.
- [SPARK-36034][BUILD] Przebaseuj datę/godzinę w filtrach przeniesionych do Parquet
-
[SPARK-36163][BUILD] Propagacja prawidłowych właściwości JDBC w dostawcy łącznika JDBC i dodawanie
connectionProvider
opcji
Databricks Runtime 8.3 (EoS)
Zobacz Databricks Runtime 8.3 (EoS).
19 stycznia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
4 listopada 2021 r.
- Usunięto błąd, który mógł powodować niepowodzenie strumieni Structured Streaming z powodu wyjątku ArrayIndexOutOfBoundsException.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z powodu IOException, takiego jak
java.io.IOException: No FileSystem for scheme
, lub może sprawić, że modyfikacjesparkContext.hadoopConfiguration
nie zostaną zastosowane w zapytaniach.
22 września 2021 r.
- Sterownik Spark JDBC został uaktualniony do wersji 2.6.19.1030
15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
8 września 2021 r.
- [SPARK-35700][SQL][WARMFIX] Odczyt tabel char/varchar orc utworzonych i zapisanych przez systemy zewnętrzne.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie,
CoarseGrainedExecutorBackend.onDisconnected
aby uniknąćexecutorsconnected
zawieszenia zamknięcia funkcji wykonawczej.
25 sierpnia 2021 r.
- Biblioteka sterowników programu SQL Server została uaktualniona do wersji 9.2.1.jre8.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
- Naprawia usterkę w przekazywaniu poświadczeń spowodowaną przez nową optymalizację prefetch dla Parquet, w wyniku której przekazywane poświadczenie użytkownika może nie zostać odnalezione podczas uzyskiwania dostępu do plików.
11 sierpnia 2021 r.
- Naprawia usterkę przy użyciu Automatycznego Ładowacza do odczytywania plików CSV z niezgodnymi nagłówkami. Jeśli nazwy kolumn nie są zgodne, kolumna zostanie wypełniona wartościami null. Teraz, jeśli podano schemat, zakłada, że schemat jest taki sam i zapisze tylko niezgodności kolumn, jeśli uratowane kolumny danych są włączone.
29 lipca 2021 r.
- Uaktualnianie łącznika Usługi Databricks Snowflake Spark do wersji 2.9.0-spark-3.1
- [SPARK-36034][BUILD] Zmień datę/godzinę w wypchniętych filtrach do Parquet
-
[SPARK-36163][BUILD] Propagacja prawidłowych właściwości JDBC w dostawcy łącznika JDBC i dodawanie
connectionProvider
opcji
14 lipca 2021 r.
- Rozwiązano problem podczas używania nazw kolumn z kropkami w łączniku usługi Azure Synapse.
- Wprowadzono
database.schema.table
format konektora Synapse. - Dodano obsługę udostępniania
databaseName.schemaName.tableName
formatu jako tabeli docelowej zamiast tylkoschemaName.tableName
lubtableName
.
15 czerwca 2021 r.
- Usunięto usterkę w zapisach zoptymalizowanych pod kątem
NoSuchElementException
usługi Delta Lake, która może wystąpić podczas zapisywania dużych ilości danych i napotykania strat funkcji wykonawczej - Dodaje polecenia SQL
CREATE GROUP
,DROP GROUP
,ALTER GROUP
SHOW GROUPS
, iSHOW USERS
. Aby uzyskać więcej informacji, zobacz Oświadczenia dotyczące zabezpieczeń i Pokaż oświadczenia.
- Usunięto usterkę w zapisach zoptymalizowanych pod kątem
Databricks Runtime 8.2 (EoS)
Zobacz Databricks Runtime 8.2 (EoS).
22 września 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
8 września 2021 r.
- [SPARK-35700][SQL][WARMFIX] Odczyt tabeli char/varchar orc utworzonych i zapisanych przez systemy zewnętrzne.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie,
CoarseGrainedExecutorBackend.onDisconnected
aby uniknąćexecutorsconnected
zawieszenia zamknięcia funkcji wykonawczej.
25 sierpnia 2021 r.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
11 sierpnia 2021 r.
- [SPARK-36034][SQL] Zmień datę/godzinę w wypchniętych filtrach do parquet.
29 lipca 2021 r.
- Aktualizacja łącznika Databricks Snowflake Spark do wersji 2.9.0-spark-3.1
-
[SPARK-36163][BUILD] Propagowanie prawidłowych właściwości JDBC w dostawcy łącznika JDBC i dodanie
connectionProvider
opcji
14 lipca 2021 r.
- Rozwiązano problem podczas używania nazw kolumn z kropkami w łączniku usługi Azure Synapse.
- Wprowadzono
database.schema.table
format dla łącznika platformy Synapse. - Dodano obsługę udostępniania
databaseName.schemaName.tableName
formatu jako tabeli docelowej zamiast tylkoschemaName.tableName
lubtableName
. - Usunięto usterkę uniemożliwiającą użytkownikom przechodzenie do starszych dostępnych wersji w tabelach Delta.
15 czerwca 2021 r.
- Naprawia usterkę w zapisach zoptymalizowanych pod kątem
NoSuchElementException
usługi Delta Lake, która może wystąpić podczas zapisywania dużych ilości danych i napotykania strat funkcji wykonawczej
- Naprawia usterkę w zapisach zoptymalizowanych pod kątem
26 maja 2021 r.
- Zaktualizowano język Python przy użyciu poprawki zabezpieczeń, aby naprawić lukę w zabezpieczeniach języka Python (CVE-2021-3177).
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- [SPARK-34245][CORE] Upewnij się, że master usuwa zadania wykonawcze, które nie wysłały stanu zakończenia
- Rozwiązano problem z systemem OOM, który polegał na tym, że automatyczne ładowanie raportuje metryki postępu przesyłania strumieniowego ze strukturą.
Databricks Runtime 8.1 (EoS)
Zobacz Databricks Runtime 8.1 (EoS).
22 września 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
8 września 2021 r.
- [SPARK-35700][SQL][WARMFIX] Odczyt tabeli char/varchar orc utworzonej i zapisanej przez systemy zewnętrzne.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie,
CoarseGrainedExecutorBackend.onDisconnected
aby uniknąćexecutorsconnected
zawieszenia zamknięcia funkcji wykonawczej.
25 sierpnia 2021 r.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
11 sierpnia 2021 r.
- [SPARK-36034][SQL] Rebazuj datę/godzinę w wypchniętych filtrach do Parquet.
29 lipca 2021 r.
- Zaktualizować łącznik Databricks Snowflake Spark do wersji 2.9.0-spark-3.1
-
[SPARK-36163][BUILD] Propagacja prawidłowych właściwości JDBC w dostawcy łącznika JDBC i dodawanie
connectionProvider
opcji
14 lipca 2021 r.
- Rozwiązano problem podczas używania nazw kolumn z kropkami w łączniku usługi Azure Synapse.
- Usunięto usterkę uniemożliwiającą użytkownikom przechodzenie do starszych dostępnych wersji z tabeli Delta.
15 czerwca 2021 r.
- Naprawia usterkę w zapisach zoptymalizowanych pod kątem
NoSuchElementException
usługi Delta Lake, która może wystąpić podczas zapisywania dużych ilości danych i w przypadku utraty procesów wykonawczych.
- Naprawia usterkę w zapisach zoptymalizowanych pod kątem
26 maja 2021 r.
- Zaktualizowano język Python przy użyciu poprawki zabezpieczeń, aby naprawić lukę w zabezpieczeniach języka Python (CVE-2021-3177).
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- Rozwiązano problem z systemem OOM, który polegał na tym, że automatyczne ładowanie raportuje metryki postępu przesyłania strumieniowego ze strukturą.
27 kwietnia 2021 r.
- [SPARK-34245][CORE] Upewnij się, że Master usuwa egzekutory, które nie zdołały wysłać stanu zakończenia
- [SPARK-34856][SQL] Tryb ANSI: zezwalaj na rzutowanie złożonych typów na typ ciągowy
- [SPARK-35014] Naprawiono wzorzec physicalAggregation, aby nie przepisać wyrażeń składanych
- [SPARK-34769][SQL] AnsiTypeCoercion: zwraca najwęższy możliwy typ konwertowalny spośród TypeCollection
- [SPARK-34614][SQL] Tryb ANSI: Rzutowanie ciągu na wartość logiczną spowoduje zgłoszenie wyjątku przy błędzie parsowania
- [SPARK-33794][SQL] Tryb ANSI: poprawiono wyrażenie NextDay, aby zgłosić wyjątek IllegalArgumentException środowiska uruchomieniowego podczas odbierania nieprawidłowych danych wejściowych.
Databricks Runtime 8.0 (EoS)
Zobacz Databricks Runtime 8.0 (EoS).
15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
25 sierpnia 2021 r.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
11 sierpnia 2021 r.
- [SPARK-36034][SQL] Zmień datę/godzinę w filtrowaniu przeniesionym do Parquet.
29 lipca 2021 r.
-
[SPARK-36163][BUILD] Propagacja prawidłowych właściwości JDBC w dostawcy łącznika JDBC i dodawanie
connectionProvider
opcji
-
[SPARK-36163][BUILD] Propagacja prawidłowych właściwości JDBC w dostawcy łącznika JDBC i dodawanie
14 lipca 2021 r.
- Rozwiązano problem podczas używania nazw kolumn z kropkami w łączniku usługi Azure Synapse.
- Usunięto usterkę uniemożliwiającą użytkownikom przenoszenie się do wcześniejszych dostępnych wersji tabeli Delta.
26 maja 2021 r.
- Zaktualizowano język Python przy użyciu poprawki zabezpieczeń, aby naprawić lukę w zabezpieczeniach języka Python (CVE-2021-3177).
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- [SPARK-34245][CORE] Upewnij się, że Master usuwa egzekutory, którym nie udało się przesłać stanu zakończenia
24 marca 2021 r.
- [SPARK-34681][SQL] Usunięto usterkę dotyczącą pełnego zewnętrznego połączenia z mieszaniem skrótu podczas budowania po lewej stronie z nie-równym warunkiem
- [SPARK-34534] Naprawianie kolejności blockIds podczas pobierania bloków za pomocą polecenia FetchShuffleBlocks
- [SPARK-34613][SQL] Naprawa problemu z widokiem, który nie uwzględnia konfiguracji wyłączania wskazówek
wtorek, 9 marca 2021 r.
-
[SPARK-34543][SQL] Uwzględnij
spark.sql.caseSensitive
konfigurację przy rozpoznawaniu specyfikacji partycji w wersji 1SET LOCATION
- [SPARK-34392][SQL] Obsługa elementu ZoneOffset +h:mm w narzędziu DateTimeUtils. getZoneId
- [Interfejs użytkownika] Naprawianie linku href wizualizacji języka DAG platformy Spark
- [SPARK-34436][SQL] Wsparcie DPP dla wyrażeń LIKE ANY/ALL
-
[SPARK-34543][SQL] Uwzględnij
Databricks Runtime 7.6 (EoS)
Zobacz Databricks Runtime 7.6 (EoS).
11 sierpnia 2021 r.
- [SPARK-36034][SQL] Przebuduj datę/godzinę w przekazanych w dół filtrach do Parquet.
29 lipca 2021 r.
- [SPARK-32998][BUILD] Dodaj możliwość zastąpienia domyślnych repozytoriów zdalnych jedynie repozytoriami wewnętrznymi
14 lipca 2021 r.
- Usunięto usterkę uniemożliwiającą użytkownikom cofanie się do starszych dostępnych wersji przy użyciu tabel Delta.
26 maja 2021 r.
- Zaktualizowano język Python przy użyciu poprawki zabezpieczeń, aby naprawić lukę w zabezpieczeniach języka Python (CVE-2021-3177).
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- [SPARK-34245][CORE] Upewnij się, że Master usuwa egzekutory, które nie zdołały przesłać stanu zakończenia
24 marca 2021 r.
- [SPARK-34768][SQL] Uwzględnianie domyślnego rozmiaru buforu wejściowego w univocity
- [SPARK-34534] Popraw kolejność blockIds podczas używania FetchShuffleBlocks do pobierania bloków
9 marca 2021 r.
- (Tylko platforma Azure) Naprawiono usterkę automatycznego modułu ładującego, która może powodować wyjątek NullPointerException podczas używania środowiska Databricks Runtime 7.6 do uruchamiania starego strumienia automatycznego ładowania utworzonego w środowisku Databricks Runtime 7.2
- [Interfejs użytkownika] Naprawianie linku href wizualizacji języka DAG platformy Spark
- Nieznany węzeł liścia SparkPlan nie jest poprawnie obsługiwany w elemencie SizeInBytesOnlyStatsSparkPlanVisitor
- Przywróć schemat wyjściowy
SHOW DATABASES
- [Delta][8.0, 7.6] Naprawiono usterkę obliczania w logice automatycznego dostrajania rozmiaru pliku
- Wyłącz sprawdzanie przestarzałości plików tabeli Delta w dyskowej pamięci podręcznej
- [SQL] Użyj poprawnego dynamicznego klucza kompilacji oczyszczania, gdy znajduje się wskazówka sprzężenia zakresu
- Wyłączanie obsługi typów znaków w ścieżce kodu innej niż SQL
- Unikaj NPE w elemencie DataFrameReader.schema
- Naprawianie serwera NPE, gdy odpowiedź EventGridClient nie ma jednostki
- Naprawa błędu odczytu zamkniętego strumienia w narzędziu Azure Auto Loader
- [SQL] Nie generuj zaleceń dotyczących liczby partycji mieszania, gdy AOS jest włączony
24 lutego 2021 r.
- Uaktualniono łącznik Spark BigQuery do wersji 0.18, który wprowadza różne poprawki błędów i obsługę iteratorów Arrow i Avro.
- Rozwiązano problem z poprawnością, który spowodował, że platforma Spark zwróciła nieprawidłowe wyniki, gdy dokładność dziesiętna i skala pliku Parquet różnią się od schematu platformy Spark.
- Rozwiązano problem z błędem odczytu w tabelach programu Microsoft SQL Server, które zawierają typy danych przestrzennych, dodając obsługę typów geometrycznych i geograficznych JDBC dla usługi Spark SQL.
- Wprowadzono nową konfigurację
spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Ta konfiguracja steruje wbudowaną inicjacją programu Hive. Po ustawieniu true, usługa Azure Databricks ponownie ładuje wszystkie funkcje ze wszystkich baz danych, które użytkownicy mają doFunctionRegistry
. Jest to domyślne zachowanie w magazynie metadanych Hive. Po ustawieniu wartości false usługa Azure Databricks wyłącza ten proces optymalizacji. - [SPARK-34212] Rozwiązano problemy związane z odczytywaniem danych dziesiętnych z plików Parquet.
- [SPARK-34260][SQL] Naprawiono błąd UnresolvedException podczas dwukrotnego tworzenia widoku tymczasowego.
Databricks Runtime 7.5 (EoS)
Zobacz Databricks Runtime 7.5 (EoS).
26 maja 2021 r.
- Zaktualizowano język Python przy użyciu poprawki zabezpieczeń, aby naprawić lukę w zabezpieczeniach języka Python (CVE-2021-3177).
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- [SPARK-34245][CORE] Upewnij się, że Master usuwa wykonawców, którzy nie przesłali zakończonego stanu
24 marca 2021 r.
- [SPARK-34768][SQL] Uwzględnianie domyślnego rozmiaru buforu wejściowego w univocity
- [SPARK-34534] Napraw kolejność identyfikatorów bloków podczas pobierania bloków za pomocą FetchShuffleBlocks
wtorek, 9 marca 2021 r.
- (Tylko platforma Azure) Naprawiono błąd Auto Loadera, który może powodować wyjątek NullPointerException podczas używania środowiska Databricks Runtime 7.5 do uruchamiania starego strumienia AutoLoadera utworzonego w środowisku Databricks Runtime 7.2.
- [Interfejs użytkownika] Naprawianie linku href wizualizacji języka DAG platformy Spark
- Nieznany węzeł liścia SparkPlan nie jest poprawnie obsługiwany w elemencie SizeInBytesOnlyStatsSparkPlanVisitor
- Przywróć schemat wyjściowy
SHOW DATABASES
- Wyłączanie sprawdzania nieaktualności dla plików tabeli delty w pamięci podręcznej dysku
- [SQL] Użyj poprawnego dynamicznego klucza przycinania, gdy obecna jest wskazówka sprzężenia zakresu
- Wyłączanie obsługi typów znaków w ścieżce kodu innej niż SQL
- Unikaj błędu Null Pointer Exception (NPE) w metodzie DataFrameReader.schema
- Naprawianie serwera NPE, gdy odpowiedź EventGridClient nie ma jednostki
- Napraw usterkę związaną z odczytem zamkniętego strumienia w narzędziu Azure Auto Loader
24 lutego 2021 r.
- Uaktualniono łącznik Spark BigQuery do wersji 0.18, który wprowadza różne poprawki błędów i obsługę iteratorów Arrow i Avro.
- Rozwiązano problem z poprawnością, który spowodował, że platforma Spark zwróciła nieprawidłowe wyniki, gdy dokładność dziesiętna i skala pliku Parquet różnią się od schematu platformy Spark.
- Rozwiązano problem z błędem odczytu w tabelach programu Microsoft SQL Server, które zawierają typy danych przestrzennych, dodając obsługę typów geometrycznych i geograficznych JDBC dla usługi Spark SQL.
- Wprowadzono nową konfigurację
spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Ta konfiguracja steruje wbudowaną inicjacją programu Hive. Po ustawieniu wartości "true", usługa Azure Databricks ponownie ładuje wszystkie funkcje ze wszystkich baz danych, które użytkownicy mają wFunctionRegistry
. Jest to domyślne zachowanie w magazynie metadanych Hive. Po ustawieniu wartości false usługa Azure Databricks wyłącza ten proces optymalizacji. - [SPARK-34212] Rozwiązano problemy związane z odczytywaniem danych dziesiętnych z plików Parquet.
- [SPARK-34260][SQL] Poprawiono błąd UnresolvedException podczas dwukrotnego tworzenia widoku tymczasowego.
4 lutego 2021 r.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
SELECT * FROM table LIMIT nrows
. Regresji doświadczali użytkownicy wykonujący zapytania za pośrednictwem ODBC/JDBC z włączoną serializacją Arrow. - Wprowadzono kontrole czasu zapisu do klienta Hive, aby zapobiec uszkodzeniu metadanych w metastore Hive dla tabel Delta.
- Naprawiono regresję, która uniemożliwiła uruchomienie DBFS FUSE, gdy konfiguracje zmiennych środowiskowych klastra zawierały nieprawidłową składnię Bash.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
20 stycznia 2021 r.
- Naprawiono regresję w wydaniu konserwacyjnym z 12 stycznia 2021 r., która może spowodować niepoprawny wyjątek AnalysisException i wskazać, że kolumna jest niejednoznaczna w sprzężeniu własnym. Ta regresja występuje, gdy użytkownik dołącza ramkę danych do pochodnej ramki danych (tzw. samosprzężenia) z następującymi warunkami:
- Te dwie ramki danych mają wspólne kolumny, ale wynik samołączenia nie zawiera wspólnych kolumn. Na przykład
df.join(df.select($"col" as "new_col"), cond)
- Pochodna ramka danych wyklucza niektóre kolumny za pośrednictwem opcji select, groupBy lub okna.
- Warunek sprzężenia lub transformacja następująca po dołączeniu DataFrame odwołuje się do kolumn innych niż wspólne. Na przykład
df.join(df.drop("a"), df("a") === 1)
- Te dwie ramki danych mają wspólne kolumny, ale wynik samołączenia nie zawiera wspólnych kolumn. Na przykład
- Naprawiono regresję w wydaniu konserwacyjnym z 12 stycznia 2021 r., która może spowodować niepoprawny wyjątek AnalysisException i wskazać, że kolumna jest niejednoznaczna w sprzężeniu własnym. Ta regresja występuje, gdy użytkownik dołącza ramkę danych do pochodnej ramki danych (tzw. samosprzężenia) z następującymi warunkami:
12 stycznia 2021 r.
- Uaktualnij zestaw Azure Storage SDK z wersji 2.3.8 do 2.3.9.
- [SPARK-33593][SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-33480][SQL] aktualizuje komunikat o błędzie sprawdzania długości wstawiania tabeli char/varchar
Databricks Runtime 7.3 LTS (EoS)
Zobacz Databricks Runtime 7.3 LTS (EoS).
10 września 2023 r.
- Różne poprawki błędów.
30 sierpnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 sierpnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
23 czerwca 2023 roku
- Biblioteka Snowflake-jdbc została uaktualniona do wersji 3.13.29, aby rozwiązać problem z zabezpieczeniami.
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 czerwca 2023 r.
-
[SPARK-43413][SQL] Naprawiono
IN
podzapytanieListQuery
nullowalność. - Aktualizacje zabezpieczeń systemu operacyjnego.
-
[SPARK-43413][SQL] Naprawiono
2 czerwca 2023 roku
- Rozwiązano problem z modułem automatycznego ładowania, który polegał na tym, że różne formaty plików źródłowych były niespójne, gdy podany schemat nie zawierał wywnioskowanych partycji. Ten problem może spowodować nieoczekiwane błędy podczas odczytywania plików z brakującymi kolumnami w schemacie wnioskowanych partycji.
17 maja 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
25 kwietnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
11 kwietnia 2023
- [SPARK-42967][CORE] Poprawiono wartość SparkListenerTaskStart.stageAttemptId, gdy zadanie jest uruchamiane po anulowaniu etapu.
- Różne poprawki błędów.
29 marca 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
14 marca 2023
- Różne poprawki błędów.
28 lutego 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
16 lutego 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
31 stycznia 2023 r.
- Typy tabel JDBC są teraz domyślnie oznaczone jako „ZEWNĘTRZNE”.
18 stycznia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
29 listopada 2022 r.
- Różne poprawki błędów.
15 listopada 2022 r.
- Uaktualniono wersję apache commons-text do wersji 1.10.0.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
1 listopada 2022 r.
- [SPARK-38542][SQL] UnsafeHashedRelation powinien serializować numKeys out
18 października 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
środa, 5 października 2022 r.
- Różne poprawki błędów.
- Aktualizacje zabezpieczeń systemu operacyjnego.
22 września 2022 r.
- [SPARK-40089][SQL] Naprawianie sortowania niektórych typów dziesiętnych
6 września 2022 r.
- [SPARK-35542][CORE][ML] Poprawka: Moduł bucketizer utworzony dla wielu kolumn z parametrami splitsArray, inputCols i outputCols nie można załadować po zapisaniu go
- [SPARK-40079][CORE] Dodaj walidację inputCols dla Imputera dla przypadku pustego wejścia
24 sierpnia 2022 r.
- [SPARK-39962][PYTHON][SQL] Zastosuj projekcję, gdy atrybuty grupy są puste
- Aktualizacje zabezpieczeń systemu operacyjnego.
9 sierpnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
27 lipca 2022 r.
- Upewnij się, że operacja delta MERGE jest spójna, gdy źródło nie jest deterministyczne.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
13 lipca 2022 r.
- [SPARK-32680][SQL] Nie przetwarzaj wstępnie V2 CTAS z nierozstrzygniętym zapytaniem
- Wyłączono funkcję Auto Loader polegającą na korzystaniu z natywnych interfejsów API chmury do wyświetlania listy katalogów w usłudze Azure.
- Aktualizacje zabezpieczeń systemu operacyjnego.
5 lipca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
2 czerwca 2022 roku
- [SPARK-38918][SQL] Zagnieżdżone oczyszczanie kolumn powinno filtrować atrybuty, które nie należą do bieżącej relacji
- Aktualizacje zabezpieczeń systemu operacyjnego.
18 maja 2022 r.
- Uaktualnij zestaw AWS SDK z wersji 1.11.655 do wersji 1.11.678.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
19 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
6 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
14 marca 2022 r.
- Usuwanie klas podatnych na zagrożenia z pliku jar log4j 1.2.17
- Różne poprawki błędów.
23 lutego 2022 r.
- [SPARK-37859][SQL] Nie sprawdzaj metadanych podczas porównywania schematów
8 lutego 2022 r.
- Uaktualnij zestaw Ubuntu JDK do wersji 1.8.0.312.
- Aktualizacje zabezpieczeń systemu operacyjnego.
wtorek, 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
26 stycznia 2022 r.
- Usunięto usterkę polegającą na tym, że polecenie OPTIMIZE mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
19 stycznia 2022 r.
- Kanał domyślny Conda jest usuwany z wersji 7.3 ML LTS
- Aktualizacje zabezpieczeń systemu operacyjnego.
7 grudnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
4 listopada 2021 r.
- Naprawiono błąd, który mógł powodować awarie strumieni Structured Streaming z powodu ArrayIndexOutOfBoundsException.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z IOException podobnym do
java.io.IOException: No FileSystem for scheme
lub które mogą powodować, że modyfikacjesparkContext.hadoopConfiguration
nie będą miały skutku w zapytaniach.
15 września 2021 r.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x
. - Aktualizacje zabezpieczeń systemu operacyjnego.
- Naprawiono warunek wyścigu, który może spowodować niepowodzenie zapytania z elementem IOException, takim jak
8 września 2021 r.
- [SPARK-35700][SQL][WARMFIX] Odczyt tabeli ORC typu char/varchar, gdy jest tworzona i zapisywana przez systemy zewnętrzne.
-
[SPARK-36532][CORE][3.1] Naprawiono zakleszczenie w
CoarseGrainedExecutorBackend.onDisconnected
, aby uniknąćexecutorsconnected
i zapobiec zawieszeniu się zamykania funkcji wykonawczej.
25 sierpnia 2021 r.
- Łącznik Snowflake został uaktualniony do wersji 2.9.0.
29 lipca 2021 r.
- [SPARK-36034][BUILD] Zmień datę/godzinę w wypchniętych filtrach do Parquet
-
[SPARK-34508][BUILD] Pomiń
HiveExternalCatalogVersionsSuite
, jeśli sieć nie działa
14 lipca 2021 r.
- Wprowadzono
database.schema.table
format łącznika usługi Azure Synapse. - Dodano obsługę udostępniania
databaseName.schemaName.tableName
formatu jako tabeli docelowej zamiast tylkoschemaName.tableName
lubtableName
. - Usunięto usterkę uniemożliwiającą użytkownikom cofanie się w czasie do starszych dostępnych wersji w tabelach Delta.
- Wprowadzono
15 czerwca 2021 r.
- Naprawia usterkę w zapisach zoptymalizowanych pod kątem
NoSuchElementException
usługi Delta Lake, która może wystąpić podczas zapisywania dużych ilości danych i napotykania strat funkcji wykonawczej
- Zaktualizowano język Python przy użyciu poprawki zabezpieczeń, aby naprawić lukę w zabezpieczeniach języka Python (CVE-2021-3177).
- Naprawia usterkę w zapisach zoptymalizowanych pod kątem
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- [SPARK-34245][CORE] Upewnij się, że Master usuwa egzekutory, które nie zdołały wysłać stanu zakończenia.
- [SPARK-35045][SQL] Dodano opcję wewnętrzną do kontrolowania buforu wejściowego w Univocity
24 marca 2021 r.
- [SPARK-34768][SQL] Uwzględnianie domyślnego rozmiaru buforu wejściowego w univocity
- [SPARK-34534] Napraw kolejność blockIds podczas pobierania bloków przy użyciu FetchShuffleBlocks
- [SPARK-33118][SQL]CREATE TEMPORARY TABLE nie działa z lokalizacją
wtorek, 9 marca 2021 r.
- Zaktualizowany sterownik systemu plików Blob usługi Azure dla usługi Azure Data Lake Storage jest teraz domyślnie włączony. Zapewnia ona wiele ulepszeń stabilności.
- Napraw separator ścieżki w systemie Windows dla
databricks-connect get-jar-dir
- [Interfejs użytkownika] Naprawianie linku href wizualizacji języka DAG platformy Spark
- [DBCONNECT] Dodano obsługę flatMapCoGroupsInPandas w usłudze Databricks Connect 7.3
- Przywróć schemat wyjściowy
SHOW DATABASES
- [SQL] Użyj poprawnego dynamicznego klucza do przycinania, przy podanej wskazówce dołączenia zakresu
- Wyłączanie sprawdzania nieaktualności dla plików tabeli delty w pamięci podręcznej dysku
- [SQL] Nie generuj porad dotyczących numeru partycji mieszania, gdy usługa AOS jest włączona
24 lutego 2021 r.
- Uaktualniono łącznik Spark BigQuery do wersji 0.18, który wprowadza różne poprawki błędów i obsługę iteratorów Arrow i Avro.
- Rozwiązano problem z poprawnością, który spowodował, że platforma Spark zwróciła nieprawidłowe wyniki, gdy dokładność dziesiętna i skala pliku Parquet różnią się od schematu platformy Spark.
- Rozwiązano problem z błędem odczytu w tabelach programu Microsoft SQL Server, które zawierają typy danych przestrzennych, dodając obsługę typów geometrycznych i geograficznych JDBC dla usługi Spark SQL.
- Wprowadzono nową konfigurację
spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Ta konfiguracja steruje wbudowaną inicjacją programu Hive. Po ustawieniu na wartość true, Azure Databricks ponownie ładuje wszystkie funkcje ze wszystkich baz danych, które użytkownicy mają, doFunctionRegistry
. Jest to domyślne zachowanie w magazynie metadanych Hive. Po ustawieniu wartości false usługa Azure Databricks wyłącza ten proces optymalizacji. - [SPARK-34212] Rozwiązano problemy związane z odczytywaniem danych dziesiętnych z plików Parquet.
- [SPARK-33579][Interfejs użytkownika] Napraw pustą stronę funkcji wykonawczej za serwerem proxy.
- [SPARK-20044][Interfejs użytkownika] Obsługa interfejsu użytkownika Spark za frontowym serwerem proxy z użyciem prefiksu ścieżki.
- [SPARK-33277][PYSPARK][SQL] Użyj elementu ContextAwareIterator, aby przestać pobierać dane po zakończeniu zadania.
4 lutego 2021 r.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
SELECT * FROM table LIMIT nrows
. Użytkownicy przeprowadzający zapytania za pośrednictwem ODBC/JDBC z włączoną serializacją Arrow doświadczali regresji. - Naprawiono regresję, która powodowała niepowodzenie uruchomienia DBFS FUSE, gdy konfiguracje zmiennych środowiskowych klastra zawierały nieprawidłową składnię bash.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
20 stycznia 2021 r.
- Naprawiono błąd regresji w wydaniu konserwacyjnym z 12 stycznia 2021 r., które mogą spowodować niepoprawny wyjątek AnalysisException i stwierdzić, że kolumna jest niejednoznaczna w złączeniu wewnętrznym. Ta regresja występuje, gdy użytkownik dołącza ramkę danych do pochodnej ramki danych (tzw. samosprzężenia) z następującymi warunkami:
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe sprzężenia samodzielnego nie mają wspólnych kolumn. Na przykład
df.join(df.select($"col" as "new_col"), cond)
- Pochodna ramka danych wyklucza niektóre kolumny za pośrednictwem opcji select, groupBy lub okna.
- Warunek sprzężenia lub następująca transformacja po dołączeniu ramki danych odwołuje się do kolumn innych niż wspólne. Na przykład
df.join(df.drop("a"), df("a") === 1)
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe sprzężenia samodzielnego nie mają wspólnych kolumn. Na przykład
- Naprawiono błąd regresji w wydaniu konserwacyjnym z 12 stycznia 2021 r., które mogą spowodować niepoprawny wyjątek AnalysisException i stwierdzić, że kolumna jest niejednoznaczna w złączeniu wewnętrznym. Ta regresja występuje, gdy użytkownik dołącza ramkę danych do pochodnej ramki danych (tzw. samosprzężenia) z następującymi warunkami:
12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-33593][SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-33677][SQL] Pomiń regułę LikeSimplification, jeśli wzorzec zawiera jakikolwiek element escapeChar
- [SPARK-33592][ML][PYTHON] Parametry modułu sprawdzania poprawności uczenia maszynowego Pyspark w narzędziu do szacowaniaParamMap mogą zostać utracone po zapisaniu i ponownym załadowaniu
- [SPARK-33071][SPARK-33536][SQL] Unikaj zmieniania dataset_id elementu LogicalPlan przy join, aby nie zakłócać działania DetectAmbiguousSelfJoin
wtorek, 8 grudnia 2020 r.
- [SPARK-33587][CORE] Zabić executora przy zagnieżdżonych błędach krytycznych
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
- [SPARK-33316][SQL] Obsługa schematu avro dopuszczanego do wartości null dla schematu katalizatora bez wartości null w zapisie Avro
- Zadania platformy Spark uruchamiane przy użyciu usługi Databricks Connect mogą zawieszać się na czas nieokreślony z
Executor$TaskRunner.$anonfun$copySessionState
w śladzie stosu wykonawcy. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
-
[SPARK-33404][SQL][3.0] Poprawianie nieprawidłowych wyników w wyrażeniu
date_trunc
- [SPARK-33339][PYTHON] Aplikacja Pyspark zawiesi się z powodu błędu niebędącego wyjątkiem
- [SPARK-33183][SQL][POPRAWKA] Napraw regułę optymalizatora EliminujSorty i dodaj regułę fizyczną, aby usunąć nadmiarowe sortowanie
- [SPARK-33371][PYTHON][3.0] Aktualizacja setup.py i testy dla języka Python 3.9
- [SPARK-33391][SQL] element_at z elementem CreateArray nie uwzględnia jednego indeksu opartego.
- [SPARK-33306][SQL]Strefa czasowa jest wymagana, gdy rzutować datę na ciąg znaków
- [SPARK-33260][SQL] Napraw nieprawidłowe wyniki SortExec, kiedy sortOrder jest Stream
-
[SPARK-33404][SQL][3.0] Poprawianie nieprawidłowych wyników w wyrażeniu
5 listopada 2020 r.
13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Można odczytywać i zapisywać dane z DBFS przy użyciu punktu montowania FUSE pod adresem /dbfs/, gdy używany jest klaster z włączonym przekazywaniem poświadczeń i wysoką współbieżnością. Montaże standardowe są obsługiwane, ale montaże, które wymagają poświadczeń przekazywania, nie są jeszcze obsługiwane.
- [SPARK-32999][SQL] Użyj metody Utils.getSimpleName, aby uniknąć problemów z błędnie sformułowaną nazwą klasy w TreeNode.
- [SPARK-32585][SQL] Obsługa wyliczenia scala w scalaReflection
- Naprawiono listowanie katalogów w montowaniu FUSE, które zawierają nazwy plików z nieprawidłowymi znakami XML
- Instalacja FUSE nie używa już funkcji ListMultipartUploads
29 września 2020 r.
- [SPARK-32718][SQL] Usuń niepotrzebne słowa kluczowe dla jednostek interwału
- [SPARK-32635][SQL] Naprawianie propagacji składanej
- Dodaj nową konfigurację
spark.shuffle.io.decoder.consolidateThreshold
. Ustaw wartość konfiguracji naLong.MAX_VALUE
, aby pominąć konsolidację netty FrameBuffers, co zapobiegajava.lang.IndexOutOfBoundsException
w skrajnych przypadkach.
25 kwietnia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
wtorek, 11 kwietnia 2023 r.
- Różne poprawki błędów.
29 marca 2023 r.
- Różne poprawki błędów.
14 marca 2023
- Aktualizacje zabezpieczeń systemu operacyjnego.
28 lutego 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
16 lutego 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
31 stycznia 2023 r.
- Różne poprawki błędów.
18 stycznia 2023 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
29 listopada 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
15 listopada 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
1 listopada 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
18 października 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 października 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 24 sierpnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 9 sierpnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 27 lipca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 5 lipca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 2 czerwca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
- 6 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
- 14 marca 2022 r.
- Różne poprawki błędów.
- 23 lutego 2022 r.
- Różne poprawki błędów.
- 8 lutego 2022 r.
- Uaktualnij zestaw Ubuntu JDK do wersji 1.8.0.312.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 stycznia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- 12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 grudnia 2020 r.
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
- [SPARK-33260][SQL] Naprawa nieprawidłowych wyników w SortExec, gdy sortOrder jest Stream
- 3 listopada 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do UserGroupInformation.getCurrentUser()
- wtorek, 13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
Rozszerzona obsługa środowiska Databricks Runtime 6.4 (EoS)
Zobacz Databricks Runtime 6.4 (EoS) i Databricks Runtime 6.4 Extended Support (EoS).
- 5 lipca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
- 2 czerwca 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 18 maja 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 19 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
- 6 kwietnia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Różne poprawki błędów.
- 14 marca 2022 r.
- Usuwanie klas podatnych na zagrożenia z pliku jar log4j 1.2.17
- Różne poprawki błędów.
- 23 lutego 2022 r.
- Różne poprawki błędów.
- 8 lutego 2022 r.
- Uaktualnij zestaw Ubuntu JDK do wersji 1.8.0.312.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 lutego 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 26 stycznia 2022 r.
- Usunięto usterkę polegającą na tym, że polecenie OPTIMIZE mogło zakończyć się niepowodzeniem po włączeniu dialektu ANSI SQL.
- 19 stycznia 2022 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 grudnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 15 czerwca 2021 r.
- [SPARK-35576][SQL] Zasłoń poufne informacje w wyniku polecenia SET
- 7 czerwca 2021 r.
- Dodaj nową konfigurację o nazwie
spark.sql.maven.additionalRemoteRepositories
, będącą ciągiem konfiguracji dodatkowego opcjonalnego zdalnego lustra maven, rozdzielaną przecinkami. Wartość domyślna tohttps://maven-central.storage-download.googleapis.com/maven2/
.
- Dodaj nową konfigurację o nazwie
- 30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- 9 marca 2021 r.
- Port HADOOP-17215 do sterownika systemu plików Blob Azure (obsługa warunkowego zastępowania).
- Napraw separator ścieżki w systemie Windows dla
databricks-connect get-jar-dir
- Dodano obsługę magazynu metadanych Hive w wersji 2.3.5, 2.3.6 i 2.3.7
- Element "totalResultsCollected" został zgłoszony nieprawidłowo po awarii.
- 24 lutego 2021 r.
- Wprowadzono nową konfigurację
spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Ta konfiguracja steruje wbudowaną inicjacją programu Hive. Po ustawieniu na wartość true, Azure Databricks ponownie ładuje wszystkie funkcje ze wszystkich baz danych, które mają użytkownicy, doFunctionRegistry
. Jest to domyślne zachowanie w magazynie metadanych Hive. Po ustawieniu wartości false usługa Azure Databricks wyłącza ten proces optymalizacji.
- Wprowadzono nową konfigurację
- 4 lutego 2021 r.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
SELECT * FROM table LIMIT nrows
. Regresja była napotykana przez użytkowników uruchamiających zapytania za pośrednictwem ODBC/JDBC z włączoną serializacją Arrow. - Naprawiono regresję, która powodowała niepowodzenie uruchomienia DBFS FUSE, gdy konfiguracje zmiennych środowiskowych klastra zawierały nieprawidłową składnię w Bash.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
- 12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 grudnia 2020 r.
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
- [SPARK-33183][SQL] Napraw regułę optymalizatora EliminujSorty i dodaj regułę fizyczną, aby usunąć nadmiarowe sortowanie
- [Środowisko 6.4 ML GPU] Wcześniej zainstalowano nieprawidłową wersję (2.7.8-1+cuda11.1) NCCL. Ta wersja poprawia ją do wersji 2.4.8-1+cuda10.0 zgodnej z cudA 10.0.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
- [SPARK-33260][SQL] Naprawiono nieprawidłowe wyniki z SortExec, gdy sortOrder jest Stream
- [SPARK-32635][SQL] Naprawianie propagacji składanej
- 3 listopada 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do UserGroupInformation.getCurrentUser()
- Naprawiono błąd czytnika Avro polegający na nieskończonej pętli podczas odczytu bajtów MAGIC.
- 13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-32999][SQL][2.4] Użyj Utils.getSimpleName, aby uniknąć napotkania niepoprawnej nazwy klasy w TreeNode
- Naprawiono wylistowywanie katalogów w montażu FUSE, które zawierają nazwy plików z nieprawidłowymi znakami XML
- Instalacja FUSE nie używa już funkcji ListMultipartUploads
- 24 września 2020 r.
- Naprawiono poprzednie ograniczenie, w którym w klastrze standardowym przekazywanie nadal ograniczało możliwość korzystania przez użytkownika z wybranej implementacji systemu plików. Teraz użytkownicy będą mogli uzyskiwać dostęp do lokalnych systemów plików bez ograniczeń.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000. - Zaktualizuj zestaw SDK usługi Azure Storage do wersji 8.6.4 i włącz funkcję podtrzymywania aktywnego połączenia TCP (keep alive) dla połączeń wykonywanych przez sterownik WASB.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
- 25 sierpnia 2020 r.
- Naprawiono niejednoznaczne rozpoznawanie atrybutów w samodzielnym scalaniu
- 18 sierpnia 2020 r.
- [SPARK-32431][SQL] Sprawdzanie zduplikowanych kolumn zagnieżdżonych w odczytach z wbudowanych źródeł danych
- Naprawiono warunek wyścigu w łączniku AQS przy użyciu Trigger.Once.
- 11 sierpnia 2020 r.
- [SPARK-28676][CORE] Unikaj nadmiernego rejestrowania przez ContextCleaner
- 3 sierpnia 2020 r.
- Teraz możesz użyć funkcji przekształcania LDA w klastrze z włączoną obsługą przekaźnikową.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 7 lipca 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_232 do 1.8.0_252.
- 21 kwietnia 2020 r.
- [SPARK-31312][SQL] Instancja klasy Cache dla instancji UDF w HiveFunctionWrapper
- 7 kwietnia 2020 r.
- Aby rozwiązać problem z niedziałającym pandas udf w wersjach PyArrow 0.15.0 i nowszych, dodaliśmy zmienną środowiskową (
ARROW_PRE_0_15_IPC_FORMAT=1
), aby umożliwić obsługę tych wersji PyArrow. Zapoznaj się z instrukcjami w temacie [SPARK-29367].
- Aby rozwiązać problem z niedziałającym pandas udf w wersjach PyArrow 0.15.0 i nowszych, dodaliśmy zmienną środowiskową (
- 10 marca 2020 r.
- Zoptymalizowane skalowanie automatyczne jest teraz domyślnie używane w klastrach interaktywnych w planie zabezpieczeń.
- Łącznik Snowflake (
spark-snowflake_2.11
) dołączony do środowiska Databricks Runtime został zaktualizowany do wersji 2.5.9.snowflake-jdbc
program jest aktualizowany do wersji 3.12.0.
Databricks Runtime 5.5 LTS (EoS)
Zobacz Databricks Runtime 5.5 LTS (EoS) i Databricks Runtime 5.5 Extended Support (EoS).
- 8 grudnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 22 września 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 25 sierpnia 2021 r.
- Obniżono wcześniej zaktualizowane pakiety Pythona w wersji 5.5 ML z rozszerzonym wsparciem, aby zachować lepszą zgodność z wersją 5.5 ML LTS (obecnie przestarzałą). Aby uzyskać zaktualizowane różnice między dwiema wersjami, zobacz [_]/release-notes/runtime/5.5xml.md).
- 15 czerwca 2021 r.
- [SPARK-35576][SQL] Zredaguj poufne informacje w wynikach polecenia SET
- 7 czerwca 2021 r.
- Dodaj nową konfigurację o nazwie
spark.sql.maven.additionalRemoteRepositories
, będącą ciągiem znaków rozdzielanym przecinkami, dla opcjonalnego dodatkowego zdalnego repozytorium maven. Wartość domyślna tohttps://maven-central.storage-download.googleapis.com/maven2/
.
- Dodaj nową konfigurację o nazwie
- 30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- 9 marca 2021 r.
- Port HADOOP-17215 do sterownika systemu plików Azure Blob (obsługa warunkowego nadpisywania).
- 24 lutego 2021 r.
- Wprowadzono nową konfigurację
spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Ta konfiguracja steruje wbudowaną inicjacją programu Hive. Po ustawieniu wartości true usługa Azure Databricks ponownie ładuje wszystkie funkcje, które użytkownicy mają, ze wszystkich baz danych doFunctionRegistry
. Jest to domyślne zachowanie w magazynie metadanych Hive. Po ustawieniu wartości false usługa Azure Databricks wyłącza ten proces optymalizacji.
- Wprowadzono nową konfigurację
- 12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- Poprawka dla [HADOOP-17130].
- 8 grudnia 2020 r.
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
- [SPARK-33260][SQL] Napraw nieprawidłowe wyniki SortExec, gdy sortOrder jest strumieniem
- [SPARK-32635][SQL] Naprawianie propagacji składanej
29 października 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do UserGroupInformation.getCurrentUser()
- Naprawiono błąd nieskończonej pętli czytnika Avro podczas odczytywania bajtów MAGIC.
13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-32999][SQL][2.4] Użyj Utils.getSimpleName, aby uniknąć błędu źle sformułowanej nazwy klasy w TreeNode.
24 września 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
18 sierpnia 2020 r.
- [SPARK-32431][SQL] Sprawdzanie zduplikowanych kolumn zagnieżdżonych w odczytach z wbudowanych źródeł danych
- Naprawiono warunek wyścigu w łączniku AQS podczas korzystania z Trigger.Once.
11 sierpnia 2020 r.
- [SPARK-28676][CORE] Unikaj nadmiernego rejestrowania przez moduł ContextCleaner
3 sierpnia 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego
7 lipca 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_232 do 1.8.0_252.
21 kwietnia 2020 r.
- [SPARK-31312][SQL] Wystąpienie klasy pamięci podręcznej dla wystąpienia funkcji zdefiniowanej przez użytkownika w programie HiveFunctionWrapper
7 kwietnia 2020 r.
- Aby rozwiązać problem z niedziałaniem pandas udf z PyArrow w wersji 0.15.0 lub nowszej, dodaliśmy zmienną środowiskową (
ARROW_PRE_0_15_IPC_FORMAT=1
), aby włączyć obsługę tych wersji PyArrow. Zapoznaj się z instrukcjami w temacie [SPARK-29367].
- Aby rozwiązać problem z niedziałaniem pandas udf z PyArrow w wersji 0.15.0 lub nowszej, dodaliśmy zmienną środowiskową (
25 marca 2020 r.
- Łącznik Snowflake (
spark-snowflake_2.11
) dołączony do środowiska Databricks Runtime został zaktualizowany do wersji 2.5.9.snowflake-jdbc
program jest aktualizowany do wersji 3.12.0.
- Łącznik Snowflake (
10 marzec 2020 r.
- Dane wyjściowe zadania, takie jak dane dziennika emitowane do stdout, podlegają limitowi rozmiaru 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu stdout ze sterownika poprzez ustawienie konfiguracji Spark na wartość
true
. Domyślnie wartość flagi tofalse
. Flaga steruje danymi wyjściowymi komórek dla zadań JAR języka Scala i notesów Scala. Jeśli flaga jest włączona, platforma Spark nie zwraca wyników wykonywania zadań do klienta. Flaga nie ma wpływu na dane zapisywane w plikach dziennika klastra. Ustawienie tej flagi jest zalecane tylko w przypadku klastrów automatycznych dla zadań JAR, ponieważ spowoduje to wyłączenie wyników notatnika.
- Dane wyjściowe zadania, takie jak dane dziennika emitowane do stdout, podlegają limitowi rozmiaru 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu stdout ze sterownika poprzez ustawienie konfiguracji Spark na wartość
18 lutego 2020 r.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 powinien zgłaszać wyjątek
- Przekazywanie poświadczeń z usługą Azure Data Lake Storage (ADLS) powoduje spadek wydajności z powodu nieprawidłowej lokalnej obsługi wątków, gdy włączone jest wstępne pobieranie danych przez klienta ADLS. Ta wersja wyłącza prefetching ADLS, gdy przekazywanie poświadczeń jest włączone, aż do momentu wprowadzenia odpowiedniej poprawki.
28 stycznia 2020 r.
- [SPARK-30447][SQL] Problem z nullowalnością w propagacji stałych.
14 stycznia 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_222 do 1.8.0_232.
19 listopada 2019 r.
- [SPARK-29743] [SQL] próbka powinna ustawić parametr needCopyResult na wartość true, jeśli podrzędny needCopyResult ma wartość true.
- Wersja języka R została niezamierzona uaktualniona do wersji 3.6.1 z wersji 3.6.0. Obniżyliśmy go z powrotem do wersji 3.6.0.
5 listopada 2019 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_212 do wersji 1.8.0_222.
23 października 2019 r.
- [SPARK-29244][CORE] Zapobieganie ponownemu zwolnieniu strony w BytesToBytesMap
wtorek, 8 października 2019 r.
- Zmiany po stronie serwera umożliwiające ponowne nawiązywanie połączenia ze sterownikiem Simba Apache Spark ODBC i kontynuowanie po niepowodzeniu połączenia podczas pobierania wyników (wymaga sterownika Simba Apache Spark ODBC w wersji 2.6.10).
- Rozwiązano problem dotyczący używania polecenia
Optimize
z klastrami, w których włączono listę kontrolną dostępu (ACL) dla tabeli. - Rozwiązano problem polegający na tym, że
pyspark.ml
biblioteki przestały działać z powodu błędu zabronionego UDF w Scala na klastrach z włączonym ACL tabeli i przekazywaniem poświadczeń. - Dozwolone metody SerDe i SerDeUtil na potrzeby przekazywania poświadczeń.
- Naprawiono wyjątek NullPointerException podczas sprawdzania kodu błędu w kliencie WASB.
24 września 2019 r.
- Zwiększona stabilność modułu zapisywania Parquet.
- Rozwiązano problem polegający na tym, że zapytanie Thrift, które zostało anulowane przed rozpoczęciem wykonywania, mogło utknąć w stanie ROZPOCZĘTE.
10 września 2019 r.
- Dodaj iterator wątkowo-bezpieczny do BytesToBytesMap
- [SPARK-27992][SPARK-28881]Zezwalanie Pythonowi na dołączenie do wątku połączenia w celu propagacji błędów
- Usunięto usterkę wpływającą na niektóre zapytania agregacji globalnej.
- Ulepszona redaction poświadczeń.
- [SPARK-27330][SS] obsługa przerywania zadania w foreach writer
- [SPARK-28642]Ukryj poświadczenia w SHOW CREATE TABLE
- [SPARK-28699][SQL] Wyłącz używanie sortowania radix dla operacji ShuffleExchangeExec w przypadku repartycjonowania
27 sierpnia 2019 r.
- [SPARK-20906][SQL] Pozwól na określenie przez użytkownika schematu w interfejsie API to_avro z rejestrem schematów
- [SPARK-27838][SQL] Obsługa użytkownika dostarczyła schemat avro bez wartości null dla schematu katalizatora dopuszczanego do wartości null bez żadnego rekordu null
- Poprawa podróży w czasie usługi Delta Lake
- Rozwiązano problem dotyczący określonego
transform
wyrażenia - Obsługuje zmienne emisji po włączeniu izolacji procesu
13 sierpnia 2019 r.
- Źródło przesyłania strumieniowego delta powinno sprawdzić najnowszy protokół tabeli
- [SPARK-28260]Dodawanie stanu CLOSED do elementu ExecutionState
- [SPARK-28489][SS]Naprawiono błąd, przez który platforma KafkaOffsetRangeCalculator.getRanges może gubić przesunięcia
30 lipca 2019 r.
- [SPARK-28015][SQL] Sprawdzanie parametru StringToDate() zużywa całe dane wejściowe dla formatów rrrr i rrrr-[m]m
- [SPARK-28308][CORE] Część ułamkowa sekundy w CalendarInterval powinna być uzupełniona przed analizowaniem.
- [SPARK-27485]Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
- [SPARK-28355][CORE][PYTHON] Użyj ustawień Spark dla progu, przy którym funkcja UDF jest kompresowana w trakcie emisji
Rozszerzona obsługa usługi Databricks Light 2.4
Zobacz Databricks Light 2.4 (EoS) i Databricks Light 2.4 Extended Support (EoS).
Databricks Runtime 7.4 (EoS)
Zobacz Databricks Runtime 7.4 (EoS).
30 kwietnia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-35227][BUILD] Aktualizowanie narzędzia rozpoznawania pakietów spark w usłudze SparkSubmit
- [SPARK-34245][CORE] Zapewnij, że Master usuwa egzekutory, które nie wysłały stanu zakończenia
- [SPARK-35045][SQL] Dodaj wewnętrzną opcję sterowania buforem wejściowym w univocity oraz konfigurację dla rozmiaru buforu wejściowego CSV.
24 marca 2021 r.
- [SPARK-34768][SQL] Uwzględnianie domyślnego rozmiaru buforu wejściowego w univocity
- [SPARK-34534] Napraw kolejność blockIds podczas pobierania bloków za pomocą polecenia FetchShuffleBlocks
9 marca 2021 r.
- Zaktualizowany sterownik systemu plików Blob dla usługi Azure Data Lake Storage jest teraz domyślnie włączony. Zapewnia ona wiele ulepszeń stabilności.
- [ES-67926][ui] Poprawić link href w wizualizacji DAG Spark
- [ES-65064] Przywróć schemat wyjściowy
SHOW DATABASES
- [SC-70522][sql] Użyj poprawnego dynamicznego klucza przycinania podczas budowy, gdy obecna jest wskazówka sprzężenia zakresu.
- [SC-35081] Wyłączanie sprawdzania nieaktualności dla plików tabeli delty w pamięci podręcznej dysku
- [SC-70640] Naprawa NPE, gdy odpowiedź EventGridClient nie ma obiektu
- [SC-70220][sql] Nie generuj wskazówek dotyczących liczby partycji shuffle, gdy AOS jest włączony
24 lutego 2021 r.
- Uaktualniono łącznik Spark BigQuery do wersji 0.18, który wprowadza różne poprawki błędów i obsługę iteratorów Arrow i Avro.
- Rozwiązano problem z poprawnością, który powodował, że Spark zwracał nieprawidłowe wyniki, gdy precyzja dziesiętna i skala pliku Parquet różniły się od schematu Sparka.
- Rozwiązano problem z błędem odczytu w tabelach programu Microsoft SQL Server, które zawierają typy danych przestrzennych, dodając obsługę typów geometrycznych i geograficznych JDBC dla usługi Spark SQL.
- Wprowadzono nową konfigurację
spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Ta konfiguracja steruje wbudowaną inicjacją programu Hive. Po ustawieniu wartości true usługa Azure Databricks ponownie ładuje wszystkie funkcje ze wszystkich baz danych użytkowników doFunctionRegistry
. Jest to domyślne zachowanie w magazynie metadanych Hive. Po ustawieniu wartości false usługa Azure Databricks wyłącza ten proces optymalizacji. - [SPARK-34212] Rozwiązano problemy związane z odczytywaniem danych dziesiętnych z plików Parquet.
- [SPARK-33579][Interfejs użytkownika] Napraw pustą stronę executora przez serwer proxy.
- [SPARK-20044][Interfejs użytkownika] Obsługa interfejsu użytkownika platformy Spark za odwróconym serwerem proxy front-end przy użyciu prefiksu ścieżki.
- [SPARK-33277][PYSPARK][SQL] Użyj elementu ContextAwareIterator, aby przestać konsumować po zakończeniu zadania.
4 lutego 2021 r.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
SELECT * FROM table LIMIT nrows
. Regresja była doświadczana przez użytkowników uruchamiających zapytania za pośrednictwem ODBC/JDBC z włączoną serializacją Arrow. - Naprawiono regresję, która spowodowała niepowodzenie uruchamiania programu DBFS FUSE, gdy konfiguracje zmiennych środowiskowych klastra zawierają nieprawidłową składnię powłoki bash.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
20 stycznia 2021 r.
- Naprawiono regresję w wydaniu konserwacyjnym z 12 stycznia 2021 r., która może prowadzić do niepoprawnego wyjątku AnalysisException, informującego, że kolumna jest niejednoznaczna w przypadku sprzężenia własnego. Ta regresja występuje, gdy użytkownik wykonuje operację łączenia ramki danych z jej pochodną ramką danych (tzw. samosprzężenie) przy następujących warunkach:
- Te dwa DataFrame'y mają wspólne kolumny, ale wynik sprzężenia samodzielnego nie ma wspólnych kolumn. Na przykład
df.join(df.select($"col" as "new_col"), cond)
- Pochodna ramka danych wyklucza niektóre kolumny za pośrednictwem opcji select, groupBy lub okna.
- Warunek sprzężenia lub następująca transformacja po dołączeniu ramki danych odwołuje się do niezależnych kolumn. Na przykład
df.join(df.drop("a"), df("a") === 1)
- Te dwa DataFrame'y mają wspólne kolumny, ale wynik sprzężenia samodzielnego nie ma wspólnych kolumn. Na przykład
- Naprawiono regresję w wydaniu konserwacyjnym z 12 stycznia 2021 r., która może prowadzić do niepoprawnego wyjątku AnalysisException, informującego, że kolumna jest niejednoznaczna w przypadku sprzężenia własnego. Ta regresja występuje, gdy użytkownik wykonuje operację łączenia ramki danych z jej pochodną ramką danych (tzw. samosprzężenie) przy następujących warunkach:
12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-33593][SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-33677][SQL] Pomiń regułę LikeSimplification, jeśli wzorzec zawiera jakikolwiek element escapeChar
- [SPARK-33071][SPARK-33536][SQL] Unikaj zmieniania dataset_id elementu LogicalPlan w join(), aby nie zakłócić działania DetectAmbiguousSelfJoin
8 grudnia 2020 r.
- [SPARK-33587][CORE] Zakończ proces wykonawczy przy zagnieżdżonych błędach krytycznych
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
- [SPARK-33316][SQL] Obsługa schematu avro dopuszczanego do wartości null dla schematu katalizatora bez wartości null w zapisie Avro
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
-
[SPARK-33404][SQL][3.0] Poprawianie nieprawidłowych wyników w wyrażeniu
date_trunc
- [SPARK-33339][PYTHON] Aplikacja Pyspark zawiesza się z powodu błędu, który nie jest związany z wyjątkiem.
- [SPARK-33183][SQL][POPRAWKA] Napraw regułę optymalizatora EliminujSorty i dodaj regułę fizyczną, aby usunąć nadmiarowe sortowanie
- [SPARK-33371][PYTHON][3.0] Aktualizacja setup.py i testy dla języka Python 3.9
- [SPARK-33391][SQL] element_at z CreateArray nie respektuje indeksu opartego na jednym.
- [SPARK-33306][SQL]Strefa czasowa jest wymagana, gdy rzutuje się datę na ciąg znaków.
- [SPARK-33260][SQL] Napraw nieprawidłowe wyniki z modułu SortExec, gdy sortOrder jest Stream
- [SPARK-33272][SQL] przycinanie mapowania atrybutów w ramach QueryPlan.transformUpWithNewOutput
-
[SPARK-33404][SQL][3.0] Poprawianie nieprawidłowych wyników w wyrażeniu
Databricks Runtime 7.2 (EoS)
Zobacz Databricks Runtime 7.2 (EoS).
- 4 lutego 2021 r.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
SELECT * FROM table LIMIT nrows
. Regresja wystąpiła u użytkowników uruchamiających zapytania przez ODBC/JDBC z włączoną serializacją Arrow. - Naprawiono regresję, która powodowała, że DBFS FUSE nie uruchamiał się, gdy konfiguracje zmiennych środowiskowych klastra zawierały nieprawidłową składnię Bash.
- Naprawiono regresję uniemożliwiającą przyrostowe wykonywanie zapytania, które ustawia limit globalny, taki jak
- 20 stycznia 2021 r.
- Naprawiono regresję w wydaniu konserwacji z 12 stycznia 2021 r., która może spowodować niepoprawny wyjątek AnalysisException i wskazywać, że kolumna jest niejednoznaczna w zapytaniu typu self join. Ta regresja występuje, gdy użytkownik łączy ramkę danych z jej pochodną ramką danych (tzw. samołączenie) z następującymi warunkami:
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe łączenia wewnętrznego nie mają wspólnych kolumn. Na przykład
df.join(df.select($"col" as "new_col"), cond)
- Pochodna ramka danych wyklucza niektóre kolumny za pośrednictwem opcji select, groupBy lub okna.
- Warunek sprzężenia lub następująca transformacja po połączeniu Dataframe odnosi się do kolumn, które nie są wspólne. Na przykład
df.join(df.drop("a"), df("a") === 1)
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe łączenia wewnętrznego nie mają wspólnych kolumn. Na przykład
- Naprawiono regresję w wydaniu konserwacji z 12 stycznia 2021 r., która może spowodować niepoprawny wyjątek AnalysisException i wskazywać, że kolumna jest niejednoznaczna w zapytaniu typu self join. Ta regresja występuje, gdy użytkownik łączy ramkę danych z jej pochodną ramką danych (tzw. samołączenie) z następującymi warunkami:
- 12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-33593][SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-33677][SQL] Pomiń regułę LikeSimplification, jeśli wzorzec zawiera jakikolwiek element escapeChar
- [SPARK-33071][SPARK-33536][SQL] Unikaj zmieniania dataset_id elementu LogicalPlan w join(), aby nie zakłócać działania funkcji DetectAmbiguousSelfJoin
- 8 grudnia 2020 r.
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
-
[SPARK-33404][SQL] Naprawianie nieprawidłowych wyników w wyrażeniu
date_trunc
- [SPARK-33339][PYTHON] Aplikacja Pyspark zawiesza się z powodu błędu niebędącego wyjątkiem
- [SPARK-33183][SQL] Napraw regułę optymalizatora EliminujSorty i dodaj regułę fizyczną, aby usunąć nadmiarowe sortowanie
- [SPARK-33391][SQL] element_at z elementem CreateArray nie uwzględnia jednego indeksu opartego.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
- [SPARK-33306][SQL] Strefa czasowa jest wymagana podczas konwersji daty do ciągu znaków.
- [SPARK-33260][SQL] Napraw nieprawidłowe wyniki w SortExec, gdy sortOrder to Stream
- 3 listopada 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do UserGroupInformation.getCurrentUser()
- Naprawiono błąd nieskończonej pętli w czytniku Avro podczas odczytywania bajtów MAGIC.
- wtorek, 13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-32999][SQL] Użyj metody Utils.getSimpleName, aby uniknąć problemów z nieprawidłowymi nazwami klas w strukturze TreeNode
- Naprawiono wyświetlanie katalogów na montowaniu FUSE, które zawierają nazwy plików z nieprawidłowymi znakami XML.
- Instalacja FUSE nie używa już funkcji ListMultipartUploads
- 29 września 2020 r.
- [SPARK-28863][SQL][WARMFIX] Wprowadzenie AlreadyOptimized, aby zapobiec ponownej analizy V1FallbackWriters
- [SPARK-32635][SQL] Naprawianie propagacji składanej
- Dodaj nową konfigurację
spark.shuffle.io.decoder.consolidateThreshold
. Ustaw wartość konfiguracji naLong.MAX_VALUE
, aby pominąć konsolidację netty FrameBuffers, co uniemożliwiajava.lang.IndexOutOfBoundsException
w przypadkach brzegowych.
- 24 września 2020 r.
- [SPARK-32764][SQL] -0.0 powinna być równa 0,0
- [SPARK-32753][SQL] Kopiuj tagi wyłącznie do węzłów bez tagów przy przekształcaniu planów
- [SPARK-32659][SQL] Naprawiono problem z danymi dotyczącymi dynamicznego oczyszczania partycji na typie nieatomowym
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
Databricks Runtime 7.1 (EoS)
Zobacz Databricks Runtime 7.1 (EoS).
- 4 lutego 2021 r.
- Naprawiono regresję, która powodowała niepowodzenie uruchamiania DBFS FUSE, gdy konfiguracje zmiennych środowiskowych klastra zawierały nieprawidłową składnię Bash.
- 20 stycznia 2021 r.
- Naprawiono regresję w wydaniu konserwacyjnym z 12 stycznia 2021 r., która może spowodować nieprawidłowe wystąpienie wyjątku AnalysisException i wskazać, że kolumna jest niejednoznaczna w samodzielnym sprzężeniu. Ta regresja występuje, gdy użytkownik łączy ramkę danych z jej pochodną ramką danych (tzw. samołączenie) przy następujących warunkach:
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe sprzężenia wewnętrznego nie mają wspólnych kolumn. Na przykład
df.join(df.select($"col" as "new_col"), cond)
- W pochodnej ramce danych niektóre kolumny są wykluczane za pomocą metod select, groupBy lub okna.
- Warunek sprzężenia lub następująca transformacja po połączeniu DataFrame odwołuje się do kolumn innych niż wspólne. Na przykład
df.join(df.drop("a"), df("a") === 1)
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe sprzężenia wewnętrznego nie mają wspólnych kolumn. Na przykład
- Naprawiono regresję w wydaniu konserwacyjnym z 12 stycznia 2021 r., która może spowodować nieprawidłowe wystąpienie wyjątku AnalysisException i wskazać, że kolumna jest niejednoznaczna w samodzielnym sprzężeniu. Ta regresja występuje, gdy użytkownik łączy ramkę danych z jej pochodną ramką danych (tzw. samołączenie) przy następujących warunkach:
- 12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-33593][SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-33677][SQL] Pomiń regułę LikeSimplification, jeśli wzorzec zawiera jakikolwiek element escapeChar
- [SPARK-33071][SPARK-33536][SQL] Unikaj zmieniania dataset_id elementu LogicalPlan w łączeniu, aby nie przerywać DetectAmbiguousSelfJoin
- 8 grudnia 2020 r.
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
- Zadania platformy Spark uruchamiane przy użyciu usługi Databricks Connect mogą zawiesić się na czas nieokreślony z
Executor$TaskRunner.$anonfun$copySessionState
w śledzeniu stosu funkcji wykonawczej. - Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
-
[SPARK-33404][SQL][3.0] Poprawianie nieprawidłowych wyników w wyrażeniu
date_trunc
- [SPARK-33339][PYTHON] Aplikacja Pyspark zawiesza się z powodu błędu nie dotyczącego wyjątku
- [SPARK-33183][SQL][POPRAWKA] Napraw regułę optymalizatora EliminujSorty i dodaj regułę fizyczną, aby usunąć nadmiarowe sortowanie
- [SPARK-33371][PYTHON][3.0] Aktualizacja setup.py i testy dla języka Python 3.9
- [SPARK-33391][SQL] element_at z funkcją CreateArray nie respektuje indeksowania opartego na jedynce.
- [SPARK-33306][SQL]Strefa czasowa jest wymagana przy rzutowaniu daty na ciąg
-
[SPARK-33404][SQL][3.0] Poprawianie nieprawidłowych wyników w wyrażeniu
- 3 listopada 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do UserGroupInformation.getCurrentUser()
- Naprawiono błąd nieskończonej pętli w czytniku Avro przy odczycie bajtów MAGIC.
- wtorek, 13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-32999][SQL] Użyj polecenia Utils.getSimpleName, aby uniknąć napotkania źle sformułowanej nazwy klasy w kontekście węzła TreeNode.
- Naprawiono wyświetlanie katalogów w montowaniu FUSE, które zawierają nazwy plików z nieprawidłowymi znakami XML
- Instalacja FUSE nie używa już funkcji ListMultipartUploads
- 29 września 2020 r.
- [SPARK-28863][SQL][WARMFIX] Wprowadzenie AlreadyOptimized, aby zapobiec ponownej analizie V1FallbackWriters
- [SPARK-32635][SQL] Naprawianie propagacji składanej
- Dodaj nową konfigurację
spark.shuffle.io.decoder.consolidateThreshold
. Ustaw wartość konfiguracji naLong.MAX_VALUE
, aby pominąć konsolidację netty FrameBuffers, co uniemożliwia w nietypowych przypadkachjava.lang.IndexOutOfBoundsException
.
- 24 września 2020 r.
- [SPARK-32764][SQL] -0.0 powinna być równa 0,0
- [SPARK-32753][SQL] Kopiowanie tagów tylko do węzła bez tagów podczas przekształcania planów
- [SPARK-32659][SQL] Naprawiono problem z danymi związany z dynamicznym oczyszczaniem partycji po wstawieniu w kontekście typów nieatomowych
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
- 25 sierpnia 2020 r.
-
[SPARK-32159][SQL] Rozwiązywanie problemów z integracją między elementami
Aggregator[Array[_], _, _]
iUnresolvedMapObjects
-
[SPARK-32559][SQL] Napraw logikę przycinania w elemecie
UTF8String.toInt/toLong
, która nie obsługiwała poprawnie znaków innych niż ASCII -
[SPARK-32543][R] Usuń
arrow::as_tibble
użycie w SparkR - [SPARK-32091][CORE] Ignoruj błąd przekroczenia limitu czasu podczas usuwania bloków na utraconym wykonawcy
- Rozwiązano problem dotyczący łącznika usługi Azure Synapse z poświadczeniami MSI
- Naprawiono niejednoznaczne rozpoznawanie atrybutów w samodzielnym scalaniu
-
[SPARK-32159][SQL] Rozwiązywanie problemów z integracją między elementami
- 18 sierpnia 2020 r.
- [SPARK-32594][SQL] Naprawianie serializacji dat wstawionych do tabel programu Hive
- [SPARK-32237][SQL] Rozwiąż wskazówkę w CTE
- [SPARK-32431][SQL] Sprawdzenie zduplikowanych kolumn zagnieżdżonych podczas odczytu z wbudowanych źródeł danych
- [SPARK-32467][Interfejs użytkownika] Unikaj dwukrotnego kodowania adresu URL przekierowania https
- Naprawiono warunek wyścigu w łączniku AQS podczas korzystania z Trigger.Once.
- 11 sierpnia 2020 r.
- [SPARK-32280][SPARK-32372][SQL] ResolveReferences.dedupRight powinien przepisać tylko atrybuty węzłów nadrzędnych planu konfliktu
- [SPARK-32234][SQL] Polecenia spark SQL kończą się niepowodzeniem podczas wybierania tabel ORC
- 3 sierpnia 2020 r.
- Teraz możesz użyć funkcji przekształcania LDA w klastrze z obsługą passthrough.
Databricks Runtime 7.0 (EoS)
Zobacz Databricks Runtime 7.0 (EoS).
- 4 lutego 2021 r.
- Naprawiono błąd regresji, który powodował niepowodzenie uruchomienia programu DBFS FUSE, gdy konfiguracje zmiennych środowiskowych klastra zawierały nieprawidłową składnię Bash.
- 20 stycznia 2021 r.
- Naprawiono problem regresji w wydaniu konserwacyjnym z 12 stycznia 2021 r., który może spowodować niepoprawny wyjątek AnalysisException, powodując komunikat, że kolumna jest niejednoznaczna w sprzężeniu zwrotnym. Ta regresja występuje, gdy użytkownik łączy ramkę danych z jej pochodną ramką danych (tzw. samopołączenie) z następującymi warunkami:
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe sprzężenia samodzielnego nie mają wspólnych kolumn. Na przykład
df.join(df.select($"col" as "new_col"), cond)
- Pochodna ramka danych wyklucza niektóre kolumny za pomocą select, groupBy lub window.
- Warunek łączenia lub następująca transformacja po połączeniu ramki danych odnosi się do kolumn, które nie są wspólne. Na przykład
df.join(df.drop("a"), df("a") === 1)
- Te dwie ramki danych mają wspólne kolumny, ale dane wyjściowe sprzężenia samodzielnego nie mają wspólnych kolumn. Na przykład
- Naprawiono problem regresji w wydaniu konserwacyjnym z 12 stycznia 2021 r., który może spowodować niepoprawny wyjątek AnalysisException, powodując komunikat, że kolumna jest niejednoznaczna w sprzężeniu zwrotnym. Ta regresja występuje, gdy użytkownik łączy ramkę danych z jej pochodną ramką danych (tzw. samopołączenie) z następującymi warunkami:
- 12 stycznia 2021 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-33593][SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-33677][SQL] Pomiń regułę LikeSimplification, jeśli wzorzec zawiera jakikolwiek element escapeChar
- [SPARK-33071][SPARK-33536][SQL] Unikaj zmieniania dataset_id elementu LogicalPlan w łączeniu(), aby nie zakłócać działania mechanizmu DetectAmbiguousSelfJoin
- 8 grudnia 2020 r.
- [SPARK-27421][SQL] Poprawiono filtr dla kolumny int i klasy wartości java.lang.String podczas oczyszczania kolumny partycji
-
[SPARK-33404][SQL] Naprawianie nieprawidłowych wyników w wyrażeniu
date_trunc
- [SPARK-33339][PYTHON] Aplikacja PySpark zawiesza się z powodu błędu niebędącego wyjątkiem
- [SPARK-33183][SQL] Napraw regułę optymalizatora EliminujSorty i dodaj regułę fizyczną, aby usunąć nadmiarowe sortowanie
- [SPARK-33391][SQL] element_at z elementem CreateArray nie uwzględnia jednego indeksu opartego.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 1 grudnia 2020 r.
- [SPARK-33306][SQL]Strefa czasowa jest wymagana, gdy konwertuje się datę na ciąg znaków
- 3 listopada 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do userGroupInformation.getCurrentUser()
- Naprawiono błąd nieskończonej pętli czytnika Avro podczas odczytywania bajtów MAGIC.
- 13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-32999][SQL] Użyj funkcji Utils.getSimpleName, aby uniknąć błędu związanego z niepoprawną nazwą klasy w kontekście TreeNode.
- Naprawiono wyszczególnianie katalogów w montowaniu FUSE, które zawierają nazwy plików z niewłaściwymi znakami XML.
- Instalacja FUSE nie używa już funkcji ListMultipartUploads
- 29 września 2020 r.
- [SPARK-28863][SQL][WARMFIX] Wprowadzenie AlreadyOptimized, aby zapobiec ponownej analizie V1FallbackWriters
- [SPARK-32635][SQL] Naprawianie propagacji składanej
- Dodaj nową konfigurację
spark.shuffle.io.decoder.consolidateThreshold
. Ustaw wartość konfiguracji naLong.MAX_VALUE
, aby pominąć konsolidację netty FrameBuffers, co uniemożliwiajava.lang.IndexOutOfBoundsException
w skrajnych przypadkach.
- 24 września 2020 r.
- [SPARK-32764][SQL] -0.0 powinna być równa 0,0
- [SPARK-32753][SQL] Tagi kopiowane są tylko do węzłów bez tagów podczas przekształcania planów
- [SPARK-32659][SQL] Naprawiono problem z danymi związanymi z wstawionym dynamicznym przycinaniem partycji na typie nie-atomowym.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
- 25 sierpnia 2020 r.
-
[SPARK-32159][SQL] Rozwiązywanie problemów z integracją między elementami
Aggregator[Array[_], _, _]
iUnresolvedMapObjects
-
[SPARK-32559][SQL] Napraw logikę przycinania w elemecie
UTF8String.toInt/toLong
, która nie obsługiwała poprawnie znaków innych niż ASCII -
[SPARK-32543][R] Usuń użycie
arrow::as_tibble
w SparkR - [SPARK-32091][CORE] Zignoruj błąd przekroczenia limitu czasu podczas usuwania bloków na utraconym wykonawcy
- Rozwiązano problem dotyczący łącznika usługi Azure Synapse przy użyciu poświadczeń MSI
- Naprawiono niejednoznaczne rozpoznawanie atrybutów w samodzielnym scalaniu
-
[SPARK-32159][SQL] Rozwiązywanie problemów z integracją między elementami
- 18 sierpnia 2020 r.
- [SPARK-32594][SQL] Naprawianie serializacji dat wstawionych do tabel programu Hive
- [SPARK-32237][SQL] Rozwiązywanie wskazówki w CTE
- [SPARK-32431][SQL] Sprawdzanie zduplikowanych kolumn zagnieżdżonych w odczytach z wbudowanych źródeł danych
- [SPARK-32467][Interfejs użytkownika] Unikaj dwukrotnego kodowania adresu URL przekierowania https
- Naprawiono warunek wyścigu w łączniku AQS podczas korzystania z opcji Trigger.Once.
- 11 sierpnia 2020 r.
- [SPARK-32280][SPARK-32372][SQL] ResolveReferences.dedupRight powinien przepisać tylko atrybuty dotyczące węzłów nadrzędnych w ramach planu konfliktu
- [SPARK-32234][SQL] Polecenia spark SQL kończą się niepowodzeniem podczas wybierania tabel ORC
- Teraz możesz użyć funkcji transformacji LDA w klastrze z włączoną funkcją przekazywania.
Databricks Runtime 6.6 (EoS)
Zobacz Databricks Runtime 6.6 (EoS).
- 1 grudnia 2020 r.
- [SPARK-33260][SQL] Napraw nieprawidłowe wyniki SortExec, gdy sortOrder to Stream
- [SPARK-32635][SQL] Naprawa propagacji składanej
- 3 listopada 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_252 do 1.8.0_265.
- Napraw blokowanie ABFS i WASB w odniesieniu do UserGroupInformation.getCurrentUser()
- Naprawiono błąd nieskończonej pętli czytnika Avro podczas odczytywania bajtów MAGIC.
- wtorek, 13 października 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- [SPARK-32999][SQL][2.4] Użyj Utils.getSimpleName, aby uniknąć napotkania źle sformułowanej nazwy klasy w TreeNode
- Naprawiono listowanie katalogów w montażu FUSE, które zawierają nazwy plików z nieprawidłowymi znakami XML.
- System montowania FUSE nie używa już ListMultipartUploads
- 24 września 2020 r.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000. - Zaktualizuj zestaw SDK usługi Azure Storage do wersji 8.6.4 i włącz utrzymanie aktywności TCP dla połączeń wykonanych przez sterownik WASB.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
- 25 sierpnia 2020 r.
- Naprawiono niejednoznaczne rozpoznawanie atrybutów w samodzielnym scalaniu
- 18 sierpnia 2020 r.
- [SPARK-32431][SQL] Sprawdzanie zduplikowanych kolumn zagnieżdżonych w odczytach z wbudowanych źródeł danych
- Naprawiono warunek wyścigu w łączniku AQS podczas korzystania z funkcji "Trigger.Once".
- 11 sierpnia 2020 r.
- [SPARK-28676][CORE] Unikaj nadmiernego rejestrowania z modułu ContextCleaner
- [SPARK-31967][Interfejs użytkownika] Przejście na wersję vis.js 4.21.0, by naprawić regresję w czasie ładowania interfejsu użytkownika zadań
- 3 sierpnia 2020 r.
- Teraz możesz użyć funkcji przekształcania LDA w klastrze z włączoną obsługą przekazywania.
- Aktualizacje zabezpieczeń systemu operacyjnego.
Databricks Runtime 6.5 (EoS)
Zobacz Databricks Runtime 6.5 (EoS).
- 24 września 2020 r.
- Naprawiono wcześniejsze ograniczenie polegające na tym, że przekazywanie w klastrze standardowym nadal ograniczało implementację systemu plików używanego przez użytkownika. Teraz użytkownicy będą mogli uzyskiwać dostęp do lokalnych systemów plików bez ograniczeń.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 8 września 2020 r.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
maxbinlength
. Ten parametr służy do kontrolowania długości kolumn BinaryType i jest tłumaczony jakoVARBINARY(maxbinlength)
. Można go ustawić przy użyciu metody.option("maxbinlength", n)
, gdzie 0 < n <= 8000. - Zaktualizuj zestaw SDK usługi Azure Storage do wersji 8.6.4 i włącz utrzymywanie aktywności TCP dla połączeń realizowanych przez sterownik WASB.
- Utworzono nowy parametr dla usługi Azure Synapse Analytics,
- 25 sierpnia 2020 r.
- Naprawiono niejednoznaczne rozpoznawanie atrybutów w samodzielnym scalaniu
- 18 sierpnia 2020 r.
- [SPARK-32431][SQL] Sprawdzanie zduplikowanych kolumn zagnieżdżonych w odczytach z wbudowanych źródeł danych
- Naprawiono warunek wyścigu w łączniku AQS podczas korzystania z elementu Trigger.Once.
- 11 sierpnia 2020 r.
- [SPARK-28676][CORE] Unikaj nadmiernego rejestrowania w ContextCleaner
- 3 sierpnia 2020 r.
- Teraz możesz użyć funkcji transformacji LDA w klastrze z obsługą przekazywania.
- Aktualizacje zabezpieczeń systemu operacyjnego.
- 7 lipca 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_242 do 1.8.0_252.
- 21 kwietnia 2020 r.
- [SPARK-31312][SQL] Instancja klasy Cache dla wystąpienia funkcji UDF w HiveFunctionWrapper
Databricks Runtime 6.3 (EoS)
Zobacz Databricks Runtime 6.3 (EoS).
7 lipca 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_232 do 1.8.0_252.
21 kwietnia 2020 r.
- [SPARK-31312][SQL] Wystąpienie klasy pamięci podręcznej dla wystąpienia funkcji zdefiniowanej przez użytkownika w programie HiveFunctionWrapper
7 kwietnia 2020 r.
- Aby rozwiązać problem z biblioteką pandas udf nie działającą z wersją PyArrow 0.15.0 i nowszymi, dodaliśmy zmienną środowiskową (
ARROW_PRE_0_15_IPC_FORMAT=1
), aby włączyć obsługę tych wersji PyArrow. Zapoznaj się z instrukcjami w temacie [SPARK-29367].
- Aby rozwiązać problem z biblioteką pandas udf nie działającą z wersją PyArrow 0.15.0 i nowszymi, dodaliśmy zmienną środowiskową (
10 marzec 2020 r.
- Łącznik Snowflake (
spark-snowflake_2.11
) dołączony do środowiska Databricks Runtime został zaktualizowany do wersji 2.5.9.snowflake-jdbc
program jest aktualizowany do wersji 3.12.0.
- Łącznik Snowflake (
18 lutego 2020 r.
- Przekazywanie poświadczeń w ADLS ma spadek wydajności z powodu nieprawidłowej obsługi lokalnych zasobów wątków, gdy włączone jest wstępne pobieranie przez klienta ADLS. Ta wersja wyłącza prefetching ADLS, gdy przekazywanie poświadczeń jest włączone, do momentu wdrożenia właściwej poprawki.
11 lutego 2020 r.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 powinien zgłaszać wyjątek
- [SPARK-30447][SQL] Kwestia nullowalności w propagacji stałej
- [SPARK-28152][SQL] Dodawanie starszego konfiktu dla starego mapowania liczb MsSqlServerDialect
- Domyślna lista funkcji nadpisywania została ustawiona, aby modele ML rozszerzające MLWriter mogły wywołać tę funkcję.
Databricks Runtime 6.2 (EoS)
Zobacz Databricks Runtime 6.2 (EoS).
21 kwietnia 2020 r.
- [SPARK-31312][SQL] Zapisywanie w pamięci podręcznej instancji klasy Cache dla instancji funkcji zdefiniowanej przez użytkownika w HiveFunctionWrapper.
7 kwietnia 2020 r.
- Aby rozwiązać problem z niedziałającą funkcją pandas udf w przypadku użycia PyArrow w wersji 0.15.0 lub wyższej, dodaliśmy zmienną środowiskową (
ARROW_PRE_0_15_IPC_FORMAT=1
), aby zapewnić obsługę tych wersji PyArrow. Zapoznaj się z instrukcjami w temacie [SPARK-29367].
- Aby rozwiązać problem z niedziałającą funkcją pandas udf w przypadku użycia PyArrow w wersji 0.15.0 lub wyższej, dodaliśmy zmienną środowiskową (
25 marca 2020 r.
- Dane wyjściowe zadania, takie jak dane wyjściowe logów emitowane do stdout, podlegają limitowi rozmiaru 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu stdout z drivera, ustawiając konfigurację
spark.databricks.driver.disableScalaOutput
Spark natrue
. Domyślnie wartość flagi tofalse
. Flaga steruje danymi wyjściowymi komórek dla zadań JAR języka Scala i notesów Scala. Jeśli flaga jest włączona, platforma Spark nie zwraca wyników wykonywania zadań do klienta. Flaga nie ma wpływu na dane zapisywane w plikach dziennika klastra. Ustawienie tej flagi jest zalecane tylko w przypadku klastrów automatycznych dla zadań JAR, ponieważ spowoduje to wyłączenie wyników notatnika.
- Dane wyjściowe zadania, takie jak dane wyjściowe logów emitowane do stdout, podlegają limitowi rozmiaru 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu stdout z drivera, ustawiając konfigurację
10 marzec 2020 r.
- Łącznik Snowflake (
spark-snowflake_2.11
) dołączony do środowiska Databricks Runtime został zaktualizowany do wersji 2.5.9.snowflake-jdbc
program jest aktualizowany do wersji 3.12.0.
- Łącznik Snowflake (
18 lutego 2020 r.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 powinien zgłaszać wyjątek
- Przekazywanie poświadczeń z ADLS doświadcza spadku wydajności z powodu nieprawidłowej obsługi lokalnej zmiennej wątku, gdy włączone jest wstępnie ładowanie klienta ADLS. Ta wersja wyłącza wstępne pobieranie usługi ADLS, gdy włączone jest przekazywanie poświadczeń, do czasu uzyskania odpowiedniego rozwiązania.
28 stycznia 2020 r.
- Funkcja nadpisywania składników modeli uczenia maszynowego znajdujących się na liście dozwolonych dla klastrów z włączoną opcją przekazywania poświadczeń, aby zapisywanie modelu mogło używać trybu nadpisywania w tych klastrach.
- [SPARK-30447][SQL] Problem z nullowalnością w propagacji stałej.
- [SPARK-28152][SQL] Dodaj dziedziczną konfigurację do starego mapowania liczbowego w MsSqlServerDialect.
14 stycznia 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_222 do 1.8.0_232.
10 grudnia 2019 r.
- [SPARK-29904][SQL] Analizowanie sygnatur czasowych z dokładnością do mikrosekund przez źródła danych JSON/CSV.
Databricks Runtime 6.1 (EoS)
Zobacz Databricks Runtime 6.1 (EoS).
7 kwietnia 2020 r.
- Aby rozwiązać problem z niedziałającą biblioteką pandas udf z PyArrow 0.15.0 lub nowszymi wersjami, dodaliśmy zmienną środowiskową (
ARROW_PRE_0_15_IPC_FORMAT=1
), aby włączyć obsługę tych wersji PyArrow. Zapoznaj się z instrukcjami w temacie [SPARK-29367].
- Aby rozwiązać problem z niedziałającą biblioteką pandas udf z PyArrow 0.15.0 lub nowszymi wersjami, dodaliśmy zmienną środowiskową (
25 marca 2020 r.
- Dane wyjściowe zadania, takie jak dane wyjściowe dziennika przesyłane do stdout, podlegają ograniczeniu rozmiaru do 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu wyjścia stdout ze sterownika przez ustawienie konfiguracji Spark na wartość
spark.databricks.driver.disableScalaOutput
true
. Domyślnie wartość flagi tofalse
. Flaga steruje danymi wyjściowymi komórek dla zadań JAR języka Scala i notesów Scala. Jeśli flaga jest włączona, platforma Spark nie zwraca wyników wykonywania zadań do klienta. Flaga nie ma wpływu na dane zapisywane w plikach dziennika klastra. Ustawienie tej flagi jest zalecane tylko w przypadku klastrów automatycznych w przypadku zadań JAR, ponieważ spowoduje to wyłączenie wyników notatnika.
- Dane wyjściowe zadania, takie jak dane wyjściowe dziennika przesyłane do stdout, podlegają ograniczeniu rozmiaru do 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu wyjścia stdout ze sterownika przez ustawienie konfiguracji Spark na wartość
10 marzec 2020 r.
- Łącznik Snowflake (
spark-snowflake_2.11
) dołączony do środowiska Databricks Runtime został zaktualizowany do wersji 2.5.9.snowflake-jdbc
program jest aktualizowany do wersji 3.12.0.
- Łącznik Snowflake (
18 lutego 2020 r.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 powinien zgłaszać wyjątek
- Przekazywanie poświadczeń z usługą ADLS powoduje spadek wydajności z powodu nieprawidłowej obsługi wątku lokalnego, kiedy włączone jest wstępne pobieranie danych przez klienta ADLS. Ta wersja wyłącza wstępne pobieranie ADLS, gdy przekazywanie poświadczeń jest włączone, do czasu zapewnienia odpowiedniej poprawki.
28 stycznia 2020 r.
- [SPARK-30447][SQL] Problem z nullowalnością w propagacji stałej.
- [SPARK-28152][SQL] Dodaj konfigurację zgodności dla starego mapowania numerycznego w MsSqlServerDialect.
14 stycznia 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_222 do 1.8.0_232.
7 listopada 2019 r.
- [SPARK-29743][SQL] próbka powinna ustawić właściwość needCopyResult na wartość true, jeśli właściwość needCopyResult jej elementu podrzędnego ma wartość true.
- Tajemnice, do których odwołują się właściwości konfiguracji platformy Spark i zmienne środowiskowe, w publicznej wersji próbnej. Zobacz Używanie wpisu tajnego we właściwości konfiguracji platformy Spark lub zmiennej środowiskowej.
5 listopada 2019 r.
- Usunięto usterkę w DBFS FUSE, aby obsługiwać punkty montowania mające
//
w jego ścieżce. - [SPARK-29081] Zastąp wywołania SerializationUtils.clone we właściwościach szybszą implementacją
- [SPARK-29244][CORE] Zapobieganie ponownemu zwolnieniu strony w BytesToBytesMap
- (6.1 ML) Biblioteka mkl w wersji 2019.4 została zainstalowana przypadkowo. Obniżyliśmy wersję mkl do 2019.3, aby dopasować ją do dystrybucji Anaconda 2019.03.
- Usunięto usterkę w DBFS FUSE, aby obsługiwać punkty montowania mające
Databricks Runtime 6.0 (EoS)
Zobacz Databricks Runtime 6.0 (EoS).
25 marca 2020 r.
- Dane wyjściowe zadania, takie jak dane wyjściowe dziennika emitowane do stdout, podlegają limitowi rozmiaru 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu elementu stdout ze sterownika, ustawiając konfigurację platformy
spark.databricks.driver.disableScalaOutput
Spark natrue
. Domyślnie wartość flagi tofalse
. Flaga steruje danymi wyjściowymi komórek dla zadań JAR języka Scala i notesów Scala. Jeśli flaga jest włączona, platforma Spark nie zwraca wyników wykonywania zadań do klienta. Flaga nie ma wpływu na dane zapisywane w plikach dziennika klastra. Ustawienie tej flagi jest zalecane tylko w przypadku klastrów automatycznych dla zadań JAR, ponieważ spowoduje to wyłączenie wyników notebooka.
- Dane wyjściowe zadania, takie jak dane wyjściowe dziennika emitowane do stdout, podlegają limitowi rozmiaru 20 MB. Jeśli łączny rozmiar danych wyjściowych jest większy, przebieg zostanie anulowany i oznaczony jako niepowodzenie. Aby uniknąć napotkania tego limitu, możesz zapobiec zwracaniu elementu stdout ze sterownika, ustawiając konfigurację platformy
18 lutego 2020 r.
- Przekazywanie poświadczeń przy użyciu usługi ADLS powoduje spadek wydajności z powodu niepoprawnej obsługi lokalnej wątku, gdy włączone jest wstępne pobieranie przez klienta ADLS. Ta wersja wyłącza wstępne pobieranie usługi ADLS, gdy przekazywanie poświadczeń jest włączone, do czasu, gdy znajdziemy odpowiednie rozwiązanie.
11 lutego 2020 r.
- [SPARK-24783][SQL] spark.sql.shuffle.partitions=0 powinien zgłaszać wyjątek
28 stycznia 2020 r.
- [SPARK-30447][SQL] Problem z brakiem wartości null propagacji stałej.
- [SPARK-28152][SQL] Dodaj konfigurację zgodności wstecznej dla starego mapowania liczb MsSqlServerDialect.
14 stycznia 2020 r.
- Uaktualniono wersję języka Java z wersji 1.8.0_222 do 1.8.0_232.
19 listopada 2019 r.
- [SPARK-29743] [SQL] przykład powinien ustawić właściwość needCopyResult na wartość true, jeśli element podrzędny needCopyResult ma wartość true
5 listopada 2019 r.
-
dbutils.tensorboard.start()
Teraz obsługuje program TensorBoard 2.0 (jeśli został zainstalowany ręcznie). - Poprawiono błąd w DBFS FUSE, aby obsługiwać punkty montowania mające
//
w swojej ścieżce. - [SPARK-29081]Zastąp wywołania funkcji SerializationUtils.clone we właściwościach szybszą implementacją
-
23 października 2019 r.
- [SPARK-29244][CORE] Zapobieganie ponownemu zwolnieniu zwolnionej strony w BytesToBytesMap
wtorek, 8 października 2019 r.
- Zmiany po stronie serwera umożliwiające ponowne nawiązywanie połączenia ze sterownikiem Simba Apache Spark ODBC i kontynuowanie po niepowodzeniu połączenia podczas pobierania wyników (wymaga sterownika Simba Apache Spark ODBC w wersji 2.6.10).
- Rozwiązano problem dotyczący używania polecenia
Optimize
w klastrach z włączonymi listami ACL dla tabel. - Rozwiązano problem polegający na tym, że
pyspark.ml
biblioteki zawodziły z powodu błędu wykonania funkcji Scala UDF na klastrach z włączonym ACL tabeli i przekazywaniem poświadczeń. - Dozwolone metody SerDe/SerDeUtil dla przekazywania poświadczeń.
- Naprawiono wyjątek NullPointerException podczas sprawdzania kodu błędu w kliencie WASB.
- Rozwiązano problem polegający na tym, że poświadczenia użytkownika nie były przekazywane do zadań utworzonych przez
dbutils.notebook.run()
.
Databricks Runtime 5.4 ML (EoS)
Zobacz Databricks Runtime 5.4 for ML (EoS).
- 18 czerwca 2019 r.
- Ulepszona obsługa aktywnych eksperymentów MLflow w integracji z Hyperopt
- Ulepszone komunikaty w funkcji Hyperopt
- Zaktualizowano pakiet
Marchkdown
z wersji 3.1 do 3.1.1
Databricks Runtime 5.4 (EoS)
Zobacz Databricks Runtime 5.4 (EoS).
- 19 listopada 2019 r.
- [SPARK-29743] [SQL] przykład powinien ustawić needCopyResult na true, jeśli jego podrzędny element ma needCopyResult ustawiony na true
- 8 października 2019 r.
- Zmiany po stronie serwera umożliwiające ponowne nawiązywanie połączenia ze sterownikiem Simba Apache Spark ODBC i kontynuowanie po niepowodzeniu połączenia podczas pobierania wyników (wymaga aktualizacji sterownika Simba Apache Spark ODBC do wersji 2.6.10).
- Naprawiono wyjątek NullPointerException podczas sprawdzania kodu błędu w kliencie WASB.
- 10 września 2019 r.
- Dodaj iterator bezpieczny dla wątków do BytesToBytesMap
- Usunięto usterkę wpływającą na niektóre zapytania agregacji globalnej.
- [SPARK-27330][SS] obsługa anulowania zadania w foreach writer
- [SPARK-28642]Ukryj poświadczenia w SHOW CREATE TABLE
- [SPARK-28699][SQL] Wyłącz używanie sortowania radix dla elementu ShuffleExchangeExec w przypadku operacji z ponownym partycjonowaniem.
- [SPARK-28699][CORE] Naprawiono przypadek graniczny dotyczący przerywania etapu nieokreślonego
- 27 sierpnia 2019 r.
- Rozwiązano problem dotyczący niektórych
transform
wyrażeń
- Rozwiązano problem dotyczący niektórych
- 13 sierpnia 2019 r.
- Źródło przesyłania strumieniowego Delta powinno sprawdzić protokół najnowszej tabeli.
- [SPARK-28489][SS]Naprawiono usterkę, przez którą KafkaOffsetRangeCalculator.getRanges może gubić przesunięcia.
- 30 lipca 2019 r.
- [SPARK-28015][SQL] Sprawdzanie parametru StringToDate() zużywa całe dane wejściowe dla formatów rrrr i rrrr-[m]m
- [SPARK-28308][CORE] Część podrzędna CalendarInterval powinna być dopełniona przed analizowaniem
- [SPARK-27485]Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
- 2 lipca 2019 r.
- Uaktualniono program snappy-java z wersji 1.1.7.1 do wersji 1.1.7.3.
- 18 czerwca 2019 r.
- Ulepszona obsługa aktywnych przebiegów MLflow w integracji z MLlib.
- Ulepszony komunikat usługi Databricks Advisor związany z używaniem buforowania dysku
- Usunięto usterkę wpływającą na używanie funkcji wyższej kolejności
- Usunięto usterkę wpływającą na zapytania metadanych funkcji Delta
Databricks Runtime 5.3 (EoS)
Zobacz Databricks Runtime 5.3 (EoS).
7 listopada 2019 r.
- [SPARK-29743][SQL] próbka powinna ustawić właściwość needCopyResult na wartość true, jeśli jej podrzędny element needCopyResult ma wartość true
wtorek, 8 października 2019 r.
- Zmiany po stronie serwera umożliwiające ponowne nawiązywanie połączenia ze sterownikiem Simba Apache Spark ODBC i kontynuowanie po niepowodzeniu połączenia podczas pobierania wyników (wymaga aktualizacji sterownika Simba Apache Spark ODBC do wersji 2.6.10).
- Naprawiono wyjątek NullPointerException podczas sprawdzania kodu błędu w kliencie WASB.
10 września 2019 r.
- Dodaj wątkowo bezpieczny iterator do BytesToBytesMap
- Usunięto usterkę wpływającą na niektóre zapytania agregacji globalnej.
- [SPARK-27330][SS] obsługa przerywania zadania w module zapisywania foreach
- [SPARK-28642]Ukryj poświadczenia w SHOW CREATE TABLE
- [SPARK-28699][SQL] Wyłącz używanie algorytmu radix sort dla operatora ShuffleExchangeExec w przypadku ponownego partycjonowania
- [SPARK-28699][CORE] Naprawiono specyficzny przypadek w przypadku przerywania etapu nieokreślonego
27 sierpnia 2019 r.
- Rozwiązano problem dotyczący niektórych
transform
wyrażeń
- Rozwiązano problem dotyczący niektórych
13 sierpnia 2019 r.
- Źródło przesyłania strumieniowego Delta powinno sprawdzić najnowszy protokół tabeli.
- [SPARK-28489][SS]Naprawiono błąd, przez który KafkaOffsetRangeCalculator.getRanges może pomijać przesunięcia
30 lipca 2019 r.
- [SPARK-28015][SQL] Sprawdzanie parametru StringToDate() zużywa całe dane wejściowe dla formatów rrrr i rrrr-[m]m
- [SPARK-28308][CORE] Część podrzędna CalendarInterval powinna być dopełniona przed analizowaniem
- [SPARK-27485]Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
18 czerwca 2019 r.
- Ulepszony komunikat usługi Databricks Advisor związany z używaniem buforowania dysku
- Usunięto usterkę wpływającą na używanie funkcji wyższej kolejności
- Usunięto usterkę wpływającą na zapytania metadanych funkcji Delta
28 maja 2019 r.
- Poprawiona stabilność Delty
- Tolerowanie operacji IOExceptions podczas odczytywania pliku usługi Delta LAST_CHECKPOINT
- Dodano funkcję odzyskiwania dla nieudanej instalacji biblioteki.
7 maja 2019 r.
- Port HADOOP-15778 (ABFS: Naprawianie ograniczania przepustowości po stronie klienta na potrzeby odczytu) do łącznika usługi Azure Data Lake Storage
- Przenieś HADOOP-16040 (ABFS: Poprawka błędu konfiguracji dla tolerateOobAppends) do konektora Azure Data Lake Storage.
- Usunięto usterkę wpływającą na ACL tabeli
- Naprawiono warunek wyścigu podczas ładowania pliku sumy kontrolnej dziennika delty
- Naprawiono logikę wykrywania konfliktów Delta, aby nie identyfikować operacji "wstaw + nadpisz" jako czystej operacji "dołączania".
- Upewnij się, że buforowanie dysku nie jest wyłączone, gdy ACL tabeli są włączone.
- [SPARK-27494][ss] Klucze/wartości null nie działają w źródle Kafka w wersji 2
- [SPARK-27446][r] Użyj istniejącej conf platformy Spark, jeśli jest dostępna.
- [SPARK-27454][spark-27454][ML][sql] Źródło danych obrazu platformy Spark kończy się niepowodzeniem w przypadku napotkania niektórych nielegalnych obrazów
- [SPARK-27160][sql] Naprawianie typu dziesiętnego podczas kompilowania filtrów orc
- [SPARK-27338][core] Naprawianie zakleszczenia między elementami UnsafeExternalSorter i TaskMemoryManager
Databricks Runtime 5.2 (EoS)
Zobacz Databricks Runtime 5.2 (EoS).
10 września 2019 r.
- Dodaj iterator bezpieczny dla wątków do BytesToBytesMap
- Usunięto usterkę wpływającą na niektóre zapytania agregacji globalnej.
- [SPARK-27330][SS] obsługa przerwania zadania w pisarzu foreach
- [SPARK-28642]Ukryj poświadczenia w SHOW CREATE TABLE
- [SPARK-28699][SQL] Wyłączyć używanie sortowania radix dla elementu ShuffleExchangeExec podczas ponownego partycjonowania
- [SPARK-28699][CORE] Naprawiono przypadek narożny w przypadku przerywania etapu nieokreślony
27 sierpnia 2019 r.
- Rozwiązano problem dotyczący niektórych
transform
wyrażeń
- Rozwiązano problem dotyczący niektórych
13 sierpnia 2019 r.
- Źródło przesyłania strumieniowego Delta powinno sprawdzić najnowszy protokół tabeli
- [SPARK-28489][SS]Naprawiono błąd, przez który metoda KafkaOffsetRangeCalculator.getRanges mogła pomijać przesunięcia.
30 lipca 2019 r.
- [SPARK-28015][SQL] Sprawdź, czy funkcja stringToDate() zużywa całe dane wejściowe dla formatów yyyy oraz yyyy-[m]m
- [SPARK-28308][CORE] Część podsekundowa CalendarInterval powinna być wyzerowana przed analizowaniem
- [SPARK-27485]Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
2 lipca 2019 r.
- Tolerowanie wyjątków IO podczas odczytywania pliku Delta LAST_CHECKPOINT
18 czerwca 2019 r.
- Ulepszony komunikat usługi Databricks Advisor związany z używaniem pamięci podręcznej dysku
- Usunięto usterkę wpływającą na używanie funkcji wyższej kolejności
- Usunięto usterkę wpływającą na zapytania metadanych funkcji Delta
28 maja 2019 r.
- Dodano odzyskiwanie do nieudanej instalacji biblioteki
7 maja 2019 r.
- Port HADOOP-15778 (ABFS: Poprawka ograniczania przepustowości po stronie klienta dla odczytu) do łącznika Azure Data Lake Storage
- Port HADOOP-16040 (ABFS: Poprawka dla ustawienia tolerateOobAppends) do łącznika Azure Data Lake Storage.
- Naprawiono warunek wyścigu podczas ładowania pliku sumy kontrolnej dziennika delty
- Naprawiono logikę wykrywania konfliktów Delta, aby nie identyfikować operacji "insert + overwrite" jako czystej operacji "dodawania"
- Upewnij się, że buforowanie dysku nie jest wyłączone, gdy listy kontroli dostępu danych tabeli są włączone.
- [SPARK-27494][ss] Klucze/wartości null nie działają w źródle Kafka wersja 2
- [SPARK-27454][spark-27454][ML][sql] Źródło danych obrazu Spark zawodzi w przypadku napotkania niektórych nielegalnych obrazów
- [SPARK-27160][sql] Naprawianie typu dziesiętnego podczas kompilowania filtrów orc
- [SPARK-27338][core] Naprawa zakleszczenia między komponentami UnsafeExternalSorter i TaskMemoryManager
26 marca 2019 r.
- Unikaj osadzania przesunięć zależnych od platformy dosłownie w całym etapie wygenerowanego kodu
- [SPARK-26665][CORE] Usunięto usterkę, która może spowodować zawieszenie elementu BlockTransferService.fetchBlockSync na zawsze.
- [SPARK-27134][SQL] funkcja array_distinct nie działa poprawnie z kolumnami zawierającymi tablicę tablic.
- [SPARK-24669][SQL] Wykonaj unieważnienie tabel w przypadku DROP DATABASE CASCADE.
- [SPARK-26572][SQL] naprawa zagregowanej oceny wyników generowania kodu.
- Usunięto usterkę wpływającą na niektóre pliki PythonUDFs.
26 lutego 2019 r.
- [SPARK-26864][SQL] Zapytanie może zwrócić niepoprawny wynik, gdy funkcja UDF w języku Python jest używana jako warunek sprzężenia typu left-semi.
- [SPARK-26887][PYTHON] Utwórz datetime.date bezpośrednio zamiast tworzyć dane pośrednie datetime64.
- Usunięto usterkę wpływającą na serwer JDBC/ODBC.
- Usunięto usterkę wpływającą na PySpark.
- Wyklucz ukryte pliki podczas kompilowania usługi HadoopRDD.
- Usunięto usterkę w funkcji Delta, która spowodowała problemy z serializacji.
12 lutego 2019 r.
- Rozwiązano problem dotyczący używania funkcji Delta z punktami instalacji usługi Azure ADLS.
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
spark.network.crypto.enabled
jest ustawiona wartość true).
30 stycznia 2019 r.
- Naprawiono błąd StackOverflowError podczas stosowania wskazówki dotyczącej asymetrycznego sprzężenia na buforowanej relacji.
- Naprawiono niespójność między buforowanym RDD w pamięci podręcznej SQL oraz planem fizycznym, co powoduje nieprawidłowy wynik.
-
[SPARK-26706][SQL] Poprawa
illegalNumericPrecedence
dla typu ByteType. - [SPARK-26709][SQL] OptimizeMetadataOnlyQuery nie obsługuje poprawnie pustych rekordów.
- Źródła danych CSV/JSON powinny unikać ścieżek globbingu podczas wnioskowania schematu.
- Naprawiono wnioskowanie ograniczeń dla operatora okna.
- Rozwiązano problem dotyczący instalacji bibliotek 'egg' w klastrach z włączoną listą kontroli dostępu (ACL) tabeli.
Databricks Runtime 5.1 (EoS)
Zobacz Databricks Runtime 5.1 (EoS).
13 sierpnia 2019 r.
- Źródło przesyłania strumieniowego delta powinno sprawdzić aktualny protokół tabeli.
- [SPARK-28489][SS]Naprawiono błąd, w wyniku którego KafkaOffsetRangeCalculator.getRanges może pomijać przesunięcia
30 lipca 2019 r.
- [SPARK-28015][SQL] Sprawdzanie parametru StringToDate() zużywa całe dane wejściowe dla formatów rrrr i rrrr-[m]m
- [SPARK-28308][CORE] Część podrzędna CalendarInterval powinna być dopełniona przed analizowaniem
- [SPARK-27485]Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
2 lipca 2019 r.
- Tolerowanie wyjątków IOExceptions podczas odczytywania pliku Delta LAST_CHECKPOINT
18 czerwca 2019 r.
- Usunięto usterkę wpływającą na używanie funkcji wyższej kolejności
- Usunięto usterkę wpływającą na zapytania metadanych funkcji Delta
28 maja 2019 r.
- Dodano funkcję odzyskiwania w przypadku nieudanej instalacji biblioteki.
7 maja 2019 r.
- Port HADOOP-15778 (ABFS: Naprawianie ograniczania przepustowości po stronie klienta na potrzeby odczytu) do łącznika usługi Azure Data Lake Storage
- Port HADOOP-16040 (ABFS: Poprawka błędu dotyczącego konfiguracji tolerateOobAppends) do łącznika Azure Data Lake Storage
- Naprawiono sytuację wyścigu podczas ładowania pliku sumy kontrolnej dziennika Delta.
- Naprawiono logikę wykrywania konfliktów Delta, aby nie identyfikować operacji "insert + overwrite" jako czystej operacji "dołączania".
- [SPARK-27494][ss] Klucze/wartości null nie działają w źródle Kafka wersja 2
- [SPARK-27454][spark-27454][ML][sql] Źródło danych obrazu platformy Spark zawodzi, gdy napotka nielegalne obrazy.
- [SPARK-27160][sql] Naprawianie typu dziesiętnego podczas kompilowania filtrów orc
- [SPARK-27338][core] Naprawianie zakleszczenia między elementami UnsafeExternalSorter i TaskMemoryManager
26 marca 2019 r.
- Unikaj dosłownego osadzania przesunięć zależnych od platformy w kodzie generowanym na cały etap
- Usunięto usterkę wpływającą na niektóre pliki PythonUDFs.
26 lutego 2019 r.
- [SPARK-26864][SQL] Zapytanie może zwrócić niepoprawny wynik, gdy funkcja Python UDF jest używana jako kondycja łączenia lewo-semi.
- Usunięto usterkę wpływającą na serwer JDBC/ODBC.
- Wyklucz ukryte pliki podczas kompilowania usługi HadoopRDD.
12 lutego 2019 r.
- Rozwiązano problem dotyczący instalowania bibliotek Egg w klastrach z włączonym ACL tabeli.
- Naprawiono niespójność pomiędzy buforowanym RDD pamięci podręcznej SQL a jego planem fizycznym, co prowadziło do nieprawidłowych wyników.
- [SPARK-26706][SQL] Poprawka dla typu Byte.
- [SPARK-26709][SQL] OptimizeMetadataOnlyQuery nie obsługuje poprawnie pustych rekordów.
- Naprawiono wnioskowanie ograniczeń dla operatora Window.
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
spark.network.crypto.enabled
jest ustawiona wartość true).
30 stycznia 2019 r.
- Rozwiązano problem, który może powodować, że
df.rdd.count()
w przypadku użycia UDT zwraca nieprawidłową odpowiedź w niektórych sytuacjach. - Rozwiązano problem dotyczący instalacji podszybi.
- [SPARK-26267]Ponawiaj próbę w przypadku wykrycia nieprawidłowych przesunięć z Kafka.
- Usunięto usterkę, która wpływa na wiele źródeł strumienia plików w zapytaniu przesyłanym strumieniowo.
- Naprawiono błąd StackOverflowError podczas umieszczania niesymetrycznej wskazówki sprzężenia w buforowanej relacji.
- Naprawiono niespójność między buforowanym RDD pamięci podręcznej SQL a jego planem fizycznym, co powoduje nieprawidłowy wynik.
- Rozwiązano problem, który może powodować, że
8 stycznia 2019 r.
- Rozwiązano problem powodujący błąd
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - [SPARK-26352]Zmiana kolejności sprzężenia nie powinna zmieniać kolejności atrybutów wyjściowych.
- [SPARK-26366]ZastąpExceptWithFilter powinien traktować wartość NULL jako fałsz.
- Poprawa stabilności Delta Lake.
- Usługa Delta Lake jest włączona.
- Rozwiązano problem powodujący niepowodzenie dostępu do Azure Data Lake Storage, gdy dla Azure Data Lake Storage Gen1 włączone jest Microsoft Entra ID Credential Passthrough.
- Pamięć podręczna IO usługi Databricks jest teraz włączona dla typów wystąpień procesu roboczego serii Ls dla wszystkich warstw cenowych.
- Rozwiązano problem powodujący błąd
Databricks Runtime 5.0 (EoS)
Zobacz Databricks Runtime 5.0 (EoS).
18 czerwca 2019 r.
- Usunięto usterkę wpływającą na używanie funkcji wyższej kolejności
7 maja 2019 r.
- Naprawiono sytuację rywalizacji podczas ładowania pliku kontrolnego dziennika Delta.
- Naprawiono logikę wykrywania konfliktów w Delta, aby nie identyfikować operacji "wstawianie + nadpisanie" jako czystej operacji "dodawania".
- [SPARK-27494][ss] Klucze/wartości null nie działają w źródle Kafka w wersji 2.
- [SPARK-27454][spark-27454][ML][sql] Źródło danych obrazu platformy Spark zawodzi w przypadku napotkania niektórych nieważnych obrazów
- [SPARK-27160][sql] Naprawianie typu dziesiętnego podczas kompilowania filtrów orc
- [SPARK-27338][core] Naprawianie zakleszczenia między elementami UnsafeExternalSorter i TaskMemoryManager
26 marca 2019 r.
- Unikaj dosłownego osadzania przesunięć zależnych od platformy w kodzie generowanym na cały etap.
- Usunięto usterkę wpływającą na niektóre pliki PythonUDFs.
12 marca 2019 r.
- [SPARK-26864][SQL] Zapytanie może zwrócić niepoprawny wynik, gdy funkcja udf języka Python jest używana jako warunek sprzężenia po lewej stronie.
26 lutego 2019 r.
- Usunięto usterkę wpływającą na serwer JDBC/ODBC.
- Wyklucz ukryte pliki podczas kompilowania usługi HadoopRDD.
12 lutego 2019 r.
- Naprawiono niespójność buforowanego rdD pamięci podręcznej SQL i planu fizycznego, co powoduje nieprawidłowy wynik.
-
[SPARK-26706][SQL] Poprawka
illegalNumericPrecedence
typu ByteType. - [SPARK-26709][SQL] OptimizeMetadataOnlyQuery nie obsługuje poprawnie pustych rekordów.
- Naprawiono wnioskowanie ograniczeń dla operatora okna.
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
spark.network.crypto.enabled
jest ustawiona wartość true).
30 stycznia 2019 r.
- Rozwiązano problem, który może powodować, że
df.rdd.count()
z UDT zwraca nieprawidłową odpowiedź w niektórych przypadkach. - [SPARK-26267]Spróbuj ponownie podczas wykrywania nieprawidłowych przesunięć z platformy Kafka.
- Usunięto usterkę, która wpływa na wiele źródeł strumienia plików w zapytaniu przesyłanym strumieniowo.
- Naprawiono błąd StackOverflowError podczas umieszczania niesymetrycznej wskazówki sprzężenia w buforowanej relacji.
- Naprawiono niespójność między buforowanym RDD w pamięci podręcznej SQL a jego planem fizycznym, co powodowało nieprawidłowe wyniki.
- Rozwiązano problem, który może powodować, że
8 stycznia 2019 r.
- Rozwiązano problem, który spowodował błąd
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - [SPARK-26352]Zmiana kolejności sprzężenia nie powinna zmieniać kolejności atrybutów wyjściowych.
- [SPARK-26366]ZastąpExceptWithFilter powinien rozważyć wartość NULL jako fałsz.
- Poprawa stabilności dla Delta Lake.
- Usługa Delta Lake jest włączona.
- Pamięć podręczna IO Databricks jest teraz włączona dla typów wystąpień worker serii Ls we wszystkich warstwach cenowych.
- Rozwiązano problem, który spowodował błąd
18 grudnia 2018 r.
- [SPARK-26293]Rzutowanie wyjątku podczas używania funkcji zdefiniowanej przez użytkownika języka Python w podzapytaniu
- Rozwiązano problem dotyczący niektórych zapytań przy użyciu Join i Limit.
- Ukryto dane uwierzytelniające w nazwach RDD w interfejsie użytkownika Spark
6 grudnia 2018 r.
- Rozwiązano problem, który spowodował niepoprawny wynik zapytania podczas używania elementu orderBy, po którym następuje natychmiastowe użycie polecenia groupBy z kluczem grupowania jako wiodącą częścią klucza sort-by.
- Uaktualniono łącznik snowflake dla platformy Spark z wersji 2.4.9.2-spark_2.4_pre_release do wersji 2.4.10.
- Ignoruj uszkodzone pliki tylko po jednej lub kilku próbach ponowienia, gdy włączona jest flaga
spark.sql.files.ignoreCorruptFiles
lubspark.sql.files.ignoreMissingFiles
. - Rozwiązano problem wpływający na niektóre zapytania samodzielnej unii.
- Poprawiono błąd z serwerem thrift, w którym sesje czasami wyciekają, gdy zostaną anulowane.
- [SPARK-26307]Naprawiono CTAS przy INSERT tabeli podzielonej na partycje z użyciem Hive SerDe.
- [SPARK-26147]UDF-y Python w warunku łączenia zawodzą nawet gdy używane są kolumny tylko z jednej strony łączenia
- [SPARK-26211]Poprawiono InSet dla danych binarnych oraz struktur i tablic z wartością null.
-
[SPARK-26181]
hasMinMaxStats
metodaColumnStatsMap
nie jest poprawna. - Rozwiązano problem dotyczący instalowania kół języka Python w środowiskach bez dostępu do Internetu.
20 listopada 2018 r.
- Rozwiązano problem, który powodował, że po anulowaniu zapytania przesyłania strumieniowego nie można było używać notatnika.
- Rozwiązano problem dotyczący niektórych zapytań przy użyciu funkcji okna.
- Rozwiązano problem wpływający na strumień z Delta z wieloma zmianami schematu.
- Rozwiązano problem dotyczący niektórych zapytań agregacyjnych z lewymi złączeniami pół/anty.
Databricks Runtime 4.3 (EoS)
Zobacz Databricks Runtime 4.3 (EoS).
9 kwietnia 2019 r.
- [SPARK-26665][CORE] Usunięto usterkę, która może spowodować zawieszenie elementu BlockTransferService.fetchBlockSync na zawsze.
- [SPARK-24669][SQL] Wykonaj unieważnienie tabel w przypadku DROP DATABASE CASCADE.
12 marca 2019 r.
- Usunięto usterkę wpływającą na generowanie kodu.
- Usunięto usterkę wpływającą na Delta.
26 lutego 2019 r.
- Usunięto usterkę wpływającą na serwer JDBC/ODBC.
12 lutego 2019 r.
- [SPARK-26709][SQL] OptimizeMetadataOnlyQuery nie obsługuje poprawnie pustych rekordów.
- Wykluczanie ukrytych plików podczas kompilowania usługi HadoopRDD.
- Naprawiono konwersję filtru Parquet dla predykatu IN, gdy jego wartość jest pusta.
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
spark.network.crypto.enabled
jest ustawiona wartość true).
30 stycznia 2019 r.
- Rozwiązano problem, który może powodować, że
df.rdd.count()
z UDT zwraca nieprawidłową odpowiedź w niektórych przypadkach. - Naprawiono niespójność między buforowanym RDD pamięci podręcznej SQL a jego planem fizycznym, co powodowało nieprawidłowe wyniki.
- Rozwiązano problem, który może powodować, że
8 stycznia 2019 r.
- Rozwiązano problem powodujący błąd
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - Ukryto dane uwierzytelniające w nazwach RDD w Spark UI
- [SPARK-26352]Zmiana kolejności sprzężenia nie powinna zmieniać kolejności atrybutów wyjściowych.
- [SPARK-26366]ReplaceExceptWithFilter powinien traktować wartość NULL jako False.
- Usługa Delta Lake jest włączona.
- Pamięć podręczna IO Databricks jest teraz włączona dla typów instancji pracowników serii Ls dla wszystkich poziomów cenowych.
- Rozwiązano problem powodujący błąd
18 grudnia 2018 r.
- [SPARK-25002]Avro: zrewiduj przestrzeń nazw rekordu wyjściowego.
- Rozwiązano problem dotyczący niektórych zapytań przy użyciu funkcji Join i Limit.
- [SPARK-26307]Naprawiono CTAS przy INSERT tabeli podzielonej na partycje z użyciem Hive SerDe.
- Ignoruj uszkodzone pliki dopiero po co najmniej jednym ponowieniu próby, gdy flaga
spark.sql.files.ignoreCorruptFiles
lubspark.sql.files.ignoreMissingFiles
jest włączona. -
[SPARK-26181]
hasMinMaxStats
metodaColumnStatsMap
nie jest poprawna. - Rozwiązano problem dotyczący instalowania kół języka Python w środowiskach bez dostępu do Internetu.
- Rozwiązano problem z wydajnością w analizatorze zapytań.
- Rozwiązano problem w PySpark, który powodował, że działania DataFrame kończyły się niepowodzeniem z powodu błędu "odmowa połączenia".
- Naprawiono problem wpływający na niektóre zapytania samopołączenia.
20 listopada 2018 r.
- [SPARK-17916][SPARK-25241]Napraw pusty ciąg, który jest analizowany jako null, gdy ustawiono wartość nullValue.
- [SPARK-25387]Poprawka dotycząca NPE spowodowanego nieprawidłowymi danymi wejściowymi CSV.
- Rozwiązano problem dotyczący niektórych zapytań agregacyjnych z połączeniami Left Semi/Anti.
6 listopada 2018 r.
- [SPARK-25741]Długie adresy URL nie są poprawnie renderowane w internetowym interfejsie użytkownika.
- [SPARK-25714]Naprawa obsługi wartości null w regule optymalizera BooleanSimplification.
- Rozwiązano problem wpływający na czyszczenie obiektów tymczasowych w łączniku usługi Synapse Analytics.
- [SPARK-25816]Napraw rozpoznawanie atrybutów w zagnieżdżonych ekstraktorach.
- 16 października 2018 r.
- Usunięto usterkę wpływającą na wynik działania
SHOW CREATE TABLE
w tabelach Delta. - Usunięto usterkę wpływającą na
Union
operację.
- Usunięto usterkę wpływającą na wynik działania
- 25 września 2018 r.
- [SPARK-25368][SQL] Nieprawidłowe wnioskowanie ograniczeń zwraca nieprawidłowy wynik.
- [SPARK-25402][SQL] Obsługa wartości null w uproszczeniu logicznym.
- Naprawiono
NotSerializableException
w źródle danych Avro.
- 11 września 2018 r.
-
[SPARK-25214][SS] Rozwiązano problem polegający na tym, że źródło platformy Kafka w wersji 2 może zwracać zduplikowane rekordy, gdy
failOnDataLoss=false
. - [SPARK-24987][SS] Napraw przeciek konsumenta platformy Kafka, gdy nie ma nowych przesunięć dla partycji artykułu.
- Redukcja filtru powinna poprawnie obsługiwać wartość null.
- Poprawiona stabilność silnika wykonawczego.
-
[SPARK-25214][SS] Rozwiązano problem polegający na tym, że źródło platformy Kafka w wersji 2 może zwracać zduplikowane rekordy, gdy
- 28 sierpnia 2018 r.
- Usunięto usterkę w poleceniu Delta Lake Delete, który niepoprawnie usunął wiersze, w których warunek ma wartość null.
-
[SPARK-25142]Dodaj komunikaty o błędach, gdy proces roboczy języka Python nie może otworzyć gniazda w programie
_load_from_socket
.
- 23 sierpnia 2018 r.
-
[SPARK-23935]mapEntry zgłasza błąd
org.codehaus.commons.compiler.CompileException
. - Rozwiązano problem z mapą dopuszczaną do wartości null w czytniku Parquet.
- [SPARK-25051][SQL] FixNullability nie powinien zatrzymywać się na AnalysisBarrier.
- [SPARK-25081]Naprawiono błąd, w wyniku którego ShuffleExternalSorter mógł uzyskać dostęp do zwolnionej strony pamięci, gdy przesypanie nie powiodło się z powodu braku możliwości przydzielenia pamięci.
- Naprawiono interakcję między biblioteką Databricks Delta i Pyspark, co mogło spowodować przejściowe błędy odczytu.
- [SPARK-25084]"distribute by" w wielu kolumnach (umieszczenie w nawiasach) może prowadzić do problemów z generowaniem kodu.
- [SPARK-25096]Poluzuj nullowalność, jeśli rzutowanie jest wymuszalnie nullowalne.
- Obniżyła domyślną liczbę wątków używanych przez polecenie Delta Lake Optimize, zmniejszając obciążenie pamięcią i szybciej zatwierdzając dane.
- [SPARK-25114]Naprawiono element RecordBinaryComparator, gdy odejmowanie między dwoma wyrazami jest podzielne przez Integer.MAX_VALUE.
- Naprawiono usuwanie danych tajnych przez menedżera, gdy polecenie częściowo zakończyło się powodzeniem.
-
[SPARK-23935]mapEntry zgłasza błąd
Databricks Runtime 4.2 (EoS)
Zobacz Databricks Runtime 4.2 (EoS).
26 lutego 2019 r.
- Usunięto usterkę wpływającą na serwer JDBC/ODBC.
12 lutego 2019 r.
- [SPARK-26709][SQL] OptimizeMetadataOnlyQuery nie obsługuje poprawnie pustych rekordów.
- Wykluczanie ukrytych plików podczas kompilowania usługi HadoopRDD.
- Naprawiono konwersję filtru Parquet dla predykatu IN, gdy jego wartość jest pusta.
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
spark.network.crypto.enabled
jest ustawiona wartość true).
30 stycznia 2019 r.
- Rozwiązano problem, który w niektórych przypadkach może powodować, że
df.rdd.count()
z UDT zwraca nieprawidłową odpowiedź.
- Rozwiązano problem, który w niektórych przypadkach może powodować, że
wtorek, 8 stycznia 2019 r.
- Rozwiązano problem powodujący błąd
org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted
. - Usunięto dane uwierzytelniające z nazw RDD w interfejsie użytkownika Spark
- [SPARK-26352]Zmiana kolejności sprzężenia nie powinna zmieniać kolejności atrybutów wyjściowych.
- [SPARK-26366]ZastąpExceptWithFilter powinien traktować wartość NULL jako fałsz.
- Usługa Delta Lake jest włączona.
- Pamięć podręczna we/wy Databricks jest teraz włączona dla typów instancji roboczych serii Ls dla wszystkich poziomów cenowych.
- Rozwiązano problem powodujący błąd
18 grudnia 2018 r.
- [SPARK-25002]Avro: zrewidować przestrzeń nazw rekordu wyjściowego.
- Rozwiązano problem dotyczący niektórych zapytań z użyciem funkcji Sprzężenia i Limit.
- [SPARK-26307]Naprawiono CTAS przy INSERT tabeli podzielonej na partycje z użyciem Hive SerDe.
- Ignoruj uszkodzone pliki tylko po co najmniej jednej próbie ponowienia, gdy
spark.sql.files.ignoreCorruptFiles
lubspark.sql.files.ignoreMissingFiles
flaga jest włączona. -
[SPARK-26181]
hasMinMaxStats
metodaColumnStatsMap
nie jest poprawna. - Rozwiązano problem dotyczący instalowania kół języka Python w środowiskach bez dostępu do Internetu.
- Rozwiązano problem z wydajnością w analizatorze zapytań.
- Rozwiązano problem w programie PySpark, który powodował błąd podczas wykonywania operacji na DataFrame z powodu błędu "odmowa połączenia".
- Rozwiązano problem dotyczący niektórych zapytań typu self-union.
20 listopada 2018 r.
- [SPARK-17916][SPARK-25241]Napraw pusty ciąg, który jest analizowany jako null, gdy ustawiono wartość nullValue.
- Rozwiązano problem dotyczący niektórych zapytań agregacyjnych z selektywnymi sprzężeniami pół-lewo/anty-lewo.
6 listopada 2018 r.
- [SPARK-25741]Długie adresy URL nie są poprawnie renderowane w internetowym interfejsie użytkownika.
- [SPARK-25714] Poprawiono obsługę wartości null w regule optymalizacji BooleanSimplification.
- 16 października 2018 r.
- Usunięto usterkę wpływającą na wynik działania
SHOW CREATE TABLE
na tabelach Delta. - Usunięto usterkę wpływającą na
Union
operację.
- Usunięto usterkę wpływającą na wynik działania
- 25 września 2018 r.
- [SPARK-25368][SQL] Nieprawidłowe wnioskowanie ograniczeń zwraca nieprawidłowy wynik.
- [SPARK-25402][SQL] Obsługa wartości null w elementach BooleanSimplification.
- Naprawiono
NotSerializableException
w źródle danych Avro.
- 11 września 2018 r.
-
[SPARK-25214][SS] Rozwiązano problem polegający na tym, że źródło platformy Kafka w wersji 2 może zwracać zduplikowane rekordy, gdy
failOnDataLoss=false
. - [SPARK-24987][SS] Napraw wyciek konsumenta Kafka, gdy nie ma nowych przesunięć dla artykułPartition.
- Redukcja filtru powinna poprawnie obsługiwać wartość null.
-
[SPARK-25214][SS] Rozwiązano problem polegający na tym, że źródło platformy Kafka w wersji 2 może zwracać zduplikowane rekordy, gdy
- 28 sierpnia 2018 r.
- Usunięto usterkę w poleceniu Delta Lake Delete, który niepoprawnie usunął wiersze, w których warunek ma wartość null.
- 23 sierpnia 2018 r.
- Naprawiono błąd NoClassDefError dla migawki delty
-
[SPARK-23935]mapEntry zgłasza błąd
org.codehaus.commons.compiler.CompileException
. - [SPARK-24957][SQL] Średnia z wartością dziesiętną, po której następuje agregacja, zwraca nieprawidłowy wynik. Mogą zostać zwrócone nieprawidłowe wyniki funkcji AVERAGE. Funkcja CAST dodana w operatorze Average zostanie zignorowana, jeśli wynik dzielenia ma ten sam typ, do którego jest rzutowany.
- [SPARK-25081]Usunięto usterkę polegającą na tym, że funkcja ShuffleExternalSorter mogła uzyskać dostęp do zwolnionej strony pamięci w przypadku niepowodzenia próby przydzielenia pamięci podczas przelewania.
- Naprawiono interakcję między Delta Databricks a narzędziem Pyspark, co mogło spowodować przejściowe błędy odczytu.
- [SPARK-25114]Naprawiono element RecordBinaryComparator, gdy odejmowanie między dwoma wyrazami jest podzielne przez Integer.MAX_VALUE.
- [SPARK-25084] Użycie "distribute by" dla wielu kolumn (zawiniętych w nawiasy) może prowadzić do problemów z generowaniem kodu.
- [SPARK-24934][SQL] Jawnie lista dozwolonych obsługiwanych typów w granicach górnych/dolnych dla oczyszczania partycji w pamięci. Gdy złożone typy danych są używane w filtrach zapytań względem buforowanych danych, platforma Spark zawsze zwraca pusty zestaw wyników. Oczyszczanie oparte na statystykach w pamięci generuje nieprawidłowe wyniki, ponieważ wartość null jest ustawiona dla górnych/dolnych granic dla typów złożonych. Poprawka polega na tym, że nie należy używać przycinania opartego na statystykach w pamięci dla typów złożonych.
- Naprawiono redagowanie menedżera wpisów tajnych, gdy polecenie częściowo zakończyło się powodzeniem.
- Rozwiązano problem z mapą dopuszczającą wartości null w czytniku Parquet.
- 2 sierpnia 2018 r.
- W języku Python dodano interfejs API writeStream.table.
- Rozwiązano problem dotyczący punktów kontrolnych Delta.
- [SPARK-24867][SQL] Dodaj element AnalysisBarrier do elementu DataFrameWriter. Pamięć podręczna SQL nie jest używana przy użyciu DataFrameWriter do zapisywania DataFrame z użyciem funkcji UDF. Jest to regresja spowodowana zmianami wprowadzonych w narzędziu AnalysisBarrier, ponieważ nie wszystkie reguły analizatora są idempotentne.
- Rozwiązano problem, który mógł powodować, że polecenie
mergeInto
generowało nieprawidłowe wyniki. - Zwiększona stabilność dostępu do usługi Azure Data Lake Storage Gen1.
- [SPARK-24809]Serializowanie funkcji LongHashedRelation w funkcji wykonawczej może spowodować błąd danych.
- [SPARK-24878][SQL] Poprawiono funkcję odwrotną dla typu tablicy typu pierwotnego zawierającego wartość null.
- 11 lipca 2018 r.
- Usunięto usterkę w wykonywaniu zapytań, która powodowała, że agregacje na kolumnach dziesiętnych o różnej precyzji zwracały nieprawidłowe wyniki w niektórych przypadkach.
- Usunięto usterkę
NullPointerException
zgłaszaną podczas zaawansowanych operacji agregacji, takich jak zestawy grupowania.
Databricks Runtime 4.1 ML (EoS)
Zobacz Databricks Runtime 4.1 ML (EoS).
- 31 lipca 2018 r.
- Dodano usługę Azure Synapse Analytics do środowiska ML Runtime 4.1
- Usunięto usterkę, która mogła spowodować nieprawidłowe wyniki zapytania, gdy nazwa kolumny partycji używanej w predykacie różni się od przypadku tej kolumny w schemacie tabeli.
- Usunięto usterkę wpływającą na silnik wykonywania Spark SQL.
- Usunięto usterkę wpływającą na generowanie kodu.
- Usunięto usterkę (
java.lang.NoClassDefFoundError
) wpływającą na usługę Delta Lake. - Ulepszona obsługa błędów w Delta Lake.
- Usunięto błąd powodujący zbieranie nieprawidłowych statystyk pomijania danych dla kolumn tekstowych o długości 32 znaki lub większej.
Databricks Runtime 4.1 (EoS)
Zobacz Databricks Runtime 4.1 (EoS).
- 8 stycznia 2019 r.
- [SPARK-26366]ZastąpExceptWithFilter powinien traktować NULL jako wartość fałszywą.
- Usługa Delta Lake jest włączona.
- 18 grudnia 2018 r.
- [SPARK-25002]Avro: zrewidować przestrzeń nazw rekordu wyjściowego.
- Rozwiązano problem dotyczący niektórych zapytań przy użyciu JOIN i LIMIT.
- [SPARK-26307]Naprawiono CTAS przy INSERT tabeli podzielonej na partycje z użyciem Hive SerDe.
- Ignoruj uszkodzone pliki dopiero po jednej lub kilku próbach ponowienia, gdy jest włączona flaga
spark.sql.files.ignoreCorruptFiles
albospark.sql.files.ignoreMissingFiles
. - Rozwiązano problem dotyczący instalowania kół języka Python w środowiskach bez dostępu do Internetu.
- Rozwiązano problem w PySpark, który spowodował niepowodzenie akcji DataFrame z błędem "odmowa połączenia".
- Rozwiązano problem wpływający na niektóre zapytania samodzielnej unii.
- 20 listopada 2018 r.
- [SPARK-17916][SPARK-25241]Napraw pusty ciąg, który jest analizowany jako null, gdy ustawiono wartość nullValue.
- Rozwiązano problem dotyczący niektórych zapytań agregujących z łączeniami lewostronnymi typu pół/anty.
- 6 listopada 2018 r.
- [SPARK-25741]Długie adresy URL nie są poprawnie renderowane w internetowym interfejsie użytkownika.
- [SPARK-25714] Naprawiono obsługę wartości null w regule BooleanSimplification w optymalizatorze.
- 16 października 2018 r.
- Usunięto błąd wpływający na dane wyjściowe wynikające z uruchamiania
SHOW CREATE TABLE
na tabelach Delta. - Usunięto usterkę wpływającą na
Union
operację.
- Usunięto błąd wpływający na dane wyjściowe wynikające z uruchamiania
- 25 września 2018 r.
- [SPARK-25368][SQL] Nieprawidłowe wnioskowanie ograniczeń zwraca nieprawidłowy wynik.
- [SPARK-25402][SQL] Obsługa wartości null w uproszczaniu logicznym.
- Naprawiono
NotSerializableException
w źródle danych Avro.
- 11 września 2018 r.
-
[SPARK-25214][SS] Rozwiązano problem polegający na tym, że źródło platformy Kafka w wersji 2 może zwracać zduplikowane rekordy, gdy
failOnDataLoss=false
. - [SPARK-24987][SS] Naprawiono przeciek klientów Kafka, gdy brak nowych przesunięć dla articlePartition.
- Redukcja filtru powinna poprawnie obsługiwać wartość null.
-
[SPARK-25214][SS] Rozwiązano problem polegający na tym, że źródło platformy Kafka w wersji 2 może zwracać zduplikowane rekordy, gdy
- 28 sierpnia 2018 r.
- Usunięto usterkę w poleceniu Delta Lake Delete, który niepoprawnie usunął wiersze, w których warunek ma wartość null.
- [SPARK-25084] instrukcja 'distribute by' w wielu kolumnach (opcja umieszczania w nawiasach) może prowadzić do problemu z generowaniem kodu.
- [SPARK-25114]Popraw funkcję RecordBinaryComparator, gdy odejmowanie między dwoma słowami jest podzielne przez Integer.MAX_VALUE.
- 23 sierpnia 2018 r.
- Naprawiono błąd NoClassDefError dla migawki delty.
- [SPARK-24957][SQL] Średnia z wartością dziesiętną, po której następuje agregacja, zwraca nieprawidłowy wynik. Mogą zostać zwrócone nieprawidłowe wyniki komendy AVERAGE. Funkcja CAST dodana w operatorze Average zostanie pominięta, jeśli wynik dzielenia jest tym samym typem, do którego jest rzutowany.
- Rozwiązano problem z mapą dopuszczaną do wartości null w czytniku Parquet.
- [SPARK-24934][SQL] Jawnie lista dozwolonych obsługiwanych typów w granicach górnych/dolnych dla oczyszczania partycji w pamięci. Gdy złożone typy danych są używane w filtrach zapytań względem buforowanych danych, platforma Spark zawsze zwraca pusty zestaw wyników. Oczyszczanie oparte na statystykach w pamięci generuje nieprawidłowe wyniki, ponieważ wartość null jest ustawiona dla górnych/dolnych granic dla typów złożonych. Poprawka polega na tym, że nie należy używać przycinania opartego na statystykach w pamięci dla typów złożonych.
- [SPARK-25081]Usunięto usterkę polegającą na tym, że funkcja ShuffleExternalSorter mogła uzyskać dostęp do zwolnionej strony pamięci, gdy proces przelewania danych nie miał możliwości przydzielenia pamięci.
- Naprawiono interakcję między Databricks Delta a narzędziem Pyspark, co mogło spowodować przejściowe błędy odczytu.
- Naprawiono redagowanie menedżera wpisów tajnych, gdy polecenie częściowo zakończyło się powodzeniem
- 2 sierpnia 2018 r.
- [SPARK-24613][SQL] Pamięci podręcznej z funkcją UDF nie można dopasować do kolejnych zależnych pamięci podręcznych. Opakowuje plan logiczny za pomocą narzędzia AnalysisBarrier do kompilacji planu wykonywania w narzędziu CacheManager, aby uniknąć ponownego analizowania planu. Jest to również regresja platformy Spark 2.3.
- Rozwiązano problem z łącznikiem Synapse Analytics wpływającym na konwersję strefy czasowej podczas zapisywania danych typu daty.
- Rozwiązano problem dotyczący punktów kontrolnych Delta.
- Rozwiązano problem, który mógł powodować, że polecenie
mergeInto
generowało nieprawidłowe wyniki. - [SPARK-24867][SQL] Dodaj element AnalysisBarrier do elementu DataFrameWriter. SQL Cache nie jest używany, gdy DataFrameWriter zapisuje ramkę danych przy użyciu UDF. Jest to regresja spowodowana zmianami wprowadzonych w narzędziu AnalysisBarrier, ponieważ nie wszystkie reguły analizatora są idempotentne.
- [SPARK-24809]Serializowanie funkcji LongHashedRelation w funkcji wykonawczej może spowodować błąd danych.
- 11 lipca 2018 r.
- Usunięto usterkę w wykonywaniu zapytań, która w niektórych przypadkach powodowała, że agregacje w kolumnach dziesiętnych z różną precyzją zwracały nieprawidłowe wyniki.
- Usunięto usterkę
NullPointerException
występującą podczas zaawansowanych operacji agregacji, takich jak zgrupowania zestawów.
- 28 czerwca 2018 r.
- Usunięto usterkę, która mogła spowodować nieprawidłowe wyniki zapytania, gdy nazwa kolumny partycji używanej w predykacie różni się od przypadku tej kolumny w schemacie tabeli.
- 7 czerwca 2018 r.
- Usunięto błąd wpływający na silnik wykonawczy Spark SQL.
- Usunięto usterkę wpływającą na generowanie kodu.
- Usunięto usterkę (
java.lang.NoClassDefFoundError
) wpływającą na usługę Delta Lake. - Ulepszona obsługa błędów w technologii Delta Lake.
- 17 maja 2018 r.
- Naprawiono błąd powodujący zbieranie nieprawidłowych statystyk pomijania danych dla kolumn zawierających ciągi o długości 32 znaków lub więcej.
Databricks Runtime 4.0 (EoS)
Zobacz Databricks Runtime 4.0 (EoS).
- 6 listopada 2018 r.
- [SPARK-25714] Naprawiono obsługę wartości null w regule optymalizacji BooleanSimplification.
- 16 października 2018 r.
- Usunięto usterkę wpływającą na
Union
operację.
- Usunięto usterkę wpływającą na
- 25 września 2018 r.
- [SPARK-25368][SQL] Nieprawidłowe wnioskowanie ograniczeń zwraca nieprawidłowy wynik.
- [SPARK-25402][SQL] Obsługa wartości null w upraszczaniu logicznym.
- Naprawiono
NotSerializableException
w źródle danych Avro.
- 11 września 2018 r.
- Redukcja filtru powinna poprawnie obsługiwać wartość null.
- 28 sierpnia 2018 r.
- Usunięto usterkę w poleceniu Delta Lake Delete, który niepoprawnie usunął wiersze, w których warunek ma wartość null.
- 23 sierpnia 2018 r.
- Rozwiązano problem z możliwością przechowywania wartości null w mapie w czytniku Parquet.
- Naprawiono redagowanie menedżera wpisów tajnych, gdy polecenie częściowo zakończyło się powodzeniem
- Naprawiono interakcję między Databricks Delta a PySpark, która mogła powodować przejściowe błędy odczytu.
- [SPARK-25081]Usunięto usterkę polegającą na tym, że mechanizm ShuffleExternalSorter mógł uzyskać dostęp do zwolnionej strony pamięci w przypadku awarii alokacji pamięci.
- [SPARK-25114]Naprawiono element RecordBinaryComparator, gdy odejmowanie między dwoma wyrazami jest podzielne przez Integer.MAX_VALUE.
- 2 sierpnia 2018 r.
- [SPARK-24452]Unikaj możliwego przepełnienia przy dodawaniu lub mnożeniu wartości typu int.
- [SPARK-24588]Dołączanie strumieniowe powinno wymagać HashClusteredPartitioning od podrzędnych komponentów.
- Usunięto problem, który mógł powodować, że polecenie
mergeInto
generowało niepoprawne wyniki. - [SPARK-24867][SQL] Dodaj element AnalysisBarrier do elementu DataFrameWriter. Pamięć podręczna SQL nie jest używana podczas użycia DataFrameWriter do zapisywania DataFrame z UDF. Jest to regresja spowodowana zmianami wprowadzonych w narzędziu AnalysisBarrier, ponieważ nie wszystkie reguły analizatora są idempotentne.
- [SPARK-24809]Serializowanie funkcji LongHashedRelation w funkcji wykonawczej może spowodować błąd danych.
- 28 czerwca 2018 r.
- Usunięto usterkę, która mogła spowodować nieprawidłowe wyniki zapytania, gdy nazwa kolumny partycji używanej w predykacie różni się od przypadku tej kolumny w schemacie tabeli.
- 7 czerwca 2018 r.
- Usunięto usterkę wpływającą na aparat wykonywania Spark SQL.
- Ulepszona obsługa błędów w Delta Lake.
- 17 maja 2018 r.
- Naprawa błędów zarządzania sekretami w Databricks.
- Zwiększona stabilność odczytu danych przechowywanych w usłudze Azure Data Lake Store.
- Naprawiono usterkę wpływającą na buforowanie RDD.
- Usunięto usterkę wpływającą na wartość Null-safe Equal w usłudze Spark SQL.
- 24 kwietnia 2018 r.
- Uaktualniono zestaw AZURE Data Lake Store SDK z wersji 2.0.11 do 2.2.8, aby zwiększyć stabilność dostępu do usługi Azure Data Lake Store.
- Usunięto usterkę dotyczącą wstawiania nadpisań do partycjonowanych tabel Hive, gdy
spark.databricks.io.hive.fastwriter.enabled
jestfalse
. - Rozwiązano problem polegający na tym, że serializacja zadań zakończyła się niepowodzeniem.
- Ulepszona stabilność usługi Delta Lake.
- 14 marca 2018 r.
- Zapobiegaj niepotrzebnym aktualizacjom metadanych podczas zapisywania w usłudze Delta Lake.
- Rozwiązano problem spowodowany przez warunek wyścigu, który w rzadkich okolicznościach może prowadzić do utraty niektórych plików wyjściowych.
Databricks Runtime 3.5 LTS (EoS)
Zobacz Databricks Runtime 3.5 LTS (EoS).
7 listopada 2019 r.
- [SPARK-29743][SQL] przykład powinien ustawić właściwość needCopyResult na wartość true, jeśli element podrzędny needCopyResult ma wartość true
wtorek, 8 października 2019 r.
- Zmiany po stronie serwera umożliwiające ponowne nawiązywanie połączenia ze sterownikiem Simba Apache Spark ODBC i kontynuowanie po niepowodzeniu połączenia podczas pobierania wyników (wymaga aktualizacji sterownika Simba Apache Spark ODBC do wersji 2.6.10).
10 września 2019 r.
- [SPARK-28699][SQL] Wyłącz używanie sortowania radix dla ShuffleExchangeExec w przypadku ponownego partycjonowania
9 kwietnia 2019 r.
- [SPARK-26665][CORE] Usunięto usterkę, która może spowodować zawieszenie elementu BlockTransferService.fetchBlockSync na zawsze.
12 lutego 2019 r.
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
spark.network.crypto.enabled
jest ustawiona wartość true).
- Rozwiązano problem powodujący uszkodzenie protokołu sieciowego niskiego poziomu platformy Spark podczas wysyłania dużych komunikatów o błędach RPC z włączonym szyfrowaniem (gdy
30 stycznia 2019 r.
- Rozwiązano problem, który może powodować, że
df.rdd.count()
zwraca nieprawidłową odpowiedź w niektórych przypadkach.
- Rozwiązano problem, który może powodować, że
18 grudnia 2018 r.
- Ignoruj uszkodzone pliki tylko po jednorazowej lub większej liczbie ponowień, gdy flaga
spark.sql.files.ignoreCorruptFiles
lubspark.sql.files.ignoreMissingFiles
jest włączona. - Rozwiązano problem wpływający na niektóre zapytania samodzielnej unii.
- Ignoruj uszkodzone pliki tylko po jednorazowej lub większej liczbie ponowień, gdy flaga
20 listopada 2018 r.
- [SPARK-25816]Naprawiono rozpoznawanie atrybutów w zagnieżdżonych ekstraktorach.
6 listopada 2018 r.
- [SPARK-25714] Naprawiono obsługę wartości null w regule optymalizatora BooleanSimplification.
- 16 października 2018 r.
- Usunięto usterkę wpływającą na
Union
operację.
- Usunięto usterkę wpływającą na
- 25 września 2018 r.
- [SPARK-25402][SQL] Obsługa wartości null w uproszczeniu logicznym.
- Naprawiono
NotSerializableException
w źródle danych Avro.
- 11 września 2018 r.
- Redukcja filtru powinna poprawnie obsługiwać wartość null.
- 28 sierpnia 2018 r.
- Usunięto usterkę w poleceniu Delta Lake Delete, który niepoprawnie usunął wiersze, w których warunek ma wartość null.
- [SPARK-25114]Napraw RecordBinaryComparator, jeśli odejmowanie między dwoma słowami jest podzielne przez Integer.MAX_VALUE.
- 23 sierpnia 2018 r.
- [SPARK-24809]Serializowanie funkcji LongHashedRelation w funkcji wykonawczej może spowodować błąd danych.
- Rozwiązano problem z mapą dopuszczaną do wartości null w czytniku Parquet.
- [SPARK-25081]Naprawiono błąd, w wyniku którego ShuffleExternalSorter mógł uzyskać dostęp do zwolnionej strony pamięci, gdy podczas przelewania nie udało się przydzielić pamięci.
- Naprawiono interakcję pomiędzy Databricks Delta a modułem Pyspark, co mogło spowodować przejściowe błędy odczytu.
- 28 czerwca 2018 r.
- Usunięto usterkę, która mogła spowodować nieprawidłowe wyniki zapytania, gdy nazwa kolumny partycji używanej w predykacie różni się od przypadku tej kolumny w schemacie tabeli.
- 28 czerwca 2018 r.
- Usunięto usterkę, która mogła spowodować nieprawidłowe wyniki zapytania, gdy nazwa kolumny partycji używanej w predykacie różni się od przypadku tej kolumny w schemacie tabeli.
- 7 czerwca 2018 r.
- Usunięto usterkę wpływającą na silnik wykonawczy Spark SQL.
- Ulepszona obsługa błędów w systemie Delta Lake.
- 17 maja 2018 r.
- Zwiększona stabilność odczytu danych przechowywanych w usłudze Azure Data Lake Store.
- Naprawiono usterkę dotyczącą buforowania RDD.
- Usunięto usterkę wpływającą na wartość Null-safe Equal w usłudze Spark SQL.
- Usunięto błąd wpływający na niektóre agregacje w zapytaniach strumieniowych.
- 24 kwietnia 2018 r.
- Uaktualniono zestaw AZURE Data Lake Store SDK z wersji 2.0.11 do 2.2.8, aby zwiększyć stabilność dostępu do usługi Azure Data Lake Store.
- Usunięto usterkę wpływającą na wstawianie zastąpień do partycjonowanych tabel Hive, gdy
spark.databricks.io.hive.fastwriter.enabled
jestfalse
. - Rozwiązano problem polegający na tym, że serializacja zadań zakończyła się niepowodzeniem.
- 9 marca 2018 r.
- Rozwiązano problem spowodowany przez rywalizację w dostępie do zasobów, która w rzadkich przypadkach może prowadzić do utraty niektórych plików wyjściowych.
- 1 marca 2018 r.
- Poprawiono wydajność obsługi strumieni, które mogą długo trwać, zanim się zatrzymają.
- Rozwiązano problem dotyczący autouzupełniania języka Python.
- Zastosowano poprawki zabezpieczeń systemu Ubuntu.
- Rozwiązano problem dotyczący niektórych zapytań korzystających z funkcji UDF i okien języka Python.
- Rozwiązano problem wpływający na używanie funkcji zdefiniowanych przez użytkownika (UDF) w klastrze z włączoną kontrolą dostępu do tabeli.
- 29 stycznia 2018 r.
- Rozwiązano problem wpływający na manipulowanie tabelami przechowywanymi w usłudze Azure Blob Storage.
- Naprawiono agregację po zastosowaniu dropDuplicates na pustym DataFrame.
Databricks Runtime 3.4 (EoS)
Zobacz Databricks Runtime 3.4 (EoS).
- 7 czerwca 2018 r.
- Usunięto usterkę wpływającą na aparat wykonywania Spark SQL.
- Ulepszona obsługa błędów w Delta Lake.
- 17 maja 2018 r.
- Zwiększona stabilność odczytu danych przechowywanych w usłudze Azure Data Lake Store.
- Naprawiono usterkę wpływającą na buforowanie RDD.
- Usunięto usterkę wpływającą na wartość Null-safe Equal w usłudze Spark SQL.
- 24 kwietnia 2018 r.
- Usunięto usterkę dotyczącą wstawiania nadpisań do tabel Hive z partycjami, gdy
spark.databricks.io.hive.fastwriter.enabled
jestfalse
.
- Usunięto usterkę dotyczącą wstawiania nadpisań do tabel Hive z partycjami, gdy
- 9 marca 2018 r.
- Rozwiązano problem spowodowany przez warunek wyścigu, który w rzadkich okolicznościach może prowadzić do utraty niektórych plików wyjściowych.
- 13 grudnia 2017 r.
- Rozwiązano problem dotyczący UDF (funkcji zdefiniowanych przez użytkownika) w języku Scala.
- Rozwiązano problem wpływający na użycie indeksu pomijania danych w tabelach źródeł danych przechowywanych w ścieżkach systemu plików innych niż DBFS.
- 7 grudnia 2017 r.
- Ulepszona stabilność mieszania.
Nieobsługiwane wersje środowiska Databricks Runtime
W przypadku oryginalnych informacji o wersji skorzystaj z linku poniżej podtytułem.