Databricks Runtime 11.2 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 11.2, který využívá Apache Spark 3.3.0. Databricks vydala tuto verzi v září 2022.
Nové funkce a vylepšení
- Změna oprávnění ALTER TABLE v řízení přístupu k tabulce (seznamy ACL tabulek)
- Dynamické vyřezávání pro MERGE INTO
- Vylepšené zjišťování konfliktů v Delta s dynamickým vyřezáváním souborů
- Nová karta s open source integrací na domovských stránkách DSE/SQL
- Vylepšení detekce oddílů CONVERT TO DELTA
- Schémata tabulek teď podporují výchozí hodnoty pro sloupce.
- Nové geoprostorové funkce H3
- Nová závislost Databricks Runtime
- Používání vlastního klíče: Šifrování přihlašovacích údajů Gitu
- SQL: Nová agregační funkce any_value
- Příkazy systému souborů Databricks Utilities povolené u více typů clusterů
- Oprávnění CREATE je teď možné udělit u metastorů pro katalog Unity.
- Optimalizované zápisy pro nerozdělené tabulky v clusterech s podporou Photon
- Podpora Photon pro další zdroje dat
- SQL: ALTER SHARE teď podporuje VERZI START
Změna oprávnění ALTER TABLE v řízení přístupu k tabulce (seznamy ACL tabulek)
Nyní uživatelé potřebují MODIFY
oprávnění pouze ke změně schématu nebo vlastností tabulky pomocí ALTER TABLE
. Vlastnictví se stále vyžaduje k udělení oprávnění k tabulce, změně jeho vlastníka a umístění nebo k jeho přejmenování. Díky této změně je model oprávnění pro seznamy ACL tabulek konzistentní s katalogem Unity. Viz ALTER TABLE.
Dynamické vyřezávání pro MERGE INTO
Při použití výpočetních prostředků MERGE INTO
s podporou Photon teď používá dynamické vyřezávání souborů a oddílů, pokud je to vhodné ke zlepšení výkonu, například při sloučení malé zdrojové tabulky do větší cílové tabulky.
Vylepšené zjišťování konfliktů v Delta s dynamickým vyřezáváním souborů
Při kontrole potenciálních konfliktů během potvrzení teď detekce konfliktů považuje soubory, které jsou vyřazeny dynamickým vyřezáváním souborů, ale nebyly vyřazeny statickými filtry. Výsledkem je snížení počtu neúspěšných transakcí.
Nová karta s open source integrací na domovských stránkách DSE/SQL
Představujeme novou kartu Open Source Integrations na domovských stránkách DSE/SQL, která zobrazuje možnosti open source integrace, jako je Delta Live Tables a dbt core.
Vylepšení detekce oddílů CONVERT TO DELTA
CONVERT TO DELTA
automaticky odvodí schéma oddílů pro tabulky Parquet zaregistrované v metastoru Hive nebo v katalogu Unity a eliminuje nutnost poskytnout klauzuli PARTITIONED BY
.
CONVERT TO DELTA
Využívá informace o oddílech z metastoru ke zjišťování souborů pro tabulku Parquet místo výpisu celé základní cesty, čímž zajistí, že se vyřazené oddíly nepřidají do tabulky Delta.
Viz Převod na Delta Lake.
Schémata tabulek teď podporují výchozí hodnoty pro sloupce.
Schémata tabulek teď podporují nastavení výchozích hodnot pro sloupce. INSERT
, UPDATE
a DELETE
příkazy pro tyto sloupce mohou odkazovat na tyto hodnoty pomocí klíčového DEFAULT
slova. Za ním INSERT INTO t VALUES (1, DEFAULT)
například CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET
připojíte řádek (1, 42)
. Toto chování se podporuje u zdrojů dat CSV, JSON, Orc a Parquet.
Nové geoprostorové funkce H3
Nyní můžete použít 28 nových integrovaných výrazů H3 pro geoprostorové zpracování v clusterech s podporou Photon, které jsou dostupné v SQL, Scala a Pythonu. Viz geoprostorové funkce H3.
Nová závislost Databricks Runtime
Databricks Runtime teď závisí na knihovně H3 Java verze 3.7.0.
Používání vlastního klíče: Šifrování přihlašovacích údajů Gitu
Azure Key Vault můžete použít k šifrování tokenu PAT (Personal Access Token) Gitu nebo jiných přihlašovacích údajů Gitu.
Viz Nastavení složek Gitu (Repos) Databricks.
SQL: Nová agregační funkce any_value
Nová any_value
agregační funkce vrátí libovolnou náhodnou hodnotu expr
pro skupinu řádků. Podívejte se na agregační funkci any_value.
Příkazy systému souborů Databricks Utilities povolené u více typů clusterů
dbutils.fs
Příkazy (s výjimkou příkazů souvisejících s připojením) jsou nyní povoleny v clusterech s izolací uživatelů s katalogem Unity a také clustery seznamu ACL starších tabulek, pokud má ANY FILE
uživatel oprávnění.
Oprávnění CREATE je teď možné udělit u metastorů pro katalog Unity.
Oprávnění CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENT a CREATE PROVIDER je teď možné udělit v metastorech katalogu Unity.
Optimalizované zápisy pro nerozdělené tabulky v clusterech s podporou Photon
Spravované tabulky v Katalogu Unity teď automaticky uchovávají soubory dobře vyladěné velikosti z nesedělených tabulek, aby se zlepšila rychlost dotazů a optimalizoval výkon.
Podpora Photon pro další zdroje dat
Photon teď podporuje více zdrojů dat, včetně SOUBORŮ CSV a Avro, a je také kompatibilní s datovými snímky uloženými v mezipaměti. Kontrola těchto zdrojů dat dříve znamenala, že celý dotaz nelze fotonizovat bez ohledu na operátory nebo výrazy dotazu. Dotazy, které kontrolují tyto zdroje dat, teď můžou být fotonizovány, odemykat výrazné latence a vylepšení celkových nákladů na vlastnictví.
Tato funkce je ve výchozím nastavení povolená v spark.databricks.photon.photonRowToColumnar.enabled
konfiguraci.
Omezení:
- Schémata s vnořenými typy nejsou v této verzi podporována (tj. pole, mapy a struktury).
- Zdroje ORC, RDD, Kinesis, Kafka a EventHub nejsou v této verzi podporované.
SQL: ALTER SHARE teď podporuje VERZI START
Příkaz ALTER SHARE
teď podporuje START VERSION
, což umožňuje poskytovatelům sdílet data od konkrétní verze tabulky. Viz ALTER SHARE.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- distlib od 0.3.4 do 0.3.5
- filelock from 3.7.1 to 3.8.0
- vykreslovat od 5.8.2 do 5.9.0
- protobuf od 4.21.2 do 4.21.5
- Upgradované knihovny jazyka R:
- koště od 0.8.0 do 1.0.0
- bslib od 0.3.1 do 0.4.0
- volající od 3.7.0 do 3.7.1
- stříšku od 6.0-92 do 6.0-93
- dbplyr od 2.2.0 do 2.2.1
- devtools od 2.4.3 do 2.4.4
- vyhodnocení z 0,15 na 0,16
- farver od 2.1.0 do 2.1.1
- fontawesome od 0.2.2 do 0.3.0
- budoucí od 1.26.1 do 1.27.0
- obecné typy od 0.1.2 do 0.1.3
- gert od 1.6.0 do 1.7.0
- globals from 0.15.1 to 0.16.0
- googlesheets4 od 1.0.0 do 1.0.1
- hardhat od 1.1.0 do 1.2.0
- htmltools od 0.5.2 do 0.5.3
- paralelně od 1.32.0 do 1.32.1
- pilíř od 1.7.0 do 1.8.0
- pkgload od 1.2.4 do 1.3.0
- processx od 3.6.1 do 3.7.0
- Rcpp od 1.0.8.3 do 1.0.9
- recepty od 0.2.0 do 1.0.1
- rlang od 1.0.2 do 1.0.4
- roxygen2 od 7.2.0 do 7.2.1
- RSQLite od 2.2.14 do 2.2.15
- sass od 0.4.1 do 0.4.2
- lesklý od 1.7.1 do 1.7.2
- stringi od 1.7.6 do 1.7.8
- tibble od 3.1.7 do 3.1.8
- Tidyverse od 1.3.1 do 1.3.2
- timeDate from 3043.102 to 4021.104
- xfun od 0.31 do 0.32
- Upgradované knihovny Java:
- org.apache.orc.orc-core od 1.7.4 do 1.7.5
- org.apache.orc.orc-mapreduce od 1.7.4 do 1.7.5
- org.apache.orc.orc-shims od 1.7.4 do 1.7.5
Apache Spark
Databricks Runtime 11.2 zahrnuje Apache Spark 3.3.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 11.1 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-40151] [WARMFIX][SC-109002][SC-108809][SQL] Vrácení širších typů intervalů ANSI z funkcí percentilu
- [SPARK-40054] [SQL] Obnovení syntaxe zpracování chyb try_cast()
- [SPARK-39489] [JÁDRO] Vylepšení výkonu protokolování událostí JsonProtocol pomocí Jacksona místo Json4s
- [SPARK-39319] [JÁDRO][SQL] Vytváření kontextů dotazů jako součásti
SparkThrowable
- [SPARK-40085] [SQL] K označení chyb použijte třídu chyb INTERNAL_ERROR místo IllegalStateException.
- [SPARK-40001] [SQL] Zápisy NULL do výchozích sloupců JSON zapisují do úložiště hodnotou null.
- [SPARK-39635] [SQL] Podpora metrik ovladačů ve vlastním rozhraní API metrik DS v2
- [SPARK-39184] [SQL] Zpracování nedostatečně využitého pole výsledků v sekvencích data a časového razítka
- [SPARK-40019] [SQL] Refaktoring komentáře ArrayType containsNull a refaktoring logiky nedorozumění ve výrazu collectionOperator o
containsNull
- [SPARK-39989] [SQL] Podpora odhadu statistiky sloupců, pokud je výraz skládací
- [SPARK-39926] [SQL] Oprava chyby ve sloupci DEFAULT pro ne vektorizované kontroly Parquet
- [SPARK-40052] [SQL] Zpracování přímých bajtů vyrovnávacích pamětí v VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Oprava typu cílového intervalu v chybách přetečení přetečení
- [SPARK-39835] [SQL] Oprava OdstraněníSorts odebrání globálního řazení pod místním řazením
- [SPARK-40002] [SQL] Neposouvejte limit dolů přes okno pomocí ntile
- [SPARK-39976] [SQL] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
- [SPARK-39985] [SQL] Povolení implicitních výchozích hodnot sloupců v vkládání z datových rámců
- [SPARK-39776] [SQL] Podrobný řetězec JOIN by měl přidat typ spojení
- [SPARK-38901] [SQL] DS V2 podporuje funkce chybně odsazení
- [SPARK-40028] [SQL][Sledovat] Vylepšení příkladů řetězcových funkcí
- [SPARK-39983] [JÁDRO][SQL] Neupamějte neserializované vztahy vysílání na ovladači.
- [SPARK-39812] [SQL] Zjednodušení kódu, pomocí kterého se konstruuje
AggregateExpression
toAggregateExpression
- [SPARK-40028] [SQL] Přidání binárních příkladů pro řetězcové výrazy
- [SPARK-39981] [SQL] Vyvolá výjimku QueryExecutionErrors.castingCauseOverflowErrorInTableInsert v castu
- [SPARK-40007] [PYTHON][SQL] Přidání režimu do funkcí
- [SPARK-40008] [SQL] Podpora přetypování integrálů do intervalů ANSI
- [SPARK-40003] [PYTHON][SQL] Přidání mediánu do funkcí
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand by měl recache result relation
- [SPARK-39951] [SQL] Aktualizace sloupcové kontroly Parquet V2 pro vnořená pole
- [SPARK-33236] [shuffle] Backport do DBR 11.x: Povolení služby náhodného prohazování na základě push pro uložení stavu v databázi na úrovni NM pro zachování práce restartování
- [SPARK-39836] [SQL] Zjednodušení nástroje V2ExpressionBuilder extrahováním běžné metody
- [SPARK-39873] [SQL] Odebrání
OptimizeLimitZero
a sloučení doEliminateLimits
- [SPARK-39961] [SQL] Ds V2 push-down přeložit přetypování, pokud je přetypování bezpečné
- [SPARK-39872] [SQL] Změna použití
BytePackerForLong#unpack8Values
se vstupním rozhraním API pole vVectorizedDeltaBinaryPackedReader
- [SPARK-39858] [SQL] Odebrání nepotřebných
AliasHelper
pravidel neboPredicateHelper
pro některá pravidla - [SPARK-39900] [SQL] Řešení částečné nebo negatedované podmínky v predikátu binárního formátu
- [SPARK-39904] [SQL] Přejmenujte inferDate tak, aby preferoval Datum a objasnil sémantiku možnosti ve zdroji dat CSV.
- [SPARK-39958] [SQL] Přidání protokolu upozornění při nemožnosti načíst vlastní objekt metriky
- [SPARK-39932] [SQL] WindowExec by měl vymazat konečnou vyrovnávací paměť oddílu.
- [SPARK-37194] [SQL] Vyhněte se zbytečnému řazení v zápisu v1, pokud není dynamický oddíl
- [SPARK-39902] [SQL] Přidání podrobností kontroly do uzlu kontroly plánu Sparku ve SparkUI
- [SPARK-39865] [SQL] Zobrazení správných chybových zpráv u chyb přetečení v vložení tabulky
- [SPARK-39940] [SS] Aktualizace tabulky katalogu při dotazu streamování pomocí jímky DSv1
- [SPARK-39827] [SQL] Použití třídy
ARITHMETIC_OVERFLOW
chyb v přetečení intadd_months()
- [SPARK-39914] [SQL] Přidání filtru DS V2 do převodu filtru V1
- [SPARK-39857] [SQL] Ruční DBR 11.x backport; V2ExpressionBuilder používá nesprávný datový typ LiteralValue pro predikát #43454
- [SPARK-39840] [SQL][PYTHON] Factor PythonArrowInput jako symetrie PythonArrowOutput
- [SPARK-39651] [SQL] Vyřazení podmínky filtru, pokud je porovnání s randem deterministické
- [SPARK-39877] [PYTHON] Přidání překontování do rozhraní API datového rámce PySpark
- [SPARK-39909] [SQL] Uspořádání kontroly odsdílení informací pro JDBCV2Suite
- [SPARK-39834] [SQL][SS] Zahrnout statistiky původu a omezení logickéhordd, pokud pochází z datového rámce
- [SPARK-39849] [SQL] Dataset.as(StructType) vyplní chybějící nové sloupce s hodnotou null.
- [SPARK-39860] [SQL] Další výrazy by měly rozšířit predikát
- [SPARK-39823] [SQL][PYTHON] Přejmenování Dataset.as jako Dataset.to a přidání DataFrame.to v PySparku
- [SPARK-39918] [SQL][PODVERZE] Nahraďte v chybové zprávě slovo "un-comparable" slovem "incomparable" (nekompatibilní).
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder používá nesprávný datový typ LiteralValue pro predikát In
- [SPARK-39862] [SQL] Ruční backport pro PR 43654 cílení DBR 11.x: Aktualizace SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS povolit/odepřít ALTER TABLE ... Příkazy ADD COLUMN zvlášť
- [SPARK-39844] [SQL] Ruční backport pro PR 43652 cílení DBR 11.x
- [SPARK-39899] [SQL] Oprava předávání parametrů zprávy do
InvalidUDFClassException
- [SPARK-39890] [SQL] Make TakeOrderedAndProjectExec dědí AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Podpora typu CharType v PySpark
- [SPARK-38864] [SQL] Přidání nepřekontové nebo roztavené datové sady
- [SPARK-39864] [SQL] Lazily zaregistrovat ExecutionListenerBus
- [SPARK-39808] [SQL] Podpora režimu agregační funkce MODE
- [SPARK-39875] [SQL] Změna
protected
metody v konečné třídě naprivate
nebopackage-visible
- [SPARK-39731] [SQL] Oprava potíží se zdroji dat CSV a JSON při analýze kalendářních dat ve formátu yyyyMDd pomocí zásad analyzátoru opravených času
- [SPARK-39805] [SS] Vyřazení triggeru.once a zvýšení úrovně triggeru.AvailableNow
- [SPARK-39784] [SQL] Po překladu výrazu Catalyst expression do filtru zdroje dat na pravé straně filtru zdroje dat vložte hodnoty literálu.
- [SPARK-39672] [SQL][3.1] Oprava odebrání projektu před filtrováním s korelovaným poddotazem
- [SPARK-39552] [SQL] Sjednocení v1 a v2
DESCRIBE TABLE
- [SPARK-39810] [SQL] Catalog.tableExists by měl zpracovávat vnořený obor názvů
- [SPARK-37287] [SQL] Vytáhněte dynamické oddíly a řazení kbelíků z FileFormatWriter
- [SPARK-39469] [SQL] Odvození typu data pro odvození schématu CSV
- [SPARK-39148] [SQL] Agregace DS V2 může fungovat s posunem nebo limitem
- [SPARK-39818] [SQL] Oprava chyby v polích ARRAY, STRUCT, MAP s výchozími hodnotami s poli NULL
- [SPARK-39792] [SQL] Přidání DecimalDivideWithOverflowCheck pro desetinný průměr
- [SPARK-39798] [SQL] Replcace
toSeq.toArray
with.toArray[Any]
in constructor ofGenericArrayData
- [SPARK-39759] [SQL] Implementace listIndexes v JDBC (dialekt H2)
- [SPARK-39385] [SQL] Podporuje funkci push down
REGR_AVGX
aREGR_AVGY
- [SPARK-39787] [SQL] Použití třídy chyb v analýze chyby funkce to_timestamp
- [SPARK-39760] [PYTHON] Podpora Varchar v PySpark
- [SPARK-39557] [SQL] Ruční backport do DBR 11.x: Podpora ARRAY, STRUCT, MAP typů jako VÝCHOZÍ hodnoty
- [SPARK-39758] [SQL][3.3] Oprava NPE z funkcí regexp u neplatných vzorů
- [SPARK-39749] [SQL] Režim ANSI SQL: Použití prostého řetězcového vyjádření při přetypování desetinných míst na řetězec
- [SPARK-39704] [SQL] Implementace createIndex &dropIndex &indexExists v JDBC (dialekt H2)
- [SPARK-39803] [SQL] Používejte
LevenshteinDistance
místoStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Podpora typu TimestampNTZ ve zdroji dat JDBC
- [SPARK-39781] [SS] Přidání podpory pro poskytování max_open_files poskytovateli úložiště stavů rocksdb
- [SPARK-39719] [R] Implementace databaseExists/getDatabase v SparkR podporuje 3L obor názvů
- [SPARK-39751] [SQL] Přejmenování metriky agregovaných klíčů hash
- [SPARK-39772] [SQL] Obor názvů by měl mít hodnotu null, pokud je databáze ve starých konstruktorech null.
- [SPARK-39625] [SPARK-38904][SQL] Přidání Dataset.as(StructType)
- [SPARK-39384] [SQL] Kompilace integrovaných agregačních funkcí lineární regrese pro dialekt JDBC
- [SPARK-39720] [R] Implementace tableExists/getTable v SparkR pro obor názvů 3L
- [SPARK-39744] [SQL]
REGEXP_INSTR
Přidání funkce - [SPARK-39716] [R] Nastavení currentDatabase/setCurrentDatabase/listCatalogs v sparkR podporují obor názvů 3L
- [SPARK-39788] [SQL] Přejmenovat
catalogName
nadialectName
proJdbcUtils
- [SPARK-39647] [JÁDRO] Registrace exekutoru v ESS před registrací BlockManageru
- [SPARK-39754] [JÁDRO][SQL] Odebrání nepoužívaných
import
nebo nepotřebných{}
- [SPARK-39706] [SQL] Nastavení chybějícího sloupce s hodnotou defaultValue jako konstantou v
ParquetColumnVector
- [SPARK-39699] [SQL] Zpřesnit funkci CollapseProject o výrazech vytváření kolekcí
- [SPARK-39737] [SQL]
PERCENTILE_CONT
aPERCENTILE_DISC
měl by podporovat agregační filtr. - [SPARK-39579] [SQL][PYTHON][R] Make ListFunctions/getFunction/functionExists kompatibilní s oborem názvů vrstvy 3
- [SPARK-39627] [SQL] Pushdown JDBC V2 by měl sjednotit rozhraní API pro kompilaci.
- [SPARK-39748] [SQL][SS] Zahrnutí logického plánu původu pro LogRDD, pokud pochází z datového rámce
- [SPARK-39385] [SQL] Překlad agregačních funkcí lineární regrese pro odsdílení změn
- [SPARK-39695] [SQL]
REGEXP_SUBSTR
Přidání funkce - [SPARK-39667] [SQL] Přidání dalšího alternativního řešení, pokud není dostatek paměti pro sestavení a vysílání tabulky
- [SPARK-39666] [ES-337834][SQL] Použití UnsafeProjection.create k respektu
spark.sql.codegen.factoryMode
ve výrazuEncoder - [SPARK-39643] [SQL] Zákaz výrazů poddotazů v hodnotách DEFAULT
- [SPARK-38647] [SQL] Přidání mixu SupportsReportOrdering v rozhraní pro Scan (DataSourceV2)
- [SPARK-39497] [SQL] Vylepšení výjimky analýzy chybějícího sloupce s klíčem mapy
- [SPARK-39661] [SQL] Vyhněte se vytváření nepotřebných protokolovacího nástroje SLF4J
- [SPARK-39713] [SQL] Režim ANSI: Přidání návrhu použití try_element_at pro INVALID_ARRAY_INDEX chybu
- [SPARK-38899] [SQL]DS V2 podporuje funkce push down datetime
- [SPARK-39638] [SQL] Změna použití
ConstantColumnVector
k ukládání sloupců oddílů doOrcColumnarBatchReader
- [SPARK-39653] [SQL] Vyčištění
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
zColumnVectorUtils
- [SPARK-39231] [SQL]
On/OffHeapColumnVector
MístoConstantColumnVector
ukládání sloupců oddílů doVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog by neměl vyvolat NoSuchDatabaseException v loadNamspaceMetadata
- [SPARK-39447] [SQL] Vyhněte se AssertionError v AdaptivníSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Přepracová MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec by měl respektovat řazení podřízených výstupů.
- [SPARK-39606] [SQL] Použití podřízených statistik k odhadu operátoru objednávky
- [SPARK-39611] [PYTHON][PS] Oprava nesprávných aliasů v array_ufunc
- [SPARK-39656] [SQL][3.3] Oprava nesprávného oboru názvů v DescribeNamespaceExec
- [SPARK-39675] [SQL] Přepnutí konfigurace spark.sql.codegen.factoryMode z testovacího účelu na interní účel
- [SPARK-39139] [SQL] DS V2 podporuje funkci push down DS V2 UDF.
- [SPARK-39434] [SQL] Poskytnutí kontextu dotazu chyby za běhu, když je index pole mimo hranici
- [SPARK-39479] [SQL] DS V2 podporuje odsdílení matematických funkcí (jiné než ANSI).
- [SPARK-39618] [SQL]
REGEXP_COUNT
Přidání funkce - [SPARK-39553] [JÁDRO] Při použití scaly 2.13 by nemělo při použití scaly 2.13 vyvolat neregistrovaný shuffle více vláken.
- [SPARK-38755] [PYTHON][3.3] Přidání souboru pro adresu chybějících obecných funkcí knihovny pandas
- [SPARK-39444] [SQL] Přidání optimalizačních poddotazůdochch
- [SPARK-39316] [SQL] Sloučení úrovněPrecision a CheckOverflow do desítkové binární aritmetické
- [SPARK-39505] [UŽIVATELSKÉ ROZHRANÍ] Obsah řídicího protokolu vykreslený v uživatelském rozhraní
- [SPARK-39448] [SQL] Přidat
ReplaceCTERefWithRepartition
dononExcludableRules
seznamu - [SPARK-37961] [SQL] Přepsání maxRows/maxRowsPerPartition pro některé logické operátory
- [SPARK-35223] Vrátit zpět přidání problémuNavigationLink
- [SPARK-39633] [SQL] Časové razítko podpory v sekundách pro TimeTravel pomocí možností datového rámce
- [SPARK-38796] [SQL] Aktualizace dokumentace pro řetězce formátu čísel pomocí funkcí {try_}to_number
- [SPARK-39650] [SS] Oprava nesprávného schématu hodnot v odstranění duplicitních dat streamování s zpětnou kompatibilitou
- [SPARK-39636] [JÁDRO][UŽIVATELSKÉ ROZHRANÍ] Oprava více chyb ve formátu JsonProtocol, které mají vliv na úrovně úložiště haldy a úlohy / ResourceRequests exekutoru
- [SPARK-39432] [SQL] Vrácení ELEMENT_AT_BY_INDEX_ZERO z element_at(*; 0)
- [SPARK-39349] Přidání centralizované metody CheckError pro kontrolu kvality cesty chyby
- [SPARK-39453] [SQL] DS V2 podporuje chybně agregační funkce bez agregace (jiné než ANSI).
- [SPARK-38978] [SQL] DS V2 podporuje operátor push down OFFSET
- [SPARK-39567] [SQL] Podpora intervalů ANSI ve funkcích percentilu
- [SPARK-39383] [SQL] Podpora VÝCHOZÍch sloupců ve zdrojích dat ALTER TABLE ALTER COLUMNS na V2
- [SPARK-39396] [SQL] Oprava výjimky přihlášení LDAP s kódem chyby 49 – neplatné přihlašovací údaje
- [SPARK-39548] [SQL] Příkaz CreateView s dotazem klauzule okna narazil na nesprávný problém s definicí okna
- [SPARK-39575] [AVRO] add ByteBuffer#rewind after ByteBuffer#get in Avr...
- [SPARK-39543] Možnost DataFrameWriterV2 by měla být předána vlastnostem úložiště, pokud se náhradní verze v1
- [SPARK-39564] [SS] Zveřejnění informací o tabulce katalogu logickému plánu v dotazu streamování
- [SPARK-39582] [SQL] Oprava značky "Od" pro
array_agg
- [SPARK-39388] [SQL] Opakované použití
orcSchema
při nasdílení predikátů Orc - [SPARK-39511] [SQL] Zvýšení místního limitu pro odsunutí 1 pro pravou stranu levé střední/anti join, pokud je podmínka spojení prázdná
- [SPARK-38614] [SQL] Nesdílejte limit dolů přes okno, které používá percent_rank
- [SPARK-39551] [SQL] Přidání neplatné kontroly plánu AQE
- [SPARK-39383] [SQL] Podpora VÝCHOZÍch sloupců ve zdrojích dat ALTER TABLE ADD COLUMNS do zdrojů dat V2
- [SPARK-39538] [SQL] Vyhněte se vytváření nepotřebných protokolovacího nástroje SLF4J
- [SPARK-39383] [SQL] Ruční backport do DBR 11.x: Refaktoring podpory výchozího sloupce pro přeskočení předávání primárního analyzátoru
- [SPARK-39397] [SQL] Relax AliasAwareOutputExpression pro podporu aliasu s výrazem
- [SPARK-39496] [SQL] Zpracování struktury null v
Inline.eval
- [SPARK-39545] [SQL] Metoda přepsání
concat
vExpressionSet
jazyce Scala 2.13 za účelem zlepšení výkonu - [SPARK-39340] [SQL] Pushdown DS v2 by měl umožňovat tečky v názvu sloupců nejvyšší úrovně.
- [SPARK-39488] [SQL] Zjednodušení zpracování chyb tempResolvedColumn
- [SPARK-38846] [SQL] Přidání explicitního mapování dat mezi číselným typem Teradata a počtem desetinných míst Sparku
- [SPARK-39520] [SQL] Metoda přepsání
--
proExpressionSet
scala 2.13 - [SPARK-39470] [SQL] Podpora přetypování intervalů ANSI na desetinná místa
- [SPARK-39477] [SQL] Odebrání informací o počtu dotazů ze zlatých souborů SQLQueryTestSuite
- [SPARK-39419] [SQL] Oprava ArraySortu pro vyvolání výjimky, když srovnávací program vrátí hodnotu null
- [SPARK-39061] [SQL] Správně nastavit hodnotu null pro
Inline
výstupní atributy - [SPARK-39320] [SQL] Podpora agregační funkce
MEDIAN
- [SPARK-39261] [JÁDRO] Vylepšení formátování nového textu pro chybové zprávy
- [SPARK-39355] [SQL] Jeden sloupec používá quoted k vytvoření UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE should redact properties
- [SPARK-37623] [SQL] Podpora agregační funkce ANSI: regr_intercept
- [SPARK-39374] [SQL] Zlepšení chybové zprávy pro seznam sloupců zadaných uživatelem
- [SPARK-39255] [SQL][3.3] Vylepšení chybových zpráv
- [SPARK-39321] [SQL] Refaktoring TryCast pro použití RuntimeReplaceable
- [SPARK-39406] [PYTHON] Přijmout pole NumPy v createDataFrame
- [SPARK-39267] [SQL] Vyčištění nepotřebného symbolu dsl
- [SPARK-39171] [SQL] Sjednocení výrazu přetypování
- [SPARK-28330] [SQL] Podpora ANSI SQL: klauzule posunu výsledku ve výrazu dotazu
- [SPARK-39203] [SQL] Přepsání umístění tabulky na absolutní identifikátor URI na základě identifikátoru URI databáze
- [SPARK-39313] [SQL]
toCatalystOrdering
pokud V2Expression nejde přeložit, by mělo selhat - [SPARK-39301] [SQL][PYTHON] Využití localRelation a respektování velikosti dávky šipky ve createDataFrame s optimalizací šipky
- [SPARK-39400] [SQL] Spark-sql by měl ve všech případech odebrat adresář prostředků Hive.
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 11.2.
Prostředí systému
- Operační systém: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1,10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
černý | 22.3.0 | bělit | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | kliknutí | 8.0.3 |
kryptografie | 3.4.8 | cyklista | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | ladění | 1.4.1 | dekoratér | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | informace o distribuci | 0.23ubuntu1 |
vstupní body | 0.3 | přehled omezujících vlastností | 1.0.0 | filelock | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 | verizonsolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
špatně zamyšlení | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
poznámkový blok | 6.4.5 | numpy | 1.20.3 | balení | 21.0 |
pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Polštář | 8.4.0 | jádro | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | žádosti | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
Šest | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
houževnatost | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.1 | vlastnosti | 5.1.0 | typing-extensions | 3.10.0.2 |
bezobslužné upgrady | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | kolo | 0.37.0 |
widgetsnbextension | 3.6.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku Microsoft CRAN 2022-08-15.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backporty | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bitové | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | startování | 1.3-28 |
vařit | 1.0-7 | verva | 1.1.3 | koště | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | volající | 3.7.1 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | Rozhraní příkazového řádku | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | barevný prostor | 2.0-3 |
commonmark | 1.8.0 | – kompilátor | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | pastelka | 1.5.1 | přihlašovací údaje | 1.3.2 |
kudrna | 4.3.2 | data.table | 1.14.2 | Power BI | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | trávit | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | tři tečky | 0.3.2 | evaluate | 0,16 |
fanynky | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.1 | foreach | 1.5.2 |
zahraniční | 0.8-82 | kovat | 0.2.0 | Fs | 1.5.2 |
budoucnost | 1.27.0 | future.apply | 1.9.0 | kloktadlo | 1.2.0 |
Generik | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globálních objektů | 0.16.0 | lepidlo | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | Grafika | 4.1.3 |
grDevices | 4.1.3 | mřížka | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | bezpečnostní přilba | 1.2.0 |
útočiště | 2.5.0 | highr | 0,9 | Hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | Id | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iterátory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
pletení | 1.39 | značení | 0.4.2 | později | 1.3.0 |
mříž | 0.20-45 | láva | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
sleva | 1,1 | MŠE | 7.3-56 | Matice | 1.4-1 |
memoise | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
mim | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | paralelně | 1.32.1 | pilíř | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
chválit | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Průběh | 1.2.2 | progressr | 0.10.1 | sliby | 1.2.0.1 |
proto | 1.0.0 | plná moc | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
Analýza rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
recepty | 1.0.1 | odvetný zápas | 1.0.1 | rematch2 | 2.1.2 |
vzdálená zařízení | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | drzá napodobenina | 0.4.2 |
váhy | 1.2.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
tvar | 1.4.6 | lesklý | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | prostorový | 7.3-11 |
spline křivky | 4.1.3 | sqldf | 0.4-11 | ČTVEREC | 2021.1 |
statistické údaje | 4.1.3 | Statistiky 4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | přežití | 3.2-13 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0,40 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | Uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | vroom | 1.5.7 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | podpora aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní native_ref javy | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní native_system javy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metriky – jádro | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty- common | 4.1.74.Final |
io.netty | obslužná rutina netty | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | kódování parquet | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | cílové skupiny a poznámky | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | pokračování jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | žerzejové společné | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podložky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |