Databricks Runtime 11.1 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 11.1, který využívá Apache Spark 3.3.0. Databricks vydala tuto verzi v červenci 2022.
Nové funkce a vylepšení
- Photon je GA
- Photon: Podporované typy instancí
- Změna datového kanálu teď může automaticky zpracovávat časové razítka mimo rozsah.
- Popis a zobrazení funkcí SQL teď ve výstupu zobrazují názvy katalogu Unity (Public Preview)
- Odvození schématu a vývoj souborů Parquet v auto loaderu (Public Preview)
- Auto Loader teď podporuje vývoj schématu pro Avro (GA)
- Podpora Delta Lake pro dynamické přepsání oddílů
- Podpora schématu informací pro objekty vytvořené v katalogu Unity
- Informační omezení tabulek Delta Lake s katalogem Unity (Public Preview)
- Katalog Unity je ga
- Rozdílové sdílení je obecně dostupné
Photon je GA
Photon je teď obecně dostupný, počínaje modulem Databricks Runtime 11.1. Photon je nativní vektorizovaný dotazovací modul v Azure Databricks, který je napsaný tak, aby byl přímo kompatibilní s rozhraními API služby Apache Spark a fungoval tak se stávajícím kódem. Photon se vyvíjí v jazyce C++, který využívá moderní hardware, a používá nejnovější techniky vektorizovaného zpracování dotazů k použití velkých objemů paralelismu na úrovni dat a instrukcí v procesorech, což zvyšuje výkon v reálných datech a aplikacích – to vše nativně ve vašem datovém jezeře.
Photon je součástí vysokovýkonného modulu runtime, který zrychluje provádění stávajících volání SQL a rozhraní API datového rámce a snižuje celkové náklady na jednotlivé úlohy. Photon se ve výchozím nastavení používá v datových skladech Databricks SQL.
Mezi nové funkce a vylepšení patří:
- Nový vektorizovaný operátor řazení
- Nové vektorizované funkce oken
- Nové typy a velikosti instancí ve všech cloudech
Omezení:
- Photon nepodporuje uživatelem definované funkce Scala nebo Pythonu.
- Photon nepodporuje RDD
- Photon nepodporuje strukturované streamování
Další informace najdete v následujících oznámeních photon.
Photon: New vectorized sort operator
Photon teď podporuje vektorizované řazení, pokud dotaz obsahuje SORT_BY
, CLUSTER_BY
nebo funkci okna s funkcí ORDER BY
.
Omezení: Photon nepodporuje globální ORDER BY
klauzuli. Řazení pro vyhodnocení oken bude fotonizováno, ale globální řazení bude dál běžet ve Sparku.
Photon: Nové vektorizované funkce okna
Photon teď podporuje vektorizované vyhodnocení funkce okna pro mnoho typů snímků a funkcí. Nové funkce oken zahrnují: row_number
, rank
, dense_rank
, lag
, lead
, percent_rank
, ntile
, a nth_value
. Podporované typy rámečků oken: spuštění (UNBOUNDED PRECEDING AND CURRENT ROW
), nevázané (UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING
), zvětšení (UNBOUNDED PRECEDING AND <OFFSET> FOLLOWING
) a zmenšení (<OFFSET> PRECEDING AND UNBOUNDED FOLLOWING
).
Omezení:
- Photon podporuje pouze
ROWS
verze všech typů snímků. - Photon zatím nepodporuje typ posuvného rámečku (
<OFFSET> PRECEDING AND <OFFSET> FOLLOWING
).
Photon: Podporované typy instancí
- dds_v5
- ds_v5
- eas_v4
- eds_v4
- eds_v5
- es_v5
- las_v3
- ls_v3
Změna datového kanálu teď může automaticky zpracovávat časové razítka mimo rozsah.
Změna datového kanálu (CDF) teď obsahuje nový režim, ve kterém můžete poskytovat časová razítka nebo verze za nejnovější verzí potvrzení, aniž by došlo k chybám. Tento režim je ve výchozím nastavení zakázaný. Můžete ho povolit nastavením konfigurace spark.databricks.delta.changeDataFeed.timestampOutOfRange.enabled
na true
.
Popis a zobrazení funkcí SQL teď ve výstupu zobrazují názvy katalogu Unity (Public Preview)
Příkazy DESC TABLE
, , DESC DATABASE
, DESC NAMESPACE
DESC SCHEMA
, DESC FUNCTION
EXPLAIN
a SHOW CREATE TABLE
nyní vždy zobrazují název katalogu ve svém výstupu.
Odvození schématu a vývoj souborů Parquet v auto loaderu (Public Preview)
Auto Loader teď podporuje odvozování schématu a vývoj souborů Parquet. Stejně jako formáty JSON, CSV a Avro teď můžete použít záchranný datový sloupec k záchraně neočekávaných dat, která se můžou objevit v souborech Parquet. To zahrnuje data, která nelze analyzovat v očekávaném datovém typu, sloupcích s jiným písmenem nebo dalších sloupcích, které nejsou součástí očekávaného schématu. Automatické zavaděče můžete nakonfigurovat tak, aby se schéma automaticky vyvinulo při přidávání nových sloupců do příchozích dat. Viz Konfigurace odvození schématu a vývoj v automatickém zavaděče.
Auto Loader teď podporuje vývoj schématu pro Avro (GA)
Viz Konfigurace odvození schématu a vývoj v automatickém zavaděče.
Podpora Delta Lake pro dynamické přepsání oddílů
Delta Lake teď umožňuje dynamickému režimu přepsání oddílů přepsat všechna existující data v každém logickém oddílu, pro který zápis potvrdí nová data. Zobrazení selektivního přepsání dat pomocí Delta Lake
Podpora schématu informací pro objekty vytvořené v katalogu Unity
Informační schéma poskytuje rozhraní API založené na SQL, které popisuje metadata různých databázových objektů, včetně tabulek a zobrazení, omezení a rutin.
V informačním schématu najdete sadu zobrazení popisujících objekty známé v katalogu schématu, které máte privilegované zobrazení.
Schéma SYSTEM
informací katalogu vrací informace o objektech ve všech katalogech v rámci metastoru.
Viz Schéma informací.
Informační omezení tabulek Delta Lake s katalogem Unity (Public Preview)
U tabulek Delta Lake s katalogem Unity teď můžete definovat omezení informačního primárního klíče a cizího klíče. Informační omezení se nevynucují. Viz klauzule CONSTRAINT.
Katalog Unity je ga
Katalog Unity je nyní obecně dostupný od Databricks Runtime 11.1. Viz téma Co je katalog Unity?.
Rozdílové sdílení je obecně dostupné
Rozdílové sdílení je teď obecně dostupné od Databricks Runtime 11.1.
Databricks ke sdílení Databricks Delta se plně spravuje bez nutnosti výměny tokenů. V uživatelském rozhraní nebo pomocí rozhraní SQL a REST API můžete vytvářet a spravovat poskytovatele, příjemce a sdílené složky.
Mezi funkce patří omezení přístupu příjemců, dotazování dat pomocí seznamů přístupu IP adres a omezení oblastí a delegování správy rozdílového sdílení na jiné správce. Můžete také dotazovat změny dat nebo sdílet přírůstkové verze pomocí kanálu změn dat. Podívejte se, co je rozdílové sdílení?
Změny chování
Redaction citlivých vlastností pro DESCRIBE TABLE a SHOW TABLE PROPERTIES
Citlivé vlastnosti jsou redactovány v datových rámcích a výstupu DESCRIBE TABLE
příkazů.SHOW TABLE PROPERTIES
Clustery úloh ve výchozím nastavení mají režim přístupu jednoho uživatele s Modulem Databricks Runtime 11.1 a novějším
Aby byl katalog Unity schopný, clustery úloh využívající Databricks Runtime 11.1 a vyšší vytvořené prostřednictvím uživatelského rozhraní úloh nebo rozhraní API úloh budou ve výchozím nastavení používat režim přístupu jednoho uživatele. Režim přístupu jednoho uživatele podporuje většinu programovacích jazyků, funkcí clusteru a funkcí zásad správného řízení dat. Režim sdíleného přístupu můžete stále konfigurovat prostřednictvím uživatelského rozhraní nebo rozhraní API, ale jazyky nebo funkce můžou být omezené.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- filelock od 3.6.0 do 3.7.1
- vykreslovat od 5.6.0 do 5.8.2
- protobuf od 3.20.1 do 4.21.2
- Upgradované knihovny jazyka R:
- Chron od 2.3-56 do 2.3-57
- DBI od 1.1.2 do 1.1.3
- dbplyr od 2.1.1 do 2.2.0
- e1071 od 1.7-9 do 1.7-11
- budoucí od 1.25.0 do 1.26.1
- globals from 0.14.0 to 0.15.1
- hardhat od 0.2.0 do 1.1.0
- ipred z 0.9-12 do 0.9-13
- openssl od 2.0.0 do 2.0.2
- paralelně od 1.31.1 do 1.32.0
- processx od 3.5.3 do 3.6.1
- progressr from 0.10.0 to 0.10.1
- proxy z 0.4-26 na 0.4-27
- ps od 1.7.0 do 1.7.1
- randomForest od 4.7-1 do 4.7-1.1
- roxygen2 od 7.1.2 do 7.2.0
- Rserve od 1.8-10 do 1.8-11
- RSQLite od 2.2.13 do 2.2.14
- sparklyr od 1.7.5 do 1.7.7
- tinytex od 0,38 do 0,40
- usethis from 2.1.5 to 2.1.6
- xfun od 0.30 do 0.31
- Upgradované knihovny Java:
- io.delta.delta-sharing-spark_2.12 od 0.4.0 do 0.5.0
Apache Spark
Databricks Runtime 11.2 zahrnuje Apache Spark 3.3.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 11.1 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-40054] [SQL] Obnovení syntaxe zpracování chyb try_cast()
- [SPARK-39489] [JÁDRO] Vylepšení výkonu protokolování událostí JsonProtocol pomocí Jacksona místo Json4s
- [SPARK-39319] [JÁDRO][SQL] Vytváření kontextů dotazů jako součásti
SparkThrowable
- [SPARK-40085] [SQL] K označení chyb použijte třídu chyb INTERNAL_ERROR místo IllegalStateException.
- [SPARK-40001] [SQL] Zápisy NULL do výchozích sloupců JSON zapisují do úložiště hodnotou null.
- [SPARK-39635] [SQL] Podpora metrik ovladačů ve vlastním rozhraní API metrik DS v2
- [SPARK-39184] [SQL] Zpracování nedostatečně využitého pole výsledků v sekvencích data a časového razítka
- [SPARK-40019] [SQL] Refaktoring komentáře ArrayType containsNull a refaktoring logiky nedorozumění ve výrazu collectionOperator o
containsNull
- [SPARK-39989] [SQL] Podpora odhadu statistiky sloupců, pokud je výraz skládací
- [SPARK-39926] [SQL] Oprava chyby ve sloupci DEFAULT pro ne vektorizované kontroly Parquet
- [SPARK-40052] [SQL] Zpracování přímých bajtů vyrovnávacích pamětí v VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Oprava typu cílového intervalu v chybách přetečení přetečení
- [SPARK-39835] [SQL] Oprava OdstraněníSorts odebrání globálního řazení pod místním řazením
- [SPARK-40002] [SQL] Neposouvejte limit dolů přes okno pomocí ntile
- [SPARK-39976] [SQL] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
- [SPARK-39985] [SQL] Povolení implicitních výchozích hodnot sloupců v vkládání z datových rámců
- [SPARK-39776] [SQL] Podrobný řetězec JOIN by měl přidat typ spojení
- [SPARK-38901] [SQL] DS V2 podporuje funkce chybně odsazení
- [SPARK-40028] [SQL][Sledovat] Vylepšení příkladů řetězcových funkcí
- [SPARK-39983] [JÁDRO][SQL] Neupamějte neserializované vztahy vysílání na ovladači.
- [SPARK-39812] [SQL] Zjednodušení kódu, pomocí kterého se konstruuje
AggregateExpression
toAggregateExpression
- [SPARK-40028] [SQL] Přidání binárních příkladů pro řetězcové výrazy
- [SPARK-39981] [SQL] Vyvolá výjimku QueryExecutionErrors.castingCauseOverflowErrorInTableInsert v castu
- [SPARK-40007] [PYTHON][SQL] Přidání režimu do funkcí
- [SPARK-40008] [SQL] Podpora přetypování integrálů do intervalů ANSI
- [SPARK-40003] [PYTHON][SQL] Přidání mediánu do funkcí
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand by měl recache result relation
- [SPARK-39951] [SQL] Aktualizace sloupcové kontroly Parquet V2 pro vnořená pole
- [SPARK-39775] [JÁDRO][AVRO] Zakázání ověřování výchozích hodnot při analýze schémat Avro
- [SPARK-33236] [shuffle] Backport do DBR 11.x: Povolení služby náhodného prohazování na základě push pro uložení stavu v databázi na úrovni NM pro zachování práce restartování
- [SPARK-39836] [SQL] Zjednodušení nástroje V2ExpressionBuilder extrahováním běžné metody
- [SPARK-39867] [SQL] Globální limit by neměl dědit OrderPreservingUnaryNode
- [SPARK-39873] [SQL] Odebrání
OptimizeLimitZero
a sloučení doEliminateLimits
- [SPARK-39961] [SQL] Ds V2 push-down přeložit přetypování, pokud je přetypování bezpečné
- [SPARK-39872] [SQL] Změna použití
BytePackerForLong#unpack8Values
se vstupním rozhraním API pole vVectorizedDeltaBinaryPackedReader
- [SPARK-39858] [SQL] Odebrání nepotřebných
AliasHelper
pravidel neboPredicateHelper
pro některá pravidla - [SPARK-39962] [WARMFIX][ES-393486][PYTHON][SQL] Použít projekci, pokud jsou atributy skupiny prázdné
- [SPARK-39900] [SQL] Řešení částečné nebo negatedované podmínky v predikátu binárního formátu
- [SPARK-39904] [SQL] Přejmenujte inferDate tak, aby preferoval Datum a objasnil sémantiku možnosti ve zdroji dat CSV.
- [SPARK-39958] [SQL] Přidání protokolu upozornění při nemožnosti načíst vlastní objekt metriky
- [SPARK-39936] [SQL] Uložení schématu ve vlastnostech zobrazení Sparku
- [SPARK-39932] [SQL] WindowExec by měl vymazat konečnou vyrovnávací paměť oddílu.
- [SPARK-37194] [SQL] Vyhněte se zbytečnému řazení v zápisu v1, pokud není dynamický oddíl
- [SPARK-39902] [SQL] Přidání podrobností kontroly do uzlu kontroly plánu Sparku ve SparkUI
- [SPARK-39865] [SQL] Zobrazení správných chybových zpráv u chyb přetečení v vložení tabulky
- [SPARK-39940] [SS] Aktualizace tabulky katalogu při dotazu streamování pomocí jímky DSv1
- [SPARK-39827] [SQL] Použití třídy
ARITHMETIC_OVERFLOW
chyb v přetečení intadd_months()
- [SPARK-39914] [SQL] Přidání filtru DS V2 do převodu filtru V1
- [SPARK-39857] [SQL] Ruční DBR 11.x backport; V2ExpressionBuilder používá nesprávný datový typ LiteralValue pro predikát #43454
- [SPARK-39840] [SQL][PYTHON] Factor PythonArrowInput jako symetrie PythonArrowOutput
- [SPARK-39651] [SQL] Vyřazení podmínky filtru, pokud je porovnání s randem deterministické
- [SPARK-39877] [PYTHON] Přidání překontování do rozhraní API datového rámce PySpark
- [SPARK-39847] [WARMFIX][SS] Oprava stavu časování v RocksDBLoader.loadLibrary(), pokud je přerušeno vlákno volajícího
- [SPARK-39909] [SQL] Uspořádání kontroly odsdílení informací pro JDBCV2Suite
- [SPARK-39834] [SQL][SS] Zahrnout statistiky původu a omezení logickéhordd, pokud pochází z datového rámce
- [SPARK-39849] [SQL] Dataset.as(StructType) vyplní chybějící nové sloupce s hodnotou null.
- [SPARK-39860] [SQL] Další výrazy by měly rozšířit predikát
- [SPARK-39823] [SQL][PYTHON] Přejmenování Dataset.as jako Dataset.to a přidání DataFrame.to v PySparku
- [SPARK-39918] [SQL][PODVERZE] Nahraďte v chybové zprávě slovo "un-comparable" slovem "incomparable" (nekompatibilní).
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder používá nesprávný datový typ LiteralValue pro predikát In
- [SPARK-39862] [SQL] Ruční backport pro PR 43654 cílení DBR 11.x: Aktualizace SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS povolit/odepřít ALTER TABLE ... Příkazy ADD COLUMN zvlášť
- [SPARK-39844] [SQL] Ruční backport pro PR 43652 cílení DBR 11.x
- [SPARK-39899] [SQL] Oprava předávání parametrů zprávy do
InvalidUDFClassException
- [SPARK-39890] [SQL] Make TakeOrderedAndProjectExec dědí AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Podpora typu CharType v PySpark
- [SPARK-38864] [SQL] Přidání nepřekontové nebo roztavené datové sady
- [SPARK-39864] [SQL] Lazily zaregistrovat ExecutionListenerBus
- [SPARK-39808] [SQL] Podpora režimu agregační funkce MODE
- [SPARK-39839] [SQL] Zpracování speciálního případu s proměnnou s nulovou délkou Decimal s nenulovým posunemAndSize v nezabezpečené kontrole integrity struktury
- [SPARK-39875] [SQL] Změna
protected
metody v konečné třídě naprivate
nebopackage-visible
- [SPARK-39731] [SQL] Oprava potíží se zdroji dat CSV a JSON při analýze kalendářních dat ve formátu yyyyMDd pomocí zásad analyzátoru opravených času
- [SPARK-39805] [SS] Vyřazení triggeru.once a zvýšení úrovně triggeru.AvailableNow
- [SPARK-39784] [SQL] Po překladu výrazu Catalyst expression do filtru zdroje dat na pravé straně filtru zdroje dat vložte hodnoty literálu.
- [SPARK-39672] [SQL][3.1] Oprava odebrání projektu před filtrováním s korelovaným poddotazem
- [SPARK-39552] [SQL] Sjednocení v1 a v2
DESCRIBE TABLE
- [SPARK-39806] [SQL]
_metadata
Přístup k děleným tabulce může chybově dojít k chybovému ukončení dotazu - [SPARK-39810] [SQL] Catalog.tableExists by měl zpracovávat vnořený obor názvů
- [SPARK-37287] [SQL] Vytáhněte dynamické oddíly a řazení kbelíků z FileFormatWriter
- [SPARK-39469] [SQL] Odvození typu data pro odvození schématu CSV
- [SPARK-39148] [SQL] Agregace DS V2 může fungovat s posunem nebo limitem
- [SPARK-39818] [SQL] Oprava chyby v polích ARRAY, STRUCT, MAP s výchozími hodnotami s poli NULL
- [SPARK-39792] [SQL] Přidání DecimalDivideWithOverflowCheck pro desetinný průměr
- [SPARK-39798] [SQL] Replcace
toSeq.toArray
with.toArray[Any]
in constructor ofGenericArrayData
- [SPARK-39759] [SQL] Implementace listIndexes v JDBC (dialekt H2)
- [SPARK-39385] [SQL] Podporuje funkci push down
REGR_AVGX
aREGR_AVGY
- [SPARK-39787] [SQL] Použití třídy chyb v analýze chyby funkce to_timestamp
- [SPARK-39760] [PYTHON] Podpora Varchar v PySpark
- [SPARK-39557] [SQL] Ruční backport do DBR 11.x: Podpora ARRAY, STRUCT, MAP typů jako VÝCHOZÍ hodnoty
- [SPARK-39758] [SQL][3.3] Oprava NPE z funkcí regexp u neplatných vzorů
- [SPARK-39749] [SQL] Režim ANSI SQL: Použití prostého řetězcového vyjádření při přetypování desetinných míst na řetězec
- [SPARK-39704] [SQL] Implementace createIndex &dropIndex &indexExists v JDBC (dialekt H2)
- [SPARK-39803] [SQL] Používejte
LevenshteinDistance
místoStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Podpora typu TimestampNTZ ve zdroji dat JDBC
- [SPARK-39781] [SS] Přidání podpory pro poskytování max_open_files poskytovateli úložiště stavů rocksdb
- [SPARK-39719] [R] Implementace databaseExists/getDatabase v SparkR podporuje 3L obor názvů
- [SPARK-39751] [SQL] Přejmenování metriky agregovaných klíčů hash
- [SPARK-39772] [SQL] Obor názvů by měl mít hodnotu null, pokud je databáze ve starých konstruktorech null.
- [SPARK-39625] [SPARK-38904][SQL] Přidání Dataset.as(StructType)
- [SPARK-39384] [SQL] Kompilace integrovaných agregačních funkcí lineární regrese pro dialekt JDBC
- [SPARK-39720] [R] Implementace tableExists/getTable v SparkR pro obor názvů 3L
- [SPARK-39744] [SQL]
REGEXP_INSTR
Přidání funkce - [SPARK-39716] [R] Nastavení currentDatabase/setCurrentDatabase/listCatalogs v sparkR podporují obor názvů 3L
- [SPARK-39788] [SQL] Přejmenovat
catalogName
nadialectName
proJdbcUtils
- [SPARK-39647] [JÁDRO] Registrace exekutoru v ESS před registrací BlockManageru
- [SPARK-39754] [JÁDRO][SQL] Odebrání nepoužívaných
import
nebo nepotřebných{}
- [SPARK-39706] [SQL] Nastavení chybějícího sloupce s hodnotou defaultValue jako konstantou v
ParquetColumnVector
- [SPARK-39699] [SQL] Zpřesnit funkci CollapseProject o výrazech vytváření kolekcí
- [SPARK-39737] [SQL]
PERCENTILE_CONT
aPERCENTILE_DISC
měl by podporovat agregační filtr. - [SPARK-39579] [SQL][PYTHON][R] Make ListFunctions/getFunction/functionExists kompatibilní s oborem názvů vrstvy 3
- [SPARK-39627] [SQL] Pushdown JDBC V2 by měl sjednotit rozhraní API pro kompilaci.
- [SPARK-39748] [SQL][SS] Zahrnutí logického plánu původu pro LogRDD, pokud pochází z datového rámce
- [SPARK-39385] [SQL] Překlad agregačních funkcí lineární regrese pro odsdílení změn
- [SPARK-39695] [SQL]
REGEXP_SUBSTR
Přidání funkce - [SPARK-39667] [SQL] Přidání dalšího alternativního řešení, pokud není dostatek paměti pro sestavení a vysílání tabulky
- [SPARK-39666] [ES-337834][SQL] Použití UnsafeProjection.create k respektu
spark.sql.codegen.factoryMode
ve výrazuEncoder - [SPARK-39643] [SQL] Zákaz výrazů poddotazů v hodnotách DEFAULT
- [SPARK-38647] [SQL] Přidání mixu SupportsReportOrdering v rozhraní pro Scan (DataSourceV2)
- [SPARK-39497] [SQL] Vylepšení výjimky analýzy chybějícího sloupce s klíčem mapy
- [SPARK-39661] [SQL] Vyhněte se vytváření nepotřebných protokolovacího nástroje SLF4J
- [SPARK-39713] [SQL] Režim ANSI: Přidání návrhu použití try_element_at pro INVALID_ARRAY_INDEX chybu
- [SPARK-38899] [SQL]DS V2 podporuje funkce push down datetime
- [SPARK-39638] [SQL] Změna použití
ConstantColumnVector
k ukládání sloupců oddílů doOrcColumnarBatchReader
- [SPARK-39653] [SQL] Vyčištění
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
zColumnVectorUtils
- [SPARK-39231] [SQL]
On/OffHeapColumnVector
MístoConstantColumnVector
ukládání sloupců oddílů doVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog by neměl vyvolat NoSuchDatabaseException v loadNamspaceMetadata
- [SPARK-39447] [SQL] Vyhněte se AssertionError v AdaptivníSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Přepracová MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec by měl respektovat řazení podřízených výstupů.
- [SPARK-39606] [SQL] Použití podřízených statistik k odhadu operátoru objednávky
- [SPARK-39611] [PYTHON][PS] Oprava nesprávných aliasů v array_ufunc
- [SPARK-39656] [SQL][3.3] Oprava nesprávného oboru názvů v DescribeNamespaceExec
- [SPARK-39675] [SQL] Přepnutí konfigurace spark.sql.codegen.factoryMode z testovacího účelu na interní účel
- [SPARK-39139] [SQL] DS V2 podporuje funkci push down DS V2 UDF.
- [SPARK-39434] [SQL] Poskytnutí kontextu dotazu chyby za běhu, když je index pole mimo hranici
- [SPARK-39479] [SQL] DS V2 podporuje odsdílení matematických funkcí (jiné než ANSI).
- [SPARK-39618] [SQL]
REGEXP_COUNT
Přidání funkce - [SPARK-39553] [JÁDRO] Při použití scaly 2.13 by nemělo při použití scaly 2.13 vyvolat neregistrovaný shuffle více vláken.
- [SPARK-38755] [PYTHON][3.3] Přidání souboru pro adresu chybějících obecných funkcí knihovny pandas
- [SPARK-39444] [SQL] Přidání optimalizačních poddotazůdochch
- [SPARK-39316] [SQL] Sloučení úrovněPrecision a CheckOverflow do desítkové binární aritmetické
- [SPARK-39505] [UŽIVATELSKÉ ROZHRANÍ] Obsah řídicího protokolu vykreslený v uživatelském rozhraní
- [SPARK-39448] [SQL] Přidat
ReplaceCTERefWithRepartition
dononExcludableRules
seznamu - [SPARK-37961] [SQL] Přepsání maxRows/maxRowsPerPartition pro některé logické operátory
- [SPARK-35223] Vrátit zpět přidání problémuNavigationLink
- [SPARK-39633] [SQL] Časové razítko podpory v sekundách pro TimeTravel pomocí možností datového rámce
- [SPARK-38796] [SQL] Aktualizace dokumentace pro řetězce formátu čísel pomocí funkcí {try_}to_number
- [SPARK-39650] [SS] Oprava nesprávného schématu hodnot v odstranění duplicitních dat streamování s zpětnou kompatibilitou
- [SPARK-39636] [JÁDRO][UŽIVATELSKÉ ROZHRANÍ] Oprava více chyb ve formátu JsonProtocol, které mají vliv na úrovně úložiště haldy a úlohy / ResourceRequests exekutoru
- [SPARK-39432] [SQL] Vrácení ELEMENT_AT_BY_INDEX_ZERO z element_at(*; 0)
- [SPARK-39349] Přidání centralizované metody CheckError pro kontrolu kvality cesty chyby
- [SPARK-39453] [SQL] DS V2 podporuje chybně agregační funkce bez agregace (jiné než ANSI).
- [SPARK-38978] [SQL] DS V2 podporuje operátor push down OFFSET
- [SPARK-39567] [SQL] Podpora intervalů ANSI ve funkcích percentilu
- [SPARK-39383] [SQL] Podpora VÝCHOZÍch sloupců ve zdrojích dat ALTER TABLE ALTER COLUMNS na V2
- [SPARK-39396] [SQL] Oprava výjimky přihlášení LDAP s kódem chyby 49 – neplatné přihlašovací údaje
- [SPARK-39548] [SQL] Příkaz CreateView s dotazem klauzule okna narazil na nesprávný problém s definicí okna
- [SPARK-39575] [AVRO] add ByteBuffer#rewind after ByteBuffer#get in Avr...
- [SPARK-39543] Možnost DataFrameWriterV2 by měla být předána vlastnostem úložiště, pokud se náhradní verze v1
- [SPARK-39564] [SS] Zveřejnění informací o tabulce katalogu logickému plánu v dotazu streamování
- [SPARK-39582] [SQL] Oprava značky "Od" pro
array_agg
- [SPARK-39388] [SQL] Opakované použití
orcSchema
při nasdílení predikátů Orc - [SPARK-39511] [SQL] Zvýšení místního limitu pro odsunutí 1 pro pravou stranu levé střední/anti join, pokud je podmínka spojení prázdná
- [SPARK-38614] [SQL] Nesdílejte limit dolů přes okno, které používá percent_rank
- [SPARK-39551] [SQL] Přidání neplatné kontroly plánu AQE
- [SPARK-39383] [SQL] Podpora VÝCHOZÍch sloupců ve zdrojích dat ALTER TABLE ADD COLUMNS do zdrojů dat V2
- [SPARK-39538] [SQL] Vyhněte se vytváření nepotřebných protokolovacího nástroje SLF4J
- [SPARK-39383] [SQL] Ruční backport do DBR 11.x: Refaktoring podpory výchozího sloupce pro přeskočení předávání primárního analyzátoru
- [SPARK-39397] [SQL] Relax AliasAwareOutputExpression pro podporu aliasu s výrazem
- [SPARK-39496] [SQL] Zpracování struktury null v
Inline.eval
- [SPARK-39545] [SQL] Metoda přepsání
concat
vExpressionSet
jazyce Scala 2.13 za účelem zlepšení výkonu - [SPARK-39340] [SQL] Pushdown DS v2 by měl umožňovat tečky v názvu sloupců nejvyšší úrovně.
- [SPARK-39488] [SQL] Zjednodušení zpracování chyb tempResolvedColumn
- [SPARK-38846] [SQL] Přidání explicitního mapování dat mezi číselným typem Teradata a počtem desetinných míst Sparku
- [SPARK-39520] [SQL] Metoda přepsání
--
proExpressionSet
scala 2.13 - [SPARK-39470] [SQL] Podpora přetypování intervalů ANSI na desetinná místa
- [SPARK-39477] [SQL] Odebrání informací o počtu dotazů ze zlatých souborů SQLQueryTestSuite
- [SPARK-39419] [SQL] Oprava ArraySortu pro vyvolání výjimky, když srovnávací program vrátí hodnotu null
- [SPARK-39061] [SQL] Správně nastavit hodnotu null pro
Inline
výstupní atributy - [SPARK-39320] [SQL] Podpora agregační funkce
MEDIAN
- [SPARK-39261] [JÁDRO] Vylepšení formátování nového textu pro chybové zprávy
- [SPARK-39355] [SQL] Jeden sloupec používá quoted k vytvoření UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE should redact properties
- [SPARK-37623] [SQL] Podpora agregační funkce ANSI: regr_intercept
- [SPARK-39374] [SQL] Zlepšení chybové zprávy pro seznam sloupců zadaných uživatelem
- [SPARK-39255] [SQL][3.3] Vylepšení chybových zpráv
- [SPARK-39321] [SQL] Refaktoring TryCast pro použití RuntimeReplaceable
- [SPARK-39406] [PYTHON] Přijmout pole NumPy v createDataFrame
- [SPARK-39267] [SQL] Vyčištění nepotřebného symbolu dsl
- [SPARK-39171] [SQL] Sjednocení výrazu přetypování
- [SPARK-28330] [SQL] Podpora ANSI SQL: klauzule posunu výsledku ve výrazu dotazu
- [SPARK-39203] [SQL] Přepsání umístění tabulky na absolutní identifikátor URI na základě identifikátoru URI databáze
- [SPARK-39313] [SQL]
toCatalystOrdering
pokud V2Expression nejde přeložit, by mělo selhat - [SPARK-39301] [SQL][PYTHON] Využití localRelation a respektování velikosti dávky šipky ve createDataFrame s optimalizací šipky
- [SPARK-39400] [SQL] Spark-sql by měl ve všech případech odebrat adresář prostředků Hive.
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 11.1.
Prostředí systému
- Operační systém: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 1.2.1
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1,10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
černý | 22.3.0 | bělit | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | kliknutí | 8.0.3 |
kryptografie | 3.4.8 | cyklista | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | ladění | 1.4.1 | dekoratér | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | informace o distribuci | 0.23ubuntu1 |
vstupní body | 0.3 | přehled omezujících vlastností | 1.0.0 | filelock | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 | verizonsolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
špatně zamyšlení | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
poznámkový blok | 6.4.5 | numpy | 1.20.3 | balení | 21.0 |
pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Polštář | 8.4.0 | jádro | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | žádosti | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
Šest | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
houževnatost | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.1 | vlastnosti | 5.1.0 | typing-extensions | 3.10.0.2 |
bezobslužné upgrady | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | kolo | 0.37.0 |
widgetsnbextension | 3.6.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku Microsoft CRAN 2022-08-15.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backporty | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bitové | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | startování | 1.3-28 |
vařit | 1.0-7 | verva | 1.1.3 | koště | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | volající | 3.7.1 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | Rozhraní příkazového řádku | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | barevný prostor | 2.0-3 |
commonmark | 1.8.0 | – kompilátor | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | pastelka | 1.5.1 | přihlašovací údaje | 1.3.2 |
kudrna | 4.3.2 | data.table | 1.14.2 | Power BI | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | trávit | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | tři tečky | 0.3.2 | evaluate | 0,16 |
fanynky | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.1 | foreach | 1.5.2 |
zahraniční | 0.8-82 | kovat | 0.2.0 | Fs | 1.5.2 |
budoucnost | 1.27.0 | future.apply | 1.9.0 | kloktadlo | 1.2.0 |
Generik | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globálních objektů | 0.16.0 | lepidlo | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | Grafika | 4.1.3 |
grDevices | 4.1.3 | mřížka | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | bezpečnostní přilba | 1.2.0 |
útočiště | 2.5.0 | highr | 0,9 | Hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | Id | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iterátory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
pletení | 1.39 | značení | 0.4.2 | později | 1.3.0 |
mříž | 0.20-45 | láva | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
sleva | 1,1 | MŠE | 7.3-56 | Matice | 1.4-1 |
memoise | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
mim | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | paralelně | 1.32.1 | pilíř | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
chválit | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Průběh | 1.2.2 | progressr | 0.10.1 | sliby | 1.2.0.1 |
proto | 1.0.0 | plná moc | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
Analýza rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
recepty | 1.0.1 | odvetný zápas | 1.0.1 | rematch2 | 2.1.2 |
vzdálená zařízení | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | drzá napodobenina | 0.4.2 |
váhy | 1.2.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
tvar | 1.4.6 | lesklý | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | prostorový | 7.3-11 |
spline křivky | 4.1.3 | sqldf | 0.4-11 | ČTVEREC | 2021.1 |
statistické údaje | 4.1.3 | Statistiky 4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | přežití | 3.2-13 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0,40 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | Uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | vroom | 1.5.7 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | podpora aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní native_ref javy | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní native_system javy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metriky – jádro | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty- common | 4.1.74.Final |
io.netty | obslužná rutina netty | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | kódování parquet | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | cílové skupiny a poznámky | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | pokračování jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | žerzejové společné | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podložky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |