Databricks Runtime 15.2 (EoS)
Poznámka
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory naleznete v části historie ukončení podpory. Informace o všech podporovaných verzích Databricks Runtime najdete v poznámkách k verzím a kompatibilitě Databricks Runtime.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 15.2, který využívá Apache Spark 3.5.0.
Databricks vydala tuto verzi v květnu 2024.
Spropitné
Pro zobrazení poznámek k verzím Databricks Runtime, které dosáhly konce podpory (EoS), se podívejte do poznámek k verzím Databricks Runtime s ukončenou podporou. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.
Změny chování
Vacuum vyčistí soubory metadat COPY INTO
Spuštění VACUUM na table napsaném pomocí COPY INTO
nyní odstraní neodkazovaná metadata spojená se sledováním importovaných souborů. Na provozní sémantiku COPY INTO
nemá žádný vliv .
Federace Lakehouse je obecně dostupná (GA)
V Databricks Runtime 15.2 a novějších jsou obecně dostupné konektory Lakehouse Federation následujících typů databází:
- MySQL
- PostgreSQL
- Amazon Redshift
- Sněhová vločka
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
Tato verze také přináší následující vylepšení:
Podpora ověřování jednotného přihlašování (SSO) v konektorech Snowflake a microsoft SQL Server.
Podpora Azure Private Link pro konektor SQL Serveru z bezserverových výpočetních prostředí. Viz krok 3: Vytvoření pravidel privátního koncového bodu.
Podpora dalších optimalizací (řetězcové funkce, matematické a různé funkce).
Vylepšili jsme míru úspěšnosti posunu mezi různými obrazci dotazů.
Další možnosti ladění nabízených změn:
- Výstup
EXPLAIN FORMATTED
zobrazí text potlačeného dotazu. - V uživatelském rozhraní profilu dotazu se zobrazí text dotazu provedeného na nižší úrovni, identifikátory federovaných uzlů a doby provádění dotazů JDBC (v podrobném režimu). Viz Zobrazení systémem generovaných federovaných dotazů.
- Výstup
BY POSITION
pro mapování column pomocí COPY INTO
se soubory CSV bez záhlaví
V Databricks Runtime 15.2 a novějších můžete použít klíčová slova BY POSITION
(nebo alternativní syntaxi ( col_name [ , <col_name> ... ] )
) s COPY INTO
pro soubory CSV bez hlaviček, abyste zjednodušili mapování ze zdroje column na cílové tablecolumn. Viz Parameters.
Snížení spotřeby paměti v případě selhání úloh Sparku s chybou Resubmitted
V Databricks Runtime 15.2 a novějších je návratová hodnota metody Spark TaskInfo.accumulables()
prázdná, pokud úlohy selžou s chybou Resubmitted
. Metoda dříve vrátila values z dřívějšího úspěšného pokusu o provedení úkolu. Tato změna chování má vliv na následující uživatele:
- Úlohy Sparku, které používají třídu
EventLoggingListener
- Vlastní listenery v Spark
Pokud chcete restore předchozí chování, setspark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
false
.
Zobrazení verzí plánu adaptivního spouštění dotazů je zakázané.
Aby se snížila spotřeba paměti, verze plánu adaptivního spouštění dotazů (AQE) jsou ve výchozím nastavení v uživatelském rozhraní Sparku zakázané. Pokud chcete povolit zobrazení verzí plánu AQE v uživatelském rozhraní Sparku, setspark.databricks.sql.aqe.showPlanChangesInUI.enabled
true
.
Limit u uchovávaných dotazů se sníží, aby se snížilo využití paměti uživatelského rozhraní Sparku.
V Databricks Runtime 15.2 a novějších, aby se snížila paměť spotřebovaná uživatelským rozhraním Sparku ve výpočetních prostředcích Azure Databricks, limit počtu dotazů viditelných v uživatelském rozhraní se sníží z 1000 na 1000. Pro změnu limitna novou hodnotu set použijte konfiguraci spark.sql.ui.retainedExecutions
Sparku.
DESCRIBE HISTORY
teď zobrazuje shlukování columns pro tables, které používají kapalné shlukování.
Když spustíte dotaz DESCRIBE HISTORY
, operationParameters
column ve výchozím nastavení zobrazí pole clusterBy
pro operace CREATE OR REPLACE
a OPTIMIZE
. U Delta table, který používá shlukování kapalin, se pole clusterBy
naplní shlukováním tableze columns. Pokud table nepoužívá shlukování kapalin, pole je prázdné.
Nové funkce a vylepšení
Podpora primárních a cizích klíčů je nyní obecně dostupná.
Podpora primárních a cizích klíčů v Databricks Runtime je obecně dostupná. Verze GA obsahuje následující změny oprávnění vyžadovaných k používání primárních a cizích klíčů:
- Chcete-li definovat cizí klíč, musíte mít oprávnění
SELECT
pro table s primárním klíčem, na který cizí klíč odkazuje. Nemusíte vlastnit table s primárním klíčem, což bylo dříve požadováno. - Vyřazení primárního klíče pomocí klauzule
CASCADE
nevyžaduje oprávnění k tables definující cizí klíče, které odkazují na primární klíč. Dříve jste museli vlastnit referenční tables. - Vyřazení table zahrnující omezení teď vyžaduje stejná oprávnění jako vyřazení tables, která neobsahují omezení.
Informace o použití primárních a cizích klíčů s tables nebo viewsnajdete v klauzuli CONSTRAINT, ve klauzuli ADD CONSTRAINTa v klauzuli DROP CONSTRAINT.
Liquid clustering je obecně dostupné
Podpora pro liquid clustering je nyní obecně dostupná s Databricks Runtime 15.2 nebo vyšší. Podívejte se na Použití kapalného clusteringu pro Delta tables.
Rozšíření typu je ve verzi Public Preview.
U tables podporovaných Delta Lake teď můžete povolit rozšíření typu. Tables s povoleným rozšířením typu umožňují změnit typ columns na širší datový typ bez přepsání podkladových datových souborů. Viz Rozšíření typu.
Schema klauzule evoluce přidána do syntaxe SQL pro sloučení
Teď můžete do příkazu sloučení SQL přidat klauzuli WITH SCHEMA EVOLUTION
, která umožňuje vývoj schema operace. Viz Schema syntaxe vývoje pro slučovací.
Vlastní zdroje dat PySpark jsou k dispozici ve verzi Public Preview.
Zdroj dat PySpark je možné vytvořit pomocí rozhraní API zdroje dat Pythonu (PySpark), které umožňuje čtení z vlastních zdrojů dat a zápis do vlastních jímek dat v Apache Sparku pomocí Pythonu. Viz vlastní zdroje dat PySpark
ApplyInPandas a MapInPandas jsou nyní dostupné na Unity Catalog pro výpočty v režimu sdíleného přístupu.
V rámci verze údržby Databricks Runtime 14.3 LTS se teď podporují typy applyInPandas
a mapInPandas
UDF v režimu sdíleného přístupu, na kterém běží Databricks Runtime 14.3 a novější.
Použití dbutils.widgets.getAll() k get všech widgetů v poznámkovém bloku
Pomocí dbutils.widgets.getAll()
getvalues všech widgetů v poznámkovém bloku. To je užitečné zejména při předávání více widgetů values do dotazu Spark SQL.
podpora inventáře Vacuum
Při spuštění příkazu VACUUM
v tableDelta teď můžete určit inventář souborů, které je potřeba vzít v úvahu. Podívejte se na dokumentaci OSS Delta.
Podpora funkcí komprese Zstandard
Teď můžete pomocí funkcí zst_compress, zstd_decompressa try_zstd_decompress komprimovat a dekomprimovat BINARY
data.
Opravy chyb
Plány dotazů v uživatelském rozhraní SQL teď správně zobrazují PhotonWriteStage
Při zobrazení příkazů write
ve uživatelském rozhraní SQL v plánech dotazů se nesprávně zobrazovaly jako operátor PhotonWriteStage
. V této verzi se uživatelské rozhraní aktualizuje tak, aby zobrazoval PhotonWriteStage
jako fázi. Toto je pouze změna uživatelského rozhraní a nemá vliv na způsob spouštění dotazů.
Ray se aktualizuje, aby opravil problémy se spouštěním clusterů Ray.
Tato verze obsahuje opravenou verzi Ray, která opravuje zásadní změnu, která brání clusterům Ray ve spuštění s Modulem Databricks Runtime pro Machine Learning. Tato změna zajišťuje, aby funkce Ray byla stejná jako verze Databricks Runtime starší než 15.2.
Oprava třídy chyb pro funkce DataFrame.sort()
a DataFrame.sortWithinPartitions()
Tato verze obsahuje update do funkcí PySpark DataFrame.sort()
a DataFrame.sortWithinPartitions()
, aby se zajistilo, že při předání 0
jako argument indexu dojde k vyvolání třídy chyb ZERO_INDEX
. Dříve došlo k vyvolání třídy chyby INDEX_NOT_POSITIVE
.
ipywidgets je downgradován z 8.0.4 na 7.7.2
Pokud chcete opravit chyby zavedené upgradem ipywidgets na 8.0.4 v Databricks Runtime 15.0, ipywidgets je downgradován na 7.7.2 v Databricks Runtime 15.2. Jedná se o stejnou verzi, která je součástí předchozích verzí Databricks Runtime.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- GitPython od 3.1.42 do 3.1.43
- google-api-core od 2.17.1 do 2.18.0
- google-auth od 2.28.1 do 2.29.0
- google-cloud-storage od 2.15.0 do 2.16.0
- googleapis-common-protos od 1.62.0 do 1.63.0
- ipywidgets od 8.0.4 do 7.7.2
- mlflow-skinny od 2.11.1 do 2.11.3
- s3transfer od verze 0.10.0 do verze 0.10.1
- sqlparse od 0.4.4 do 0.5.0
- typing_extensions od 4.7.1 do 4.10.0
- Upgradované knihovny jazyka R:
- Upgradované knihovny Java:
- com.amazonaws.aws-java-sdk-autoscaling from 1.12.390 to 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics from 1.12.390 to 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-config od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-core od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-directconnect od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-directory od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ec2 od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ecs od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-efs od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elasticache od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-emr od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-glacier od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-glue z 1.12.390 na 1.12.610
- com.amazonaws.aws-java-sdk-iam od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-importexport od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-kinesis od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-kms od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-lambda od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-logs od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning from 1.12.390 to 1.12.610
- com.amazonaws.aws-java-sdk-opsworks od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-rds od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-redshift od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-route53 od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-s3 od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ses od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-simpledb od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-sns od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-sqs od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ssm od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-sts od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-support od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-workspaces from 1.12.390 to 1.12.610
- com.amazonaws.jmespath-java od 1.12.390 do 1.12.610
Apache Spark
Databricks Runtime 15.2 zahrnuje Apache Spark 3.5.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v Databricks Runtime 15.1 (EoS)a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-47941] [SC-163568] [SS] [Connect] Přenášení chyb inicializace pracovních procesů foreachBatch uživatelům pro PySpark
- [SPARK-47412] [SC-163455][SQL] Přidání podpory kolace pro LPad/RPad.
- [SPARK-47907] [SC-163408][SQL] Umístěte vykřičník pod konfiguraci
-
[SPARK-46820] [SC-157093][PYTHON] Oprava regrese chybové zprávy obnovením
new_msg
- [SPARK-47602] [SPARK-47577][SPARK-47598][SPARK-47577]Core/MLLib/Resource Managers: migrace strukturovaného protokolování
- [SPARK-47890] [SC-163324][CONNECT][PYTHON] Přidejte do Scala a Pythonu variantní funkce.
-
[SPARK-47894] [SC-163086][CORE][WEBUI] Přidání stránky
Environment
do hlavního uživatelského rozhraní - [SPARK-47805] [SC-163459][SS] Implementace TTL pro MapState
- [SPARK-47900] [SC-163326] Oprava kontroly implicitní kolace (UTF8_BINARY)
- [SPARK-47902] [SC-163316][SQL]Výrazy pro výpočet aktuálního času zjednodušitelné
- [SPARK-47845] [SC-163315][SQL][PYTHON][CONNECT] Podpora Column typu rozdělení pro scala a Python
- [SPARK-47754] [SC-162144][SQL] Postgres: Podpora čtení multidimenzionálních polí
- [SPARK-47416] [SC-163001][SQL] Přidání nových funkcí do collationBenchmark #90339
- [SPARK-47839] [SC-163075][SQL] Oprava agregační chyby v rewriteWithExpression
- [SPARK-47821] [SC-162967][SQL] Implementujte výraz is_variant_null
-
[SPARK-47883] [SC-163184][SQL] Udělat
CollectTailExec.doExecute
líné s RowQueue - [SPARK-47390] [SC-163306][SQL] PostgresDialect rozlišuje TIMESTAMP od TIMESTAMP_TZ
-
[SPARK-47924] [SC-163282][CORE] Přidání protokolu DEBUG do
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183][SQL][3.5] Oprava regrese výkonu ExpressionSet v scala 2.12
- [SPARK-47565] [SC-161786][PYTHON] Odolnost fondu pracovníků PySpark
- [SPARK-47885] [SC-162989][PYTHON][CONNECT] Udělat pyspark.resource kompatibilním s pyspark-connect
-
[SPARK-47887] [SC-163122][CONNECT] Remove nepoužívané
spark/connect/common.proto
importu zspark/connect/relations.proto
- [SPARK-47751] [SC-161991][PYTHON][CONNECT] Udělat pyspark.worker_utils kompatibilní s pyspark-connect
- [SPARK-47691] [SC-161760][SQL] Postgres: Podpora vícerozměrného pole na straně zápisu
- [SPARK-47617] [SC-162513][SQL] Přidání TPC-DS testovací infrastruktury pro kolace
- [SPARK-47356] [SC-162858][SQL] Přidání podpory pro ConcatWs & Elt (všechna kolace)
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON] Odvozování
dict
jakoMapType
z datového rámce Pandas, aby bylo možné vytvořit datový rámec - [SPARK-47863] [SC-162974][SQL] Oprava startWith & endsWith implementací podporující kolaci pro ICU
- [SPARK-47867] [SC-162966][SQL] Podpora varianty při prohledávání JSON.
- [SPARK-47366] [SC-162475][SQL][PYTHON] Add VariantVal for PySpark
- [SPARK-47803] [SC-162726][SQL] Podpora převedení na variantu.
- [SPARK-47769] [SC-162841][SQL] Přidejte výraz schema_of_variant_agg.
- [SPARK-47420] [SC-162842][SQL] Oprava výstupu testu
- [SPARK-47430] [SC-161178][SQL] Podpora GROUP BY pro MapType
- [SPARK-47357] [SC-162751][SQL] Přidání podpory pro Horní, Dolní, InitCap (všechna kolace)
- [SPARK-47788] [SC-162729][SS] Zajistěte stejné dělení hodnot hash pro stavové operace streamování.
- [SPARK-47776] [SC-162291][SS] Zakázat použití binárního uspořádání nerovnosti v klíči schema stavového operátoru
- [SPARK-47673] [SC-162824][SS] Implementace TTL pro ListState
- [SPARK-47818] [SC-162845][CONNECT] Zavedení ukládání plánu do mezipaměti ve SparkConnectPlanneru pro zlepšení výkonu analytických žádostí
- [SPARK-47694] [SC-162783][CONNECT] Nastavení maximální velikosti zpráv na straně klienta
- [SPARK-47274] Vrátit změnu “[SC-162479][PYTHON][SQL] Zadejte další možnosti použití…”
- [SPARK-47616] [SC-161193][SQL] Přidání uživatelského dokumentu pro mapování datových typů Spark SQL z MySQL
- [SPARK-47862] [SC-162837][PYTHON][CONNECT]Oprava generování souborů proto
- [SPARK-47849] [SC-162724][PYTHON][CONNECT] Úprava skriptu pro vydání pyspark-connect
- [SPARK-47410] [SC-162518][SQL] Přepracování UTF8String a CollationFactory
- [SPARK-47807] [SC-162505][PYTHON][ML] Pyspark.ml kompatibilní s pyspark-connect
- [SPARK-47707] [SC-161768][SQL] Speciální zpracování typu JSON pro Konektor MySQL/J 5.x
- [SPARK-47765] Vrátit zpět [SC-162636][SQL] Přidání SET kolace do pars...
- [SPARK-47081] [SC-162151][CONNECT][FOLLOW] Zlepšení použitelnosti správce průběhu
- [SPARK-47289] [SC-161877][SQL] Umožnit rozšířením protokolovat rozšířené informace v plánu explain
- [SPARK-47274] [SC-162479][PYTHON][SQL] Poskytují užitečnější kontext pro chyby rozhraní API datového rámce PySpark
- [SPARK-47765] [SC-162636][SQL] Přidání kolace SET do pravidel analyzátoru
-
[SPARK-47828] [SC-162722][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
selže s neplatným plánem - [SPARK-47812] [SC-162696][CONNECT] Podpora serializace SparkSession pro pracovní proces ForEachBatch
- [SPARK-47253] [SC-162698][CORE] Umožnit zastavení služby LiveEventBus bez úplného vyčerpání fronty událostí
- [SPARK-47827] [SC-162625][PYTHON] Chybějící upozornění pro zastaralé funkce
- [SPARK-47733] [SC-162628][SS] Přidání vlastních metrik pro část průběhu dotazu operátoru transformWithState
- [SPARK-47784] [SC-162623][SS] Sloučit TTLMode a TimeoutMode do jednoho časového režimu.
- [SPARK-47775] [SC-162319][SQL] Podporují zbývající skalární typy ve specifikaci varianty.
- [SPARK-47736] [SC-162503][SQL] Přidání podpory pro AbstractArrayType
- [SPARK-47081] [SC-161758][CONNECT] Průběh provádění dotazů
- [SPARK-47682] [SC-162138][SQL] Podpora přetypování z varianty.
- [SPARK-47802] [SC-162478][SQL] Revert () z významu struktury() zpět k významu *
- [SPARK-47680] [SC-162318][SQL] Přidejte výraz variant_explode.
-
[SPARK-47809] [SC-162511][SQL]
checkExceptionInExpression
by měl zkontrolovat chybu pro každý režim codegen. -
[SPARK-41811] [SC-162470][PYTHON][CONNECT] Implementovat
SQLStringFormatter
sWithRelations
- [SPARK-47693] [SC-162326][SQL] Přidání optimalizace pro porovnání malých písmen UTF8String použitých v kolaci UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006][SQL] Řazené řetězce v komplexních typech podporujících operace obrácení, array_join, concat, map
- [SPARK-46812] [SC-161535][CONNECT][PYTHON] Umožnit mapInPandas / mapInArrow podporu ResourceProfile
- [SPARK-47727] [SC-161982][PYTHON] Nastavení SparkConf na kořenovou úroveň pro SparkSession i SparkContext
- [SPARK-47406] [SC-159376][SQL] Zpracování TIMESTAMP a DATETIME v MYSQLDialect
- [SPARK-47081] Vrátit zpět "[SC-161758][CONNECT] Podpora provádění dotazů...
- [SPARK-47681] [SC-162043][SQL] Přidejte výraz schema_of_variant.
- [SPARK-47783] [SC-162222] Přidejte některé chybějící SQLSTATEs a vyčistěte YY000 pro použití...
- [SPARK-47634] [SC-161558][SQL] Přidání starší verze podpory pro zakázání normalizace klíčů mapy
- [SPARK-47746] [SC-162022] Implementace kódování řadového rozsahu v RocksDBStateEncoder
- [SPARK-47285] [SC-158340][SQL] AdaptiveSparkPlanExec by měl vždy používat context.session.
- [SPARK-47643] [SC-161534][SS][PYTHON] Přidání testu pyspark pro zdroj streamování Pythonu
- [SPARK-47582] [SC-161943][SQL] Migrate Catalyst logInfo s proměnnými do architektury strukturovaného protokolování
- [SPARK-47558] [SC-162007][SS] Podpora hodnoty TTL stavu pro ValueState
- [SPARK-47358] [SC-160912][SQL][COLLATION] Vylepšení podpory opakujících se výrazů pro vrácení správného datového typu
- [SPARK-47504] [SC-162044][SQL] Vyřešit AbstractDataType simpleStrings pro StringTypeCollated
- [SPARK-47719] Vrátit zpět “[SC-161909][SQL] Změnit spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][SQL] Implementace podpory prosazení filtru řazení pro každý zdroj souborů
- [SPARK-47081] [SC-161758][CONNECT] Průběh provádění dotazů
- [SPARK-47744] [SC-161999] Přidání podpory pro bajty s negativní hodnotou v kodéru rozsahu
- [SPARK-47713] [SC-162009][SQL][CONNECT] Oprava selhání samoobslužnéhojoin
- [SPARK-47310] [SC-161930][SS] Přidání mikro benchmarku pro operace sloučení pro více values v části úložiště stavů s hodnotou
- [SPARK-47700] [SC-161774][SQL] Oprava formátování chybových zpráv pomocí treeNode
- [SPARK-47752] [SC-161993][PS][CONNECT] Zajištění kompatibility pyspark.pandas s pyspark-connect
- [SPARK-47575] [SC-161402][SPARK-47576][SPARK-47654] Implementujte rozhraní LOGWarning/logInfo API v rámci strukturovaného protokolování
- [SPARK-47107] [SC-161201][SS][PYTHON] Implementace čtečky partition pro streamovaný zdroj dat Pythonu
- [SPARK-47553] [SC-161772][SS] Přidání podpory Javy pro rozhraní API operátorů transformWithState
- [SPARK-47719] [SC-161909][SQL] Změna výchozího nastavení spark.sql.legacy.timeParserPolicy na OPRAVENO
- [SPARK-47655] [SC-161761][SS] Integrace časovače s počátečním zpracováním stavu pro state-v2
- [SPARK-47665] [SC-161550][SQL] Použití SMALLINT k zápisu shorttype do MYSQL
- [SPARK-47210] [SC-161777][SQL] Přidání implicitního přetypování bez nespecifikované podpory
- [SPARK-47653] [SC-161767][SS] Přidání podpory pro záporné číselné typy a pro kodér klíče pro kontrolu rozsahu
- [SPARK-46743] [SC-160777][SQL] Početní chyba po skládání konstant
- [SPARK-47525] [SC-154568][SQL] Podpora sjednocení korelace poddotazů u mapových atributů
- [SPARK-46366] [SC-151277][SQL] Použití výrazu WITH ve výrazu BETWEEN k zabránění duplicitním výrazům
- [SPARK-47563] [SC-161183][SQL] Přidání normalizace map při vytváření
- [SPARK-42040] [SC-161171][SQL] SPJ: Zavedení nového rozhraní API pro vstup V2 partition pro hlášení statistik partition
-
[SPARK-47679] [SC-161549][SQL] Použijte přímo názvy
HiveConf.getConfVars
nebo conf Hive. -
[SPARK-47685] [SC-161566][SQL] Restore podpora pro typ
Stream
vDataset#groupBy
- [SPARK-47646] [SC-161352][SQL] Upravte try_to_number, aby vracelo hodnotu NULL pro neplatný vstup
- [SPARK-47366] [SC-161324][PYTHON] Přidání aliasů pyspark a datového rámce parse_json
-
[SPARK-47491] [SC-161176][CORE] Přidání
slf4j-api
jar do classpathu jako první před ostatními v adresářijars
- [SPARK-47270] [SC-158741][SQL] Dataset.isEmpty projektuje CommandResults místně
-
[SPARK-47364] [SC-158927][CORE] Upozorňovat
PluginEndpoint
při odpovídání modulů plug-in na jednosměrnou zprávu - [SPARK-47280] [SC-158350][SQL] Removetimezone omezení pro ORACLE TIMESTAMP WITH TIMEZONE
- [SPARK-47551] [SC-161542][SQL] Přidejte výraz variant_get.
-
[SPARK-47559] [SC-161255][SQL] Codegen Support for variant
parse_json
- [SPARK-47572] [SC-161351][SQL] Vynucování Window partitionSpec je uspořádané.
- [SPARK-47546] [SC-161241][SQL] Zlepšení ověřování při čtení varianty z Parquet
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON] Odvozování
dict
jakoMapType
z datového rámce Pandas pro umožnění vytvoření datového rámce - [SPARK-47485] [SC-161194][SQL][PYTHON][CONNECT] Vytvoření column s kolacemi v API rozhraní datového rámce
-
[SPARK-47641] [SC-161376][SQL] Zlepšení výkonu pro
UnaryMinus
aAbs
-
[SPARK-47631] [SC-161325][SQL] Remove nepoužívaná metoda
SQLConf.parquetOutputCommitterClass
-
[SPARK-47674] [SC-161504][CORE] Povolení
spark.metrics.appStatusSource.enabled
ve výchozím nastavení - [SPARK-47273] [SC-161162][SS][PYTHON] implementuje rozhraní zápisu datových proudů Pythonu.
- [SPARK-47637] [SC-161408][SQL] Použijte errorCapturingIdentifier na více místech.
- [SPARK-47497] Vrátit zpět vrácení změn "[SC-160724][SQL] Udělat, aby to_csv podporovalo výstup pole/struktury/map/binary jako snadno čitelné řetězce".
- [SPARK-47492] [SC-161316][SQL] Rozšíření pravidel prázdných znaků v lexeru
- [SPARK-47664] [SC-161475][PYTHON][CONNECT] Ověřte název column v mezipaměti schema
- [SPARK-47638] [SC-161339][PS][CONNECT] Přeskočit ověření názvu column v PS
- [SPARK-47363] [SC-161247][SS] Počáteční stav bez implementace čtečky stavu pro rozhraní State API v2.
- [SPARK-47447] [SC-160448][SQL] Povolit čtení Parquet TimestampLTZ jako TimestampNTZ
-
[SPARK-47497] Vrátit zpět "[SC-160724][SQL] Podpora
to_csv
výstupuarray/struct/map/binary
jako pěkných řetězců -
[SPARK-47434] [SC-160122][WEBUI] Opravit
statistics
odkaz vStreamingQueryPage
- [SPARK-46761] [SC-159045][SQL] Citované řetězce v cestě JSON by měly podporovat "?". znaky
-
[SPARK-46915] [SC-155729][SQL] Zjednodušení
UnaryMinus
Abs
a zarovnání třídy chyb - [SPARK-47431] [SC-160919][SQL] Přidání výchozí kolace na úrovni relace
- [SPARK-47620] [SC-161242][PYTHON][CONNECT] Přidat pomocnou funkci pro řazení columns
- [SPARK-47570] [SC-161165][SS] Integrace změn kodéru skenování rozsahu s implementací časovače
-
[SPARK-47497] [SC-160724][SQL] Umožnit
to_csv
podporovat výstuparray/struct/map/binary
ve formě pěkných řetězců. -
[SPARK-47562] [SC-161166][CONNECT] Vytáhnout zpracování literálů z
plan.py
- [SPARK-47509] [SC-160902][SQL] Blokovat výrazy poddotazů ve funkcích lambda a funkcích vyššího řádu
-
[SPARK-47539] [SC-160750][SQL] Nastavte návratovou hodnotu metody
castToString
býtAny => UTF8String
- [SPARK-47372] [SC-160905][SS] Přidání podpory kodéru stavu klíče založeného na kontrole rozsahu pro použití s poskytovatelem úložiště stavů
- [SPARK-47517] [SC-160642][CORE][SQL] Prefer Utils.bytesToString pro zobrazení velikosti
-
[SPARK-47243] [SC-158059][SS] Oprava názvu balíčku
StateMetadataSource.scala
- [SPARK-47367] [SC-160913][PYTHON][CONNECT] Podpora zdrojů dat Pythonu pomocí Spark Connect
-
[SPARK-47521] [SC-160666][CORE] Použití
Utils.tryWithResource
při čtení shuffle dat z externího úložiště - [SPARK-47474] [SC-160522][CORE] Vrácení SPARK-47461 a přidání komentářů
- [SPARK-47560] [SC-160914][PYTHON][CONNECT] Nepoužívejte RPC k ověření column názvu v mezipaměti schema
- [SPARK-47451] [SC-160749][SQL] Podpora to_json(variant).
- [SPARK-47528] [SC-160727][SQL] Přidání podpory UserDefinedType do dataTypeUtils.canWrite
- [SPARK-44708] Vrátit zpět „[SC-160734][PYTHON] Migrovat test_reset_index assert_eq pro použití assertDataFrameEqual“
- [SPARK-47506] [SC-160740][SQL] Přidat podporu pro všechny formáty zdroje souborů pro seřazené datové typy
- [SPARK-47256] [SC-160784][SQL] Přiřazení názvů ke třídám chyb _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][CORE] Oprava souboru JAR primárního prostředku přidaného do spark.jars dvakrát v režimu clusteru k8s
- [SPARK-47398] [SC-160572][SQL] Extrahujte vlastnost inMemoryTableScanExec, aby bylo možné rozšířit funkce.
- [SPARK-47479] [SC-160623][SQL] Optimize nelze zapisovat data do relací s více cestami, chyba v chybovém protokolu
- [SPARK-47483] [SC-160629][SQL] Přidání podpory pro operace agregace a join u polí kompletovaných řetězců
- [SPARK-47458] [SC-160237][CORE] Oprava problému s výpočtem maximálních souběžných úloh pro fázi bariéry
-
[SPARK-47534] [SC-160737][SQL] Přesunutí
o.a.s.variant
doo.a.s.types.variant
- [SPARK-47396] [SC-159312][SQL] Přidání obecného mapování pro TIME WITHOUT TIME ZONE na TimestampNTZType
- [SPARK-44708] [SC-160734][PYTHON] Migrovat test_reset_index assert_eq k použití assertDataFrameEqual
- [SPARK-47309] [SC-157733][SC-160398][SQL] XML: Přidání testů odvozování schema pro značky hodnot
-
[SPARK-47007] [SC-160630][SQL] Přidání výrazu
MapSort
-
[SPARK-47523] [SC-160645][SQL] Nahraďte zastaralé
JsonParser#getCurrentName
JsonParser#currentName
- [SPARK-47440] [SC-160635][SQL] Oprava posílání nepodporované syntaxe na MsSqlServer
- [SPARK-47512] [SC-160617][SS] Typ operace značky používaný se získáním nebo vydáním zámku instance úložiště stavů RocksDB
- [SPARK-47346] [SC-159425][PYTHON] Umožnit konfigurovatelný režim démona při vytváření pracovních procesů plánovače pro Python
-
[SPARK-47446] [SC-160163][CORE] Upozornit
BlockManager
předremoveBlockInternal
- [SPARK-46526] [SC-156099][SQL] Podpora LIMIT nad korelovanými poddotazy where predikáty odkazují pouze na vnější table
-
[SPARK-47461] [SC-160297][CORE] Remove privátní funkce
totalRunningTasksPerResourceProfile
zExecutorAllocationManager
- [SPARK-47422] [SC-160219][SQL] Podpora kompletovaných řetězců v operacích polí
-
[SPARK-47500] [SC-160627][PYTHON][CONNECT] Factor column zpracování názvů mimo
plan.py
-
[SPARK-47383] [SC-160144][CORE] Podpora konfigurace
spark.shutdown.timeout
- [SPARK-47342] [SC-159049] Vrátit zpět “[SQL] Podpora TimestampNTZ pro DB2 TIMESTAMP S ČASOVOU ZÓNOU”
-
[SPARK-47486] [SC-160491][CONNECT] Remove nepoužívaná privátní
ArrowDeserializers.getString
metoda - [SPARK-47233] [SC-154486][CONNECT][SS][2/2] Logika klientského & serveru pro naslouchací proces dotazů na straně klienta
- [SPARK-47487] [SC-160534][SQL] Zjednodušení kódu v AnsiTypeCoercion
- [SPARK-47443] [SC-160459][SQL] Window podpora agregace pro kolace
- [SPARK-47296] [SC-160457][SQL][COLLATION] Selhání nepodporovaných funkcí pro nebinární kolace
- [SPARK-47380] [SC-160164][CONNECT] Ujistěte se, že na straně serveru je SparkSession stejná.
- [SPARK-47327] [SC-160069][SQL] Přesunutí testu souběžnosti klíčů řazení do CollationFactorySuite
- [SPARK-47494] [SC-160495][Doc] Přidat migrační dokumentaci pro změnu v chování interpretace časových razítek Parquet ve Sparku od verze 3.3
- [SPARK-47449] [SC-160372][SS] Refaktoring a rozdělení listtestů jednotek časovače
-
[SPARK-46473] [SC-155663][SQL] Znovu použít metodu
getPartitionedFile
- [SPARK-47423] [SC-160068][SQL] Kolace – podpora operací Set pro řetězce s kolacemi
- [SPARK-47439] [SC-160115][PYTHON] Dokumentace Python Data Source API na referenční stránce API
-
[SPARK-47457] [SC-160234][SQL] Oprava
IsolatedClientLoader.supportsHadoopShadedClient
pro zpracování Hadoopu 3.4+ - [SPARK-47366] [SC-159348][SQL] Implementujte parse_json.
- [SPARK-46331] [SC-152982][SQL] Odebrání CodegenFallbacku z podmnožiny výrazů DateTime a výrazu version()
- [SPARK-47395] [SC-159404] Přidání porovnání a kolace do jiných rozhraní API
-
[SPARK-47437] [SC-160117][PYTHON][CONNECT] Opravte třídu chyb pro
DataFrame.sort*
- [SPARK-47174] [SC-154483][CONNECT][SS][1/2] Na straně serveru naslouchací proces dotazu SparkConnectListenerBusListenerListener Pro naslouchací proces streamování na straně klienta
- [SPARK-47324] [SC-158720][SQL] Přidání chybějícího převodu časového razítka pro vnořené typy JDBC
- [SPARK-46962] [SC-158834][SS][PYTHON] Přidání rozhraní pro rozhraní API zdroje dat streamování Pythonu a implementace pracovního procesu Pythonu pro spuštění streamovaného zdroje dat Pythonu
- [SPARK-45827] [SC-158498][SQL] Přesunutí kontrol datových typů do CreatableRelationProvider
- [SPARK-47342] [SC-158874][SQL] Podpora TimestampNTZ pro DB2 TIMESTAMP WITH TIME ZONE
- [SPARK-47399] [SC-159378][SQL] Zákaz vygenerovaných columns u výrazů s kolací
- [SPARK-47146] [SC-158247][CORE] Možný únik vlákna při slučování řazení join
- [SPARK-46913] [SC-159149][SS] Přidání podpory pro časovače založené na čase zpracování a událostí pomocí operátoru transformWithState
-
[SPARK-47375] [SC-159063][SQL] Přidat pokyny pro mapování časových razítek v
JdbcDialect#getCatalystType
- [SPARK-47394] [SC-159282][SQL] Podpora TIMESTAMP WITH TIME ZONE pro H2Dialect
- [SPARK-45827] Vrátit změnu “[SC-158498][SQL] Přesunout kontroly datových typů do ...
- [SPARK-47208] [SC-159279][CORE] Povolit přepsání základní režijní paměti
- [SPARK-42627] [SC-158021][SPARK-26494][SQL] Podpora oracle TIMESTAMP s místním časovým pásmem
- [SPARK-47055] [SC-156916][PYTHON] Aktualizace MyPy 1.8.0
- [SPARK-46906] [SC-157205][SS] Přidat kontrolu změny stavového operátoru v streamování
- [SPARK-47391] [SC-159283][SQL] Remove alternativní řešení testovacího případu pro sadu JDK 8
- [SPARK-47272] [SC-158960][SS] Přidání implementace MapState pro state API v2.
- [SPARK-47375] [SC-159278][Doc][FollowUp] Opravit chybu v dokumentaci možnosti konfigurace JDBC preferTimestampNTZ
- [SPARK-42328] [SC-157363][SQL] Remove _LEGACY_ERROR_TEMP_1175 z tříd chyb
- [SPARK-47375] [SC-159261][Doc][FollowUp] Oprava popisu možnosti preferTimestampNTZ v dokumentu JDBC
- [SPARK-47344] [SC-159146] Rozšíření chyby INVALID_IDENTIFIER tím, že se neomezí na zachycení '-' v neuzavřené v uvozovkách identifier a oprava "IS !" „NULL“ et al.
- [SPARK-47340] [SC-159039][SQL] Změna "kolace" v názvu typu StringType na malá písmena
- [SPARK-47087] [SC-157077][SQL] Vyvolání výjimky Sparku s chybovou třídou při kontrole hodnoty konfigurace
- [SPARK-47327] [SC-158824][SQL] Oprava problému se zabezpečením vláken v collatoru ICU
- [SPARK-47082] [SC-157058][SQL] Oprava chyby překročení hranic
- [SPARK-47331] [SC-158719][SS] Serializace pomocí tříd případů/ primitiv/POJO na základě kodéru SQL pro rozhraní API libovolného stavu v2.
- [SPARK-47250] [SC-158840][SS] Přidání dalších ověření a změn NERF pro poskytovatele stavu RocksDB a použití column rodin
- [SPARK-47328] [SC-158745][SQL] Přejmenování UCS_BASIC kolace na UTF8_BINARY
-
[SPARK-47207] [SC-157845][CORE] Podpora
spark.driver.timeout
aDriverTimeoutPlugin
- [SPARK-47370] [SC-158956][Dokumentace] Přidat dokumentaci k migraci: Odhad typu TimestampNTZ u souborů Parquet
- [SPARK-47309] [SC-158827][SQL][XML] Přidání testů jednotek odvození schema
-
[SPARK-47295] [SC-158850][SQL] Přidání icu StringSearch pro funkce
startsWith
aendsWith
-
[SPARK-47343] [SC-158851][SQL] Oprava NPE při
sqlString
hodnotě proměnné null při okamžitém spuštění -
[SPARK-46293] [SC-150117][CONNECT][PYTHON] Použití
protobuf
tranzitivní závislosti -
[SPARK-46795] [SC-154143][SQL] Nahraďte
UnsupportedOperationException
SparkUnsupportedOperationException
vsql/core
- [SPARK-46087] [SC-149023][PYTHON] Sync závislosti PySpark v dokumentaci a požadavcích na vývoj
- [SPARK-47169] [SC-158848][SQL] Zákaz bucketizace na kolaci columns
- [SPARK-42332] [SC-153996][SQL] Změna vyžadování na SparkException v ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498][SQL] Přesunutí kontrol datových typů do CreatableRelationProvider
- [SPARK-47341] [SC-158825][Connect] Nahrazení příkazů relacemi v několika testech v SparkConnectClientSuite
- [SPARK-43255] [SC-158026][SQL] Nahraďte třídu chyb _LEGACY_ERROR_TEMP_2020 vnitřní chybou.
- [SPARK-47248] [SC-158494][SQL][COLLATION] Vylepšená podpora řetězcových funkcí: obsahuje:
-
[SPARK-47334] [SC-158716][SQL]
withColumnRenamed
znovu použít implementaciwithColumnsRenamed
- [SPARK-46442] [SC-153168][SQL] DS V2 podporuje nabízení PERCENTILE_CONT a PERCENTILE_DISC
- [SPARK-47313] [SC-158747][SQL] Bylo přidáno zpracování scala.MatchError uvnitř QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][SQL] Přidání typu singleton variant pro Javu
- [SPARK-47337] [SC-158743][SQL][DOCKER] Upgrade verze image Dockeru DB2 na 11.5.8.0
- [SPARK-47302] [SC-158609][SQL] Kompletovat klíčové slovo jako identifier
-
[SPARK-46817] [SC-154196][CORE] Oprava využití
spark-daemon.sh
prostřednictvím přidání příkazudecommission
-
[SPARK-46739] [SC-153553][SQL] Přidání třídy chyb
UNSUPPORTED_CALL
-
[SPARK-47102] [SC-158253][SQL] Přidejte příznak konfigurace
COLLATION_ENABLED
- [SPARK-46774] [SC-153925][SQL][AVRO] Použijte mapreduce.output.fileoutputformat.compress místo zastaralé mapred.output.compress v úlohách zápisu Avro.
- [SPARK-45245] [SC-146961][PYTHON][CONNECT] PythonWorkerFactory: Časový limit, pokud se pracovní proces nepřipojí zpět.
- [SPARK-46835] [SC-158355][SQL][Kolace] Join podpora nebinárních kolací
- [SPARK-47131] [SC-158154][SQL][COLLATION] Podpora řetězcových funkcí: contains, startswith, endswith
- [SPARK-46077] [SC-157839][SQL] Zvažte typ generovaný TimestampNTZConverterem v JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][SQL][PYTHON] Potlačení výjimek Pythonu where PySpark není v cestě Pythonu
- [SPARK-47319] [SC-158599][SQL] Zlepšení výpočtu chybějícího vstupu
- [SPARK-47316] [SC-158606][SQL] Oprava TimestampNTZ v poli Postgres
- [SPARK-47268] [SC-158158][SQL][Kolace] Podpora pro předělování s kolacemi
- [SPARK-47191] [SC-157831][SQL] Vyhněte se zbytečnému vyhledávání relace při uvolnění z vyrovnávací paměti table/view
- [SPARK-47168] [SC-158257][SQL] Zakázání odsdílení filtru Parquet při práci s nekompletovanými řetězci
-
[SPARK-47236] [SC-158015][CORE] Oprava
deleteRecursivelyUsingJavaIO
pro přeskočení neexistujících souborů vstupů - [SPARK-47238] [SC-158466][SQL] Snížení využití paměti executoru převedením vygenerovaného kódu ve WSCG na proměnnou pro všesměrové vysílání.
- [SPARK-47249] [SC-158133][CONNECT] Oprava chyby where všechny spuštění připojení se považují za opuštěné bez ohledu na jejich skutečný stav.
- [SPARK-47202] [SC-157828][PYTHON] Oprava překlepů způsobujících chyby u určení data a času s tzinfo
- [SPARK-46834] [SC-158139][SQL][Kolace] Podpora agregací
- [SPARK-47277] [SC-158351][3.5] Funkce PySpark util assertDataFrameEqual by neměla podporovat streamování DF
- [SPARK-47155] [SC-158473][PYTHON] Oprava potíží s třídou chyb
- [SPARK-47245] [SC-158163][SQL] Vylepšení kódu chyby pro INVALID_PARTITION_COLUMN_DATA_TYPE
-
[SPARK-39771] [SC-158425][CORE] Přidejte varovnou zprávu v
Dependency
, když má být vytvořen příliš velký počet bloků pro náhodnou permutaci. - [SPARK-47277] [SC-158329] Funkce PySpark util assertDataFrameEqual by neměla podporovat streamování DF
- [SPARK-47293] [SC-158356][CORE] Sestavení batchSchema pomocí sparkSchema místo postupného připojování jeden po druhém
- [SPARK-46732] [SC-153517][CONNECT] Fungování vlákna pro poddotaz/vysílání se správou artefaktů Connectu
- [SPARK-44746] [SC-158332][PYTHON] Přidání další dokumentace Python UDTF pro funkce, které přijímají vstup tables
- [SPARK-47120] [SC-157517][SQL] Prosazení porovnání null u filtru dat z poddotazu způsobuje NPE ve filtru Parquet.
-
[SPARK-47251] [SC-158291][PYTHON] Blokovat neplatné typy z argumentu
args
pro příkazsql
-
[SPARK-47251] Vrátit zpět [SC-158121][PYTHON] Blokovat neplatné typy z argumentu
args
pro příkazsql
- [SPARK-47015] [SC-157900][SQL] Zakázání dělení v kompletovaném columns
-
[SPARK-46846] [SC-154308][CORE] Udělat
WorkerResourceInfo
rozšířeníSerializable
explicitně - [SPARK-46641] [SC-156314][SS] Přidání prahové hodnoty maxBytesPerTrigger
-
[SPARK-47244] [SC-158122][CONNECT]
SparkConnectPlanner
zpřístupnit interní funkce jako soukromé -
[SPARK-47266] [SC-158146][CONNECT]
ProtoUtils.abbreviate
zajistit, aby byl vrácen stejný typ jako vstup - [SPARK-46961] [SC-158183][SS] Použití ProcessorContextu k ukládání a načítání popisovače
- [SPARK-46862] [SC-154548][SQL] Zákaz vyřazování CSV column v režimu s více řádky
-
[SPARK-46950] [SC-155803][CORE][SQL] Align
not available codec
error-class -
[SPARK-46368] [SC-153236][CORE] Podpora
readyz
v rozhraní REST Submission API - [SPARK-46806] [SC-154108][PYTHON] Vylepšete chybovou zprávu pro Spark.table, když je typ argumentu nesprávný
- [SPARK-47211] [SC-158008][CONNECT][PYTHON] Oprava ignorování kolace řetězců PySpark Connect
-
[SPARK-46552] [SC-151366][SQL] Nahraďte
UnsupportedOperationException
SparkUnsupportedOperationException
vcatalyst
- [SPARK-47147] [SC-157842][PYTHON][SQL] Oprava chyby převodu řazených řetězců PySpark
- [SPARK-47144] [SC-157826][CONNECT][SQL][PYTHON] Oprava chyby kolace ve Spark Connect přidáním pole collateId protobuf.
- [SPARK-46575] [SC-153200][SQL][HIVE] Umožnit opakovanou proveditelnost HiveThriftServer2.startWithContext DevelopApi a opravit nestabilitu ThriftServerWithSparkContextInHttpSuite
- [SPARK-46696] [SC-153832][CORE] V ResourceProfileManager by volání funkcí měla proběhnout po deklaracích proměnných.
- [SPARK-47214] [SC-157862][Python] Vytvoření rozhraní API UDTF pro metodu analyze k rozlišení konstantních argumentů NULL a dalších typů argumentů
- [SPARK-46766] [SC-153909][SQL][AVRO] Podpora fondu vyrovnávacích pamětí ZSTD pro zdroj dat AVRO
- [SPARK-47192] [SC-157819] Převod některých chyb _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341][SS] Přidání podpory pro ListState v rozhraní API libovolného stavu v2.
-
[SPARK-46881] [SC-154612][CORE] Podpora
spark.deploy.workerSelectionPolicy
-
[SPARK-46800] [SC-154107][CORE] Podpora
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014][SQL] Oprava chyby, která spočívá v použití nesprávného komprimačního kodeku Parquet lz4raw
- [SPARK-46791] [SC-154018][SQL] Podpora Java Set v JavaTypeInference
-
[SPARK-46332] [SC-150224][SQL] Migrace
CatalogNotFoundException
do třídy chybCATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616][SQL] Zajistit, aby výchozí hodnota vytvořená z širšího typu úzkého literálu v2 fungovala stejně jako v1.
-
[SPARK-46664] [SC-153181][CORE] Vylepšení
Master
pro rychlé zotavení v případě nula pracovníků a aplikací - [SPARK-46759] [SC-153839][SQL][AVRO] Kodek xz a zstandard podporují úroveň komprese souborů avro
Podpora ovladačů Databricks ODBC/JDBC
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgrade (stáhnout ODBC, stáhnout JDBC).
Viz aktualizace údržby pro Databricks Runtime verze 15.2 .
Systémové prostředí
- operační systém: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | Azure-Core | 1.30.1 |
azure-storage-blob (úložiště Azure blob) | 12.19.1 | azure-storage-file-datalake | 12.14.0 | zpětné volání | 0.2.0 |
černý | 23.3.0 | blikač | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifikát | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kliknout | 8.0.4 | cloudpickle | 2.2.1 | Komunikace | 0.1.2 |
obrysová křivka | 1.0.5 | kryptografie | 41.0.3 | cyklista | 0.11.0 |
Cython | 0.29.32 | Databricks SDK | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | dekoratér | 5.1.1 | distlib | 0.3.8 |
vstupní body | 0.4 | vykonávání | 0.8.3 | přehled aspektů | 1.1.1 |
zamknutí souboru | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage (úložiště Google Cloud) | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | klíčenka | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | balení | 23.2 |
Pandy | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
bábovka | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Polštář | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
požadavky | 2.31.0 | Rsa | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Šest | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
datová hromádka | 0.2.0 | statsmodels | 0.14.0 | houževnatost | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornádo | 6.3.2 |
vlastnosti | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | bezobslužné aktualizace | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
kolo | 0.38.4 | zipp | 3.11.0 |
nainstalované knihovny jazyka R
Knihovny jazyka R se instalují ze snímku CRAN Posit Package Manageru.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šíp | 14.0.0.2 | askpass | 1.2.0 | ověř, že (assertthat) | 0.2.1 |
zpětné portování | 1.4.1 | základna | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | trochu | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | kapka | 1.2.4 | bota | 1.3-28 |
vařit | 1.0-10 | nadšení | 1.1.4 | koště | 1.0.5 |
bslib | 0.6.1 | kašmír | 1.0.8 | volající | 3.7.3 |
karetka | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
třída | 7.3-22 | CLI | 3.6.2 | clipr | 0.8.0 |
hodiny | 0.7.0 | klastr | 2.1.4 | codetools | 0.2-19 |
barevný prostor | 2.1-0 | commonmark | 1.9.1 | kompilátor | 4.3.2 |
konfigurace | 0.3.2 | v rozporu | 1.2.0 | cpp11 | 0.4.7 |
pastelka | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | Datové sady | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | popis | 1.4.3 | devtools | 2.4.5 |
schéma | 1.6.5 | diffobj | 0.3.5 | trávit | 0.6.34 |
dolní osvětlení | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | výpustka | 0.3.2 | hodnotit | 0.23 |
fanoušci | 1.0.6 | barvy | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | pro kočky | 1.0.0 | foreach | 1.5.2 |
zahraniční | 0.8-85 | kovat | 0.2.0 | fs | 1.6.3 |
budoucnost | 1.33.1 | future.apply | 1.11.1 | kloktadlo | 1.5.2 |
generika | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globály | 0.16.2 | lepidlo | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.2 | grDevices | 4.3.2 | mřížka | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | Gt | 0.10.1 |
gtable | 0.3.4 | bezpečnostní přilba | 1.3.1 | útočiště | 2.5.4 |
vyšší | 0.10 | Hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | identifikátory | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iterátory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | šťavnatý džus | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1,45 | značení | 0.4.3 |
později | 1.3.2 | mříž | 0.21-8 | láva | 1.7.3 |
životní cyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | hmotnost | 7.3-60 |
Matice | 1.5-4.1 | memoise | 2.0.1 | metody | 4.3.2 |
mgcv | 1.8-42 | mim | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | rovnoběžný | 4.3.2 |
paralelně | 1.36.0 | pilíř | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | chvála | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | pokrok | 1.2.3 |
progressr | 0.14.0 | sliby | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reaktivní | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
recepty | 1.0.9 | odvetný zápas | 2.0.0 | rematch2 | 2.1.2 |
dálkové ovladače | 2.4.2.1 | reprodukovatelný příklad | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | drzost | 0.4.8 |
váhy | 1.3.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
tvar | 1.4.6 | lesklý | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | prostorový | 7.3-15 | spliny | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistické údaje | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
přežití | 3.5-5 | naparování | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
tvarování textu | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | změna času | 0.3.0 |
časDatum | 4032.109 | tinytex | 0.49 | nářadí | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | použij toto | 2.2.2 |
utf8 | 1.2.4 | nástroje | 4.3.2 | Identifikátor UUID (univerzálně jedinečný identifikátor) | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | vousky | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk automatické škálování | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | podpora aws-java-sdk | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-stíněný | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.kofein | kofein | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | Nativní verze 1.1 |
com.github.fommil.netlib | nativní_systém-java | 1.1 |
com.github.fommil.netlib | native_system-java | Nativní verze 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Nativní verze 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | Nativní verze 1.1 |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | cink | 1.9.0 |
com.google.errorprone | poznámky_náchylné_k_chybám | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guave | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profilovač | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfigurace | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | vzduchový kompresor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | metriky pro anotace | 4.2.19 |
io.dropwizard.metrics | jádro metrik | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metriky – servlety | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | obslužná rutina Netty | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mravenec | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | formát šipky | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | šipka-vektor | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-klient | 2.13.0 |
org.apache.kurátor | kurátorský rámec | 2.13.0 |
org.apache.kurátor | recepty od kurátora | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | městské derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client (klient pro Apache Hive s možností LLAP) | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | břečťan | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | poznámky pro publikum | 0.13.0 |
org.apache.zookeeper | ošetřovatel v zoo | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty pokračování | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | běžný žerzej | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | Hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Podložky | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | testovací rozhraní | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | kompatibilní s scalatestem | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |