Sdílet prostřednictvím


Databricks Runtime 16.0

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 16.0, který využívá Apache Spark 3.5.0.

Databricks vydala tuto verzi v listopadu 2024.

Tip

Poznámky k verzi pro verze Databricks Runtime, které dosáhly konce podpory (EoS), najdete v poznámkách k verzi Databricks Runtime pro ukončení podpory. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.

Změny chování

Změna způsobující chybu: JDK 17 je teď výchozí

Ve verzi Databricks Runtime 16.0 a novější se výchozí verze sady JDK přepne z sady JDK 8 na JDK 17. Tato změna se provádí kvůli plánovanému vyřazení a ukončení podpory sady JDK 8. To má vliv na následující:

  • Kód Java spuštěný na výpočetních prostředcích Azure Databricks musí být kompatibilní s Javou 17.
  • Kód Scala spuštěný v poznámkových blocích nebo výpočetních prostředcích Azure Databricks musí být kompatibilní s Javou 17.
  • Knihovny Java a Scala nainstalované na výpočetních prostředcích musí být kompatibilní s Javou 17.
  • Verze klienta metastoru Apache Hive nižší než 2.x Nastavení konfigurace spark.sql.hive.metastore.version Sparku na verzi nižší než 2.x způsobí problémy s kompatibilitou s Javou 17 a selháním připojení k metastoru Hive. Databricks doporučuje upgradovat Hive na verzi vyšší než 2.0.0.

Pokud se potřebujete vrátit k Javě 8, při konfiguraci výpočetních prostředků Azure Databricks přidejte do proměnných prostředí Sparku následující:

JNAME=zulu8-ca-amd64

Pokud používáte instance ARM, použijte následující:

JNAME=zulu8-ca-arm64

Další informace o zadávání verzí sady JDK pomocí výpočetních prostředků Azure Databricks najdete v tématu Vytvoření clusteru, který používá sadu JDK 17.

Nápovědu k migraci kódu z Javy 8 najdete v následujících příručkách:

Zásadní změna: Hostovaný RStudio je konec životnosti

V této verzi je RStudio Server hostovaný službou Databricks ukončený a nedostupný v jakémkoli pracovním prostoru Azure Databricks, na kterém běží Databricks Runtime 16.0 a novější. Další informace a zobrazení seznamu alternativ k RStudio najdete v tématu Vyřazení hostovaného RStudio Serveru.

Zásadní změna: Odebrání podpory pro změnu byte, shortint a long typy na širší typy

Ve službě Databricks Runtime 15.4.3 a novějších už nelze u tabulek s povolenou funkcí rozšíření typu použít následující změny datového typu:

  • byte, shortint a long do decimal.
  • byte, shorta int do double.

Tato změna se provádí, aby se zajistilo konzistentní chování tabulek Delta a Iceberg. Další informace o rozšíření typu najdete v tématu Rozšíření typu.

Oprava analýzy vzorů regulárních výrazů s negací ve vnořeném seskupování znaků

Tato verze obsahuje změnu, která podporuje správné parsování vzorů regulárních výrazů s negací ve vnořeném seskupování znaků. Bude například [^[abc]] analyzován jako "libovolný znak, který není jedním z "abc".

Kromě toho chování Photon bylo nekonzistentní se Sparkem pro vnořené třídy znaků. Vzory regulárních výrazů obsahující vnořené třídy znaků už nebudou používat Photon a místo toho budou používat Spark. Vnořená třída znaků je libovolný vzor obsahující hranaté závorky v hranatých závorkách, například [[a-c][1-3]].

Vylepšení detekce duplicitní shody v Delta Lake MERGE

V Databricks Runtime 15.4 LTS a níže operace selžou, MERGE pokud více než jeden řádek ve zdrojové tabulce odpovídá stejnému řádku v cílové tabulce na MERGE základě podmínky zadané v ON klauzuli. Ve službě Databricks Runtime 16.0 a vyšší MERGE se také zvažuje podmínky uvedené v klauzuli WHEN MATCHED . Viz Upsert do tabulky Delta Lake pomocí sloučení.

Metoda instalace knihovny clusteru už nejde přepsat

Konfigurace Sparku spark.databricks.libraries.enableSparkPyPIspark.databricks.libraries.enableMavenResolutiona spark.databricks.libraries.enableCRANResolutionnow nyní výchozí nastavení true a nelze je přepsat.

Výchozí časový limit dvou hodin pro instalace knihoven v oboru clusteru

V Databricks Runtime 16.0 a novějších má instalace knihovny v oboru clusteru výchozí časový limit dvě hodiny. Instalace knihovny, které trvá déle, než tento časový limit, selžou a instalace se ukončí. Při konfiguraci clusteru můžete změnit období časového limitu pomocí konfigurace spark.databricks.driver.clusterLibraryInstallationTimeoutSecSparku .

Instalace knihoven z DBFS a nastavení souboru Spark Conf spark.databricks.driver.dbfsLibraryInstallationAllowed jsou zakázány.

V Databricks Runtime 16.0 a novějších je instalace knihoven z DBFS plně zakázaná. Tato změna se provádí, aby se zlepšilo zabezpečení knihoven v pracovním prostoru Databricks. Kromě toho v Databricks Runtime 16.0 a novějších už nemůžete použít konfiguraci spark.databricks.driver.dbfsLibraryInstallationAllowedSparku .

Funkce addArtifact() jsou teď konzistentní napříč typy výpočetních prostředků.

V této verzi se archiv automaticky rozbalí, když přidáte addArtifact(archive = True) závislost do sdílených nebo bezserverových výpočetních prostředků Azure Databricks. Tato změna dělá chování addArtifact(archive = True) u těchto výpočetních typů konzistentní s výpočetními prostředky jednoho uživatele, které už podporuje automatické rozbalení archivů.

Nové funkce a vylepšení

Spolehlivější opětovné načítání upravených modulů Pythonu s vylepšeními autoreload

V Databricks Runtime 16.0 a novějších aktualizacích autoreload rozšíření vylepšují bezpečnost a spolehlivost opětovného načítání upravených modulů Pythonu importovaných ze souborů pracovního prostoru. Pokud je to možné, autoreloadpři těchto změnách se znovu načte pouze část modulu, která se změnila místo celého modulu. Azure Databricks teď navíc automaticky navrhne použití autoreload rozšíření, pokud se modul od posledního importu změnil. Viz Autoreload pro moduly Pythonu.

Podpora Avro pro rekurzivní schéma

Teď můžete použít recursiveFieldMaxDepth možnost s from_avro funkcí a avro zdrojem dat. Tato možnost nastaví maximální hloubku rekurze schématu ve zdroji dat Avro. Viz Čtení a zápis streamovaných dat Avro.

funkce to_avro a from_avro

Funkce to_avro a from_avro umožňují převod typů SQL na binární data Avro a zpět.

Rozšířená podpora pro Confluent Schema Registry pro Avro

Azure Databricks teď podporuje odkaz na schéma Avro s registrem schémat Confluent. Viz Ověření v externím registru schématu Confluent.

Vynucení překluzování tabulek pomocí clusteringu liquid

V Databricks Runtime 16.0 a novějších můžete pomocí OPTIMIZE FULL syntaxe vynutit překluzování všech záznamů v tabulce s povoleným clusteringem liquid. Viz Vynucení překluzování pro všechny záznamy.

Rozhraní Delta API pro Python a Scala teď podporují sloupce identit.

Pomocí rozhraní Delta API pro Python a Scala teď můžete vytvářet tabulky se sloupci identit. Viz Použití sloupců identit v Delta Lake.

Podrobné řízení přístupu u výpočetních prostředků s jedním uživatelem je obecně dostupné.

Ve službě Databricks Runtime 16.0 a novějších je obecně dostupné podrobné řízení přístupu u výpočetních prostředků jednoho uživatele. V pracovních prostorech s povolenými bezserverovým výpočetním prostředím platí, že pokud je dotaz spuštěný na podporovaných výpočetních prostředcích, jako je výpočetní výkon jednoho uživatele a dotaz přistupuje k některému z následujících objektů, předá tento výpočetní prostředek do bezserverového výpočetního prostředí, aby bylo možné spouštět filtrování dat:

  • Zobrazení definovaná v tabulkách, u kterých uživatel nemá SELECT oprávnění.
  • Dynamická zobrazení
  • Tabulky s použitými filtry řádků nebo maskami sloupců
  • Materializovaná zobrazení a tabulky streamování

Vytváření skupinových tabulek s kapalinou během zápisů streamování

Nyní můžete použít clusterBy k povolení clusteringu liquid při vytváření nových tabulek se zápisy strukturovaného streamování. Viz Povolení clusteringu liquid.

Podpora klauzule OPTIMIZE FULL

Databricks Runtime 16.0 podporuje klauzuli OPTIMIZE FULL . Tato klauzule optimalizuje všechny záznamy v tabulce, která používá clustering liquid, včetně dat, která byla dříve seskupována.

Podpora specifikace možností WITH v insert a tabulkovém odkazu

Databricks Runtime 16.0 podporuje specifikaci možností pro odkazy na tabulky a názvy INSERT tabulek příkazu, které lze použít k řízení chování zdrojů dat.

Nové funkce SQL

V Databricks Runtime 16.0 se přidávají následující funkce SQL:

  • try_url_decode

    Tato funkce je verze url_decode s odolností proti chybám. Tato funkce vrátí NULL , pokud vstup není platný řetězec kódovaný adresou URL.

  • zeroifnull

    Pokud je zeroifnull()vstupní výraz funkce NULL , vrátí funkce hodnotu 0. V opačném případě se vrátí hodnota vstupního výrazu.

  • nullifzero

    Vrátí NULL , pokud je vstup 0 nebo jeho vstup, pokud není 0. Pokud je vstupní výraz funkce nullifzero() 0, vrátí NULLfunkce . Pokud vstupní výraz není 0, vrátí se hodnota vstupního výrazu.

Povolení automatického vývoje schématu při slučování dat do tabulky Delta

Tato verze přidává podporu pro withSchemaEvolution() člena DeltaMergeBuilder třídy. Slouží withSchemaEvolution() k povolení automatického vývoje schématu během MERGE operací. Například mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.

Další změny

SparkR je teď zastaralý.

Ve službě Databricks Runtime 16.0 a novějších je SparkR v Databricks vyřazený v přípravě na vyřazení v nadcházející verzi Sparku 4. Podívejte se na vlákno Sparku, které vyřadí zastaralou verzi Sparku.

Databricks místo toho doporučuje používat sparklyr .

Databricks Runtime 16.0 se nepodporuje s PVC

Databricks Runtime 16.0 nepodporuje privátní virtuální cloud Databricks (PVC). Musíte použít Databricks Runtime 15.4 nebo novější se všemi verzemi PVC.

Opravy chyb

Auto Loader teď zachraňuje typy záznamů Avro s prázdnými schématy.

Při načítání souboru Avro do tabulky Delta pomocí automatického zavaděče record se teď do sloupce dat záchrany přidají typy v souboru s prázdným schématem. Protože nemůžete ingestovat prázdné složité datové typy do tabulky Delta, vyřeší se tím problém s načtením některých souborů Avro. Další informace o zachráněných datech najdete v tématu Co je záchranný sloupec dat?

Oprava chyby při zápisu časových razítek s časovými pásmy obsahujícími druhý posun

Tato verze opravuje chybu, která má vliv na některá časová razítka s časovými pásmy obsahujícími druhý posun. Tato chyba způsobí vynechání sekund při zápisu do formátu JSON, XML nebo CSV, což vede k nesprávným hodnotám časového razítka.

Chcete-li se vrátit k předchozímu chování, použijte následující možnost při zápisu do některého z ovlivněných formátů: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • Azure-Core od 1.30.2 do 1.31.0
    • azure-storage-blob od 12.19.1 do 12.23.0
    • azure-storage-file-datalake from 12.14.0 to 12.17.0
    • černá od 23.3.0 do 24.4.2
    • blinker od 1.4 do 1.7.0
    • boto3 od 1.34.39 do 1.34.69
    • botocore od 1.34.39 do 1.34.69
    • certifi od 2023.7.22 do 2024.6.2
    • cffi od 1.15.1 do 1.16.0
    • klikněte z 8.0.4 na 8.1.7
    • čárka od 0.1.2 do 0.2.1
    • obrysová křivka od 1.0.5 do 1.2.0
    • kryptografie od 41.0.3 do 42.0.5
    • Cython od 0.29.32 do 3.0.11
    • databricks-sdk od 0.20.0 do 0.30.0
    • dbus-python od 1.2.18 do 1.3.2
    • filelock od 3.13.4 do 3.15.4
    • fonttools od 4.25.0 do 4.51.0
    • GitPython od 3.1.43 do 3.1.37
    • google-api-core od 2.18.0 do 2.20.0
    • google-auth od 2.31.0 do 2.35.0
    • google-cloud-storage od 2.17.0 do 2.18.2
    • google-crc32c od 1.5.0 do 1.6.0
    • google-resumable-media od 2.7.1 do 2.7.2
    • googleapis-common-protos od 1.63.2 do 1.65.0
    • httplib2 od 0.20.2 do 0.20.4
    • idna od 3.4 do 3.7
    • ipykernel od 6.25.1 do 6.28.0
    • ipython od 8.15.0 do 8.25.0
    • jedi od 0.18.1 do 0.19.1
    • jmespath od 0.10.0 do 1.0.1
    • joblib od 1.2.0 do 1.4.2
    • jupyter_client od 7.4.9 do 8.6.0
    • jupyter_core od 5.3.0 do 5.7.2
    • launchpadlib od 1.10.16 do 1.11.0
    • lazr.restfulclient od 0.14.4 do 0.14.6
    • matplotlib od 3.7.2 do 3.8.4
    • mlflow-skinny od 2.11.4 do 2.15.1
    • more-itertools from 8.10.0 to 10.3.0
    • rozšíření mypy od 0.4.3 do 1.0.0
    • nest-asyncio od 1.5.6 do 1.6.0
    • numpy od 1.23.5 do 1.26.4
    • oauthlib od 3.2.0 do 3.2.2
    • balení od 23.2 do 24.1
    • patsy od 0.5.3 do 0.5.6
    • pip od 23.2.1 do 24.2
    • vykreslit od 5.9.0 do 5.22.0
    • prompt-toolkit from 3.0.36 to 3.0.43
    • pyarrow od 14.0.1 do 15.0.2
    • pydantic od 1.10.6 do 2.8.2
    • PyGObject od 3.42.1 do 3.48.2
    • PyJWT od 2.3.0 do 2.7.0
    • pyodbc od 4.0.38 do 5.0.1
    • python-dateutil od 2.8.2 do 2.9.0.post0
    • python-lsp-jsonrpc od 1.1.1 do 1.1.2
    • pytz od 2022.7 do 2024.1
    • PyYAML od 6.0 do 6.0.1
    • pyzmq od 23.2.0 do 25.1.2
    • žádosti od 2.31.0 do 2.32.2
    • scikit-learn od 1.3.0 do 1.4.2
    • scipy od 1.11.1 do 1.13.1
    • seaborn od 0.12.2 do 0.13.2
    • instalační nástroje od 68.0.0 do 74.0.0
    • mapa smmap od 5.0.1 do 5.0.0
    • sqlparse od 0.5.0 do 0.5.1
    • statsmodels from 0.14.0 to 0.14.2
    • tornado od 6.3.2 do 6.4.1
    • vlastnosti od 5.7.1 do 5.14.3
    • typing_extensions od 4.10.0 do 4.11.0
    • ujson od 5.4.0 do 5.10.0
    • virtualenv od 20.24.2 do 20.26.2
    • kolo od 0.38.4 do 0.43.0
    • zip od 3.11.0 do 3.17.0
  • Upgradované knihovny jazyka R:
    • šipka od 14.0.0.2 do 16.1.0
    • backporty od 1.4.1 do 1.5.0
    • od 4.3.2 do 4.4.0
    • bitops od 1.0-7 do 1.0-8
    • boot from 1.3-28 to 1.3-30
    • brio od 1.1.4 do 1.1.5
    • koště od 1.0.5 do 1.0.6
    • bslib od 0.6.1 do 0.8.0
    • cachem from 1.0.8 to 1.1.0
    • volající od 3.7.3 do 3.7.6
    • cli od 3.6.2 do 3.6.3
    • hodiny od 0.7.0 do 0.7.1
    • cluster od 2.1.4 do 2.1.6
    • codetools from 0.2-19 to 0.2-20
    • barevný prostor od 2.1-0 do 2.1-1
    • kompilátor z verze 4.3.2 do 4.4.0
    • crayon od 1.5.2 do 1.5.3
    • curl od 5.2.0 do 5.2.1
    • data.table od 1.15.0 do 1.15.4
    • datové sady od 4.3.2 do 4.4.0
    • DBI od 1.2.1 do 1.2.3
    • dbplyr od 2.4.0 do 2.5.0
    • digest od 0.6.34 do 0.6.36
    • downlit od 0.4.3 do 0.4.4
    • vyhodnocení z 0.23 na 0.24.0
    • farver od 2.1.1 do 2.1.2
    • fastmap od 1.1.1 do 1.2.0
    • cizí od 0.8-85 do 0.8-86
    • fs od 1.6.3 do 1.6.4
    • budoucí od 1.33.1 do 1.34.0
    • future.apply from 1.11.1 to 1.11.2
    • gert od 2.0.1 do 2.1.0
    • ggplot2 od 3.4.4 do 3.5.1
    • gh od 1.4.0 do 1.4.1
    • globals from 0.16.2 to 0.16.3
    • grafika od 4.3.2 do 4.4.0
    • grDevices od 4.3.2 do 4.4.0
    • mřížka od 4.3.2 do 4.4.0
    • od 0.10.1 do 0.11.0
    • od 0.3.4 do 0.3.5
    • hardhat od 1.3.1 do 1.4.0
    • vysoký od 0,10 do 0,11
    • htmltools od 0.5.7 do 0.5.8.1
    • httpuv od 1.6.14 do 1.6.15
    • httr2 od 1.0.0 do 1.0.2
    • ipred z 0.9-14 do 0.9-15
    • KernSmooth od 2.23-21 do 2.23-22
    • Pletení od 1.45 do 1.48
    • lattice od 0.21-8 do 0.22-5
    • lava from 1.7.3 to 1.8.0
    • markdown od 1.12 do 1.13
    • HMOTNOST od 7.3-60 do 7.3-60.0.1
    • Matice od 1,5-4.1 do 1,6-5
    • metody od 4.3.2 do 4.4.0
    • mgcv od 1,8-42 do 1,9-1
    • mlflow od 2.10.0 do 2.14.1
    • munsell od 0.5.0 do 0.5.1
    • nlme od 3.1-163 do 3.1-165
    • openssl od 2.1.1 do 2.2.0
    • paralelní od 4.3.2 do 4.4.0
    • paralelně od 1.36.0 do 1.38.0
    • pkgbuild od 1.4.3 do 1.4.4
    • pkgdown od 2.0.7 do 2.1.0
    • pkgload od 1.3.4 do 1.4.0
    • processx od 3.8.3 do 3.8.4
    • prodlim od 2023.08.28 do 2024.06.25
    • sliby od 1.2.1 do 1.3.0
    • ps od 1.7.6 do 1.7.7
    • ragg od 1.2.7 do 1.3.2
    • Rcpp od 1.0.12 do 1.0.13
    • RcppEigen od 0.3.3.9.4 do 0.3.4.0.0
    • reactR od 0.5.0 do 0.6.0
    • recepty od 1.0.9 do 1.1.0
    • vzdáleně od 2.4.2.1 do 2.5.0
    • reprex from 2.1.0 to 2.1.1
    • rlang od 1.1.3 do 1.1.4
    • rmarkdown od 2.25 do 2.27
    • roxygen2 od 7.3.1 do 7.3.2
    • rpart from 4.1.21 to 4.1.23
    • RSQLite od 2.3.5 do 2.3.7
    • rstudioapi od 0.15.0 do 0.16.0
    • rvest od 1.0.3 do 1.0.4
    • sass od 0.4.8 do 0.4.9
    • tvar od 1.4.6 do 1.4.6.1
    • lesklý od 1.8.0 do 1.9.1
    • sparklyr od 1.8.4 do 1.8.6
    • prostorová od 7.3-15 do 7.3-17
    • splines od 4.3.2 do 4.4.0
    • Statistiky od 4.3.2 do 4.4.0
    • Statistiky 4 od 4.3.2 do 4.4.0
    • stringi od 1.8.3 do 1.8.4
    • přežití od 3.5-5 do 3.6-4
    • swagger od 3.33.1 do 5.17.14.1
    • systemfonts od 1.0.5 do 1.1.0
    • tcltk od 4.3.2 do 4.4.0
    • test ze 3.2.1 do 3.2.1.1
    • textshaping from 0.3.7 to 0.4.0
    • Tidyselect from 1.2.0 to 1.2.1
    • tinytex od 0,49 do 0,52
    • nástroje od 4.3.2 do 4.4.0
    • usethis from 2.2.2 to 3.0.0
    • nástroje od 4.3.2 do 4.4.0
    • uuid od 1.2-0 do 1.2-1
    • V8 od 4.4.1 do 4.4.2
    • sr od 3.0.0 do 3.0.1
    • xfun od 0.41 do 0.46
    • xopen od 1.0.0 do 1.0.1
    • yaml od 2.3.8 do 2.3.10
  • Upgradované knihovny Java:
    • com.amazonaws.aws-java-sdk-autoscaling from 1.12.610 to 1.12.638
    • com.amazonaws.aws-java-sdk-cloudformation from 1.12.610 to 1.12.638
    • com.amazonaws.aws-java-sdk-cloudfront od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cloudhsm od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cloudsearch od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cloudtrail od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cloudwatch od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cloudwatchmetrics from 1.12.610 to 1.12.638
    • com.amazonaws.aws-java-sdk-codedeploy od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cognitoidentity od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-cognitosync od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-config od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-core od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-datapipeline od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-directconnect od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-directory od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-dynamodb od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-ec2 od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-ecs od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-efs od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-elasticache od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-elasticbeanstalk od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-elasticloadbalancing od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-elastictranscoder od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-emr od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-glacier od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-glue od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-iam od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-importexport od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-kinesis od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-kms od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-lambda od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-logs od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-machinelearning od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-opsworks od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-rds od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-redshift od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-route53 od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-s3 od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-ses od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-simpledb od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-simpleworkflow od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-sns od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-sqs od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-ssm od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-storagegateway od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-sts od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-support od 1.12.610 do 1.12.638
    • com.amazonaws.aws-java-sdk-workspaces od 1.12.610 do 1.12.638
    • com.amazonaws.jmespath-java od 1.12.610 do 1.12.638
    • com.google.protobuf.protobuf-java od 2.6.1 do 3.25.1
    • io.airlift.aircompressor od 0.25 do 0.27
    • io.delta.delta-sharing-client_2.12 od 1.1.3 do 1.2.0
    • io.netty.netty-all od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-buffer od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-codec od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-codec-http od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-codec-http2 od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-codec-socks from 4.1.96.Final až 4.1.108.Final
    • io.netty.netty-common od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-handler od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-handler-proxy z verze 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-resolver od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-transport od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-transport-classes-epoll od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-transport-classes-kqueue od 4.1.96.Final do 4.1.108.Final
    • io.netty.netty-transport-native-epoll od 4.1.96.Final-linux-x86_64 do 4.1.108.Final-linux-x86_64
    • io.netty.netty-transport-native-kqueue od 4.1.96.Final-osx-x86_64 do 4.1.108.Final-osx-x86_64
    • io.netty.netty-transport-native-unix-common od 4.1.96.Final do 4.1.108.Final
    • org.apache.ivy.ivy.ivy od 2.5.1 do 2.5.2
    • org.apache.zookeeper.zookeeper od 3.6.3 do 3.9.2
    • org.apache.zookeeper.zookeeper-jute od 3.6.3 do 3.9.2
    • org.rocksdb.rocksdbjni od 8.11.4 do 9.2.1
    • org.scalactic.scalactic_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest kompatibilní od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-core_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-diagrams_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-featurespec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-flatspec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-freespec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-funspec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-funsuite_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-matchers-core_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-mustmatchers_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-propspec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-refspec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-shouldmatchers_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest-wordspec_2.12 od 3.2.15 do 3.2.16
    • org.scalatest.scalatest_2.12 od 3.2.15 do 3.2.16

Apache Spark

Databricks Runtime 16.0 zahrnuje Apache Spark 3.5.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 15.4 LTS, a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-49093] [DBRRM-1371] Vrátit "[SC-172958][SQL] GROUP BY with MapType nes...
  • [SPARK-49898] [DBRRM-1282][SC-178410] Oprava dokumentace a výchozího nastavení pro protokolování metrik úloh protokolu událostí příznak protokolování ze spark-42204
  • [SPARK-49743] [ES-1260022][CHOVÁNÍ-157][SC-177475][SQL] Při vyprázdnění GetArrayStructFields by optimizecsvJsonExpr nemělo měnit pole schématu.
  • [SPARK-49816] [SC-177896][SQL] Měla by se aktualizovat pouze odchozí počet ref-count pro odkazovaný vnější vztah CTE.
  • [SPARK-48939] [SC-177022][SC-172766][AVRO] Podpora čtení Avro s využitím rekurzivního odkazu na schéma
  • [SPARK-49688] [SC-177468][ES-1242349][CONNECT] Oprava datového závodu mezi přerušením a spuštěním plánu
  • [SPARK-49771] [SC-177466][PYTHON] Zlepšení chyby UDF skalární iteru Pandas, když výstupní řádky překračují vstupní řádky
  • [SPARK-48866] [SC-170772][SQL] Oprava tipů platné znakové sady v chybové zprávě INVALID_PARAMETER_VALUE. ZNAKOVÁ SADA
  • [SPARK-48195] [FIXFORWARD][SC-177267][JÁDRO] Uložení a opětovné použití RDD/Všesměrové vysílání vytvořené sparkplanem
  • [SPARK-49585] [CONNECT] Nahrazení mapování spuštění v objektu SessionHolder nastavením operationID
  • [SPARK-49211] [SC-174257][SQL] Katalog V2 může také podporovat integrované zdroje dat.
  • [SPARK-49684] Minimalizace životnosti zámku obnovení relace
  • [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPARK-48291] Architektura strukturovaného protokolu na straně Javy
  • [SPARK-48857] [SC-170661][SQL] Omezení znakových sad v souborech CSVOptions
  • [SPARK-49152] [SC-173690][SQL] V2SessionCatalog by měl používat V2Command
  • [SPARK-42846] [SC-176588][SQL] Odebrání chybového stavu _LEGACY_ERROR_TEMP_2011
  • [SPARK-48195] [SC-177267][JÁDRO] Uložení a opětovné použití RDD/Všesměrové vysílání vytvořené sparkplanem
  • [SPARK-49630] [SC-177379][SS] Přidání zploštěné možnosti pro zpracování typů kolekcí pomocí čtečky zdroje dat stavu
  • [SPARK-49699] [SC-177154][SS] Zakázání funkce PruneFilters pro úlohy streamování
  • [SPARK-48781] [SC-175282][SQL] Přidání rozhraní API katalogu pro načítání uložených procedur
  • [SPARK-49667] [SC-177068][SQL] Zakázat CS_AI kolatory s výrazy, které používají StringSearch
  • [SPARK-49737] [SC-177207][SQL] Zakázání kontejneru u kompletovaných sloupců v komplexních typech
  • [SPARK-48712] [SC-169794][SQL] Vylepšení výkonu pro kódování s prázdnými hodnotami nebo znakovou sadou UTF-8
  • [SPARK-49038] [SC-173933][SQL] Metrika SQL by měla hlásit nezpracovanou hodnotu v události aktualizace akumulátoru.
  • [SPARK-48541] [SC-169066][JÁDRO] Přidání nového ukončovacího kódu pro exekutory ukončené TaskReaperem
  • [SPARK-48774] [SC-170138][SQL] Použití SparkSession v SQLImplicits
  • [SPARK-49719] [SC-177139][SQL] Nastavení UUID a SHUFFLE přijetí celého čísla seed
  • [SPARK-49713] [SC-177135][PYTHON][CONNECT] Přijmout číselné argumenty funkce count_min_sketch
  • [SPARK-47601] [SC-162499][GRAPHX] Graphx: Migrace protokolů s proměnnými do architektury strukturovaného protokolování
  • [SPARK-49738] [SC-177219][SQL] Opravy chyb Endwith
  • [SPARK-48623] [SC-170822][JÁDRO] Migrace strukturovaného protokolování [část 3]
  • [SPARK-49677] [SC-177148][SS] Ujistěte se, že se soubory protokolu změn zapisují do potvrzení a příznak forceSnapshot se také resetují.
  • [SPARK-49684] [SC-177040][CONNECT] Odebrání globálních zámků z správců relací a spouštění
  • [SPARK-48302] [SC-168814][PYTHON] Zachování hodnot null ve sloupcích mapy v tabulkách PyArrow
  • [SPARK-48601] [SC-169025][SQL] Poskytnutí uživatelsky přívětivější chybové zprávy při nastavení hodnoty null pro možnost JDBC
  • [SPARK-48635] [SC-169263][SQL] Přiřazení tříd k chybám typu spojení a chybě typu spojení
  • [SPARK-49673] [SC-177032][CONNECT] Zvýšení CONNECT_GRPC_ARROW_MAX_BATCH_SIZE na 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
  • [SPARK-49693] [SC-177071][PYTHON][CONNECT] Upřesnění řetězcové reprezentace timedelta
  • [SPARK-49687] [SC-176901][SQL] Zpoždění řazení v validateAndMaybeEvolveStateSchema
  • [SPARK-49718] [SC-177112][PS] Přepnutí Scatter grafu na vzorkovaná data
  • [SPARK-48472] [SC-169044][SQL] Povolení výrazů reflect s kompletovanými řetězci
  • [SPARK-48484] [SC-167484][SQL] Oprava: V2Write použít stejný TaskAttemptId pro různé pokusy o úkol
  • [SPARK-48341] [SC-166560][CONNECT] Povolení použití QueryTestu v testech modulů plug-in
  • [SPARK-42252] [SC-168723][JÁDRO] Přidání spark.shuffle.localDisk.file.output.buffer a vyřazení spark.shuffle.unsafe.file.output.buffer
  • [SPARK-48314] [SC-166565][SS] Soubory fileStreamSource nepoužívejte dvojitou mezipaměť pomocí triggeru.AvailableNow.
  • [SPARK-49567] [SC-176241][PYTHON] Místo classic základu vanilla kódu PySpark
  • [SPARK-48374] [SC-167596][PYTHON] Podpora dalších typů sloupců PyArrow Table
  • [SPARK-48300] [SC-166481][SQL] Podpora Codegenu pro from_xml
  • [SPARK-49412] [SC-177059][PS] Výpočet všech metrik krabicového grafu v jedné úloze
  • [SPARK-49692] [SC-177031][PYTHON][CONNECT] Upřesnění řetězcové reprezentace literálového data a data a času
  • [SPARK-49392] [ES-1130351][SC-176705][SQL] Zachycení chyb při selhání zápisu do externího zdroje dat
  • [SPARK-48306] [SC-166241][SQL] Vylepšení UDT v chybové zprávě
  • [SPARK-44924] [SC-166379][SS] Přidání konfigurace pro soubory uložené v mezipaměti FileStreamSource
  • [SPARK-48176] [SC-165644][SQL] Úprava názvu chybového stavu FIELD_ALREADY_EXISTS
  • [SPARK-49691] [SC-176988][PYTHON][CONNECT] Funkce substring by měla přijímat názvy sloupců.
  • [SPARK-49502] [SC-176077][JÁDRO] Vyhněte se NPE ve SparkEnv.get.shuffleManager.unregisterShuffle
  • [SPARK-49244] [SC-176703][SQL] Další vylepšení výjimek pro analyzátor nebo interpret
  • [SPARK-48355] [SC-176684][SQL] Podpora pro příkaz CASE
  • [SPARK-49355] [SC-175121][SQL] levenshtein by měla zkontrolovat, jestli collation jsou hodnoty všech typů parametrů stejné.
  • [SPARK-49640] [SC-176953][PS] Použití vzorkování zásobníku v SampledPlotBase
  • [SPARK-49678] [SC-176857][JÁDRO] Podpora spark.test.master v SparkSubmitArguments
  • [SPARK-49680] [SC-176856][PYTHON] Omezení Sphinx paralelismu sestavení na 4 ve výchozím nastavení
  • [SPARK-49396] Vrátit zpět "[SC-176030][SQL] Změna kontroly použitelnosti pro Výraz CaseWhen
  • [SPARK-48419] [SC-167443][SQL] Skládací šíření nahrazuje skládací sloupcový šoul...
  • [SPARK-49556] [SC-176757][SQL] Přidání syntaxe kanálu SQL pro operátor SELECT
  • [SPARK-49438] [SC-175237][SQL] Oprava hezkého názvu výrazu FromAvro & ToAvro
  • [SPARK-49659] [SC-1229924][SQL] Přidání pěkné uživatelské chyby pro skalární poddotazy uvnitř klauzule VALUES
  • [SPARK-49646] [SC-176778][SQL] Oprava derrelace poddotazů pro operace sjednocení/sady, pokud parentOuterReferences neobsahuje odkazy, které nejsou zahrnuté v kolekciChildOuterReferences
  • [SPARK-49354] [SC-175034][SQL] split_part by měla zkontrolovat, jestli collation jsou hodnoty všech typů parametrů stejné.
  • [SPARK-49478] [SC-175914][CONNECT] Zpracování metrik null v ConnectProgressExecutionListener
  • [SPARK-48358] [SC-176374][SQL] Podpora příkazu REPEAT
  • [SPARK-49183] [SC-173680][SQL] V2SessionCatalog.createTable by měla respektovat PROP_IS_MANAGED_LOCATION
  • [SPARK-49611] [SC-176791][SQL] Představení TVF collations() a odebrání SHOW COLLATIONS příkazu
  • [SPARK-49261] [SC-176589][SQL] Nenahrazovat literály v agregačních výrazech výrazy seskupováním podle
  • [SPARK-49099] [SC-173229][SQL] CatalogManager.setCurrentNamespace by měl respektovat vlastní katalog relací
  • [SPARK-49594] [SC-176569][SS] Přidání kontroly, jestli byly přidány nebo odebrány rodiny sloupců pro zápis souboru StateSchemaV3
  • [SPARK-49578] [SC-176385][SQL] Odebrání návrhu konfigurace ANSI v CAST_INVALID_INPUT a CAST_OVERFLOW
  • [SPARK-48882] [SC-174256][SS] Přiřazení názvů ke třídám chyb souvisejících s výstupním režimem streamování
  • [SPARK-49155] [SC-176506][SQL][SS] Použití vhodnějšího typu parametru k vytvoření GenericArrayData
  • [SPARK-49519] [SC-176388][SQL] Možnosti sloučení tabulek a relací při vytváření FileScanBuilder
  • [SPARK-49591] [SC-176587][SQL] Přidání sloupce Logický typ do variantního readme
  • [SPARK-49596] [SC-176423][SQL] Zlepšení výkonu FormatString
  • [SPARK-49525] [SC-176044][SS][CONNECT] Menší vylepšení protokolu na naslouchací proces naslouchacího procesu dotazů na straně serveru
  • [SPARK-49583] [SC-176272][SQL] Definujte dílčí podmínku SECONDS_FRACTION chyby pro neplatný vzor zlomku sekund.
  • [SPARK-49536] [SC-176242] Zpracování chyby při předběžném načtení záznamu streamovaného zdroje dat v Pythonu
  • [SPARK-49443] [SC-176273][SQL][PYTHON] Implementace výrazu to_variant_object a vytvoření výrazů schema_of_variant tisk objektu pro variantní objekty
  • [SPARK-49544] [SASP-3990][SC-176557][CONNECT] Nahrazení hrubého zamykání ve SparkConnectExecutionManageru pomocí ConcurrentMap
  • [SPARK-49548] [SASP-3990][SC-176556][CONNECT] Nahrazení hrubého zamykání ve SparkConnectSessionManageru pomocí ConcurrentMap
  • [SPARK-49551] [SC-176218][SS] Vylepšení protokolu RocksDB pro přehráníChangelogu
  • [SPARK-49595] [SC-176396][CONNECT][SQL] Oprava DataFrame.unpivot/melt v klientovi Scala pro Spark Connect
  • [SPARK-49006] [SC-176162] Implementace mazání pro soubory OperatorStateMetadataV2 a StateSchemaV3
  • [SPARK-49600] [SC-176426][PYTHON] Odebrání Python 3.6 and olderlogiky související s try_simplify_traceback
  • [SPARK-49303] [SC-176013][SS] Implementace hodnoty TTL pro ValueState v transformWithStateInPandas API
  • [SPARK-49191] [SC-176243][SS] Přidání podpory pro čtení transformWithState mapových proměnných se čtečkou zdroje dat stavu
  • [SPARK-49593] [SC-176371][SS] Vyvolání výjimky RocksDB volajícímu v databázi se zavře, pokud se zobrazí chyba
  • [SPARK-49334] [SC-174803][SQL] str_to_map by měla zkontrolovat, jestli collation jsou hodnoty všech typů parametrů stejné.
  • [SPARK-42204] [SC-176126][JÁDRO] Přidání možnosti zakázání redundantního protokolování interních akumulátorů TaskMetrics v protokolech událostí
  • [SPARK-49575] [SC-176256][SS] Přidání protokolování pro vydání zámku pouze v případě, že acquiredThreadInfo nemá hodnotu null
  • [SPARK-49539] [SC-176250][SS] Aktualizace počátečního identifikátoru interních rodin sloupců na jiný
  • [SPARK-49205] [SC-173853][SQL] KeyGroupedPartitioning by měl dědit HashPartitioningLike
  • [SPARK-49396] [SC-176030][SQL] Úprava kontroly použitelnosti výrazu CaseWhen
  • [SPARK-49476] [SC-175700][SQL] Oprava nullability funkce base64
  • [SPARK-47262] [SC-174829][SQL] Přiřazení názvů k chybovými podmínkami pro převody parquet
  • [SPARK-47247] [SC-158349][SQL] Při spojování oddílů s rozloženými spojeními použijte menší cílovou velikost.
  • [SPARK-49501] [SC-176166][SQL] Oprava dvojitého zapouzdření umístění tabulky
  • [SPARK-49083] [SC-173214][CONNECT] Povolit from_xml a from_json nativně pracovat se schématy JSON
  • [SPARK-49043] [SC-174673][SQL] Oprava interpretované skupiny cesty kódu na mapě obsahující kompletované řetězce
  • [SPARK-48986] [SC-172265][CONNECT][SQL] Přidání zprostředkující reprezentace columnNode
  • [SPARK-49326] [SC-176016][SS] Klasifikovat třídu chyby pro chybu uživatelské funkce jímky Foreach
  • [SPARK-48348] [SC-175950][SPARK-48376][SQL] Zavedení LEAVE a ITERATE příkazy
  • [SPARK-49523] [SC-175949][CONNECT] Zvýšení maximální doby čekání na připojení serveru pro testování
  • [SPARK-49000] [CHOVÁNÍ-105][ES-1194747][SQL] Oprava příkazu select count(distinct 1) from t, kde t je prázdná tabulka rozbalením RewriteDistinctAggregates – DBR verze 16.x
  • [SPARK-49311] [SC-175038][SQL] Umožňuje přetypování velkých hodnot intervalu sekund na desetinné číslo.
  • [SPARK-49200] [SC-173699][SQL] Oprava výjimky řazení typu null bez codegenu
  • [SPARK-49467] [SC-176051][SS] Přidání podpory pro čtečku zdroje dat stavu a stav seznamu
  • [SPARK-47307] [SC-170891][SQL] Přidání konfigurace do volitelně blokových řetězců base64
  • [SPARK-49391] [SC-176032][PS] Box plot select outliers by distance from plots
  • [SPARK-49445] [SC-175845][UŽIVATELSKÉ ROZHRANÍ] Podpora zobrazovat popis v indikátoru průběhu uživatelského rozhraní
  • [SPARK-49451] [SC-175702] Povolit duplicitní klíče v parse_json
  • [SPARK-49275] [SC-175701][SQL] Oprava nulové hodnoty návratového typu výrazu xpath
  • [SPARK-49021] [SC-175578][SS] Přidání podpory pro čtení proměnných stavu hodnot transformWithState se čtečkou zdroje dat stavu
  • [SPARK-49474] [CHOVÁNÍ-143][SC-169253][SC-175933][SS] Klasifikovat třídu error pro chybu uživatelské funkce FlatMapGroupsWithState
  • [SPARK-49408] [SC-175932][SQL] Použití indexedSeq v ProjectingInternalRow
  • [SPARK-49509] [SC-175853][JÁDRO] Používejte Platform.allocateDirectBuffer místo ByteBuffer.allocateDirect
  • [SPARK-49382] [SC-175013][PS] Správně vykreslit rámečkový graf rámečku
  • [SPARK-49002] [SC-172846][SQL] Konzistentně zpracovává neplatná umístění ve skladovém skladu, SCHÉMATU, TABULCE, ODDÍLU/ ADRESÁŘI.
  • [SPARK-49480] [SC-175699][JÁDRO] Oprava hodnoty NullPointerException z SparkThrowableHelper.isInternalError
  • [SPARK-49477] [SC-175828][PYTHON] Vylepšení chybové zprávy o neplatném návratovém typu knihovny pandas udf
  • [SPARK-48693] [SC-169492][SQL] Zjednodušení a sjednocení řetězce volání a statického volání
  • [SPARK-49441] [SC-175716][ML] StringIndexer řazení polí v exekutorech
  • [SPARK-49347] [SC-175004][R] Vyřazení SparkR
  • [SPARK-49357] [SC-175227][CONNECT][PYTHON] Svisle zkracujte hluboko vnořenou zprávu protobuf
  • [SPARK-41982] [SC-120604][SQL] Oddíly typu řetězce by neměly být považovány za číselné typy.
  • [SPARK-48776] [SC-170452][CHOVÁNÍ-72] Oprava formátování časového razítka pro json, xml a csv
  • [SPARK-49223] [SC-174800][ML] Zjednodušení StringIndexer.countByValue s integrovanými funkcemi
  • [SPARK-49016] Vrátit zpět "[SC-174663][SQL] Obnovit chování, kteréquery z nezpracovaných souborů CSV jsou zakázány, pokud zahrnout pouze poškozený sloupec záznamu a přiřadit název "_LEGACY_ERROR_TEMP_1285
  • [SPARK-49041] [SC-172392][PYTHON][CONNECT] Vyvolání správné chyby v dropDuplicates případě nesprávného subset zadání
  • [SPARK-49050] [SC-175235] Povolení operátoru deleteIfExists v TWS s rodinami virtuálních sloupců
  • [SPARK-49216] [SC-173919][JÁDRO]Oprava, že nejde protokolovat kontext zpráv s explicitně vytvořeným LogEntry při vypnuté konfiguraci strukturovaného protokolování
  • [SPARK-49252] [SC-175596][JÁDRO] VytvářeníTaskSetExcludeList a HeathTracker nezávislé
  • [SPARK-49352] [SC-174971][SQL] Vyhněte se redundantní transformaci pole pro identický výraz
  • [SPARK-42307] [SC-173863][SQL] Přiřazení názvu chyby _LEGACY_ERROR_TEMP_2232
  • [SPARK-49197] [SC-173732][JÁDRO] Redact Spark Command output in launcher module
  • [SPARK-48913] [SC-173934][SQL] Implementace odsazeníXMLStreamWriter
  • [SPARK-49306] [SC-175363][PYTHON][SQL] Vytvoření aliasů funkce SQL pro nuifnull a nullifzero
  • [SPARK-48344] [SQL] Spouštění skriptů SQL (včetně Spark Connect)
  • [SPARK-49402] [SC-175122][PYTHON] Oprava integrace Binderu v dokumentaci k PySparku
  • [SPARK-49017] [SC-174664][SQL] Příkaz Insert selže, když se používá více parametrů
  • [SPARK-49318] [SC-174733][SQL] Předběžná chyba s nízkou prioritou v LCA až do konce analýzy kontroly za účelem zlepšení chybového prostředí
  • [SPARK-49016] [SC-174663][SQL] Obnovení chování dotazů z nezpracovaných souborů CSV se nepovoluje, pokud obsahují pouze poškozený sloupec záznamu a přiřaďte název. _LEGACY_ERROR_TEMP_1285
  • [SPARK-49387] [SC-175124][PYTHON] Oprava nápovědy pro typ in accuracypercentile_approx a approx_percentile
  • [SPARK-49131] [SC-174666][SS] TransformWithState by měl správně nastavit implicitní seskupovací klíče i s opožděnými iterátory.
  • [SPARK-49301] [SC-174795][SS] Data se šipkami bloku předaná pracovnímu procesu Pythonu
  • [SPARK-49039] [SC-174651][UŽIVATELSKÉ ROZHRANÍ] Resetování zaškrtávacího políčka při načtení metrik exekutoru na kartě Fáze
  • [SPARK-48428] [SC-169806][SQL]: Oprava funkce IllegalStateException v NestedColumnAliasing
  • [SPARK-49353] [SC-174830][SQL] Aktualizace dokumentů souvisejících s kódováním UTF-32 a dekódováním
  • [SPARK-48613] [SC-170966][SQL] SPJ: Podpora automatického náhodného náhodného prohazu jedné strany + méně klíčů spojení než klíče oddílu
  • [SPARK-47473] [SC-160450][CHOVÁNÍ-127][SQL] Oprava problému správnosti převodu časových razítek postgres INFINITY
  • [SPARK-49142] [SC-173658][CONNECT][PYTHON] Postupujte podle pokynů a vraťte se proto k nákladům na výkon řetězců.
  • [SPARK-49300] [SC-175008][JÁDRO] Oprava úniku tokenu delegování Hadoop, když tokenRenewalInterval není nastaven.
  • [SPARK-49367] [SC-175012][PS] Paralelizace výpočtů KDE pro více sloupců (vykreslení back-endu)
  • [SPARK-49365] [SC-175011][PS] Zjednodušení agregace kbelíku v hist diagramu
  • [SPARK-49372] [SC-175003][SS] Ujistěte se, že je nejnovějšíSnapshot nastavená na žádné blízko, abyste se vyhnuli následnému použití.
  • [SPARK-49341] [SC-174785] Odebrat connector/docker ve prospěch Apache Spark Operator
  • [SPARK-49344] [SC-174894][PS] Podpora json_normalize rozhraní Pandas API ve Sparku
  • [SPARK-49306] [SC-174794][SQL] Vytvoření nových funkcí SQL zeroifnull a nullifzero
  • [SPARK-48796] [SC-174668][SS] Načtení ID rodiny sloupců z RocksDBCheckpointMetadata pro VCF při restartování
  • [SPARK-49342] [SC-174899][SQL] Nastavení TO_AVRO argumentu JSONFormatSchema funkce SQL jako volitelného
  • [SPARK-48628] [SC-174695][JÁDRO] Přidání metrik paměti haldy ve špičce nebo mimo haldu
  • [SPARK-47407] [SC-159379][CHOVÁNÍ-126][SQL] Podpora mapování java.sql.Types.NULL na typ Null
  • [SPARK-48628] [SC-173407][JÁDRO] Přidání metrik paměti haldy ve špičce nebo mimo haldu
  • [SPARK-49166] [SC-173987][SQL] Podpora posunu v korelovaném poddotazu
  • [SPARK-49269] [SC-174676][SQL] Dychtivě vyhodnocovat seznam VALUES() v AstBuilderu
  • [SPARK-49281] [SC-174782][SQL] Optimze parquet binary getBytes s getBytesUnsafe, abyste se vyhnuli nákladům na kopírování
  • [SPARK-49113] [SC-174734] Nepotvrzet u chyb překladu – bezobslužné polykání výjimky
  • [SPARK-49098] [SC-173253][SQL] Přidání možností zápisu pro INSERT
  • [SPARK-48638] [SC-174694][SLEDOVAT][CONNECT] Oprava dokumentace ke ExecutionInfo
  • [SPARK-49250] [ES-1222826][SQL] Zlepšení chybové zprávy pro vnořený UnresolvedWindowExpression v CheckAnalysis
  • [SPARK-48755] [SC-174258][SS][PYTHON] transformWithState pyspark – základní implementace a podpora ValueState
  • [SPARK-48966] [SC-174329][SQL] Vylepšení chybové zprávy s neplatným nevyřešeným odkazem na sloupec ve volání UDTF
  • [SPARK-46590] [SC-154115][SQL] Oprava selhání coalesce s neočekávanými indekcemi oddílů
  • [SPARK-49235] [SC-174159][SQL] Refaktoring pravidla ResolveInlineTables tak, aby neprocházel celým stromem
  • [SPARK-49060] [SC-173107][CONNECT] Vyčištění pravidel Mima pro binární kontroly kompatibility připojení SQL
  • [SPARK-48762] [SC-172525][SQL] Představení rozhraní API DataFrameWriter pro clusterBy DataFrameWriter pro Python
  • [SPARK-49207] [SC-173852][SQL] Oprava mapování případů 1:N v SplitPart a StringSplitSQL
  • [SPARK-49204] [SC-173850][SQL] Oprava zpracování náhradních párů v StringInstr a StringLocate
  • [SPARK-36680] [SC-170640][SQL] Podporuje možnosti dynamické tabulky pro Spark SQL.
  • [SPARK-49204] [SC-173849][SQL] Oprava zpracování náhradních párů v indexu SubstringIndex
  • [SPARK-49204] [SC-173848][SQL] Oprava zpracování náhradních párů v StringTrim
  • [SPARK-48967] [SC-173993]Oprava vpřed SparkConfigOwnershipSuite test pro OPTIMIZE_INSERT_INTO_VALUES_PARSER
  • [SPARK-49204] [SC-173851][SQL] Oprava zpracování náhradních párů v StringReplace
  • [SPARK-48967] [SC-173993][SQL][16.x] Zlepšení výkonu a paměti stopy "INSERT INTO ... Příkazy VALUES
  • [SPARK-49099] Vrátit "[SC-173229][SQL] CatalogManager.setCurrent...
  • [SPARK-48347] [SC-173812][SQL] Podpora příkazu WHILE
  • [SPARK-49128] [SC-173344][JÁDRO] Podpora vlastního názvu uživatelského rozhraní serveru historie
  • [SPARK-49146] [SC-173825][SS] Přesunutí chyb kontrolních výrazů souvisejících s chybějícím vodoznakem v dotazech streamování v režimu připojení do architektury chyb
  • [SPARK-45787] [SC-172197][SQL] Podpora Catalog.listColumns pro sloupce clusteringu
  • [SPARK-49099] [SC-173229][SQL] CatalogManager.setCurrentNamespace by měl respektovat vlastní katalog relací
  • [SPARK-49138] [SC-173483][SQL] Oprava kolaceTypeCasts několika výrazů
  • [SPARK-49163] [SC-173666][SQL] Pokus o vytvoření tabulky na základě poškozených výsledků dat oddílů Parquet by měl vracet uživatelskou chybu.
  • [SPARK-49201] [SC-173793][PS][PYTHON][CONNECT] Reimplement hist plot with Spark SQL
  • [SPARK-49188] [SC-173682][SQL] Vnitřní chyba u concat_ws volaného u pole polí řetězce
  • [SPARK-49137] [SC-173677][SQL] Pokud je logická podmínka v if statement neplatném stavu, měla by se vyvolat výjimka.
  • [SPARK-49193] [SC-173672][SQL] Vylepšení výkonu RowSetUtils.toColumnBasedSet
  • [SPARK-49078] [SC-173078][SQL] Podpora zobrazení syntaxe sloupců v tabulce v2
  • [SPARK-49141] [SC-173388][SQL] Označení varianty jako nekompatibilního datového typu Hive
  • [SPARK-49059] [Cherry-Pick][15.x][SC-172528][CONNECT] Přechod SessionHolder.forTesting(...) na testovací balíček
  • [SPARK-49111] [SC-173661][SQL] Přesunutí withProjectAndFilter do doprovodného objektu DataSourceV2Strategy
  • [SPARK-49185] [SC-173688][PS][PYTHON][CONNECT] Reimplement kde plot with Spark SQL
  • [SPARK-49178] [SC-173673][SQL] Optimalizace výkonu Row#getSeq tak, aby odpovídal výkonu při použití Sparku 3.5 se scalou 2.12
  • [SPARK-49093] [SC-172958][SQL] GROUP BY s mapType vnořeným uvnitř komplexního typu
  • [SPARK-49142] [SC-173469][CONNECT][PYTHON] Nižší úroveň protokolu klienta Spark Connect pro ladění
  • [SPARK-48761] [SC-172048][SQL] Seznámení s rozhraním API DataFrameWriter pro clusterBy DataFrameWriter pro Scala
  • [SPARK-48346] [SC-173083][SQL] Podpora příkazů IF ELSE ve skriptech SQL
  • [SPARK-48338] [SC-173112][SQL] Vylepšení výjimek vyvolaných analyzátorem nebo interpretem
  • [SPARK-48658] [SC-169474][SQL] Kódování/dekódování funkcí hlásí chyby kódování místo mojibake pro nemapovatelné znaky
  • [SPARK-49071] [SC-172954][SQL] Odebrat zrádce ArraySortLike
  • [SPARK-49107] Vrátit zpět "[SC-173103][SQL] ROUTINE_ALREADY_EXISTS podporuje rutinní typ"
  • [SPARK-49070] [SC-172907][SS][SQL] TransformWithStateExec.initialState se nesprávně přepíše, aby se vytvořil neplatný plán dotazu.
  • [SPARK-49114] [SC-173217] Podkategorie nemůže načíst chyby úložiště stavu
  • [SPARK-49107] Vrátit zpět "[SC-173103][SQL] ROUTINE_ALREADY_EXISTS podporuje rutinní typ"
  • [SPARK-49048] [SC-173223][SS] Přidání podpory pro čtení metadat relevantních operátorů v daném ID dávky
  • [SPARK-49094] [SC-173049][SQL] Oprava nefunkčního souboru ignoreCorruptFiles pro impl hive orc s vypnutou funkcí mergeSchema
  • [SPARK-49108] [SC-173102][PŘÍKLAD] Přidání submit_pi.sh příkladu rozhraní REST API
  • [SPARK-49107] [SC-173103][SQL] ROUTINE_ALREADY_EXISTS podporuje rutinní typ
  • [SPARK-48997] [SC-172484][SS] Implementace jednotlivých uvolnění pro selhání vláken fondu vláken údržby
  • [SPARK-49063] [SC-173094][SQL] Oprava mezi skalárními poddotazy
  • [SPARK-45891] [SC-172305][SQL][PYTHON][VARIANT] Přidání podpory pro typy intervalů ve specifikaci varianty
  • [SPARK-49074] [CHOVÁNÍ-110][SC-172815][SQL] Oprava varianty pomocí df.cache()
  • [SPARK-49003] [SC-172613][SQL] Oprava hash interpretovaných cest kódu, aby bylo možné provádět kolaci
  • [SPARK-48740] [SC-172430][SQL] Zachytávání chyby chybějící specifikace okna v rané fázi
  • [SPARK-48999] [SC-172245][SS] Divide PythonStreamingDataSourceSimpleSuite
  • [SPARK-49031] [SC-172602] Implementace ověřování pro operátor TransformWithStateExec pomocí OperatorStateMetadataV2
  • [SPARK-49053] [SC-172494][PYTHON][ML] Přijetí relace Sparku pomocí pomocných funkcí pro ukládání a načítání modelu
  • [SPARK-49032] [Backport][15.x][SS] Přidání cesty schématu do položky tabulky metadat, ověření očekávané verze a přidání metadat operátora souvisejícího s testem pro formát metadat operátora v2
  • [SPARK-49034] [SC-172306][JÁDRO] Podpora nahrazení na straně sparkProperties serveru v rozhraní REST Submission API
  • [SPARK-48931] [SC-171895][SS] Snížení nákladů na rozhraní API seznamu cloudových obchodů pro úlohu údržby úložiště stavů
  • [SPARK-48849] [SC-172068][SS]Create OperatorStateMetadataV2 pro operátor TransformWithStateExec
  • [SPARK-49013] [SC-172322] Změna klíče v objektech CollationsMap pro typy Map a Array v jazyce scala
  • [SPARK-48414] [SC-171884][PYTHON] Oprava zásadních změn v Pythonu fromJson
  • [SPARK-48910] [SC-171001][SQL] Použití HashSet/HashMap k zabránění lineárním vyhledáváním v preprocessTableCreation
  • [SPARK-49007] [SC-172204][JÁDRO] Vylepšení MasterPage podpory vlastního názvu
  • [SPARK-49009] [SC-172263][SQL][PYTHON] Nastavení rozhraní API a funkcí sloupců jako příjem výčtů
  • [SPARK-49033] [SC-172303][JÁDRO] Podpora nahrazení na straně environmentVariables serveru v rozhraní REST Submission API
  • [SPARK-48363] [SC-166470][SQL] Vyčištění některých redundantních kódů v from_xml
  • [SPARK-46743] [SC-170867][SQL][CHOVÁNÍ-84] Chyba count after ScalarSubqery is folded if it has an empty relation
  • [SPARK-49040] [SC-172351][SQL] Oprava dokumentace sql-ref-syntax-aux-exec-imm.md
  • [SPARK-48998] [SC-172212][ML] Meta algoritmy ukládají/načítají model pomocí SparkSession
  • [SPARK-48959] [SC-171708][SQL] Rozšíření NoSuchNamespaceExceptionNoSuchDatabaseException pro obnovení zpracování výjimek
  • [SPARK-48996] [SC-172130][SQL][PYTHON] Povolit úplné literály pro anebo sloupec
  • [SPARK-48990] [SC-171936] Zpracovat pro #101759 – oprava testu
  • [SPARK-48338] [SC-171912][SQL] Kontrola deklarací proměnných
  • [SPARK-48990] [SC-171936][SQL] Klíčová slova syntaxe SQL související s sjednocenou proměnnou
  • [SPARK-48988] [SC-171915][ML] Nastavení DefaultParamsReader/Writer metadat zpracování pomocí relace Sparku
  • [SPARK-48974] [SC-171978][SQL][SS][ML][MLLIB] Používejte SparkSession.implicits místo SQLContext.implicits
  • [SPARK-48760] [SC-170870][SQL] Oprava CatalogV2Util.applyClusterByChanges
  • [SPARK-48928] [SC-171956] Upozornění protokolu pro volání .unpersist() v místně kontrolních sadách RDD
  • [SPARK-48760] [SC-170139][SQL] PředstavujeME ALTER TABLE ... Syntaxe CLUSTER BY SQL pro změnu sloupců clusteringu
  • [SPARK-48844] Vrátí hodnotu [SC-170669][SQL] USE INVALID_EMPTY_LOCATION místo UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY, když je cesta prázdná.
  • [SPARK-48833] [SC-171914][SQL][VARIANT] Varianta podpory v InMemoryTableScan
  • [SPARK-48975] [SC-171894][PROTOBUF] Odebrání nepotřebné ScalaReflectionLock definice z protobuf
  • [SPARK-48970] [SC-171800][PYTHON][ML] Vyhněte se použití SparkSession.getActiveSession ve čtení/zapisovači Spark ML
  • [SPARK-48844] [SC-170669][SQL] Použití INVALID_EMPTY_LOCATION místo UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY, když je cesta prázdná
  • [SPARK-48714] [SC-170136] Oprava neúspěšných testů df.mergeInto v PySparku a UC
  • [SPARK-48957] [SC-171797][SS] Vrácení dílčí klasifikované třídy chyb při načítání úložiště stavů pro poskytovatele hdfs a rocksdb
  • [SPARK-48891] [Backport][15x][SC-171677][SS] Refaktoring StateSchemaCompatibilityChecker pro sjednocení všech formátů schématu stavu
  • [SPARK-48972] [SC-171795][PYTHON] Sjednocení zpracování literálových řetězců ve funkcích
  • [SPARK-48388] [SC-171337][SQL] Oprava chování příkazů SET pro skripty SQL
  • [SPARK-48743] [SC-170552][SQL][SS] SlučováníSessionIterator by mělo lépe zpracovat, když metoda getStruct vrátí hodnotu null.
  • [SPARK-48623] [15.x][SC-171322][JÁDRO] Migrace protokolů FileAppender do strukturovaného protokolování
  • [SPARK-36680] [DBRRM-1123] Vrátit "[SC-170640][SQL] Podporuje možnosti dynamické tabulky pro Spark SQL
  • [SPARK-48841] [SC-170868][CHOVÁNÍ-83][SQL] Zahrnout collationName do sql()Collate
  • [SPARK-48941] [SC-171703][PYTHON][ML] Nahrazení volání rozhraní API pro čtení a zápis RDD za rozhraní API pro čtení a zápis datového rámce
  • [SPARK-48938] [SC-171577][PYTHON] Vylepšení chybových zpráv při registraci UDF Pythonu
  • [SPARK-48350] [SC-171040][SQL] Úvod k vlastním výjimkám pro skriptování SQL
  • [SPARK-48907] [SC-171158][SQL] Oprava hodnoty explicitTypes v COLLATION_MISMATCH.EXPLICIT
  • [SPARK-48945] [SC-171658][PYTHON] Zjednodušení funkcí regulárních výrazů pomocí lit
  • [SPARK-48944] [SC-171576][CONNECT] Sjednocení zpracování schématu ve formátu JSON na connect serveru
  • [SPARK-48836] [SC-171569] Integrace schématu SQL se schématem stavu nebo metadaty
  • [SPARK-48946] [SC-171504][SQL] NPE v metodě redact, pokud je relace null
  • [SPARK-48921] [SC-171412][SQL] Kodéry ScalaUDF v poddotazu by se měly přeložit pro MergeInto.
  • [SPARK-45155] [SC-171048][CONNECT] Přidání dokumentace k rozhraní API pro klienta JVM/Scala pro Spark Connect
  • [SPARK-48900] [SC-171319] Přidat reason pole pro cancelJobGroup a cancelJobsWithTag
  • [SPARK-48865] [SC-171154][SQL] Přidání funkce try_url_decode
  • [SPARK-48851] [SC-170767][SQL] Změna hodnoty SCHEMA_NOT_FOUND z namespace na catalog.namespace
  • [SPARK-48510] [SC-170893][2/2] Podpora rozhraní UDAF toColumn API ve Spark Connect
  • [SPARK-45190] [SC-171055][SPARK-48897][PYTHON][CONNECT] Podpora from_xml schématu StructType
  • [SPARK-48930] [SC-171304][JÁDRO] Redact awsAccessKeyId by including accesskey pattern
  • [SPARK-48909] [SC-171080][ML][MLLIB] Při zápisu metadat používá SparkSession přes SparkContext.
  • [SPARK-48883] [SC-171133][ML][R] Nahrazení volání rozhraní API pro čtení a zápis RDD za rozhraní API pro čtení a zápis datového rámce
  • [SPARK-48924] [SC-171313][PS] Přidání pomocné funkce podobné make_interval knihovně pandas
  • [SPARK-48884] [SC-171051][PYTHON] Odebrání nepoužívané pomocné funkce PythonSQLUtils.makeInterval
  • [SPARK-48817] [SC-170636][SQL] Dychtivé spouštění sjednocovacích více příkazů
  • [SPARK-48896] [SC-171079][ML][MLLIB] Vyhněte se opětovnému rozdělení při zápisu metadat.
  • [SPARK-48892] [SC-171127][ML] Vyhněte se čtení parametrů pro jednotlivé řádky Tokenizer
  • [SPARK-48927] [SC-171227][JÁDRO] Zobrazení počtu sad RDD uložených v mezipaměti v StoragePage
  • [SPARK-48886] [15.x][Backport][SC-171039][SS] Přidání informací o verzi do protokolu změn v2, aby bylo možné snadněji vyvíjet
  • [SPARK-48903] [SC-171136][SS] Nastavte správnou verzi posledního snímku RocksDB při vzdáleném načtení.
  • [SPARK-48742] [SC-170538][SS] Rodina virtuálních sloupců pro RocksDB
  • [SPARK-48726] [15.x][SC-170753][SS] Vytvořte formát souboru StateSchemaV3 a zapište ho pro operátor TransformWithStateExec.
  • [SPARK-48794] [SC-170882][CONNECT][15.x] Podpora df.mergeInto pro Spark Connect (Scala a Python)
  • [SPARK-48714] [SC-170136][PYTHON] Implementace DataFrame.mergeInto v PySparku
  • [SPARK-48772] [SC-170642][SS][SQL] Režim čtení kanálu změn zdroje dat stavu
  • [SPARK-48666] [SC-170887][SQL] Neodsdílejte filtr, pokud obsahuje PythonUDFs
  • [SPARK-48845] [SC-170889][SQL] GenericUDF zachytává výjimky z podřízených objektů
  • [SPARK-48880] [SC-170974][JÁDRO] Pokud se modul plug-in ovladače nepodaří inicializovat, vyhněte se vyvolání výjimky NullPointerException
  • [SPARK-48888] [Backport][15x][SC-170973][SS] Odebrání vytváření snímků na základě velikosti operací protokolu změn
  • [SPARK-48871] [SC-170876] Oprava ověřování INVALID_NON_DETERMINISTIC_EXPRESSIONS v...
  • [SPARK-48883] [SC-170894][ML][R] Nahrazení volání rozhraní API pro čtení a zápis RDD za rozhraní API pro čtení a zápis datového rámce
  • [SPARK-36680] [SC-170640][SQL] Podporuje možnosti dynamické tabulky pro Spark SQL.
  • [SPARK-48804] [SC-170558][SQL] Přidání třídyIsLoadable & OutputCommitter.isAssignableFrom – kontrola konfigurace výstupních tříd potvrzení
  • [SPARK-46738] [SC-170791][PYTHON] Opětovné povolení skupiny doctestů
  • [SPARK-48858] [SC-170756][PYTHON] Odebrání zastaralého setDaemonThread volání metody v log_communication.py
  • [SPARK-48639] [SC-169801][CONNECT][PYTHON] Přidání původu do objektu RelationCommon
  • [SPARK-48863] [SC-170770][ES-1133940][SQL] Oprava výjimky ClassCastException při parsování JSON s povolenou možností "spark.sql.json.enablePartialResults"
  • [SPARK-48343] [SC-170450][SQL] Úvod interpreta skriptování SQL
  • [SPARK-48529] [SC-170755][SQL] Úvod popisků do skriptování SQL
  • [SPARK-45292] Vrátit zpět [SC-151609][SQL][HIVE] Odebrat Guava ze sdílených tříd z IsolatedClientLoader
  • [SPARK-48037] [SC-165330][JÁDRO][3.5] Oprava chybějícího náhodného zápisu souvisejících metrik SortShuffleWriter, což vede k potenciálně nepřesným datům
  • [SPARK-48720] [SC-170551][SQL] Zarovnání příkazu ALTER TABLE ... UNSET TBLPROPERTIES ... v1 a v2
  • [SPARK-48485] [SC-167825][CONNECT][SS] Podpora funkce interruptTag a interruptAll v dotazech streamování
  • [SPARK-45292] [SC-151609][SQL][HIVE] Odebrání Guava ze sdílených tříd z IsolatedClientLoaderu
  • [SPARK-48668] [SC-169815][SQL] Podpora ALTER NAMESPACE ... UNSET PROPERTIES in v2
  • [SPARK-47914] [SC-165313][SQL] Nezobrazovat parametr rozdělení v oblasti
  • [SPARK-48807] [SC-170643][SQL] Podpora binárních souborů pro zdroj dat CSV
  • [SPARK-48220] [SC-167592][PYTHON][15.X] Povolení předávání tabulky PyArrow pro createDataFrame()
  • [SPARK-48545] [SC-169543][SQL] Vytvoření to_avro a from_avro funkcí SQL tak, aby odpovídaly ekvivalentům datového rámce
  • [SPARK-47577] [SC-168875][SPARK-47579] Oprava zavádějícího použití klíče protokolu TASK_ID

Podpora ovladačů Databricks ODBC/JDBC

Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).

Prostředí systému

  • Operační systém: Ubuntu 24.04.1 LTS
  • Java: Zulu17.50+19-CA
  • Scala: 2.12.18
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.2.1

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
anotované typy 0.7.0 asttokens 2.0.5 astunparse 1.6.3
automatické příkazy 2.2.2 Azure-Core 1.31.0 azure-storage-blob 12.23.0
azure-storage-file-datalake 12.17.0 backports.tarfile 1.2.0 černý 24.4.2
blinkr 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools 5.3.3 certifi 2024.6.2 cffi 1.16.0
chardet 4.0.0 charset-normalizer 2.0.4 kliknutí 8.1.7
cloudpickle 2.2.1 Komunikace 0.2.1 obrysová křivka 1.2.0
kryptografie 42.0.5 cyklista 0.11.0 Cython 3.0.11
Databricks-sdk 0.30.0 dbus-python 1.3.2 ladění 1.6.7
dekoratér 5.1.1 Zastaralé 1.2.14 distlib 0.3.8
docstring-to-markdown 0,11 vstupní body 0,4 vykonávající 0.8.3
přehled omezujících vlastností 1.1.1 filelock 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
google-auth 2.35.0 google-cloud-core 2.4.1 google-cloud-storage 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
skloňovat 7.3.1 ipyflow-core 0.0.198 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
verizonsolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
Mccabe 0.7.0 mlflow-hubená 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-sémantic-conventions 0,48b0
balení 24.1 pandas 1.5.3 parso 0.8.3
pathspec 0.10.3 bábovka 0.5.6 pexpect 4.8.0
polštář 10.3.0 jádro 24.2 platformdirs 3.10.0
plotly 5.22.0 pluggy 1.0.0 prompt-toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 čistý-eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.52 pycparser 2.21 pydantic 2.8.2
pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing 3.0.9 pyright 1.1.294 python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6
pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
žádosti 2.32.2 lano 1.12.0 rsa 4,9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1
seaborn 0.13.2 setuptools 74.0.0 Šest 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5,11
stack-data 0.2.0 statsmodels 0.14.2 houževnatost 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádo 6.4.1 vlastnosti 5.14.3 typeguard 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 types-requests 2.31.0.0 types-setuptools 68.0.0.0
types-six 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 bezobslužné upgrady 0,1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5
whatthepatch 1.0.2 kolo 0.43.0 wrapt 1.14.1
yapf 0.33.0 zipp 3.17.0

Nainstalované knihovny jazyka R

Knihovny R se instalují ze snímku CRAN Správce balíčků Posit.

Knihovna Verze Knihovna Verze Knihovna Verze
šipka 16.1.0 askpass 1.2.0 assertthat 0.2.1
backporty 1.5.0 base 4.4.0 base64enc 0.1-3
bigD 0.2.0 bitové 4.0.5 bit64 4.0.5
bitops 1.0-8 blob 1.2.4 startování 1.3-30
vařit 1.0-10 verva 1.1.5 koště 1.0.6
bslib 0.8.0 cachem 1.1.0 volající 3.7.6
caret 6.0-94 cellranger 1.1.0 chron 2.3-61
class 7.3-22 Rozhraní příkazového řádku 3.6.3 clipr 0.8.0
clock 0.7.1 cluster 2.1.6 codetools 0.2-20
barevný prostor 2.1-1 commonmark 1.9.1 – kompilátor 4.4.0
config 0.3.2 střetl 1.2.0 cpp11 0.4.7
pastelka 1.5.3 přihlašovací údaje 2.0.1 kudrna 5.2.1
data.table 1.15.4 Power BI 4.4.0 DBI 1.2.3
dbplyr 2.5.0 Desc 1.4.3 devtools 2.4.5
diagram 1.6.5 diffobj 0.3.5 trávit 0.6.36
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 tři tečky 0.3.2 evaluate 0.24.0
fanynky 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
zahraniční 0.8-86 kovat 0.2.0 Fs 1.6.4
budoucnost 1.34.0 future.apply 1.11.2 kloktadlo 1.5.2
Generik 0.1.3 Gert 2.1.0 ggplot2 3.5.1
Gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globálních objektů 0.16.3 lepidlo 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
Grafika 4.4.0 grDevices 4.4.0 mřížka 4.4.0
gridExtra 2.3 gsubfn 0,7 gt 0.11.0
gtable 0.3.5 bezpečnostní přilba 1.4.0 útočiště 2.5.4
highr 0,11 Hms 1.1.3 htmltools 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 Id 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iterátory 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 šťavnatájuice 0.1.0
KernSmooth 2.23-22 pletení 1.48 značení 0.4.3
později 1.3.2 mříž 0.22-5 láva 1.8.0
lifecycle 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 sleva 1.13 MŠE 7.3-60.0.1
Matice 1.6-5 memoise 2.0.1 metody 4.4.0
mgcv 1.9-1 mim 0.12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 parallel 4.4.0
paralelně 1.38.0 pilíř 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 chválit 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 Průběh 1.2.3
progressr 0.14.0 sliby 1.3.0 proto 1.0.0
plná moc 0.4-27 PS 1.7.7 purrr 1.0.2
R6 2.5.1 ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 Analýza rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reagovatelná 0.4.4
reactR 0.6.0 readr 2.1.5 readxl 1.4.3
recepty 1.1.0 odvetný zápas 2.0.0 rematch2 2.1.2
vzdálená zařízení 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.4 rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 drzá napodobenina 0.4.9
váhy 1.3.0 selektor 0.4-2 sessioninfo 1.2.2
tvar 1.4.6.1 lesklý 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 prostorový 7.3-17 spline křivky 4.4.0
sqldf 0.4-11 ČTVEREC 2021.1 statistické údaje 4.4.0
Statistiky 4 4.4.0 stringi 1.8.4 stringr 1.5.1
přežití 3.6-4 swagger 5.17.14.1 sys 3.4.2
systemfonts 1.1.0 tcltk 4.4.0 testthat 3.2.1.1
textshaping 0.4.0 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.1 tidyverse 2.0.0 časový interval 0.3.0
timeDate 4032.109 tinytex 0,52 tools 4.4.0
tzdb 0.4.0 urlchecker 1.0.1 usethis 3.0.0
utf8 1.2.4 utils 4.4.0 Uuid 1.2-1
V8 4.4.2 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 Waldo 0.5.2 vous 0.4.1
withr 3.0.1 xfun 0.46 xml2 1.3.6
xopen 1.0.1 xtable 1.8-4 yaml 2.3.10
zeallot 0.1.0 zip 2.3.1

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws automatické škálování aws-java-sdk 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws podpora aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics datový proud 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofein kofein 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java Nativní verze 1.1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java Nativní verze 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64 Nativní verze 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64 Nativní verze 1.1
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.27
io.delta delta-sharing-client_2.12 1.2.0
io.dropwizard.metrics metriky anotace 4.2.19
io.dropwizard.metrics metriky – jádro 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metriky – kontroly stavu 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metriky – servlety 4.2.19
io.netty netty-all 4.1.108.Final
io.netty netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-socks 4.1.108.Final
io.netty netty- common 4.1.108.Final
io.netty obslužná rutina netty 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty netty-resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine marináda 1.3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-client 2.13.0
org.apache.kurátor kurátor-framework 2.13.0
org.apache.kurátor kurátor-recepty 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy břečťan 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus cílové skupiny a poznámky 0.13.0
org.apache.zookeeper zookeeper 3.9.2
org.apache.zookeeper zookeeper-jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty pokračování jetty 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket – společné 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core žerzejové společné 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Podložky 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest kompatibilní s scalatestem 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel kočky-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
stax stax-api 1.0.1