Sdílet prostřednictvím


Databricks Runtime 13.1 (EoS)

Poznámka:

Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 13.1, který využívá Apache Spark 3.4.0.

Databricks vydala tuto verzi v květnu 2023.

Nové funkce a vylepšení

Podpora clusteru pro JDK 17 (Public Preview)

Databricks teď poskytuje podporu clusteru pro Sadu Java Development Kit (JDK) 17. Viz Databricks SDK pro Javu.

Přidání, změna nebo odstranění dat v streamovaných tabulkách

Příkazy DML teď můžete použít k úpravě streamovaných tabulek publikovaných v katalogu Unity pomocí kanálů Delta Live Tables. Viz Přidání, změna nebo odstranění dat v streamované tabulce a přidání, změna nebo odstranění dat v cílové streamovací tabulce. Příkazy DML můžete také použít k úpravě streamovaných tabulek vytvořených v Databricks SQL.

Čtení Kafka s SQL

Teď můžete funkci SQL použít read_kafka ke čtení dat Kafka. Streamování s SQL se podporuje jenom v rozdílových živých tabulkách nebo se streamovanými tabulkami v Databricks SQL. Viz read_kafka funkce s hodnotou tabulky.

Nové integrované funkce SQL

Byly přidány následující funkce:

Podpora katalogu Unity pro knihovny Pythonu v oboru clusteru

Katalog Unity má určitá omezení týkající se používání knihovny. Ve službě Databricks Runtime 13.1 a novějších se podporují knihovny Pythonu s oborem clusteru, včetně souborů kol Pythonu, které se nahrávají jako soubory pracovního prostoru. Knihovny odkazované pomocí cest k souborům DBFS se nepodporují bez ohledu na to, jestli jsou v kořenovém adresáři DBFS nebo v externím umístění připojeném k DBFS. Podporují se jenom knihovny Pythonu. Viz Knihovny clusterů.

V prostředí Databricks Runtime 13.0 a novějších nejsou knihovny s oborem clusteru podporovány v clusterech, které používají režim sdíleného přístupu v pracovním prostoru s podporou katalogu Unity.

Rozšířené výchozí povolení pro optimalizované zápisy v katalogu Unity

Výchozí optimalizovaná podpora zápisu pro tabulky Delta zaregistrované v katalogu Unity se rozšířila tak, aby zahrnovala CTAS příkazy a INSERT operace pro dělené tabulky. Toto chování odpovídá výchozím nastavením ve skladech SQL. Viz Optimalizované zápisy pro Delta Lake v Azure Databricks.

Pokročilá podpora stavových operátorů v úlohách strukturovaného streamování

Teď můžete zřetězovat několik stavových operátorů, což znamená, že výstup operace, jako je agregace s oknem, do jiné stavové operace, jako je spojení. Podívejte se, co je stavové streamování?

Rozdílový klon pro katalog Unity je ve verzi Public Preview.

Teď můžete pomocí mělké klonování vytvořit nové spravované tabulky Katalogu Unity z existujících spravovaných tabulek Katalogu Unity. Viz "Mělké klonování" pro tabulky katalogu Unity.

Podpora pub/sub pro strukturované streamování

Teď můžete použít integrovaný konektor k přihlášení k odběru Google Pub/Sub se strukturovaným streamováním. Viz Přihlášení k odběru Google Pub/Sub.

Odstranění duplicit do vodoznaků ve strukturovaném streamování

Nyní můžete použít dropDuplicatesWithinWatermark kombinaci se zadanou prahovou hodnotou meze k odstranění duplicitních dat záznamů ve strukturovaném streamování. Viz Odstranění duplicit v rámci vodoznaku.

Rozšířená podpora převodů Delta z tabulek Iceberg s zkrácenými sloupci oddílů

Nyní můžete použít CLONE a CONVERT TO DELTA s tabulkami Iceberg, které mají oddíly definované na zkrácených sloupcích typů int, longa string. Zkrácené sloupce typu decimal nejsou podporovány.

Změny schématu streamu s mapováním sloupců v Delta Lake

Teď můžete zadat umístění sledování schématu, které povolí streamování z tabulek Delta s povoleným mapováním sloupců. Viz Streamování s mapováním sloupců a změnami schématu.

Odebrat POČÁTEČNÍ VERZI

START VERSION je nyní zastaralá pro ALTER SHARE.

Nové výrazy H3 dostupné v Pythonu

Výrazy h3_coverash3 a h3_coverash3string výrazy jsou k dispozici v Pythonu.

Opravy chyb

Parquet failOnUnknownFields už bezobslužně nezahazují data při neshodě typů.

Pokud byl soubor Parquet přečtený pouze failOnUnknownFields s možností nebo automatickým zavaděčem v failOnNewColumns režimu vývoje schématu, sloupce s různými datovými typy nyní selžou a doporučují použití rescuedDataColumn. Auto Loader teď správně čte a už neschová celočíselné, krátké nebo bajtové typy, pokud je k dispozici některý z těchto datových typů. Soubor Parquet navrhuje jeden z dalších dvou typů.

Změny způsobující chyby

Upgrade verze sqlite-jdbc na verzi 3.42.0.0 na adresu CVE-2023-32697

Upgradujte verzi sqlite-jdbc z verze 3.8.11.2 na 3.42.0.0. Rozhraní API verze 3.42.0.0 nejsou plně kompatibilní s verzí 3.8.11.2. Pokud v kódu používáte sqlite-jdbc, podrobnosti najdete v sestavě kompatibility sqlite-jdbc. Pokud migrujete na verzi 13.1 a použijete sqlite, potvrďte své metody a návratový typ ve verzi 3.42.0.0.

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • facets-overview from 1.0.2 to 1.0.3
    • filelock od 3.10.7 do 3.12.0
    • pyarrow od 7.0.0 do 8.0.0
    • 8.0.1 až 8.1.0
  • Upgradované knihovny jazyka R:
  • Upgradované knihovny Java:
    • com.github.ben-manes.kofein.kofein od 2.3.4 do 2.9.3
    • io.delta.delta-sharing-spark_2.12 od 0.6.8 do 0.6.4
    • net.snowflake.snowflake-jdbc od 3.13.29 do 3.13.22
    • org.checkerframework.checker-qual od 3.5.0 do 3.19.0
    • org.scalactic.scalactic_2.12 od 3.0.8 do 3.2.15
    • org.scalatest.scalatest_2.12 od 3.0.8 do 3.2.15
    • org.xerial.sqlite-jdbc od 3.8.11.2 do 3.42.0.0

Apache Spark

Databricks Runtime 13.1 zahrnuje Apache Spark 3.4.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 13.0 (EoS), a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-42719] [DBRRM-199][SC-131578] Vrátit "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166][SC-130056][JÁDRO] Vrátit [SC-127830]/
  • [SPARK-43331] [SC-130064][CONNECT] Přidání Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][CONNECT][PYTHON] Rozšíření ChannelBuilderu pro SparkConnectClient
  • [SPARK-43323] [SC-129966][SQL][PYTHON] Oprava prvku DataFrame.toPandas s povolenou šipkou pro správné zpracování výjimek
  • [SPARK-42940] [SC-129896][SS][CONNECT] Vylepšení správy relací pro dotazy streamování
  • [SPARK-43032] [SC-125756] [CONNECT][SS] Přidání správce dotazů streamování
  • [SPARK-16484] [SC-129975][SQL] Přidání podpory pro Datasketches HllSketch
  • [SPARK-43260] [SC-129281][PYTHON] Migrujte chyby typu šipky Knihovny pandas Spark SQL do třídy chyb.
  • [SPARK-41766] [SC-129964][JÁDRO] Zpracování požadavku vyřazení z provozu odeslaného před registrací exekutoru
  • [SPARK-43307] [SC-129971][PYTHON] Migrace chyb hodnot PandasUDF do třídy chyb
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() include stack trace
  • [SPARK-43311] [SC-129905][SS] Přidání vylepšení správy paměti zprostředkovatele stavu RocksDB
  • [SPARK-43237] [SC-129898][JÁDRO] Zpracování zprávy o výjimce null v protokolu událostí
  • [SPARK-43320] [SC-129899][SQL][HIVE] Přímé volání rozhraní API Hive 2.3.9
  • [SPARK-43270] [SC-129897][PYTHON] pyspark.sql.dataframe.DataFrame Implementace __dir__() pro zahrnutí sloupců
  • [SPARK-43183] Vrátit zpět "[SC-128938][SS] Zavést nový zpětné volání "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][SQL] Nahraďte třídu chyb _LEGACY_ERROR_TEMP_2022 vnitřní chybou.
  • [SPARK-43198] [SC-129470][CONNECT] Oprava "Nelze inicializovat třídu ammonite..." chyba při použití filtru
  • [SPARK-43165] [SC-129777][SQL] Přesunout canWrite do DataTypeUtils
  • [SPARK-43298] [SC-129729][PYTHON][ML] predict_batch_udf s skalárním vstupem selže s velikostí dávky jedné
  • [SPARK-43298] [SC-129700]Vrácení predict_batch_udf [PYTHON][ML] s skalárním vstupem selže s velikostí dávky 1"
  • [SPARK-43052] [SC-129663][JÁDRO] Zpracování trasování zásobníku s názvem souboru null v protokolu událostí
  • [SPARK-43183] [SC-128938][SS] Zavedení nového zpětného volání onQueryIdle pro StreamingQueryListener
  • [SPARK-43209] [SC-129190][CONNECT][PYTHON] Migrace chyb výrazu do třídy chyb
  • [SPARK-42151] [SC-128754][SQL] Zarovnání přiřazení UPDATE s atributy tabulky
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] Rozhraní API pro klienty JVM StreamingQuery
  • [SPARK-43298] [SC-129699][PYTHON][ML] predict_batch_udf s skalárním vstupem selže s velikostí dávky jedné
  • [SPARK-43248] [SC-129660][SQL] Nepotřebné serializace/deserializace cesty při paralelním shromažďování statistik oddílů
  • [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] Představit PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][CONNECT][PYTHON] Implementace dychtivého vyhodnocení pro opětovné obnovení a repr_html
  • [SPARK-42953] [SC-129469][Připojit][Zpracovat] Oprava testovacího sestavení Mavenu pro testy UDF klienta Scala
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358][CONNECT] Přidání funkcí groupByKey + mapGroup + coGroup
  • [SPARK-43156] [SC-129672][SC-128532][SQL] Oprava COUNT(*) is null chyby v korelovaném skalárním poddotazu
  • [SPARK-43046] [SC-129110] [SS] [Připojit] Implementované rozhraní PYTHON API dropDuplicatesWithinWatermark pro Spark Connect
  • [SPARK-43199] [SC-129467][SQL] Nastavení idempotentního inlineCTE
  • [SPARK-43293] [SC-129657][SQL] __qualified_access_only by měly být ignorovány v normálních sloupcích.
  • [SPARK-43276] [SC-129461][CONNECT][PYTHON] Migrace chyb okna Spark Connect do třídy chyb
  • [SPARK-43174] [SC-129109][SQL] Oprava completeru SparkSQLCLIDriver
  • [SPARK-43084] [SC-128654] [SS] Přidání podpory applyInPandasWithState pro připojení Sparku
  • [SPARK-43119] [SC-129040][SQL] Podpora dynamického získání klíčových slov SQL přes rozhraní API JDBC a TVF
  • [SPARK-43082] [SC-129112][CONNECT][PYTHON] Definované uživatelem Pythonu optimalizované šipkami v nástroji Spark Connect
  • [SPARK-43085] [SC-128432][SQL] Podpora přiřazení výchozího sloupce pro názvy tabulek s více částmi
  • [SPARK-43226] [LC-671] Definování extraktorů pro metadata konstanty souboru
  • [SPARK-43210] [SC-129189][CONNECT][PYTHON] Představit PySparkAssertionError
  • [SPARK-43214] [SC-129199][SQL] Metriky na straně ovladače pro LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Oprava konzistentního selhání ReplE2ESuite s JDK 17
  • [SPARK-43268] [SC-129249][SQL] Použití správných tříd chyb při vytváření výjimek se zprávou
  • [SPARK-43142] [SC-129299] Oprava výrazů DSL u atributů se speciálními znaky
  • [SPARK-43129] [SC-128896] Základní rozhraní API Scala pro streamování Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Přidání protokolování pro čtení služby Kafka Batch pro oddíl tématu, rozsah posunu a ID úlohy
  • [SPARK-43249] [SC-129195][CONNECT] Oprava chybějících statistik pro příkaz SQL
  • [SPARK-42945] [SC-129188][CONNECT] Podpora PYSPARK_JVM_STACKTRACE_ENABLED ve Spark Connectu
  • [SPARK-43178] [SC-129197][CONNECT][PYTHON] Migrace chyb UDF do architektury chyb PySpark
  • [SPARK-43123] [SC-128494][SQL] Interní metadata polí by neměla být do katalogů nevrácena.
  • [SPARK-43217] [SC-129205] Správně zařadíte do vnořených map a polí v findNestedField.
  • [SPARK-43243] [SC-129294][PYTHON][CONNECT] Přidání parametru úrovně pro tiskSchema pro Python
  • [SPARK-43230] [SC-129191][CONNECT] Zjednodušit DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][SQL] Respekt vyžadujeDistributionAndOrdering v CTAS/RTAS
  • [SPARK-43234] [SC-129192][CONNECT][PYTHON] Migrace ValueError z datového rámce Conect do třídy chyb
  • [SPARK-43212] [SC-129187][SS][PYTHON] Migrace chyb strukturovaného streamování do třídy chyb
  • [SPARK-43239] [SC-129186][PS] Odebrat null_counts z informací()
  • [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput by měl být konzistentní s podřízeným výstupem.
  • [SPARK-43191] [SC-128924][JÁDRO] Nahrazení reflexe w/ přímé volání pro Hadoop CallerContext
  • [SPARK-43193] [SC-129042][SS] Odebrání alternativního řešení pro HADOOP-12074
  • [SPARK-42657] [SC-128621][CONNECT] Podpora vyhledání a přenosu souborů tříd REPL na straně klienta na server jako artefakty
  • [SPARK-43098] [SC-77059][SQL] Oprava chyby POČET správnosti, pokud skalární poddotaz obsahuje klauzuli group by
  • [SPARK-43213] [SC-129062][PYTHON] Přidat DataFrame.offset do vanilla PySpark
  • [SPARK-42982] [SC-128400][CONNECT][PYTHON] Oprava objektu createDataFrame pro respekt k danému schématu ddl
  • [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults místně
  • [SPARK-42998] [SC-127422][CONNECT][PYTHON] Oprava objektu DataFrame.collect se strukturou null
  • [SPARK-41498] [SC-125343]Vrátit zpět "Šíření metadat prostřednictvím sjednocení"
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Přidání rozhraní API await_termination() a exception() pro dotaz streamování v Pythonu
  • [SPARK-42552] [SC-128824][SQL] Oprava strategie dvoufázové analýzy analyzátoru antlr
  • [SPARK-43207] [SC-128937][CONNECT] Přidání pomocných funkcí pro extrakci hodnoty z literálového výrazu
  • [SPARK-43186] [SC-128841][SQL][HIVE] Odebrání alternativního řešení pro FileSinkDesc
  • [SPARK-43107] [SC-128533][SQL] Kontejnery ve spojení použité na straně streamu všesměrového spojení
  • [SPARK-43195] [SC-128922][JÁDRO] Odebrání nepotřebné serializovatelné obálky v HadoopFSUtils
  • [SPARK-43137] [SC-128828][SQL] Vylepšete ArrayInsert, pokud je pozice skládací a pozitivní.
  • [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join by měla vrátit hodnotu null pro řádek bez porovnání.
  • [SPARK-43042] [SC-128602] [SS] [Připojit] Podpora rozhraní API pro přidání tabulky pro DataStreamReader
  • [SPARK-43153] [SC-128753][CONNECT] Přeskočit spouštění Sparku, když je datový rámec místní
  • [SPARK-43064] [SC-128496][SQL] Karta SQL CLI sparku SQL by se měla zobrazit jenom jednou.
  • [SPARK-43126] [SC-128447][SQL] Označení dvou výrazů UDF Hive jako stavových
  • [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] Sloučení vnořených if příkazů do jednoduchých if příkazů
  • [SPARK-43113] [SC-128749][SQL] Vyhodnocení proměnných na straně datového proudu při generování kódu pro vázanou podmínku
  • [SPARK-42895] [SC-127258][CONNECT] Vylepšení chybových zpráv pro zastavené relace Sparku
  • [SPARK-42884] [SC-126662][CONNECT] Přidání integrace Ammonite REPL
  • [SPARK-43168] [SC-128674][SQL] Remove get PhysicalDataType – metoda z třídy Datatype
  • [SPARK-43121] [SC-128455][SQL] Používejte místo ručního kopírování v 'HiveInspectors.BytesWritable.copyBytes
  • [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog udržuje na straně čtení meta Char/Varchar
  • [SPARK-43050] [SC-128550][SQL] Oprava agregačních výrazů konstruktoru nahrazením funkcí seskupení
  • [SPARK-43095] [SC-128549][SQL] Vyhýbejte se idempotenci strategie pro dávku: Infer Filters
  • [SPARK-43130] [SC-128597][SQL] Přesun InternalType do physicalDataType
  • [SPARK-43105] [SC-128456][CONNECT] Zkrácené bajty a řetězce v proto zprávě
  • [SPARK-43099] [SC-128596][SQL] getCanonicalName Místo getName získání názvu třídy tvůrce při registraci udf do FunctionRegistry
  • [SPARK-42994] [SC-128586][ML][CONNECT] PyTorch Distributor podporuje místní režim
  • [SPARK-42859] Vrátit zpět "[SC-127935][CONNECT][PS] Základní podpora rozhraní PANDAS API ve Spark Connectu
  • [SPARK-43021] [SC-128472][SQL] CoalesceBucketsInJoin nefunguje při použití AQE
  • [SPARK-43125] [SC-128477][CONNECT] Oprava, že Connect Server nemůže zpracovat výjimku s nulovou zprávou
  • [SPARK-43147] [SC-128594] oprava llake8 lint pro místní kontrolu
  • [SPARK-43031] [SC-128360] [SS] [Připojit] Povolení testování jednotek a testování dokumentů pro streamování
  • [SPARK-43039] [LC-67] Podpora vlastních polí ve zdrojovém souboru _metadata sloupci
  • [SPARK-43120] [SC-128407][SS] Přidání podpory pro sledování připnutých bloků využití paměti pro úložiště stavů RocksDB
  • [SPARK-43110] [SC-128381][SQL] Přesun asIntegral na PhysicalDataType
  • [SPARK-43118] [SC-128398][SS] Odebrání nepotřebného kontrolního výrazu pro neinterruptibleThread v kafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][CONNECT][PYTHON] Podpora duplicitních vnořených názvů polí
  • [SPARK-42437] [SC-128339][PYTHON][CONNECT] PySpark catalog.cacheTable umožní zadat úroveň úložiště.
  • [SPARK-42985] [SC-128332][CONNECT][PYTHON] Oprava elementu createDataFrame pro dodržování konfigurací SQL
  • [SPARK-39696] [SC-127830][JÁDRO] Oprava rasy dat v přístupu k TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][SQL] Přesunutí integrálu na physicalDataType
  • [SPARK-42741] [SC-125547][SQL] Nevybalit přetypování v binárním porovnání, pokud je literál null
  • [SPARK-43057] [SC-127948][CONNECT][PYTHON] Migrace chyb ve sloupci Spark Connect do třídy chyb
  • [SPARK-42859] [SC-127935][CONNECT][PS] Základní podpora rozhraní PANDAS API ve Službě Spark Connect
  • [SPARK-43013] [SC-127773][PYTHON] Migrace ValueError z datového rámce do PySparkValueError.
  • [SPARK-43089] [SC-128051][CONNECT] Redact debug string in UI
  • [SPARK-43028] [SC-128070][SQL] Přidání SQL_CONF_NOT_FOUND třídy chyb
  • [SPARK-42999] [SC-127842][Připojit] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][SQL] Přidání testu pro dropDuplicates v JavaDatasetSuite
  • [SPARK-43075] [SC-127939][CONNECT] Změňte gRPC na grpcio , když není nainstalovaný.
  • [SPARK-42953] [SC-127809][Připojit] Typový filtr, mapa, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][SQL] Podpora rozbalení typu data na typ časového razítka
  • [SPARK-42931] [SC-127933][SS] Zavedení dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943][CONNECT] Přidání konstant datových typů proto
  • [SPARK-43077] [SC-128050][SQL] Vylepšení chybové zprávy UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][SS][Připojit] Rozhraní API třídy DataStreamReader
  • [SPARK-43049] [SC-127846][SQL] Místo VARCHAR(255) použijte cloB pro StringType pro Oracle JDBC.
  • [SPARK-43018] [SC-127762][SQL] Oprava chyby pro příkazy INSERT s literály časového razítka
  • [SPARK-42855] [SC-127722][SQL] Použití kontrol hodnoty runtime null v TableOutputResolver
  • [SPARK-43030] [SC-127847][SQL] Odstranění duplicitních dat relací se sloupci metadat
  • [SPARK-42993] [SC-127829][ML][CONNECT] Zajištění kompatibility distributora PyTorch s aplikací Spark Connect
  • [SPARK-43058] [SC-128072][SQL] Přesunutí číselného a zlomkového typu do fyzického datového typu
  • [SPARK-43056] [SC-127946][SS] Potvrzení úložiště stavů RocksDB by mělo pokračovat v práci na pozadí pouze v případě, že je pozastaveno.
  • [SPARK-43059] [SC-127947][CONNECT][PYTHON] Migrace TypeError z datového rámce (Čtenář|Zapisovač) do třídy chyb
  • [SPARK-43071] [SC-128018][SQL] Podpora PŘÍKAZU SELECT DEFAULT s FUNKCÍ ORDER BY, LIMIT, OFFSET pro VLOŽENÍ zdrojové relace
  • [SPARK-43061] [SC-127956][JÁDRO][SQL] Zavedení funkce PartitionEvaluator pro spouštění operátoru SQL
  • [SPARK-43067] [SC-127938][SS] Oprava umístění souboru prostředků třídy chyb v konektoru Kafka
  • [SPARK-43019] [SC-127844][SQL] Přesunutí pořadí na physicalDataType
  • [SPARK-43010] [SC-127759][PYTHON] Migrace chyb sloupců do třídy chyb
  • [SPARK-42840] [SC-127782][SQL] Změna _LEGACY_ERROR_TEMP_2004 chyby na vnitřní chybu
  • [SPARK-43041] [SC-127765][SQL] Konstruktory výjimek pro kompatibilitu v rozhraní API konektoru
  • [SPARK-42939] [SC-127761][SS][CONNECT] Základní streamování rozhraní Python API pro Spark Connect
  • [SPARK-42844] [SC-127766][SQL] Aktualizace třídy _LEGACY_ERROR_TEMP_2008 chyb na INVALID_URL
  • [SPARK-42316] [SC-127720][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][CONNECT][PYTHON] Migrace chyb datového rámce Spark Connect do třídy chyb
  • [SPARK-42983] [SC-127717][CONNECT][PYTHON] Oprava prvku createDataFrame pro správné zpracování pole numpy s 0 dim
  • [SPARK-42955] [SC-127476][SQL] Přeskočit klasifikaciException a zabalit AnalysisException pro SparkThrowable
  • [SPARK-42949] [SC-127255][SQL] Zjednodušení kódu pro NAAJ
  • [SPARK-43011] [SC-127577][SQL] array_insert by mělo selhat s indexem 0
  • [SPARK-42974] [SC-127487][JÁDRO] Obnovením Utils.createTempDir použijte metodu ShutdownHookManager a vyčistěte JavaUtils.createTempDir ji.
  • [SPARK-42964] [SC-127585][SQL] PosgresDialect "42P07" znamená, že tabulka již existuje.
  • [SPARK-42978] [SC-127351][SQL] Derby&PG: Přejmenování nemůže kvalifikovat název new-table-name s názvem schématu
  • [SPARK-37980] [SC-127668][SQL] Přístup k row_index prostřednictvím _metadata, pokud je to možné v testech
  • [SPARK-42655] [SC-127591][SQL] Chyba nesprávného nejednoznačného odkazu na sloupec
  • [SPARK-43009] [SC-127596][SQL] Parametrizované sql() s Any konstantami
  • [SPARK-43026] [SC-127590][SQL] Použití AQE s mezipamětí tabulek mimo exchange
  • [SPARK-42963] [SC-127576][SQL] Rozšíření SparkSessionExtensionExtension Pro vložení pravidel do optimalizátoru fáze dotazu AQE
  • [SPARK-42918] [SC-127357] Generalizace zpracování atributů metadat v FileSourceStrategy
  • [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] Přidání Catalog podpory
  • [SPARK-42997] [SC-127535][SQL] TableOutputResolver musí používat správné cesty sloupců v chybových zprávách pro pole a mapy.
  • [SPARK-43006] [SC-127486][PYSPARK] Oprava překlepu ve službě StorageLevel eq()
  • [SPARK-43005] [SC-127485][PYSPARK] Oprava překlepu v pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][JÁDRO] Oprava překlepu v ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][CONNECT][PYTHON] Implementace funkcí Avro
  • [SPARK-42979] [SC-127272][SQL] Definování konstruktorů literálů jako klíčových slov
  • [SPARK-42946] [SC-127252][SQL] Redact sensitive data, která jsou vnořena nahrazováním proměnných
  • [SPARK-42952] [SC-127260][SQL] Zjednodušení parametru pravidla analyzátoru PreprocessTableCreation a DataSourceAnalysis
  • [SPARK-42683] [LC-75] Automatické přejmenování konfliktních sloupců metadat
  • [SPARK-42853] [SC-126101][Sledovat] Oprava konfliktů
  • [SPARK-42929] [SC-126748][CONNECT] make mapInPandas / mapInArrow podpora "is_barrier"
  • [SPARK-42968] [SC-127271][SS] Přidání možnosti pro přeskočení koordinátoru potvrzení v rámci rozhraní API StreamingWrite pro zdroje a jímky DSv2
  • [SPARK-42954] [SC-127261][PYTHON][CONNECT] Přidání YearMonthIntervalType do klienta PySpark a Spark Connect Pythonu
  • [SPARK-41359] [SC-127256][SQL] Místo PhysicalDataType datového typu v nezabezpečeném objektu
  • [SPARK-42873] [SC-127262][SQL] Definování typů Spark SQL jako klíčových slov
  • [SPARK-42808] [SC-126302][JÁDRO] Vyhněte se získání dostupnýchprocesorů při každém spuštění MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][SQL] PlanSubqueries by měla být nastavena InSubqueryExec#shouldBroadcast na hodnotu true.
  • [SPARK-42896] [SC-126729][SQL][PYTHON] Provedení mapInPandas / mapInArrow režimu bariéry podpory
  • [SPARK-42874] [SC-126442][SQL] Povolení nové architektury pro testování zlatých souborů pro analýzu pro všechny vstupní soubory
  • [SPARK-42922] [SC-126850][SQL] Přechod z náhodného na SecureRandom
  • [SPARK-42753] [SC-126369] Opakované použitíexchange odkazuje na neexistující uzly.
  • [SPARK-40822] [SC-126274][SQL] Stabilní odvozené aliasy sloupců
  • [SPARK-42908] [SC-126856][PYTHON] Vyvolání chyby runtime v případě, že se vyžaduje SparkContext, ale není inicializován
  • [SPARK-42779] [SC-126042][SQL] Povolit zápisům v2 indikovat velikost oddílu pro náhodné prohazovací operace
  • [SPARK-42914] [SC-126727][PYTHON] Opakované použití transformUnregisteredFunction pro DistributedSequenceID.
  • [SPARK-42878] [SC-126882][CONNECT] Rozhraní API tabulky v sadě DataFrameReader může také přijímat možnosti.
  • [SPARK-42927] [SC-126883][JÁDRO] Změna rozsahu o.a.spark.util.Iterators#size přístupu na private[util]
  • [SPARK-42943] [SC-126879][SQL] Pro efektivní délku použijte longTEXT místo TEXTU pro StringType.
  • [SPARK-37677] [SC-126855][JÁDRO] Rozbalení může zachovat oprávnění k souborům
  • [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] Implementace rozhraní API pro mapování CoGrouped
  • [SPARK-41876] [SC-126849][CONNECT][PYTHON] Implementace objektu DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][JÁDRO][SQL] Změna rozsahu ProtobufSerDe přístupu souvisejících implementací na private[protobuf]
  • [SPARK-42819] [SC-125879][SS] Přidání podpory pro nastavení max_write_buffer_number a write_buffer_size pro RocksDB používané při streamování
  • [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] Objasnění komentáře parametrizovaných arg SQL
  • [SPARK-42748] [SC-126455][CONNECT] Správa artefaktů na straně serveru
  • [SPARK-42816] [SC-126365][CONNECT] Podpora maximální velikosti zprávy až 128 MB
  • [SPARK-42850] [SC-126109][SQL] Odebrání duplicitních pravidel CombineFilters v optimalizátoru
  • [SPARK-42662] [SC-126355][CONNECT][PS] Přidání zprávy proto pro rozhraní PANDAS API ve výchozím indexu Sparku
  • [SPARK-42720] [SC-126136][PS][SQL] Používá výraz pro výchozí index distribuované sekvence místo plánu.
  • [SPARK-42790] [SC-126174][SQL] Abstrahujte vyloučenou metodu pro lepší test pro testy dockeru JDBC.
  • [SPARK-42900] [SC-126473][CONNECT][PYTHON] Oprava elementu createDataFrame pro dodržování názvů odvození a sloupců
  • [SPARK-42917] [SC-126657][SQL] Oprava getUpdateColumnNullabilityQuery pro DerbyDialect
  • [SPARK-42684] [SC-125157][SQL] Katalog v2 by ve výchozím nastavení neměl povolit výchozí hodnotu sloupce.
  • [SPARK-42861] [SC-126635][SQL] Používejte místo chráněného[sql] privátní[sql] a vyhněte se generování dokumentace k rozhraní API.
  • [SPARK-42920] [SC-126728][CONNECT][PYTHON] Povolení testů pro UDF s UDT
  • [SPARK-42791] [SC-126617][SQL] Vytvoření nové architektury pro testování zlatých souborů pro analýzu
  • [SPARK-42911] [SC-126652][PYTHON] Zavedení dalších základních výjimek
  • [SPARK-42904] [SC-126634][SQL] Podpora char/varchar pro katalog JDBC
  • [SPARK-42901] [SC-126459][CONNECT][PYTHON] Přesunutí StorageLevel do samostatného souboru, abyste se vyhnuli potenciálnímu file recursively imports
  • [SPARK-42894] [SC-126451][CONNECT] Podpora cacheunpersiststorageLevel/persist//klienta jvm pro připojení Sparku
  • [SPARK-42792] [SC-125852][SS] Přidání podpory pro WRITE_FLUSH_BYTES pro RocksDB používané ve stavových operátorech streamování
  • [SPARK-41233] [SC-126441][CONNECT][PYTHON] Přidání array_prepend do klienta Spark Connect Pythonu
  • [SPARK-42681] [SC-125149][SQL] Uvolnění omezení řazení pro ALTER TABLE ADD|NAHRADIT popisovač sloupce
  • [SPARK-42889] [SC-126367][CONNECT][PYTHON] Implementace mezipaměti, zachování, nepersistování a úrovně úložiště
  • [SPARK-42824] [SC-125985][CONNECT][PYTHON] Zadejte jasnou chybovou zprávu pro nepodporované atributy JVM.
  • [SPARK-42340] [SC-126131][CONNECT][PYTHON] Implementace seskupené mapového rozhraní API
  • [SPARK-42892] [SC-126454][SQL] Přesunutí sameType a relevantních metod z dataType
  • [SPARK-42827] [SC-126126][CONNECT] Podpora functions#array_prepend klienta Scala Connect
  • [SPARK-42823] [SC-125987][SQL] spark-sql Shell podporuje vícedílné obory názvů pro inicializaci.
  • [SPARK-42817] [SC-125960][JÁDRO] Protokolování názvu služby náhodného prohazování jednou v ApplicationMasteru
  • [SPARK-42786] [SC-126438][Připojit] Typový výběr
  • [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] Implementace funkce ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][SQL] Podpora Codegenu pro HiveSimpleUDF
  • [SPARK-41233] [SC-126110][SQL][PYTHON] Přidání array_prepend funkce
  • [SPARK-42864] [SC-126268][ML][3.4] Nastavit IsotonicRegression.PointsAccumulator jako soukromé
  • [SPARK-42876] [SC-126281][SQL] Hodnota physicalDataType datového typu by měla být privátní[sql]
  • [SPARK-42101] [SC-125437][SQL] Podpora AQE InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][SQL] Podpora vygenerovaných výrazů ALWAYS AS pro sloupce v příkazech tabulky create/replace
  • [SPARK-42870] [SC-126220][CONNECT] Přesunout toCatalystValue na connect-common
  • [SPARK-42247] [SC-126107][CONNECT][PYTHON] Oprava funkce UserDefinedFunction, aby měla returnType
  • [SPARK-42875] [SC-126258][CONNECT][PYTHON] Oprava toPandas pro správné zpracování typů časových pásem a map
  • [SPARK-42757] [SC-125626][CONNECT] Implementace textového souboru pro DataFrameReader
  • [SPARK-42803] [SC-126081][JÁDRO][SQL][ML] Místo getParameterTypes.length použijte funkci getParameterCount.
  • [SPARK-42833] [SC-126043][SQL] Refaktoring applyExtensions v SparkSession
  • [SPARK-41765] Vrátit zpět [SC-1235550][SQL] Vyžádat metriky zápisu v1...
  • [SPARK-42848] [SC-126105][CONNECT][PYTHON] Implementace Tabulky DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][CONNECT][PYTHON] Podpora UserDefinedType v nástroji Spark Connect
  • [SPARK-42818] [SC-125861][CONNECT][PYTHON] Implementace třídy DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867][CONNECT] Přidání client_type do zprávy AddArtifactsRequest protobuf
  • [SPARK-42772] [SC-125860][SQL] Změna výchozí hodnoty možností JDBC o posunu dolů na true
  • [SPARK-42771] [SC-125855][SQL] Refaktoring HiveGenericUDF
  • [SPARK-25050] [SC-123839][SQL] Avro: Psaní složitých sjednocení
  • [SPARK-42765] [SC-125850][CONNECT][PYTHON] Povolení importu pandas_udf z pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][JÁDRO] MapOutputTracker#getMapLocation by měla respektovat spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][SQL] Zlepšení výkonu oddílů vyřazení
  • [SPARK-42689] [SC-125195][JÁDRO][SHUFFLE] Povolení funkce ShuffleDriverComponent deklarovat, jestli jsou data náhodného prohazování spolehlivě uložená
  • [SPARK-42726] [SC-125279][CONNECT][PYTHON] Implementovat DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][SQL] Stažení metrik zápisu do WriteFiles v1
  • [SPARK-41171] [SC-124191][SQL] Odvození a nasdílení limitu okna přes okno, pokud je oddílSpec prázdný
  • [SPARK-42686] [SC-125292][JÁDRO] Odložit formátování pro ladicí zprávy v TaskMemoryManager
  • [SPARK-42756] [SC-125443][CONNECT][PYTHON] Pomocná funkce pro převod proto literálu na hodnotu v klientovi Pythonu
  • [SPARK-42793] [SC-125627][CONNECT] connect modul vyžaduje build_profile_flags
  • [SPARK-42701] [SC-125192][SQL] try_aes_decrypt() Přidání funkce
  • [SPARK-42679] [SC-125438][CONNECT][PYTHON] CreateDataFrame nefunguje se schématem bez hodnoty null.
  • [SPARK-42733] [SC-125542][CONNECT][Zpracovat] Zápis bez cesty nebo tabulky
  • [SPARK-42777] [SC-125525][SQL] Podpora převodu statistik katalogu TimestampNTZ na statistiky plánu
  • [SPARK-42770] [SC-125558][CONNECT] Přidání truncatedTo(ChronoUnit.MICROS) , které provedete SQLImplicitsTestSuite v javě 17 každodenních testovacích úloh GA
  • [SPARK-42752] [SC-125550][PYSPARK][SQL] Nastavení výjimek PySpark pro tisk během inicializace
  • [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Podpora metody getActiveSession relace spark connect
  • [SPARK-42755] [SC-125442][CONNECT] Převod hodnoty literálu faktoru na connect-common
  • [SPARK-42747] [SC-125399][ML] Oprava nesprávného interního stavu LoR a AFT
  • [SPARK-42740] [SC-125439][SQL] Oprava chyby, která posunem posunu nebo stránkování není pro některý předdefinovaný dialekt neplatný
  • [SPARK-42745] [SC-125332][SQL] Vylepšené AliasAwareOutputExpression funguje s DSv2
  • [SPARK-42743] [SC-125330][SQL] Podpora analýzy sloupců TimestampNTZ
  • [SPARK-42721] [SC-125371][CONNECT] Zachytávání protokolování RPC
  • [SPARK-42691] [SC-125397][CONNECT][PYTHON] Implementace Dataset.smanticHash
  • [SPARK-42688] [SC-124922][CONNECT] Přejmenování client_id žádosti o připojení na session_id
  • [SPARK-42310] [SC-122792][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][JÁDRO] Optimalizace rutin Utils.bytesToString
  • [SPARK-42725] [SC-125296][CONNECT][PYTHON] Make LiteralExpression podporuje parametry pole
  • [SPARK-42702] [SC-125293][SPARK-42623][SQL] Podpora parametrizovaného dotazu v poddotazech a CTE
  • [SPARK-42697] [SC-125189][WEBI] Oprava /api/v1/applications pro vrácení celkové doby provozu místo 0 pro pole doby trvání
  • [SPARK-42733] [SC-125278][CONNECT][PYTHON] Oprava funkce DataFrameWriter.save pro práci bez parametru cesty
  • [SPARK-42376] [SC-124928][SS] Zavedení šíření vodoznaku mezi operátory
  • [SPARK-42710] [SC-125205][CONNECT][PYTHON] Přejmenujte proto FrameMap na MapPartitions
  • [SPARK-37099] [SC-123542][SQL] Zavedení limitu skupiny pro filtr založený na pořadí pro optimalizaci výpočtů top-k
  • [SPARK-42630] [SC-125207][CONNECT][PYTHON] Zavedení unparsedDataType a zpoždění parsování řetězce DDL, dokud není k dispozici SparkConnectClient
  • [SPARK-42690] [SC-125193][CONNECT] Implementace funkcí analýzy CSV/JSON pro klienta Scala
  • [SPARK-42709] [SC-125172][PYTHON] Odebrání předpokladu, že __file__ je k dispozici
  • [SPARK-42318] [SC-122648][SPARK-42319][SQL] Přiřadit název LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][SQL] Podpora formátu JSON datového typu analyzátoru "timestamp_ltz" jako TimestampType
  • [SPARK-42722] [SC-125175][CONNECT][PYTHON] Python Connect def schema() by neměl ukládat schéma do mezipaměti.
  • [SPARK-42643] [SC-125152][CONNECT][PYTHON] Registrace uživatelem definovaných funkcí Javy (agregace)
  • [SPARK-42656] [SC-125177][CONNECT][Zpracovat] Oprava skriptu spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Povolit dialektům jdbc přepsat dotaz použitý k vytvoření tabulky
  • [SPARK-41725] [SC-124396][CONNECT] Dychtivá realizace DF.sql()
  • [SPARK-42687] [SC-124896][SS] Lepší chybová zpráva pro nepodporovanou pivot operaci ve streamování
  • [SPARK-42676] [SC-124809][SS] Zápis dočasných kontrolních bodů pro dotazy streamování do místního systému souborů i v případě, že je výchozí služba FS nastavená jinak
  • [SPARK-42303] [SC-122644][SQL] Přiřazení názvu k _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][SQL] Ujistěte se, že po "intervalu" alespoň jednu časovou jednotku.
  • [SPARK-42649] [SC-124576][JÁDRO] Odebrání standardní hlavičky licence Apache z horní části zdrojových souborů třetích stran
  • [SPARK-42611] [SC-124395][SQL] Vkládání kontrol délky znaků/varchar pro vnitřní pole během rozlišení
  • [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrace do architektury chyb pro rozhraní COLUMN API služby Spark Connect
  • [SPARK-42637] [SC-124522][CONNECT] Přidání SparkSession.stop()
  • [SPARK-42647] [SC-124647][PYTHON] Změna aliasu pro zastaralé a odebrané typy
  • [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver zavře pouze spuštěnou relaci HiveState
  • [SPARK-42593] [SC-124405][PS] Zastaralá a odeberte rozhraní API, která budou odebrána v knihovně pandas 2.0.
  • [SPARK-41870] [SC-124402][CONNECT][PYTHON] Oprava createDataFrame pro zpracování duplicitních názvů sloupců
  • [SPARK-42569] [SC-124379][CONNECT] Vyvolání výjimek pro nepodporované rozhraní API relace
  • [SPARK-42631] [SC-124526][CONNECT] Podpora vlastních rozšíření v klientovi Scala
  • [SPARK-41868] [SC-124387][CONNECT][PYTHON] Oprava prvku createDataFrame pro podporu doby trvání
  • [SPARK-42572] [SC-124171][SQL][SS] Oprava chování StateStoreProvider.validateStateRowFormat

Aktualizace údržby

Viz aktualizace údržby Databricks Runtime 13.1.

Prostředí systému

  • Operační systém: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 attrs 21.4.0 backcall 0.2.0
krásnásoup4 4.11.1 černý 22.6.0 bělit 4.1.0
blinkr 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 kliknutí 8.0.4 kryptografie 37.0.1
cyklista 0.11.0 Cython 0.29.32 dbus-python 1.2.18
ladění 1.5.1 dekoratér 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown 0.12 vstupní body 0,4
vykonávající 1.2.0 přehled omezujících vlastností 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgety 1.0.0 keyring 23.5.0 verizonsolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
Mccabe 0.7.0 špatně zamyšlení 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
poznámkový blok 6.4.12 numpy 1.21.5 oauthlib 3.2.0
balení 21.3 pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 bábovka 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Polštář 9.2.0
jádro 22.2.2 platformdirs 2.5.2 plotly 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 čistý-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 žádosti 2.28.1 lano 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 Šest 1.16.0 polévky 2.3.1
ssh-import-id 5,11 stack-data 0.6.2 statsmodels 0.13.2
houževnatost 8.1.0 terminado 0.13.1 testpath 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádo 6.1 vlastnosti 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 bezobslužné upgrady 0,1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 kolo 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Nainstalované knihovny jazyka R

Knihovny R se instalují ze snímku Microsoft CRAN na 2023-02-10.

Knihovna Verze Knihovna Verze Knihovna Verze
šipka 10.0.1 askpass 1,1 assertthat 0.2.1
backporty 1.4.1 base 4.2.2 base64enc 0.1-3
bitové 4.0.5 bit64 4.0.5 blob 1.2.3
startování 1.3-28 vařit 1.0-8 verva 1.1.3
koště 1.0.3 bslib 0.4.2 cachem 1.0.6
volající 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-59 class 7.3-21 Rozhraní příkazového řádku 3.6.0
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-19 barevný prostor 2.1-0 commonmark 1.8.1
– kompilátor 4.2.2 config 0.3.1 cpp11 0.4.3
pastelka 1.5.2 přihlašovací údaje 1.3.2 kudrna 5.0.0
data.table 1.14.6 Power BI 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 trávit 0.6.31 downlit 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
tři tečky 0.3.2 evaluate 0,20 fanynky 1.0.4
farver 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
forcats 1.0.0 foreach 1.5.2 zahraniční 0.8-82
kovat 0.2.0 Fs 1.6.1 budoucnost 1.31.0
future.apply 1.10.0 kloktadlo 1.3.0 Generik 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globálních objektů 0.16.2
lepidlo 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 Grafika 4.2.2 grDevices 4.2.2
mřížka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 bezpečnostní přilba 1.2.0 útočiště 2.5.1
highr 0.10 Hms 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Id 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iterátory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 pletení 1.42
značení 0.4.2 později 1.3.0 mříž 0.20-45
láva 1.7.1 lifecycle 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 sleva 1.5
MŠE 7.3-58.2 Matice 1.5-1 memoise 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallel 4.2.2
paralelně 1.34.0 pilíř 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 chválit 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Průběh 1.2.2
progressr 0.13.0 sliby 1.2.0.1 proto 1.0.0
plná moc 0.4-27 PS 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 Analýza rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 recepty 1.0.4
odvetný zápas 1.0.1 rematch2 2.1.2 vzdálená zařízení 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 drzá napodobenina 0.4.5 váhy 1.2.1
selektor 0.4-2 sessioninfo 1.2.2 tvar 1.4.6
lesklý 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 prostorový 7.3-15 spline křivky 4.2.2
sqldf 0.4-11 ČTVEREC 2021.1 statistické údaje 4.2.2
Statistiky 4 4.2.2 stringi 1.7.12 stringr 1.5.0
přežití 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 textshaping 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 časový interval 0.2.0 timeDate 4022.108
tinytex 0.44 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.3
utils 4.2.2 Uuid 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 vroom 1.6.1 Waldo 0.4.0
vous 0.4.1 withr 2.5.0 xfun 0.37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws automatické škálování aws-java-sdk 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws podpora aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics datový proud 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.kofein kofein 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java Nativní verze 1.1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java Nativní verze 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64 Nativní verze 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64 Nativní verze 1.1
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metriky – jádro 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metriky – kontroly stavu 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metriky – servlety 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty- common 4.1.87.Final
io.netty obslužná rutina netty 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine marináda 1.3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow arrow-format 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow arrow-vector 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-client 2.13.0
org.apache.kurátor kurátor-framework 2.13.0
org.apache.kurátor kurátor-recepty 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy břečťan 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus cílové skupiny a poznámky 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty pokračování jetty 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-api 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket – společné 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core žerzejové společné 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate-validator 6.1.7.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Podložky 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest kompatibilní s scalatestem 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel kočky-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1