Databricks Runtime 13.1 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 13.1, který využívá Apache Spark 3.4.0.
Databricks vydala tuto verzi v květnu 2023.
Nové funkce a vylepšení
- Podpora clusteru pro JDK 17 (Public Preview)
- Přidání, změna nebo odstranění dat v streamovaných tabulkách
- Čtení Kafka s SQL
- Nové integrované funkce SQL
- Podpora katalogu Unity pro knihovny Pythonu v oboru clusteru
- Rozšířené výchozí povolení pro optimalizované zápisy v katalogu Unity
- Pokročilá podpora stavových operátorů v úlohách strukturovaného streamování
- Rozdílový klon pro katalog Unity je ve verzi Public Preview.
- Podpora pub/sub pro strukturované streamování
- Odstranění duplicit do vodoznaků ve strukturovaném streamování
- Rozšířená podpora převodů Delta z tabulek Iceberg s zkrácenými sloupci oddílů
- Změny schématu streamu s mapováním sloupců v Delta Lake
- Odebrat POČÁTEČNÍ VERZI
- Nové výrazy H3 dostupné v Pythonu
Podpora clusteru pro JDK 17 (Public Preview)
Databricks teď poskytuje podporu clusteru pro Sadu Java Development Kit (JDK) 17. Viz Databricks SDK pro Javu.
Přidání, změna nebo odstranění dat v streamovaných tabulkách
Příkazy DML teď můžete použít k úpravě streamovaných tabulek publikovaných v katalogu Unity pomocí kanálů Delta Live Tables. Viz Přidání, změna nebo odstranění dat v streamované tabulce a přidání, změna nebo odstranění dat v cílové streamovací tabulce. Příkazy DML můžete také použít k úpravě streamovaných tabulek vytvořených v Databricks SQL.
Čtení Kafka s SQL
Teď můžete funkci SQL použít read_kafka
ke čtení dat Kafka. Streamování s SQL se podporuje jenom v rozdílových živých tabulkách nebo se streamovanými tabulkami v Databricks SQL. Viz read_kafka funkce s hodnotou tabulky.
Nové integrované funkce SQL
Byly přidány následující funkce:
- array_prepend(matice, elem) Vrátí předpended
array
podleelem
. - try_aes_decrypt(výraz, klíč [; režim [; odsazení]]) Dešifruje binární soubor vytvořený pomocí šifrování AES a vrátí
NULL
, pokud dojde k chybě. - sql_keywords() Vrátí tabulku klíčových slov SQL v Azure Databricks.
Podpora katalogu Unity pro knihovny Pythonu v oboru clusteru
Katalog Unity má určitá omezení týkající se používání knihovny. Ve službě Databricks Runtime 13.1 a novějších se podporují knihovny Pythonu s oborem clusteru, včetně souborů kol Pythonu, které se nahrávají jako soubory pracovního prostoru. Knihovny odkazované pomocí cest k souborům DBFS se nepodporují bez ohledu na to, jestli jsou v kořenovém adresáři DBFS nebo v externím umístění připojeném k DBFS. Podporují se jenom knihovny Pythonu. Viz Knihovny clusterů.
V prostředí Databricks Runtime 13.0 a novějších nejsou knihovny s oborem clusteru podporovány v clusterech, které používají režim sdíleného přístupu v pracovním prostoru s podporou katalogu Unity.
Rozšířené výchozí povolení pro optimalizované zápisy v katalogu Unity
Výchozí optimalizovaná podpora zápisu pro tabulky Delta zaregistrované v katalogu Unity se rozšířila tak, aby zahrnovala CTAS
příkazy a INSERT
operace pro dělené tabulky. Toto chování odpovídá výchozím nastavením ve skladech SQL. Viz Optimalizované zápisy pro Delta Lake v Azure Databricks.
Pokročilá podpora stavových operátorů v úlohách strukturovaného streamování
Teď můžete zřetězovat několik stavových operátorů, což znamená, že výstup operace, jako je agregace s oknem, do jiné stavové operace, jako je spojení. Podívejte se, co je stavové streamování?
Rozdílový klon pro katalog Unity je ve verzi Public Preview.
Teď můžete pomocí mělké klonování vytvořit nové spravované tabulky Katalogu Unity z existujících spravovaných tabulek Katalogu Unity. Viz "Mělké klonování" pro tabulky katalogu Unity.
Podpora pub/sub pro strukturované streamování
Teď můžete použít integrovaný konektor k přihlášení k odběru Google Pub/Sub se strukturovaným streamováním. Viz Přihlášení k odběru Google Pub/Sub.
Odstranění duplicit do vodoznaků ve strukturovaném streamování
Nyní můžete použít dropDuplicatesWithinWatermark
kombinaci se zadanou prahovou hodnotou meze k odstranění duplicitních dat záznamů ve strukturovaném streamování. Viz Odstranění duplicit v rámci vodoznaku.
Rozšířená podpora převodů Delta z tabulek Iceberg s zkrácenými sloupci oddílů
Nyní můžete použít CLONE
a CONVERT TO DELTA
s tabulkami Iceberg, které mají oddíly definované na zkrácených sloupcích typů int
, long
a string
. Zkrácené sloupce typu decimal
nejsou podporovány.
Změny schématu streamu s mapováním sloupců v Delta Lake
Teď můžete zadat umístění sledování schématu, které povolí streamování z tabulek Delta s povoleným mapováním sloupců. Viz Streamování s mapováním sloupců a změnami schématu.
Odebrat POČÁTEČNÍ VERZI
START VERSION
je nyní zastaralá pro ALTER SHARE
.
Nové výrazy H3 dostupné v Pythonu
Výrazy h3_coverash3
a h3_coverash3string
výrazy jsou k dispozici v Pythonu.
Opravy chyb
Parquet failOnUnknownFields už bezobslužně nezahazují data při neshodě typů.
Pokud byl soubor Parquet přečtený pouze failOnUnknownFields
s možností nebo automatickým zavaděčem v failOnNewColumns
režimu vývoje schématu, sloupce s různými datovými typy nyní selžou a doporučují použití rescuedDataColumn
. Auto Loader teď správně čte a už neschová celočíselné, krátké nebo bajtové typy, pokud je k dispozici některý z těchto datových typů. Soubor Parquet navrhuje jeden z dalších dvou typů.
Změny způsobující chyby
Upgrade verze sqlite-jdbc na verzi 3.42.0.0 na adresu CVE-2023-32697
Upgradujte verzi sqlite-jdbc z verze 3.8.11.2 na 3.42.0.0. Rozhraní API verze 3.42.0.0 nejsou plně kompatibilní s verzí 3.8.11.2. Pokud v kódu používáte sqlite-jdbc, podrobnosti najdete v sestavě kompatibility sqlite-jdbc. Pokud migrujete na verzi 13.1 a použijete sqlite, potvrďte své metody a návratový typ ve verzi 3.42.0.0.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- facets-overview from 1.0.2 to 1.0.3
- filelock od 3.10.7 do 3.12.0
- pyarrow od 7.0.0 do 8.0.0
- 8.0.1 až 8.1.0
- Upgradované knihovny jazyka R:
- Upgradované knihovny Java:
- com.github.ben-manes.kofein.kofein od 2.3.4 do 2.9.3
- io.delta.delta-sharing-spark_2.12 od 0.6.8 do 0.6.4
- net.snowflake.snowflake-jdbc od 3.13.29 do 3.13.22
- org.checkerframework.checker-qual od 3.5.0 do 3.19.0
- org.scalactic.scalactic_2.12 od 3.0.8 do 3.2.15
- org.scalatest.scalatest_2.12 od 3.0.8 do 3.2.15
- org.xerial.sqlite-jdbc od 3.8.11.2 do 3.42.0.0
Apache Spark
Databricks Runtime 13.1 zahrnuje Apache Spark 3.4.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 13.0 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-42719] [DBRRM-199][SC-131578] Vrátit "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][SC-130056][JÁDRO] Vrátit [SC-127830]/
- [SPARK-43331] [SC-130064][CONNECT] Přidání Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][CONNECT][PYTHON] Rozšíření ChannelBuilderu pro SparkConnectClient
- [SPARK-43323] [SC-129966][SQL][PYTHON] Oprava prvku DataFrame.toPandas s povolenou šipkou pro správné zpracování výjimek
- [SPARK-42940] [SC-129896][SS][CONNECT] Vylepšení správy relací pro dotazy streamování
- [SPARK-43032] [SC-125756] [CONNECT][SS] Přidání správce dotazů streamování
- [SPARK-16484] [SC-129975][SQL] Přidání podpory pro Datasketches HllSketch
- [SPARK-43260] [SC-129281][PYTHON] Migrujte chyby typu šipky Knihovny pandas Spark SQL do třídy chyb.
- [SPARK-41766] [SC-129964][JÁDRO] Zpracování požadavku vyřazení z provozu odeslaného před registrací exekutoru
- [SPARK-43307] [SC-129971][PYTHON] Migrace chyb hodnot PandasUDF do třídy chyb
- [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() include stack trace
- [SPARK-43311] [SC-129905][SS] Přidání vylepšení správy paměti zprostředkovatele stavu RocksDB
- [SPARK-43237] [SC-129898][JÁDRO] Zpracování zprávy o výjimce null v protokolu událostí
- [SPARK-43320] [SC-129899][SQL][HIVE] Přímé volání rozhraní API Hive 2.3.9
- [SPARK-43270] [SC-129897][PYTHON]
pyspark.sql.dataframe.DataFrame
Implementace__dir__()
pro zahrnutí sloupců - [SPARK-43183] Vrátit zpět "[SC-128938][SS] Zavést nový zpětné volání "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][SQL] Nahraďte třídu chyb _LEGACY_ERROR_TEMP_2022 vnitřní chybou.
- [SPARK-43198] [SC-129470][CONNECT] Oprava "Nelze inicializovat třídu ammonite..." chyba při použití filtru
- [SPARK-43165] [SC-129777][SQL] Přesunout canWrite do DataTypeUtils
- [SPARK-43298] [SC-129729][PYTHON][ML] predict_batch_udf s skalárním vstupem selže s velikostí dávky jedné
- [SPARK-43298] [SC-129700]Vrácení predict_batch_udf [PYTHON][ML] s skalárním vstupem selže s velikostí dávky 1"
- [SPARK-43052] [SC-129663][JÁDRO] Zpracování trasování zásobníku s názvem souboru null v protokolu událostí
- [SPARK-43183] [SC-128938][SS] Zavedení nového zpětného volání onQueryIdle pro StreamingQueryListener
- [SPARK-43209] [SC-129190][CONNECT][PYTHON] Migrace chyb výrazu do třídy chyb
- [SPARK-42151] [SC-128754][SQL] Zarovnání přiřazení UPDATE s atributy tabulky
- [SPARK-43134] [SC-129468] [CONNECT] [SS] Rozhraní API pro klienty JVM StreamingQuery
- [SPARK-43298] [SC-129699][PYTHON][ML] predict_batch_udf s skalárním vstupem selže s velikostí dávky jedné
- [SPARK-43248] [SC-129660][SQL] Nepotřebné serializace/deserializace cesty při paralelním shromažďování statistik oddílů
- [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] Představit
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][CONNECT][PYTHON] Implementace dychtivého vyhodnocení pro opětovné obnovení a repr_html
- [SPARK-42953] [SC-129469][Připojit][Zpracovat] Oprava testovacího sestavení Mavenu pro testy UDF klienta Scala
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][CONNECT] Přidání funkcí groupByKey + mapGroup + coGroup
- [SPARK-43156] [SC-129672][SC-128532][SQL] Oprava
COUNT(*) is null
chyby v korelovaném skalárním poddotazu - [SPARK-43046] [SC-129110] [SS] [Připojit] Implementované rozhraní PYTHON API dropDuplicatesWithinWatermark pro Spark Connect
- [SPARK-43199] [SC-129467][SQL] Nastavení idempotentního inlineCTE
- [SPARK-43293] [SC-129657][SQL]
__qualified_access_only
by měly být ignorovány v normálních sloupcích. - [SPARK-43276] [SC-129461][CONNECT][PYTHON] Migrace chyb okna Spark Connect do třídy chyb
- [SPARK-43174] [SC-129109][SQL] Oprava completeru SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] Přidání podpory applyInPandasWithState pro připojení Sparku
- [SPARK-43119] [SC-129040][SQL] Podpora dynamického získání klíčových slov SQL přes rozhraní API JDBC a TVF
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] Definované uživatelem Pythonu optimalizované šipkami v nástroji Spark Connect
- [SPARK-43085] [SC-128432][SQL] Podpora přiřazení výchozího sloupce pro názvy tabulek s více částmi
- [SPARK-43226] [LC-671] Definování extraktorů pro metadata konstanty souboru
- [SPARK-43210] [SC-129189][CONNECT][PYTHON] Představit
PySparkAssertionError
- [SPARK-43214] [SC-129199][SQL] Metriky na straně ovladače pro LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Oprava konzistentního selhání ReplE2ESuite s JDK 17
- [SPARK-43268] [SC-129249][SQL] Použití správných tříd chyb při vytváření výjimek se zprávou
- [SPARK-43142] [SC-129299] Oprava výrazů DSL u atributů se speciálními znaky
- [SPARK-43129] [SC-128896] Základní rozhraní API Scala pro streamování Spark Connect
- [SPARK-43233] [SC-129250] [SS] Přidání protokolování pro čtení služby Kafka Batch pro oddíl tématu, rozsah posunu a ID úlohy
- [SPARK-43249] [SC-129195][CONNECT] Oprava chybějících statistik pro příkaz SQL
- [SPARK-42945] [SC-129188][CONNECT] Podpora PYSPARK_JVM_STACKTRACE_ENABLED ve Spark Connectu
- [SPARK-43178] [SC-129197][CONNECT][PYTHON] Migrace chyb UDF do architektury chyb PySpark
- [SPARK-43123] [SC-128494][SQL] Interní metadata polí by neměla být do katalogů nevrácena.
- [SPARK-43217] [SC-129205] Správně zařadíte do vnořených map a polí v findNestedField.
- [SPARK-43243] [SC-129294][PYTHON][CONNECT] Přidání parametru úrovně pro tiskSchema pro Python
- [SPARK-43230] [SC-129191][CONNECT] Zjednodušit
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][SQL] Respekt vyžadujeDistributionAndOrdering v CTAS/RTAS
- [SPARK-43234] [SC-129192][CONNECT][PYTHON] Migrace
ValueError
z datového rámce Conect do třídy chyb - [SPARK-43212] [SC-129187][SS][PYTHON] Migrace chyb strukturovaného streamování do třídy chyb
- [SPARK-43239] [SC-129186][PS] Odebrat
null_counts
z informací() - [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput by měl být konzistentní s podřízeným výstupem.
- [SPARK-43191] [SC-128924][JÁDRO] Nahrazení reflexe w/ přímé volání pro Hadoop CallerContext
- [SPARK-43193] [SC-129042][SS] Odebrání alternativního řešení pro HADOOP-12074
- [SPARK-42657] [SC-128621][CONNECT] Podpora vyhledání a přenosu souborů tříd REPL na straně klienta na server jako artefakty
- [SPARK-43098] [SC-77059][SQL] Oprava chyby POČET správnosti, pokud skalární poddotaz obsahuje klauzuli group by
- [SPARK-43213] [SC-129062][PYTHON] Přidat
DataFrame.offset
do vanilla PySpark - [SPARK-42982] [SC-128400][CONNECT][PYTHON] Oprava objektu createDataFrame pro respekt k danému schématu ddl
- [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults místně
- [SPARK-42998] [SC-127422][CONNECT][PYTHON] Oprava objektu DataFrame.collect se strukturou null
- [SPARK-41498] [SC-125343]Vrátit zpět "Šíření metadat prostřednictvím sjednocení"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Přidání rozhraní API await_termination() a exception() pro dotaz streamování v Pythonu
- [SPARK-42552] [SC-128824][SQL] Oprava strategie dvoufázové analýzy analyzátoru antlr
- [SPARK-43207] [SC-128937][CONNECT] Přidání pomocných funkcí pro extrakci hodnoty z literálového výrazu
- [SPARK-43186] [SC-128841][SQL][HIVE] Odebrání alternativního řešení pro FileSinkDesc
- [SPARK-43107] [SC-128533][SQL] Kontejnery ve spojení použité na straně streamu všesměrového spojení
- [SPARK-43195] [SC-128922][JÁDRO] Odebrání nepotřebné serializovatelné obálky v HadoopFSUtils
- [SPARK-43137] [SC-128828][SQL] Vylepšete ArrayInsert, pokud je pozice skládací a pozitivní.
- [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join by měla vrátit hodnotu null pro řádek bez porovnání.
- [SPARK-43042] [SC-128602] [SS] [Připojit] Podpora rozhraní API pro přidání tabulky pro DataStreamReader
- [SPARK-43153] [SC-128753][CONNECT] Přeskočit spouštění Sparku, když je datový rámec místní
- [SPARK-43064] [SC-128496][SQL] Karta SQL CLI sparku SQL by se měla zobrazit jenom jednou.
- [SPARK-43126] [SC-128447][SQL] Označení dvou výrazů UDF Hive jako stavových
- [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] Sloučení vnořených
if
příkazů do jednoduchýchif
příkazů - [SPARK-43113] [SC-128749][SQL] Vyhodnocení proměnných na straně datového proudu při generování kódu pro vázanou podmínku
- [SPARK-42895] [SC-127258][CONNECT] Vylepšení chybových zpráv pro zastavené relace Sparku
- [SPARK-42884] [SC-126662][CONNECT] Přidání integrace Ammonite REPL
- [SPARK-43168] [SC-128674][SQL] Remove get PhysicalDataType – metoda z třídy Datatype
- [SPARK-43121] [SC-128455][SQL] Používejte místo ručního kopírování v 'HiveInspectors.
BytesWritable.copyBytes
- [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog udržuje na straně čtení meta Char/Varchar
- [SPARK-43050] [SC-128550][SQL] Oprava agregačních výrazů konstruktoru nahrazením funkcí seskupení
- [SPARK-43095] [SC-128549][SQL] Vyhýbejte se idempotenci strategie pro dávku:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] Přesun InternalType do physicalDataType
- [SPARK-43105] [SC-128456][CONNECT] Zkrácené bajty a řetězce v proto zprávě
- [SPARK-43099] [SC-128596][SQL]
getCanonicalName
MístogetName
získání názvu třídy tvůrce při registraci udf do FunctionRegistry - [SPARK-42994] [SC-128586][ML][CONNECT] PyTorch Distributor podporuje místní režim
- [SPARK-42859] Vrátit zpět "[SC-127935][CONNECT][PS] Základní podpora rozhraní PANDAS API ve Spark Connectu
- [SPARK-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
nefunguje při použití AQE - [SPARK-43125] [SC-128477][CONNECT] Oprava, že Connect Server nemůže zpracovat výjimku s nulovou zprávou
- [SPARK-43147] [SC-128594] oprava llake8 lint pro místní kontrolu
- [SPARK-43031] [SC-128360] [SS] [Připojit] Povolení testování jednotek a testování dokumentů pro streamování
- [SPARK-43039] [LC-67] Podpora vlastních polí ve zdrojovém souboru _metadata sloupci
- [SPARK-43120] [SC-128407][SS] Přidání podpory pro sledování připnutých bloků využití paměti pro úložiště stavů RocksDB
- [SPARK-43110] [SC-128381][SQL] Přesun asIntegral na PhysicalDataType
- [SPARK-43118] [SC-128398][SS] Odebrání nepotřebného kontrolního výrazu pro neinterruptibleThread v kafkaMicroBatchStream
- [SPARK-43055] [SC-128331][CONNECT][PYTHON] Podpora duplicitních vnořených názvů polí
- [SPARK-42437] [SC-128339][PYTHON][CONNECT] PySpark catalog.cacheTable umožní zadat úroveň úložiště.
- [SPARK-42985] [SC-128332][CONNECT][PYTHON] Oprava elementu createDataFrame pro dodržování konfigurací SQL
- [SPARK-39696] [SC-127830][JÁDRO] Oprava rasy dat v přístupu k TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][SQL] Přesunutí integrálu na physicalDataType
- [SPARK-42741] [SC-125547][SQL] Nevybalit přetypování v binárním porovnání, pokud je literál null
- [SPARK-43057] [SC-127948][CONNECT][PYTHON] Migrace chyb ve sloupci Spark Connect do třídy chyb
- [SPARK-42859] [SC-127935][CONNECT][PS] Základní podpora rozhraní PANDAS API ve Službě Spark Connect
- [SPARK-43013] [SC-127773][PYTHON] Migrace
ValueError
z datového rámce doPySparkValueError
. - [SPARK-43089] [SC-128051][CONNECT] Redact debug string in UI
- [SPARK-43028] [SC-128070][SQL] Přidání SQL_CONF_NOT_FOUND třídy chyb
- [SPARK-42999] [SC-127842][Připojit] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] Přidání testu pro dropDuplicates v JavaDatasetSuite
- [SPARK-43075] [SC-127939][CONNECT] Změňte
gRPC
nagrpcio
, když není nainstalovaný. - [SPARK-42953] [SC-127809][Připojit] Typový filtr, mapa, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][SQL] Podpora rozbalení typu data na typ časového razítka
- [SPARK-42931] [SC-127933][SS] Zavedení dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][CONNECT] Přidání konstant datových typů proto
- [SPARK-43077] [SC-128050][SQL] Vylepšení chybové zprávy UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][SS][Připojit] Rozhraní API třídy DataStreamReader
- [SPARK-43049] [SC-127846][SQL] Místo VARCHAR(255) použijte cloB pro StringType pro Oracle JDBC.
- [SPARK-43018] [SC-127762][SQL] Oprava chyby pro příkazy INSERT s literály časového razítka
- [SPARK-42855] [SC-127722][SQL] Použití kontrol hodnoty runtime null v TableOutputResolver
- [SPARK-43030] [SC-127847][SQL] Odstranění duplicitních dat relací se sloupci metadat
- [SPARK-42993] [SC-127829][ML][CONNECT] Zajištění kompatibility distributora PyTorch s aplikací Spark Connect
- [SPARK-43058] [SC-128072][SQL] Přesunutí číselného a zlomkového typu do fyzického datového typu
- [SPARK-43056] [SC-127946][SS] Potvrzení úložiště stavů RocksDB by mělo pokračovat v práci na pozadí pouze v případě, že je pozastaveno.
- [SPARK-43059] [SC-127947][CONNECT][PYTHON] Migrace TypeError z datového rámce (Čtenář|Zapisovač) do třídy chyb
- [SPARK-43071] [SC-128018][SQL] Podpora PŘÍKAZU SELECT DEFAULT s FUNKCÍ ORDER BY, LIMIT, OFFSET pro VLOŽENÍ zdrojové relace
- [SPARK-43061] [SC-127956][JÁDRO][SQL] Zavedení funkce PartitionEvaluator pro spouštění operátoru SQL
- [SPARK-43067] [SC-127938][SS] Oprava umístění souboru prostředků třídy chyb v konektoru Kafka
- [SPARK-43019] [SC-127844][SQL] Přesunutí pořadí na physicalDataType
- [SPARK-43010] [SC-127759][PYTHON] Migrace chyb sloupců do třídy chyb
- [SPARK-42840] [SC-127782][SQL] Změna
_LEGACY_ERROR_TEMP_2004
chyby na vnitřní chybu - [SPARK-43041] [SC-127765][SQL] Konstruktory výjimek pro kompatibilitu v rozhraní API konektoru
- [SPARK-42939] [SC-127761][SS][CONNECT] Základní streamování rozhraní Python API pro Spark Connect
- [SPARK-42844] [SC-127766][SQL] Aktualizace třídy
_LEGACY_ERROR_TEMP_2008
chyb naINVALID_URL
- [SPARK-42316] [SC-127720][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][CONNECT][PYTHON] Migrace chyb datového rámce Spark Connect do třídy chyb
- [SPARK-42983] [SC-127717][CONNECT][PYTHON] Oprava prvku createDataFrame pro správné zpracování pole numpy s 0 dim
- [SPARK-42955] [SC-127476][SQL] Přeskočit klasifikaciException a zabalit AnalysisException pro SparkThrowable
- [SPARK-42949] [SC-127255][SQL] Zjednodušení kódu pro NAAJ
- [SPARK-43011] [SC-127577][SQL]
array_insert
by mělo selhat s indexem 0 - [SPARK-42974] [SC-127487][JÁDRO] Obnovením
Utils.createTempDir
použijte metoduShutdownHookManager
a vyčistěteJavaUtils.createTempDir
ji. - [SPARK-42964] [SC-127585][SQL] PosgresDialect "42P07" znamená, že tabulka již existuje.
- [SPARK-42978] [SC-127351][SQL] Derby&PG: Přejmenování nemůže kvalifikovat název new-table-name s názvem schématu
- [SPARK-37980] [SC-127668][SQL] Přístup k row_index prostřednictvím _metadata, pokud je to možné v testech
- [SPARK-42655] [SC-127591][SQL] Chyba nesprávného nejednoznačného odkazu na sloupec
- [SPARK-43009] [SC-127596][SQL] Parametrizované
sql()
sAny
konstantami - [SPARK-43026] [SC-127590][SQL] Použití AQE s mezipamětí tabulek mimo exchange
- [SPARK-42963] [SC-127576][SQL] Rozšíření SparkSessionExtensionExtension Pro vložení pravidel do optimalizátoru fáze dotazu AQE
- [SPARK-42918] [SC-127357] Generalizace zpracování atributů metadat v FileSourceStrategy
- [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] Přidání
Catalog
podpory - [SPARK-42997] [SC-127535][SQL] TableOutputResolver musí používat správné cesty sloupců v chybových zprávách pro pole a mapy.
- [SPARK-43006] [SC-127486][PYSPARK] Oprava překlepu ve službě StorageLevel eq()
- [SPARK-43005] [SC-127485][PYSPARK] Oprava překlepu v pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][JÁDRO] Oprava překlepu v ResourceRequest.equals()
- [SPARK-42907] [SC-126984][CONNECT][PYTHON] Implementace funkcí Avro
- [SPARK-42979] [SC-127272][SQL] Definování konstruktorů literálů jako klíčových slov
- [SPARK-42946] [SC-127252][SQL] Redact sensitive data, která jsou vnořena nahrazováním proměnných
- [SPARK-42952] [SC-127260][SQL] Zjednodušení parametru pravidla analyzátoru PreprocessTableCreation a DataSourceAnalysis
- [SPARK-42683] [LC-75] Automatické přejmenování konfliktních sloupců metadat
- [SPARK-42853] [SC-126101][Sledovat] Oprava konfliktů
- [SPARK-42929] [SC-126748][CONNECT] make mapInPandas / mapInArrow podpora "is_barrier"
- [SPARK-42968] [SC-127271][SS] Přidání možnosti pro přeskočení koordinátoru potvrzení v rámci rozhraní API StreamingWrite pro zdroje a jímky DSv2
- [SPARK-42954] [SC-127261][PYTHON][CONNECT] Přidání
YearMonthIntervalType
do klienta PySpark a Spark Connect Pythonu - [SPARK-41359] [SC-127256][SQL] Místo
PhysicalDataType
datového typu v nezabezpečeném objektu - [SPARK-42873] [SC-127262][SQL] Definování typů Spark SQL jako klíčových slov
- [SPARK-42808] [SC-126302][JÁDRO] Vyhněte se získání dostupnýchprocesorů při každém spuštění
MapOutputTrackerMaster#getStatistics
- [SPARK-42937] [SC-126880][SQL]
PlanSubqueries
by měla být nastavenaInSubqueryExec#shouldBroadcast
na hodnotu true. - [SPARK-42896] [SC-126729][SQL][PYTHON] Provedení
mapInPandas
/mapInArrow
režimu bariéry podpory - [SPARK-42874] [SC-126442][SQL] Povolení nové architektury pro testování zlatých souborů pro analýzu pro všechny vstupní soubory
- [SPARK-42922] [SC-126850][SQL] Přechod z náhodného na SecureRandom
- [SPARK-42753] [SC-126369] Opakované použitíexchange odkazuje na neexistující uzly.
- [SPARK-40822] [SC-126274][SQL] Stabilní odvozené aliasy sloupců
- [SPARK-42908] [SC-126856][PYTHON] Vyvolání chyby runtime v případě, že se vyžaduje SparkContext, ale není inicializován
- [SPARK-42779] [SC-126042][SQL] Povolit zápisům v2 indikovat velikost oddílu pro náhodné prohazovací operace
- [SPARK-42914] [SC-126727][PYTHON] Opakované použití
transformUnregisteredFunction
proDistributedSequenceID
. - [SPARK-42878] [SC-126882][CONNECT] Rozhraní API tabulky v sadě DataFrameReader může také přijímat možnosti.
- [SPARK-42927] [SC-126883][JÁDRO] Změna rozsahu
o.a.spark.util.Iterators#size
přístupu naprivate[util]
- [SPARK-42943] [SC-126879][SQL] Pro efektivní délku použijte longTEXT místo TEXTU pro StringType.
- [SPARK-37677] [SC-126855][JÁDRO] Rozbalení může zachovat oprávnění k souborům
- [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] Implementace rozhraní API pro mapování CoGrouped
- [SPARK-41876] [SC-126849][CONNECT][PYTHON] Implementace objektu DataFrame.toLocalIterator
- [SPARK-42930] [SC-126761][JÁDRO][SQL] Změna rozsahu
ProtobufSerDe
přístupu souvisejících implementací naprivate[protobuf]
- [SPARK-42819] [SC-125879][SS] Přidání podpory pro nastavení max_write_buffer_number a write_buffer_size pro RocksDB používané při streamování
- [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] Objasnění komentáře parametrizovaných arg SQL
- [SPARK-42748] [SC-126455][CONNECT] Správa artefaktů na straně serveru
- [SPARK-42816] [SC-126365][CONNECT] Podpora maximální velikosti zprávy až 128 MB
- [SPARK-42850] [SC-126109][SQL] Odebrání duplicitních pravidel CombineFilters v optimalizátoru
- [SPARK-42662] [SC-126355][CONNECT][PS] Přidání zprávy proto pro rozhraní PANDAS API ve výchozím indexu Sparku
- [SPARK-42720] [SC-126136][PS][SQL] Používá výraz pro výchozí index distribuované sekvence místo plánu.
- [SPARK-42790] [SC-126174][SQL] Abstrahujte vyloučenou metodu pro lepší test pro testy dockeru JDBC.
- [SPARK-42900] [SC-126473][CONNECT][PYTHON] Oprava elementu createDataFrame pro dodržování názvů odvození a sloupců
- [SPARK-42917] [SC-126657][SQL] Oprava getUpdateColumnNullabilityQuery pro DerbyDialect
- [SPARK-42684] [SC-125157][SQL] Katalog v2 by ve výchozím nastavení neměl povolit výchozí hodnotu sloupce.
- [SPARK-42861] [SC-126635][SQL] Používejte místo chráněného[sql] privátní[sql] a vyhněte se generování dokumentace k rozhraní API.
- [SPARK-42920] [SC-126728][CONNECT][PYTHON] Povolení testů pro UDF s UDT
- [SPARK-42791] [SC-126617][SQL] Vytvoření nové architektury pro testování zlatých souborů pro analýzu
- [SPARK-42911] [SC-126652][PYTHON] Zavedení dalších základních výjimek
- [SPARK-42904] [SC-126634][SQL] Podpora char/varchar pro katalog JDBC
- [SPARK-42901] [SC-126459][CONNECT][PYTHON] Přesunutí
StorageLevel
do samostatného souboru, abyste se vyhnuli potenciálnímufile recursively imports
- [SPARK-42894] [SC-126451][CONNECT] Podpora
cache
unpersist
storageLevel
/persist
//klienta jvm pro připojení Sparku - [SPARK-42792] [SC-125852][SS] Přidání podpory pro WRITE_FLUSH_BYTES pro RocksDB používané ve stavových operátorech streamování
- [SPARK-41233] [SC-126441][CONNECT][PYTHON] Přidání array_prepend do klienta Spark Connect Pythonu
- [SPARK-42681] [SC-125149][SQL] Uvolnění omezení řazení pro ALTER TABLE ADD|NAHRADIT popisovač sloupce
- [SPARK-42889] [SC-126367][CONNECT][PYTHON] Implementace mezipaměti, zachování, nepersistování a úrovně úložiště
- [SPARK-42824] [SC-125985][CONNECT][PYTHON] Zadejte jasnou chybovou zprávu pro nepodporované atributy JVM.
- [SPARK-42340] [SC-126131][CONNECT][PYTHON] Implementace seskupené mapového rozhraní API
- [SPARK-42892] [SC-126454][SQL] Přesunutí sameType a relevantních metod z dataType
- [SPARK-42827] [SC-126126][CONNECT] Podpora
functions#array_prepend
klienta Scala Connect - [SPARK-42823] [SC-125987][SQL]
spark-sql
Shell podporuje vícedílné obory názvů pro inicializaci. - [SPARK-42817] [SC-125960][JÁDRO] Protokolování názvu služby náhodného prohazování jednou v ApplicationMasteru
- [SPARK-42786] [SC-126438][Připojit] Typový výběr
- [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] Implementace funkce ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][SQL] Podpora Codegenu pro HiveSimpleUDF
- [SPARK-41233] [SC-126110][SQL][PYTHON] Přidání
array_prepend
funkce - [SPARK-42864] [SC-126268][ML][3.4] Nastavit
IsotonicRegression.PointsAccumulator
jako soukromé - [SPARK-42876] [SC-126281][SQL] Hodnota physicalDataType datového typu by měla být privátní[sql]
- [SPARK-42101] [SC-125437][SQL] Podpora AQE InMemoryTableScanExec
- [SPARK-41290] [SC-124030][SQL] Podpora vygenerovaných výrazů ALWAYS AS pro sloupce v příkazech tabulky create/replace
- [SPARK-42870] [SC-126220][CONNECT] Přesunout
toCatalystValue
naconnect-common
- [SPARK-42247] [SC-126107][CONNECT][PYTHON] Oprava funkce UserDefinedFunction, aby měla returnType
- [SPARK-42875] [SC-126258][CONNECT][PYTHON] Oprava toPandas pro správné zpracování typů časových pásem a map
- [SPARK-42757] [SC-125626][CONNECT] Implementace textového souboru pro DataFrameReader
- [SPARK-42803] [SC-126081][JÁDRO][SQL][ML] Místo getParameterTypes.length použijte funkci getParameterCount.
- [SPARK-42833] [SC-126043][SQL] Refaktoring
applyExtensions
vSparkSession
- [SPARK-41765] Vrátit zpět [SC-1235550][SQL] Vyžádat metriky zápisu v1...
- [SPARK-42848] [SC-126105][CONNECT][PYTHON] Implementace Tabulky DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][CONNECT][PYTHON] Podpora UserDefinedType v nástroji Spark Connect
- [SPARK-42818] [SC-125861][CONNECT][PYTHON] Implementace třídy DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][CONNECT] Přidání client_type do zprávy AddArtifactsRequest protobuf
- [SPARK-42772] [SC-125860][SQL] Změna výchozí hodnoty možností JDBC o posunu dolů na true
- [SPARK-42771] [SC-125855][SQL] Refaktoring HiveGenericUDF
- [SPARK-25050] [SC-123839][SQL] Avro: Psaní složitých sjednocení
- [SPARK-42765] [SC-125850][CONNECT][PYTHON] Povolení importu
pandas_udf
zpyspark.sql.connect.functions
- [SPARK-42719] [SC-125225][JÁDRO]
MapOutputTracker#getMapLocation
by měla respektovatspark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][SQL] Zlepšení výkonu oddílů vyřazení
- [SPARK-42689] [SC-125195][JÁDRO][SHUFFLE] Povolení funkce ShuffleDriverComponent deklarovat, jestli jsou data náhodného prohazování spolehlivě uložená
- [SPARK-42726] [SC-125279][CONNECT][PYTHON] Implementovat
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][SQL] Stažení metrik zápisu do WriteFiles v1
- [SPARK-41171] [SC-124191][SQL] Odvození a nasdílení limitu okna přes okno, pokud je oddílSpec prázdný
- [SPARK-42686] [SC-125292][JÁDRO] Odložit formátování pro ladicí zprávy v TaskMemoryManager
- [SPARK-42756] [SC-125443][CONNECT][PYTHON] Pomocná funkce pro převod proto literálu na hodnotu v klientovi Pythonu
- [SPARK-42793] [SC-125627][CONNECT]
connect
modul vyžadujebuild_profile_flags
- [SPARK-42701] [SC-125192][SQL]
try_aes_decrypt()
Přidání funkce - [SPARK-42679] [SC-125438][CONNECT][PYTHON] CreateDataFrame nefunguje se schématem bez hodnoty null.
- [SPARK-42733] [SC-125542][CONNECT][Zpracovat] Zápis bez cesty nebo tabulky
- [SPARK-42777] [SC-125525][SQL] Podpora převodu statistik katalogu TimestampNTZ na statistiky plánu
- [SPARK-42770] [SC-125558][CONNECT] Přidání
truncatedTo(ChronoUnit.MICROS)
, které provedeteSQLImplicitsTestSuite
v javě 17 každodenních testovacích úloh GA - [SPARK-42752] [SC-125550][PYSPARK][SQL] Nastavení výjimek PySpark pro tisk během inicializace
- [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Podpora metody getActiveSession relace spark connect
- [SPARK-42755] [SC-125442][CONNECT] Převod hodnoty literálu faktoru na
connect-common
- [SPARK-42747] [SC-125399][ML] Oprava nesprávného interního stavu LoR a AFT
- [SPARK-42740] [SC-125439][SQL] Oprava chyby, která posunem posunu nebo stránkování není pro některý předdefinovaný dialekt neplatný
- [SPARK-42745] [SC-125332][SQL] Vylepšené AliasAwareOutputExpression funguje s DSv2
- [SPARK-42743] [SC-125330][SQL] Podpora analýzy sloupců TimestampNTZ
- [SPARK-42721] [SC-125371][CONNECT] Zachytávání protokolování RPC
- [SPARK-42691] [SC-125397][CONNECT][PYTHON] Implementace Dataset.smanticHash
- [SPARK-42688] [SC-124922][CONNECT] Přejmenování client_id žádosti o připojení na session_id
- [SPARK-42310] [SC-122792][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][JÁDRO] Optimalizace rutin Utils.bytesToString
- [SPARK-42725] [SC-125296][CONNECT][PYTHON] Make LiteralExpression podporuje parametry pole
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] Podpora parametrizovaného dotazu v poddotazech a CTE
- [SPARK-42697] [SC-125189][WEBI] Oprava /api/v1/applications pro vrácení celkové doby provozu místo 0 pro pole doby trvání
- [SPARK-42733] [SC-125278][CONNECT][PYTHON] Oprava funkce DataFrameWriter.save pro práci bez parametru cesty
- [SPARK-42376] [SC-124928][SS] Zavedení šíření vodoznaku mezi operátory
- [SPARK-42710] [SC-125205][CONNECT][PYTHON] Přejmenujte proto FrameMap na MapPartitions
- [SPARK-37099] [SC-123542][SQL] Zavedení limitu skupiny pro filtr založený na pořadí pro optimalizaci výpočtů top-k
- [SPARK-42630] [SC-125207][CONNECT][PYTHON] Zavedení unparsedDataType a zpoždění parsování řetězce DDL, dokud není k dispozici SparkConnectClient
- [SPARK-42690] [SC-125193][CONNECT] Implementace funkcí analýzy CSV/JSON pro klienta Scala
- [SPARK-42709] [SC-125172][PYTHON] Odebrání předpokladu, že
__file__
je k dispozici - [SPARK-42318] [SC-122648][SPARK-42319][SQL] Přiřadit název LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][SQL] Podpora formátu JSON datového typu analyzátoru "timestamp_ltz" jako TimestampType
- [SPARK-42722] [SC-125175][CONNECT][PYTHON] Python Connect def schema() by neměl ukládat schéma do mezipaměti.
- [SPARK-42643] [SC-125152][CONNECT][PYTHON] Registrace uživatelem definovaných funkcí Javy (agregace)
- [SPARK-42656] [SC-125177][CONNECT][Zpracovat] Oprava skriptu spark-connect
- [SPARK-41516] [SC-123899] [SQL] Povolit dialektům jdbc přepsat dotaz použitý k vytvoření tabulky
- [SPARK-41725] [SC-124396][CONNECT] Dychtivá realizace DF.sql()
- [SPARK-42687] [SC-124896][SS] Lepší chybová zpráva pro nepodporovanou
pivot
operaci ve streamování - [SPARK-42676] [SC-124809][SS] Zápis dočasných kontrolních bodů pro dotazy streamování do místního systému souborů i v případě, že je výchozí služba FS nastavená jinak
- [SPARK-42303] [SC-122644][SQL] Přiřazení názvu k _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] Ujistěte se, že po "intervalu" alespoň jednu časovou jednotku.
- [SPARK-42649] [SC-124576][JÁDRO] Odebrání standardní hlavičky licence Apache z horní části zdrojových souborů třetích stran
- [SPARK-42611] [SC-124395][SQL] Vkládání kontrol délky znaků/varchar pro vnitřní pole během rozlišení
- [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrace do architektury chyb pro rozhraní COLUMN API služby Spark Connect
- [SPARK-42637] [SC-124522][CONNECT] Přidání SparkSession.stop()
- [SPARK-42647] [SC-124647][PYTHON] Změna aliasu pro zastaralé a odebrané typy
- [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver zavře pouze spuštěnou relaci HiveState
- [SPARK-42593] [SC-124405][PS] Zastaralá a odeberte rozhraní API, která budou odebrána v knihovně pandas 2.0.
- [SPARK-41870] [SC-124402][CONNECT][PYTHON] Oprava createDataFrame pro zpracování duplicitních názvů sloupců
- [SPARK-42569] [SC-124379][CONNECT] Vyvolání výjimek pro nepodporované rozhraní API relace
- [SPARK-42631] [SC-124526][CONNECT] Podpora vlastních rozšíření v klientovi Scala
- [SPARK-41868] [SC-124387][CONNECT][PYTHON] Oprava prvku createDataFrame pro podporu doby trvání
- [SPARK-42572] [SC-124171][SQL][SS] Oprava chování StateStoreProvider.validateStateRowFormat
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 13.1.
Prostředí systému
- Operační systém: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
krásnásoup4 | 4.11.1 | černý | 22.6.0 | bělit | 4.1.0 |
blinkr | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknutí | 8.0.4 | kryptografie | 37.0.1 |
cyklista | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
ladění | 1.5.1 | dekoratér | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0.12 | vstupní body | 0,4 |
vykonávající | 1.2.0 | přehled omezujících vlastností | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgety | 1.0.0 | keyring | 23.5.0 | verizonsolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | špatně zamyšlení | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
poznámkový blok | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
balení | 21.3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | bábovka | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Polštář | 9.2.0 |
jádro | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | čistý-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | žádosti | 2.28.1 | lano | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | Šest | 1.16.0 | polévky | 2.3.1 |
ssh-import-id | 5,11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
houževnatost | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.1 | vlastnosti | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | bezobslužné upgrady | 0,1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | kolo | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku Microsoft CRAN na 2023-02-10.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šipka | 10.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backporty | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bitové | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
startování | 1.3-28 | vařit | 1.0-8 | verva | 1.1.3 |
koště | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
volající | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | class | 7.3-21 | Rozhraní příkazového řádku | 3.6.0 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | barevný prostor | 2.1-0 | commonmark | 1.8.1 |
– kompilátor | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
pastelka | 1.5.2 | přihlašovací údaje | 1.3.2 | kudrna | 5.0.0 |
data.table | 1.14.6 | Power BI | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | trávit | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
tři tečky | 0.3.2 | evaluate | 0,20 | fanynky | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | zahraniční | 0.8-82 |
kovat | 0.2.0 | Fs | 1.6.1 | budoucnost | 1.31.0 |
future.apply | 1.10.0 | kloktadlo | 1.3.0 | Generik | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globálních objektů | 0.16.2 |
lepidlo | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | Grafika | 4.2.2 | grDevices | 4.2.2 |
mřížka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | bezpečnostní přilba | 1.2.0 | útočiště | 2.5.1 |
highr | 0.10 | Hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Iterátory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | pletení | 1.42 |
značení | 0.4.2 | později | 1.3.0 | mříž | 0.20-45 |
láva | 1.7.1 | lifecycle | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | sleva | 1.5 |
MŠE | 7.3-58.2 | Matice | 1.5-1 | memoise | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
paralelně | 1.34.0 | pilíř | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | chválit | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Průběh | 1.2.2 |
progressr | 0.13.0 | sliby | 1.2.0.1 | proto | 1.0.0 |
plná moc | 0.4-27 | PS | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | Analýza rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recepty | 1.0.4 |
odvetný zápas | 1.0.1 | rematch2 | 2.1.2 | vzdálená zařízení | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | drzá napodobenina | 0.4.5 | váhy | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | tvar | 1.4.6 |
lesklý | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | prostorový | 7.3-15 | spline křivky | 4.2.2 |
sqldf | 0.4-11 | ČTVEREC | 2021.1 | statistické údaje | 4.2.2 |
Statistiky 4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
přežití | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | časový interval | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | Uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | Waldo | 0.4.0 |
vous | 0.4.1 | withr | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | podpora aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.kofein | kofein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | Nativní verze 1.1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | Nativní verze 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Nativní verze 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | Nativní verze 1.1 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metriky – jádro | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metriky – servlety | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty- common | 4.1.87.Final |
io.netty | obslužná rutina netty | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | břečťan | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | cílové skupiny a poznámky | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | pokračování jetty | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | žerzejové společné | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | Hibernate-validator | 6.1.7.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Podložky | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | kompatibilní s scalatestem | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |