Databricks Runtime 15.2 (EoS)
注意
此 Databricks 執行時間版本已不再受支援。 如需終止支援日期,請參閱 終止支援歷程記錄。 所有支援的 Databricks Runtime 版本和相容性詳情,請參閱 Databricks Runtime 發行說明。
下列版本資訊提供由 Apache Spark 3.5.0 支援之 Databricks 執行環境 15.2 的相關資訊。
Databricks 於 2024 年 5 月發行此版本。
提示
若要查看已達到支援終止的 Databricks Runtime 版本之版本發行說明(EoS),請參閱 支援終止 Databricks Runtime 版本發行說明。 EoS Databricks Runtime 版本已淘汰,且可能未更新。
行為變更
使用真空機制清理 COPY INTO 元數據檔案
在以 VACUUM 寫入的數據表上執行 COPY INTO
,現在會清除與追蹤內嵌檔案相關聯的未參考元數據。 對 COPY INTO
的操作語意沒有任何影響。
湖屋聯合會正式推出 (GA)
在 Databricks Runtime 15.2 和更新版本中,Lakehouse Federation 連接器跨下列資料庫類型正式推出 (GA):
- MySQL
- PostgreSQL
- Amazon Redshift
- 雪花
- Microsoft SQL Server
- Azure Synapse (SQL 數據倉儲)
- Databricks
此版本也引進了下列改善:
在 Snowflake 和 Microsoft SQL Server 連接器中支援單一登錄 (SSO) 驗證。
來自無伺服器計算環境的 SQL Server 連接器的 Azure Private Link 支援。 請參閱 步驟 3:建立私人端點規則。
支援其他下推功能(字串、數學和其他函式)。
已改善不同查詢圖形的下推成功率。
其他下推偵錯功能:
-
EXPLAIN FORMATTED
輸出會顯示已下推的查詢文字。 - 查詢設定檔使用者介面會顯示下推查詢文字、同盟節點識別碼和 JDBC 查詢運行時間(在詳細模式下)。 請參閱 檢視系統產生的聯邦查詢。
-
使用無標頭 CSV 檔案 BY POSITION
進行數據行對應 COPY INTO
在 Databricks Runtime 15.2 和後續版本中,您可以使用 BY POSITION
關鍵詞(或替代語法 ( col_name [ , <col_name> ... ] )
),搭配無標頭的 CSV 文件的 COPY INTO
,來簡化資料來源欄位與目標表格欄位之間的對應。 請參閱 參數。
減少當 Spark 任務發生 Resubmitted
錯誤時的記憶體耗用量。
在 Databricks Runtime 15.2 和更新版本中,當工作失敗併發生 TaskInfo.accumulables()
錯誤時,Spark Resubmitted
方法的傳回值是空的。 方法先前會傳回較早前成功任務嘗試的值。 此行為變更會影響下列取用者:
- 使用
EventLoggingListener
類別的 Spark 任務。 - 自訂 Spark 監聽器。
若要還原先前的行為,請將 spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
設定為 false
。
已停用檢視調適性查詢執行計劃版本
為了減少記憶體耗用量,現在 Spark UI 中預設會停用調適型查詢執行 (AQE) 計劃版本。 若要在 Spark UI 中啟用檢視 AQE 方案版本,請將 spark.databricks.sql.aqe.showPlanChangesInUI.enabled
設定為 true
。
保留查詢的限制會降低,以減少Spark UI記憶體使用量
在 Databricks Runtime 15.2 和更新版本中,若要減少 Azure Databricks 計算中 Spark UI 所耗用的記憶體,UI 中可見查詢數目的限制從 1000 降低到 100。 若要變更限制,請使用 spark.sql.ui.retainedExecutions
Spark 組態來設定新的值。
DESCRIBE HISTORY
現在會顯示使用流動群集的資料表之群集欄位
當您執行 DESCRIBE HISTORY
查詢時,operationParameters
數據行預設會顯示 clusterBy
和 CREATE OR REPLACE
作業的 OPTIMIZE
字段。 對於使用液體群集的 Delta 數據表,[clusterBy
] 字段會填入數據表的叢集數據行。 如果數據表不使用液體群集,則字段是空的。
新功能和改善
主要和外鍵的支援為 GA
Databricks Runtime 中現已全面支援主要鍵和外鍵。 GA 版本包含下列使用主鍵和外鍵所需權限的變更:
- 若要定義外鍵,您必須對外鍵所參考的主鍵所在的數據表擁有
SELECT
許可權。 您不需要擁有包含主鍵的數據表,這在過去是必須的。 - 透過使用
CASCADE
子句刪除主鍵時,不需要對參考該主鍵的外鍵所定義的數據表擁有許可權。 之前,您需要擁有參考數據表。 - 刪除包含約束條件的資料表現在需要與刪除不包含約束條件的資料表相同的權限。
若要瞭解如何搭配資料表或檢視使用主鍵和外鍵,請參閱 CONSTRAINT 子句、ADD CONSTRAINT 子句和 DROP CONSTRAINT 子句。
液體群集是 GA
現在已經普遍提供適用於 Databricks Runtime 15.2 及以上版本的液體群集支援。 請參閱 在 Delta 資料表中使用液體聚類。
類型擴展目前處於公開預覽階段
您現在可以在 Delta Lake 支援的資料表上啟用類型擴充。 啟用類型擴大的數據表允許將數據行類型變更為較寬的數據類型,而不需要重寫基礎數據檔。 請參閱 類型擴展。
新增至 SQL 合併語法的架構演進子句
您現在可以將 WITH SCHEMA EVOLUTION
子句新增至 SQL 合併指令,以在操作中啟用架構演進。 如需合併,請參閱
PySpark 自定義數據源可在公開預覽中取得
您可以使用 Python (PySpark) DataSource API 來建立 PySpark DataSource,以便從自定義數據源讀取,並使用 Python 寫入 Apache Spark 中的自定義數據接收器。 請參閱 PySpark 自定義數據源
applyInPandas 和 mapInPandas 現在可在具有共用存取模式的 Unity 目錄計算上使用
作為 Databricks Runtime 14.3 LTS 維護版本的一部分,現在在執行 Databricks Runtime 14.3 和更新版本的共用存取模式計算上支援 applyInPandas
和 mapInPandas
UDF 類型。
使用 dbutils.widgets.getAll() 取得筆記本中的所有小工具
使用 dbutils.widgets.getAll()
來 在筆記本中取得所有小工具值,。 將多個 Widget 值傳遞至 Spark SQL 查詢時,這特別有用。
真空清查支援
您現在可以在執行 VACUUM
命令於 Delta 資料表時,指定要納入考量的檔案清單。 請參閱 OSS Delta 檔。
支援 Zstandard 壓縮功能
您現在可以使用 zst_compress、zstd_decompress和 try_zstd_decompress 函式來壓縮和解壓縮 BINARY
數據。
錯誤修正
SQL UI 中的查詢計劃現在已正確顯示 PhotonWriteStage
在 SQL UI 中顯示時,查詢計劃中的 write
命令被錯誤顯示為運算子 PhotonWriteStage
。 在此版本中,用戶界面會更新為將 PhotonWriteStage
顯示為一個階段。 這隻是UI變更,不會影響查詢的執行方式。
Ray 已更新以修正啟動Ray叢集的問題
此版本包含已修補的 Ray 版本,旨在修正導致 Ray 叢集無法使用適用於 Machine Learning 的 Databricks Runtime 啟動的重大變更。 這項變更可確保 Ray 功能與 15.2 之前的 Databricks Runtime 版本相同。
已更正 DataFrame.sort()
和 DataFrame.sortWithinPartitions()
功能的錯誤類別
此版本包含 PySpark DataFrame.sort()
和 DataFrame.sortWithinPartitions()
函式的更新,以確保當 ZERO_INDEX
傳遞為索引自變數時,會擲回 0
錯誤類別。 先前,擲回錯誤類別 INDEX_NOT_POSITIVE
。
ipywidgets 從 8.0.4 降級為 7.7.2
若要修正將 ipywidgets 升級至 Databricks Runtime 15.0 中 8.0.4 所產生的錯誤,ipywidgets 已降級為 Databricks Runtime 15.2 中的 7.7.2。 這是先前 Databricks Runtime 版本中所包含的相同版本。
圖書館升級
- 升級的 Python 套件庫:
- 從 3.1.42 到 3.1.43 的 GitPython
- google-api-core 從 2.17.1 升級到 2.18.0
- 從 2.28.1 到 2.29.0 的 google-auth
- google-cloud-storage 從版本 2.15.0 升級到 2.16.0
- googleapis-common-protos 版本更新,從 1.62.0 到 1.63.0
- ipywidgets 從版本 8.0.4 降級到 7.7.2
- mlflow-skinny 從 2.11.1 到 2.11.3
- s3transfer 從 0.10.0 到 0.10.1
- 從 0.4.4 到 0.5.0 的 sqlparse
- typing_extensions 從 4.7.1 到 4.10.0
- 升級的 R 程式庫
- 升級的 Java 程式庫:
- com.amazonaws.aws-java-sdk-autoscaling 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity 版本從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-config,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-core 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-directconnect 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-directory,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-ec2,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-ecs,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-efs,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-elasticache 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder:從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-emr,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-glacier 從 1.12.390 更新到 1.12.610
- com.amazonaws.aws-java-sdk-glue 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-iam,從版本 1.12.390 升級到 1.12.610
- com.amazonaws.aws-java-sdk-importexport 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-kinesis,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-kms:從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-lambda,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-logs 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-opsworks,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-rds,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-redshift 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-route53,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-s3,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-ses,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-simpledb,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-sns,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-sqs,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-ssm,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway 從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-sts,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-support,從 1.12.390 到 1.12.610
- com.amazonaws.aws-java-sdk-workspaces 從 1.12.390 更新到 1.12.610
- com.amazonaws.jmespath-java,從 1.12.390 到 1.12.610
Apache Spark
Databricks Runtime 15.2 包含 Apache Spark 3.5.0。 此版本包含 Databricks Runtime 15.1 (EoS)中包含的所有 Spark 修正和改善,以及下列 Spark 的其他錯誤修正和改進:
- [SPARK-47941] [SC-163568] [SS] [Connect] 將 ForeachBatch 工作者初始化錯誤傳播給 PySpark 的使用者
- [SPARK-47412] [SC-163455][SQL] 新增 LPad/RPad 的定序支援。
- [SPARK-47907] [SC-163408][SQL] 將 bang 放入設定中
- zh-TW: [SPARK-46820] [SC-157093][PYTHON] 通過恢復
new_msg
修正錯誤訊息回歸問題 - [SPARK-47602] [SPARK-47577][SPARK-47598][SPARK-47577]Core/MLLib/資源管理員:結構化記錄移轉
- [SPARK-47890] [SC-163324][CONNECT][PYTHON] 將 Variant 函式新增至 Scala 和 Python。
-
[SPARK-47894] [SC-163086][CORE][WEBUI] 將
Environment
頁面新增至主要 UI - [SPARK-47805] [SC-163459][SS] 實作 MapState 的 TTL
- [SPARK-47900] [SC-163326] 修正檢查隱含定序 UTF8_BINARY 的問題
- [SPARK-47902] [SC-163316][SQL]使計算目前時間* 表達式可折疊
- [SPARK-47845] [SC-163315][SQL][PYTHON][CONNECT] 支援 scala 和 python 分割函式中的數據行類型
- [SPARK-47754] [SC-162144][SQL] Postgres:支持讀取多維度陣列
- [SPARK-47416] [SC-163001][SQL] 將新函式新增至 CollationBenchmark #90339
- [SPARK-47839] [SC-163075][SQL] 修正 RewriteWithExpression 中的匯總錯誤
- [SPARK-47821] [SC-162967][SQL] 實作is_variant_null表達式
-
[SPARK-47883] [SC-163184][SQL] 使用 RowQueue 使
CollectTailExec.doExecute
延遲評估 - [SPARK-47390] [SC-163306][SQL] PostgresDialect 會區分 TIMESTAMP 與 TIMESTAMP_TZ
-
[SPARK-47924] [SC-163282][CORE] 將偵錯記錄新增至
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183][SQL][3.5] 修正 Scala 2.12 中的 ExpressionSet 效能退化
- [SPARK-47565] [SC-161786][PYTHON] PySpark 工作者集區當機復原
- [SPARK-47885] [SC-162989][PYTHON][CONNECT] 使 pyspark.resource 與 pyspark-connect 相容
-
[SPARK-47887] [SC-163122][CONNECT] 從
spark/connect/common.proto
移除未使用的匯入spark/connect/relations.proto
- [SPARK-47751] [SC-161991][PYTHON][CONNECT] 使pyspark.worker_utils與 pyspark-connect 相容
- [SPARK-47691] [SC-161760][SQL] Postgres:在寫入端支援多維度陣列
- [SPARK-47617] [SC-162513][SQL] 新增定序 TPC-DS 測試架構
- [SPARK-47356] [SC-162858][SQL] 新增 ConcatWs & Elt 的支援(所有定序)
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON] 從 Pandas DataFrame 將
dict
推斷為MapType
,以允許建立 DataFrame - [SPARK-47863] [SC-162974][SQL] 修正具排序意識的 startsWith & endsWith 的 ICU 實作
- [SPARK-47867] [SC-162966][SQL] 支援 JSON 掃描中的變數。
- [SPARK-47366] [SC-162475][SQL][PYTHON] Add VariantVal for PySpark
- [SPARK-47803] [SC-162726][SQL] 支持轉換成 variant。
- [SPARK-47769] [SC-162841][SQL] 新增schema_of_variant_agg表達式。
- [SPARK-47420] [SC-162842][SQL] 修正測試輸出
- [SPARK-47430] [SC-161178][SQL] 支援 MapType GROUP BY
- [SPARK-47357] [SC-162751][SQL] 新增對 Upper、Lower、InitCap 的支援(所有排序規則)
- [SPARK-47788] [SC-162729][SS] 確保串流狀態操作的哈希分割相同
- [SPARK-47776] [SC-162291][SS] 不允許在具狀態運算符的索引鍵架構中使用二元不等比較定序
- [SPARK-47673] [SC-162824][SS] 實作 ListState 的 TTL
- [SPARK-47818] [SC-162845][CONNECT] 引進 SparkConnectPlanner 中的計劃快取,以改善分析要求的效能
- [SPARK-47694] [SC-162783][CONNECT] 在用戶端上設定最大訊息大小
- [SPARK-47274] 還原 “[SC-162479][PYTHON][SQL] 提供更多 usef...
- [SPARK-47616] [SC-161193][SQL] 新增使用者文件以從 MySQL 對應 Spark SQL 數據類型
- [SPARK-47862] [SC-162837][PYTHON][CONNECT]修復 proto 檔案生成的問題
- [SPARK-47849] [SC-162724][PYTHON][CONNECT] 變更發布腳本以發布 pyspark-connect
- [SPARK-47410] [SC-162518][SQL] 重構 UTF8String 和 CollationFactory
- [SPARK-47807] [SC-162505][PYTHON][ML] 使 pyspark.ml 與 pyspark-connect 相容
- [SPARK-47707] [SC-161768][SQL] MySQL 連接器/J 5.x JSON 類型的特殊處理
- [SPARK-47765] 還原 “[SC-162636][SQL] 新增 SET 定序以剖析...
- [SPARK-47081] [SC-162151][CONNECT][FOLLOW] 改善進度處理程式的可用性
- [SPARK-47289] [SC-161877][SQL] 允許擴充功能記錄說明計劃中的擴展資訊
- [SPARK-47274] [SC-162479][PYTHON][SQL] 為 PySpark DataFrame API 錯誤提供更多有用的背景
- [SPARK-47765] [SC-162636][SQL] 將 SET 定序新增至剖析器規則
-
[SPARK-47828] [SC-162722][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
失敗且計劃無效 - [SPARK-47812] [SC-162696][CONNECT] 支援 ForEachBatch 工作執行緒的 SparkSession 串行化
- [SPARK-47253] [SC-162698][CORE] 允許 LiveEventBus 停止,而不會完全清空事件佇列
- [SPARK-47827] [SC-162625][PYTHON] 遺漏已被淘汰功能的警告訊息
- [SPARK-47733] [SC-162628][SS] 為 transformWithState 運算符的查詢進度部分新增自定義計量
- [SPARK-47784] [SC-162623][SS] 將 TTLMode 和 TimeoutMode 合併成單一 TimeMode。
- [SPARK-47775] [SC-162319][SQL] 支援變異規格中剩餘的純量類型。
- [SPARK-47736] [SC-162503][SQL] 新增 AbstractArrayType 的支援
- [SPARK-47081] [SC-161758][CONNECT] 支援查詢執行進度
- [SPARK-47682] [SC-162138][SQL] 支援從 variant 轉換。
- [SPARK-47802] [SC-162478][SQL] 將()從意義結構()還原回到意義 *
- [SPARK-47680] [SC-162318][SQL] 新增variant_explode運算式。
-
[SPARK-47809] [SC-162511][SQL]
checkExceptionInExpression
應該檢查每個 codegen 模式的錯誤 -
[SPARK-41811] [SC-162470][PYTHON][CONNECT] 使用
SQLStringFormatter
實作WithRelations
- [SPARK-47693] [SC-162326][SQL] 針對在 UTF8_BINARY_LCASE 定序中使用的 UTF8String 小寫比較,新增優化措施
- [SPARK-47541] [SC-162006][SQL] 複雜類型中的定序字串,以支援反向作業、array_join、concat、map
- [SPARK-46812] [SC-161535][CONNECT][PYTHON] 使 mapInPandas / mapInArrow 支援 ResourceProfile
- [SPARK-47727] [SC-161982][PYTHON] 使 SparkConf 成為 SparkSession 和 SparkContext 的根層級
- [SPARK-47406] [SC-159376][SQL] 處理 MYSQLDialect 中的 TIMESTAMP 和 DATETIME
- [SPARK-47081] 還原 “[SC-161758][CONNECT] 支持查詢執行程式...
- [SPARK-47681] [SC-162043][SQL] 新增schema_of_variant表達式。
- [SPARK-47783] [SC-162222] 新增一些遺漏的 SQLSTATEs 並整理 YY000 的使用...
- [SPARK-47634] [SC-161558][SQL] 新增停用地圖密鑰正規化的舊版支援
- [SPARK-47746] [SC-162022] 在 RocksDBStateEncoder 中實作以序數為基礎的範圍編碼
- [SPARK-47285] [SC-158340][SQL] AdaptiveSparkPlanExec 應該一律使用 context.session
- [SPARK-47643] [SC-161534][SS][PYTHON] 新增 Python 串流來源的 PySpark 測試
- [SPARK-47582] [SC-161943][SQL] 使用變數將 Catalyst logInfo 移轉至結構化記錄架構
- [SPARK-47558] [SC-162007][SS] 狀態 TTL 支援適用於 ValueState
- [SPARK-47358] [SC-160912][SQL][COLLATION] 改善重複表達式支援以傳回正確的數據類型
- [SPARK-47504] [SC-162044][SQL] 解析 StringTypeCollated 的 AbstractDataType simpleStrings
- [SPARK-47719] 還原 “[SC-161909][SQL] 變更 spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][SQL] 實作每個檔案來源的定序篩選下推支援
- [SPARK-47081] [SC-161758][CONNECT] 支援查詢執行進度
- [SPARK-47744] [SC-161999] 新增對範圍編碼器中負值位元組的支援
- [SPARK-47713] [SC-162009][SQL][CONNECT] 修正自我連接失敗
- [SPARK-47310] [SC-161930][SS] 為狀態存放區值部分的多個值新增合併作業的微基準檢驗
- [SPARK-47700] [SC-161774][SQL] 修復使用 treeNode 的錯誤訊息格式問題
- [SPARK-47752] [SC-161993][PS][CONNECT] 使 pyspark.pandas 與 pyspark-connect 兼容
- [SPARK-47575] [SC-161402][SPARK-47576][SPARK-47654] 在結構化記錄架構中實作 logWarning/logInfo API
- [SPARK-47107] [SC-161201][SS][PYTHON] 實作 Python 串流數據源的數據分割讀取器
- [SPARK-47553] [SC-161772][SS] 新增對 transformWithState 運算符 API 的 Java 支援
- [SPARK-47719] [SC-161909][SQL] 變更 spark.sql.legacy.timeParserPolicy 預設值為 CORRECTED
- [SPARK-47655] [SC-161761][SS] 整合定時器與 state-v2 初始狀態的處理
- [SPARK-47665] [SC-161550][SQL] 使用 SMALLINT 將 ShortType 寫入 MYSQL
- [SPARK-47210] [SC-161777][SQL] 新增隱含轉換而不具決定性支援
- [SPARK-47653] [SC-161767][SS] 新增對負數值類型和範圍掃描密鑰編碼器的支援
- [SPARK-46743] [SC-160777][SQL] 常數折疊後計數錯誤
- [SPARK-47525] [SC-154568][SQL] 支援在映射屬性上的子查詢關聯聯結
- [SPARK-46366] [SC-151277][SQL] 在 BETWEEN 中使用 WITH 表達式以避免重複表達式
- [SPARK-47563] [SC-161183][SQL] 在建立時新增地圖正規化
- [SPARK-42040] [SC-161171][SQL] SPJ:引入 V2 輸入分割區的新 API 以報告分割區統計數據
-
[SPARK-47679] [SC-161549][SQL] 直接使用
HiveConf.getConfVars
或 Hive conf 名稱 -
[SPARK-47685] [SC-161566][SQL] 還原
Stream
中Dataset#groupBy
類型的支援 - [SPARK-47646] [SC-161352][SQL] 使 try_to_number 在格式不正確的輸入時傳回 NULL
- [SPARK-47366] [SC-161324][PYTHON] 新增 pyspark 和資料框架 parse_json 別名
-
[SPARK-47491] [SC-161176][CORE] 先將
slf4j-api
jar 新增至類別路徑,優先於jars
目錄中的其他項目 - [SPARK-47270] [SC-158741][SQL] Dataset.isEmpty 將 CommandResults 本地化執行
-
[SPARK-47364] [SC-158927][CORE]
PluginEndpoint
在外掛程式回復單向訊息時發出警告 - [SPARK-47280] [SC-158350][SQL] 移除 ORACLE TIMESTAMP WITH TIMEZONE 的時區限制
- [SPARK-47551] [SC-161542][SQL] 新增variant_get表達式。
-
[SPARK-47559] [SC-161255][SQL] 變體的代碼生成支援
parse_json
- [SPARK-47572] [SC-161351][SQL] 強制執行視窗 partitionSpec 是可排序的。
- [SPARK-47546] [SC-161241][SQL] 改進從 Parquet 讀取 Variant 時的驗證過程
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON] 從 Pandas DataFrame 將
dict
推斷為MapType
,以允許建立 DataFrame - [SPARK-47485] [SC-161194][SQL][PYTHON][CONNECT] 在數據框架 API 中使用定序建立數據行
-
[SPARK-47641] [SC-161376][SQL] 改善
UnaryMinus
和Abs
的效能 -
[SPARK-47631] [SC-161325][SQL] 移除未使用的
SQLConf.parquetOutputCommitterClass
方法 -
[SPARK-47674] [SC-161504][CORE] 預設啟用
spark.metrics.appStatusSource.enabled
- [SPARK-47273] [SC-161162][SS][PYTHON] 實作 Python 數據流寫入器介面。
- [SPARK-47637] [SC-161408][SQL] 在更多地方使用 errorCapturingIdentifier
- [SPARK-47497] 還原「還原『[SC-160724][SQL] 讓 to_csv 支持將陣列/結構/映射/二進制作為格式良好的字串輸出』」
- [SPARK-47492] [SC-161316][SQL] 在 lexer 中擴大空格符規則
- [SPARK-47664] [SC-161475][PYTHON][CONNECT] 使用快取架構驗證數據行名稱
- [SPARK-47638] [SC-161339][PS][CONNECT] 略過 PS 中的數據行名稱驗證
- [SPARK-47363] [SC-161247][SS] 沒有狀態 API v2 的狀態讀取器實作的初始狀態。
- [SPARK-47447] [SC-160448][SQL] 允許讀取 Parquet TimestampLTZ 作為 TimestampNTZ
-
[SPARK-47497] 還原 “[SC-160724][SQL] 讓
to_csv
支援array/struct/map/binary
作為漂亮的字符串輸出” -
[SPARK-47434] [SC-160122][WEBUI] 修正
statistics
中的StreamingQueryPage
連結 - [SPARK-46761] [SC-159045][SQL] JSON 路徑中的引號字串應支援 ? 字元
-
[SPARK-46915] [SC-155729][SQL] 簡化
UnaryMinus
Abs
並對齊錯誤類別 - [SPARK-47431] [SC-160919][SQL] 新增會話層級預設排序規則
- [SPARK-47620] [SC-161242][PYTHON][CONNECT] 新增協助程式函式以排序數據行
- [SPARK-47570] [SC-161165][SS] 整合範圍掃描編碼器變更與定時器實作
-
[SPARK-47497] [SC-160724][SQL] 讓
to_csv
支援array/struct/map/binary
的輸出為漂亮的字符串 -
[SPARK-47562] [SC-161166][CONNECT] 抽取常數處理邏輯
plan.py
- [SPARK-47509] [SC-160902][SQL] 封鎖 Lambda 和較高順序函式中的子查詢表達式
-
[SPARK-47539] [SC-160750][SQL] 使方法的傳回值
castToString
成為Any => UTF8String
- [SPARK-47372] [SC-160905][SS] 新增支援基於範圍掃描的鍵狀態編碼器,供狀態儲存提供者使用
- [SPARK-47517] [SC-160642][CORE][SQL] 優先使用 Utils.bytesToString 進行大小顯示
-
[SPARK-47243] [SC-158059][SS] 更正套件名稱
StateMetadataSource.scala
- [SPARK-47367] [SC-160913][PYTHON][CONNECT] 使用 Spark Connect 支援 Python 數據源
-
[SPARK-47521] [SC-160666][CORE] 從外部儲存裝置讀取洗牌資料期間使用
Utils.tryWithResource
- [SPARK-47474] [SC-160522][CORE] 還原 SPARK-47461 並新增一些註解
- [SPARK-47560] [SC-160914][PYTHON][CONNECT] 避免 RPC 使用快取架構驗證數據行名稱
- [SPARK-47451] [SC-160749][SQL] 支援 to_json(variant)。
- [SPARK-47528] [SC-160727][SQL] 將 UserDefinedType 支援新增至 DataTypeUtils.canWrite
- [SPARK-44708] 還原 “[SC-160734][PYTHON] 轉移 test_reset_index assert_eq 以使用 assertDataFrameEqual”
- [SPARK-47506] [SC-160740][SQL] 新增對定序數據類型所有檔格式的支援
- [SPARK-47256] [SC-160784][SQL] 將名稱指派給錯誤類別_LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][CORE] 修正在 k8s 叢集模式下,主要資源 jar 被新增至 spark.jars 兩次的問題
- [SPARK-47398] [SC-160572][SQL] 擷取 InMemoryTableScanExec 的特點,以允許擴充功能
- [SPARK-47479] [SC-160623][SQL] Optimize 無法將數據寫入具有多個路徑的關係時的錯誤日誌
- [SPARK-47483] [SC-160629][SQL] 新增對定序字串數組匯總和聯結作業的支援
- [SPARK-47458] [SC-160237][CORE] 修正計算障礙階段的最大並行任務的問題
-
[SPARK-47534] [SC-160737][SQL] 將
o.a.s.variant
移至o.a.s.types.variant
- [SPARK-47396] [SC-159312][SQL] 將 TIME WITHOUT TIME ZONE 的一般對應新增至 TimestampNTZType
- [SPARK-44708] [SC-160734][PYTHON] 將 test_reset_index 的 assert_eq 遷移為使用 assertDataFrameEqual
- [SPARK-47309] [SC-157733][SC-160398][SQL] XML:新增值標籤的架構推斷測試
-
[SPARK-47007] [SC-160630][SQL] 新增
MapSort
表達式 -
[SPARK-47523] [SC-160645][SQL] 以
JsonParser#getCurrentName
取代已被取代的JsonParser#currentName
- [SPARK-47440] [SC-160635][SQL] 修正將不支援的語法推送至 MsSqlServer
- [SPARK-47512] [SC-160617][SS] 標記操作類型用於取得/釋放 RocksDB 狀態存放區實例的鎖定
- [SPARK-47346] [SC-159425][PYTHON] 建立 Python 規劃工具背景工作角色時可設定精靈模式
-
[SPARK-47446] [SC-160163][CORE] 在
BlockManager
removeBlockInternal
前發出警告 - [SPARK-46526] [SC-156099][SQL] 透過相互關聯的子查詢支援 LIMIT,其中述詞僅參考外部數據表
-
[SPARK-47461] [SC-160297][CORE] 從
totalRunningTasksPerResourceProfile
移除私人函式ExecutorAllocationManager
- [SPARK-47422] [SC-160219][SQL] 支援陣列操作中的定序字串
-
[SPARK-47500] [SC-160627][PYTHON][CONNECT] 重構欄位名稱處理
plan.py
-
[SPARK-47383] [SC-160144][CORE] 支援
spark.shutdown.timeout
設定 - [SPARK-47342] [SC-159049]還原 “[SQL] 支援 DB2 TIMESTAMP WITH TIME ZONE 的 TimestampNTZ”
-
[SPARK-47486] [SC-160491][CONNECT] 移除未使用的私有
ArrowDeserializers.getString
方法 - [SPARK-47233] [SC-154486][CONNECT][SS][2/2] 用戶端 & 用戶端串流查詢接聽程式的伺服器邏輯
- [SPARK-47487] [SC-160534][SQL] 簡化 AnsiTypeCoercion 中的程序代碼
- [SPARK-47443] [SC-160459][SQL] 支援整理次序的窗口聚合
- [SPARK-47296] [SC-160457][SQL][COLLATION] 對於非二進制定序,不支援的函式將失敗
- [SPARK-47380] [SC-160164][CONNECT] 確定伺服器端 SparkSession 相同
- [SPARK-47327] [SC-160069][SQL] 將排序索引鍵並行測試移至 CollationFactorySuite
- [SPARK-47494] [SC-160495][Doc] 新增關於自 Spark 3.3 以來 Parquet 時間戳推斷行為變更的移轉文件
- [SPARK-47449] [SC-160372][SS] 重構和分割清單/定時器單元測試
-
[SPARK-46473] [SC-155663][SQL] 重複使用
getPartitionedFile
方法 - [SPARK-47423] [SC-160068][SQL] 定序 - 設定定序字元串的作業支援
- [SPARK-47439] [SC-160115][PYTHON] 在 API 參考頁面中記載 Python 數據源 API
-
[SPARK-47457] [SC-160234][SQL] 修正
IsolatedClientLoader.supportsHadoopShadedClient
來處理 Hadoop 3.4+ - [SPARK-47366] [SC-159348][SQL] 實作parse_json。
- [SPARK-46331] [SC-152982][SQL] 從 DateTime 表達式和 version() 表達式子集移除 CodegenFallback
- [SPARK-47395] [SC-159404] 將排序和字元排序規則新增至其他 API 中
-
[SPARK-47437] [SC-160117][PYTHON][CONNECT] 更正
DataFrame.sort*
的錯誤類別 - [SPARK-47174] [SC-154483][CONNECT][SS][1/2] 伺服器端 SparkConnectListenerBusListener 用戶端串流查詢接聽程式
- [SPARK-47324] [SC-158720][SQL] 新增 JDBC 巢狀類型的遺漏時間戳轉換
- [SPARK-46962] [SC-158834][SS][PYTHON] 新增 Python 串流數據源 API 的介面,並實作工作執行程式以運行 Python 串流數據源
- [SPARK-45827] [SC-158498][SQL] 將數據類型檢查移至 CreatableRelationProvider
- [SPARK-47342] [SC-158874][SQL] 支援 DB2 TIMESTAMP WITH TIME ZONE 的 TimestampNTZ 功能
- [SPARK-47399] [SC-159378][SQL] 停用具有定序的表達式上的生成欄位
- [SPARK-47146] [SC-158247][CORE] 執行排序合併連接時可能的線程洩漏
- [SPARK-46913] [SC-159149][SS] 使用 transformWithState 運算符新增處理/事件時間型定時器支援
-
[SPARK-47375] [SC-159063][SQL] 在
JdbcDialect#getCatalystType
中新增時間戳對應的指導方針 - [SPARK-47394] [SC-159282][SQL] 支援適用於 H2Dialect 的 TIMESTAMP WITH TIME ZONE
- [SPARK-45827] 還原 “[SC-158498][SQL] 將數據類型檢查移至 ...
- [SPARK-47208] [SC-159279][CORE] 允許覆寫基底額外負荷記憶體
- [SPARK-42627] [SC-158021][SPARK-26494][SQL] 支援 Oracle TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-47055] [SC-156916][PYTHON] 升級 MyPy 1.8.0
- [SPARK-46906] [SC-157205][SS] 新增對串流處理中的狀態運算元變更檢查
- [SPARK-47391] [SC-159283][SQL] 移除 JDK 8 的測試用例因應措施
- [SPARK-47272] [SC-158960][SS] 新增 State API v2 的 MapState 實作。
- [SPARK-47375] [SC-159278][Doc][FollowUp] 修正 JDBC preferTimestampNTZ 選項檔中的錯誤
- [SPARK-42328] [SC-157363][SQL] 從錯誤類別移除_LEGACY_ERROR_TEMP_1175
- [SPARK-47375] [SC-159261][Doc][FollowUp] 更正 JDBC 檔中的 preferTimestampNTZ 選項描述
- [SPARK-47344] [SC-159146] 擴展INVALID_IDENTIFIER錯誤,不僅攔截未加引號的標識符中的 '-',還修正“IS”問題! 「NULL」等。
- [SPARK-47340] [SC-159039][SQL] 將 StringType 資料類型名稱 中的 “collate” 變更為小寫
- [SPARK-47087] [SC-157077][SQL] 在組態值檢查中以錯誤類別升起 Spark 的例外。
- [SPARK-47327] [SC-158824][SQL] 修正 ICU 定序器中的線程安全性問題
- [SPARK-47082] [SC-157058][SQL] 修正超出界限的錯誤狀況
- [SPARK-47331] [SC-158719][SS] 以任意狀態 API v2 的 SQL 編碼器為基礎的案例類別/基本類型/POJO 串行化。
- [SPARK-47250] [SC-158840][SS] 為 RocksDB 狀態提供者及其使用的欄位族新增其他驗證和 NERF 變更
- [SPARK-47328] [SC-158745][SQL] 將UCS_BASIC定序重新命名為 UTF8_BINARY
-
[SPARK-47207] [SC-157845][CORE] 支援
spark.driver.timeout
和DriverTimeoutPlugin
- [SPARK-47370] [SC-158956][Doc] 新增遷移文件:Parquet 檔案中 TimestampNTZ 類型推斷
- [SPARK-47309] [SC-158827][SQL][XML] 新增架構推斷單元測試
-
[SPARK-47295] [SC-158850][SQL] 已針對
startsWith
和endsWith
函式新增 ICU StringSearch -
[SPARK-47343] [SC-158851][SQL] 修正 NPE 時,
sqlString
變數值為 null 字符串立即執行 -
[SPARK-46293] [SC-150117][CONNECT][PYTHON] 使用
protobuf
可轉移的相依性 -
[SPARK-46795] [SC-154143][SQL] 以
UnsupportedOperationException
取代SparkUnsupportedOperationException
中的sql/core
- [SPARK-46087] [SC-149023][PYTHON] 在文件和開發需求中同步 PySpark 相依性
- [SPARK-47169] [SC-158848][SQL] 停用定序數據行上的貯體
- [SPARK-42332] [SC-153996][SQL] 將要求變更為 ComplexTypeMergingExpression 中的 SparkException
- [SPARK-45827] [SC-158498][SQL] 將數據類型檢查移至 CreatableRelationProvider
- [SPARK-47341] [SC-158825][Connect] 在 SparkConnectClientSuite 的幾個測試中將命令替換為關聯。
- [SPARK-43255] [SC-158026][SQL] 將錯誤類別_LEGACY_ERROR_TEMP_2020替換為內部錯誤
- [SPARK-47248] [SC-158494][SQL][COLLATION] 改善的字元串函式支援:包含
-
[SPARK-47334] [SC-158716][SQL] 使
withColumnRenamed
重用withColumnsRenamed
的實作 - [SPARK-46442] [SC-153168][SQL] DS V2 支援將 PERCENTILE_CONT 和 PERCENTILE_DISC 下推
- [SPARK-47313] [SC-158747][SQL] 在 QueryExecution.toInternalError 中添加了對 scala.MatchError 的處理
- [SPARK-45827] [SC-158732][SQL] 新增 Java 的可變異單例類型
- [SPARK-47337] [SC-158743][SQL][DOCKER] 將 DB2 docker 映射版本升級至 11.5.8.0
- [SPARK-47302] [SC-158609][SQL] Collate 關鍵詞作為標識符
-
[SPARK-46817] [SC-154196][CORE] 藉由新增
spark-daemon.sh
命令修正decommission
的使用方法 -
[SPARK-46739] [SC-153553][SQL] 新增錯誤類別
UNSUPPORTED_CALL
-
[SPARK-47102] [SC-158253][SQL] 新增
COLLATION_ENABLED
組態旗標 - [SPARK-46774] [SC-153925][SQL][AVRO] 在 Avro 寫入作業中使用 mapreduce.output.fileoutputformat.compress,而非過時的 mapred.output.compress
- [SPARK-45245] [SC-146961][PYTHON][CONNECT] PythonWorkerFactory:若工作未連回則逾時。
- [SPARK-46835] [SC-158355][SQL][定序] 聯結非二進制定序的支援
- [SPARK-47131] [SC-158154][SQL][COLLATION] 字串函式支援:contains,startswith,endswith
- [SPARK-46077] [SC-157839][SQL] 考慮 JdbcDialect.compileValue 中 TimestampNTZConverter 所產生的類型。
- [SPARK-47311] [SC-158465][SQL][PYTHON] 隱藏 PySpark 不在 Python 路徑中的 Python 例外狀況
- [SPARK-47319] [SC-158599][SQL] 改善 missingInput 計算
- [SPARK-47316] [SC-158606][SQL] 修正 Postgres 陣列中的 TimestampNTZ
- [SPARK-47268] [SC-158158][SQL][定序] 支援使用定序重新分割
- [SPARK-47191] [SC-157831][SQL] 避免在解除快取資料表/檢視時進行不必要的關聯性查詢
- [SPARK-47168] [SC-158257][SQL] 使用非預設排序字串時停用 parquet 篩選下推
-
[SPARK-47236] [SC-158015][CORE] 修正
deleteRecursivelyUsingJavaIO
略過不存在的檔案輸入 - [SPARK-47238] [SC-158466][SQL] 藉由在 WSCG 中建立廣播變數來減少執行程式記憶體使用量
- [SPARK-47249] [SC-158133][CONNECT] 修正錯誤,所有連接操作不論其實際狀態,均被誤判為被放棄。
- [SPARK-47202] [SC-157828][PYTHON] 修正因錯字導致具有 tzinfo 的日期時間中斷問題
- [SPARK-46834] [SC-158139][SQL][定序] 支援聚合函數
- [SPARK-47277] [SC-158351][3.5] PySpark util 函式 assertDataFrameEqual 不應該支援串流 DF
- [SPARK-47155] [SC-158473][PYTHON] 修正錯誤類別問題
- [SPARK-47245] [SC-158163][SQL] 改善INVALID_PARTITION_COLUMN_DATA_TYPE的錯誤碼
-
[SPARK-39771] [SC-158425][CORE] 在建立過多的 shuffle 區塊時,在
Dependency
中新增警告訊息。 - [SPARK-47277] [SC-158329] PySpark util 函式 assertDataFrameEqual 不應該支援串流 DF
- [SPARK-47293] [SC-158356][CORE] 使用 sparkSchema 建置 batchSchema,而不是逐一附加
- [SPARK-46732] [SC-153517][CONNECT]讓子查詢/廣播線程與 Connect 的工件管理搭配運作
- [SPARK-44746] [SC-158332][PYTHON] 為接受輸入數據表的函數新增更多 Python UDTF 文件
- [SPARK-47120] [SC-157517][SQL] Null 比較從 Parquet 篩選中的 NPE 產生的子查詢向下推下數據篩選
-
[SPARK-47251] [SC-158291][PYTHON] 限制
args
命令的sql
參數中無效的類型 -
[SPARK-47251] 還原 “[SC-158121][PYTHON] 封鎖
args
命令的sql
參數無效的類型” - [SPARK-47015] [SC-157900][SQL] 停用排序過的欄位上的分區
-
[SPARK-46846] [SC-154308][CORE] 確保
WorkerResourceInfo
明確地擴充Serializable
- [SPARK-46641] [SC-156314][SS] 新增 maxBytesPerTrigger 閾值
-
[SPARK-47244] [SC-158122][CONNECT]
SparkConnectPlanner
讓內部函式成為私有 -
[SPARK-47266] [SC-158146][CONNECT] 讓
ProtoUtils.abbreviate
傳回與輸入相同的類型 - [SPARK-46961] [SC-158183][SS] 使用 ProcessorContext 儲存和擷取句柄
- [SPARK-46862] [SC-154548][SQL] 在多行模式中停用 CSV 欄位修剪
-
[SPARK-46950] [SC-155803][CORE][SQL] 對齊
not available codec
錯誤類別 -
[SPARK-46368] [SC-153236][CORE] 在 REST 提交 API 中支援
readyz
- [SPARK-46806] [SC-154108][PYTHON] 在自變數類型錯誤時改善 spark.table 的錯誤訊息
- [SPARK-47211] [SC-158008][CONNECT][PYTHON] 修正忽略的 PySpark Connect 字符串定序
-
[SPARK-46552] [SC-151366][SQL] 用
UnsupportedOperationException
取代SparkUnsupportedOperationException
在catalyst
中 - [SPARK-47147] [SC-157842][PYTHON][SQL] 修正 PySpark 定序字符串轉換錯誤
- [SPARK-47144] [SC-157826][CONNECT][SQL][PYTHON] 藉由新增 collateId protobuf 字段修正 Spark Connect 定序錯誤
- [SPARK-46575] [SC-153200][SQL][HIVE] 使 HiveThriftServer2.startWithContext DevelopApi 可重試,並修正 ThriftServerWithSparkContextInHttpSuite 的不穩定性
- [SPARK-46696] [SC-153832][CORE] 在 ResourceProfileManager 中,函數調用應在變數宣告之後發生
- [SPARK-47214] [SC-157862][Python] 建立 UDTF API 以區分常數 NULL 自變數和其他類型的自變數
- [SPARK-46766] [SC-153909][SQL][AVRO] ZSTD 緩衝區池支援 AVRO 數據源
- [SPARK-47192] [SC-157819] 轉換部分 _LEGACY_ERROR_TEMP_0035 錯誤
- [SPARK-46928] [SC-157341][SS] 新增對任意狀態 API v2 中 ListState 的支援。
-
[SPARK-46881] [SC-154612][CORE] 支援
spark.deploy.workerSelectionPolicy
-
[SPARK-46800] [SC-154107][CORE] 支援
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014][SQL] 修正使用不正確 parquet 壓縮編解碼器 lz4raw 的錯誤
- [SPARK-46791] [SC-154018][SQL] 支援 JavaTypeInference 中的 Java 集合
-
[SPARK-46332] [SC-150224][SQL] 將
CatalogNotFoundException
移轉至錯誤類別CATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616][SQL] 使 v2 的預設值從較寬的類型縮小的行為與 v1 相同
-
[SPARK-46664] [SC-153181][CORE] 改善
Master
,以在零工作執行緒和應用的情況下快速復原 - [SPARK-46759] [SC-153839][SQL][AVRO] Codec xz 和 zstandard 支援 avro 檔案的多個壓縮層級
Databricks ODBC/JDBC 驅動程序支援
Databricks 支援在過去 2 年中發行的 ODBC/JDBC 驅動程式。 請下載最近發行的驅動程式和升級 (下載 ODBC,下載 JDBC)。
請參閱 Databricks Runtime 15.2 維護更新。
系統環境
- 操作系統:Ubuntu 22.04.4 LTS
- Java:Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.11.0
- R:4.3.2
- Delta Lake: 3.2.0
已安裝的 Python 庫
圖書館 | 版本 | 圖書館 | 版本 | 圖書館 | 版本 |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
Azure 儲存 Blob | 12.19.1 | 微軟 Azure 儲存檔案資料湖 (Azure Storage File Data Lake) | 12.14.0 | 回呼 | 0.2.0 |
黑 | 23.3.0 | 閃爍器 | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
點擊 | 8.0.4 | cloudpickle | 2.2.1 | 通訊 | 0.1.2 |
contourpy | 1.0.5 | 密碼學 | 41.0.3 | 自行車騎士 | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | 裝飾者 | 5.1.1 | distlib | 0.3.8 |
入口點 | 0.4 | 執行 | 0.8.3 | 面向概述 | 1.1.1 |
檔案鎖定 | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | Google 認證 | 2.29.0 |
google-cloud-core | 2.4.1 | Google 雲端儲存服務 | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | 吉普尼 | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | 鑰匙圈 | 23.5.0 | kiwisolver(開源程式庫) | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy (一個 Python 的科學計算庫) | 1.23.5 | oauthlib | 3.2.0 | 包裝 | 23.2 |
熊貓 | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
替罪羊 | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
枕頭 | 9.4.0 | 果仁 | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
請求 | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | 六 | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
堆疊資料 | 0.2.0 | statsmodels | 0.14.0 | 韌性 | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | 龍捲風 | 6.3.2 |
traitlets(特性描述器) | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | 無人值守升級 | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
輪子 | 0.38.4 | zipp | 3.11.0 |
已安裝的 R 函式庫
R 函式庫從 Posit 套件管理員 CRAN 快照集安裝。
圖書館 | 版本 | 圖書館 | 版本 | 圖書館 | 版本 |
---|---|---|---|---|---|
箭 | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
回溯移植 | 1.4.1 | 基礎 | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | 位元 | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | 靴子 | 1.3-28 |
釀造 | 1.0-10 | 活力 | 1.1.4 | 掃帚 | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
插入號 | 6.0-94 | cellranger (細胞測序工具) | 1.1.0 | chron | 2.3-61 |
類 | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
時鐘 | 0.7.0 | 簇 | 2.1.4 | codetools | 0.2-19 |
色彩空間 | 2.1-0 | commonmark | 1.9.1 | 編譯器 | 4.3.2 |
設定 | 0.3.2 | 矛盾 | 1.2.0 | cpp11 | 0.4.7 |
蠟筆 | 1.5.2 | 憑證 | 2.0.1 | 捲曲 | 5.2.0 |
data.table | 1.15.0 | 資料集 | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
圖表 | 1.6.5 | diffobj | 0.3.5 | 摘要 | 0.6.34 |
向下照明 | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | 省略號 | 0.3.2 | 評估 | 0.23 |
粉絲 | 1.0.6 | 顏色 | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
外國 | 0.8-85 | 鍛造 | 0.2.0 | fs | 1.6.3 |
未來 | 1.33.1 | future.apply | 1.11.1 | 漱口 | 1.5.2 |
泛型 | 0.1.3 | 格特 | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | 全域 | 0.16.2 | 膠 | 1.7.0 |
Google 雲端硬碟 | 2.1.1 | googlesheets4 | 1.1.1 | 高爾 | 1.0.1 |
圖形 | 4.3.2 | grDevices | 4.3.2 | 網 格 | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | 燃氣輪機 | 0.10.1 |
gtable | 0.3.4 | 安全帽 | 1.3.1 | 避風港 | 2.5.4 |
更高 | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | 識別碼 | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | 迭代器 | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | 多汁果汁 | 0.1.0 |
KernSmooth | 2.23-21 | 針織機 | 1.45 | 標籤 | 0.4.3 |
稍後 | 1.3.2 | 格子 | 0.21-8 | 熔岩 | 1.7.3 |
生命週期 | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | 質量 | 7.3-60 |
矩陣 | 1.5-4.1 | 記憶化 | 2.0.1 | 方法 | 4.3.2 |
mgcv | 1.8-42 | 啞劇 | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
蒙塞爾 | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016年8月-2017年1月1日 | openssl | 2.1.1 | 平行 | 4.3.2 |
並行地 | 1.36.0 | 支柱 | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | 讚美 | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | 進展 | 1.2.3 |
progressr | 0.14.0 | 承諾 | 1.2.1 | 原型 | 1.0.0 |
代理 | 0.4-27 | 附言 | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | 抹布 | 1.2.7 | randomForest(隨機森林) | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | 可反應的表格 | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
食譜 | 1.0.9 | 重賽 | 2.0.0 | 複賽2 | 2.1.2 |
遙控器 | 2.4.2.1 | 可重現範例 | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
尺度 | 1.3.0 | selectr | 0.4-2 | 會話資訊 | 1.2.2 |
形狀 | 1.4.6 | 閃亮 | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | 空間 | 7.3-15 | 樣條 | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | 統計 | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
生存 | 3.5-5 | 斯瓦格 | 3.33.1 | sys | 3.4.2 |
系統字體 | 1.0.5 | tcltk(程式設計工具包) | 4.3.2 | testthat | 3.2.1 |
文字排版 | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | 時間變更 | 0.3.0 |
時間日期 | 4032.109 | tinytex | 0.49 | 工具 | 4.3.2 |
tzdb | 0.4.0 | 網址檢查器 | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid(全域唯一識別碼) | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | 瓦爾多 | 0.5.2 | 鬍鬚 | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
安裝的 Java 與 Scala 函式庫(Scala 2.12 叢集版本)
群組標識碼 | 工件識別碼 | 版本 |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-資料匯入匯出 | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning (機器學習) | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | 流 | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | 同學 | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (一個用於CBOR數據格式的Java庫) | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | 咖啡因 | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 原生 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 原生 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 原生 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 原生 |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | 小 叮噹 | 1.9.0 |
com.google.errorprone | 易錯註釋 | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23年5月26日 |
com.google.guava | 番石榴 | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | 分析器 | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | Azure Data Lake Store SDK(Azure 資料湖存儲開發工具包) | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | 設定 | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity 解析器 | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | 基本線性代數子程序 (BLAS) | 3.0.3 |
dev.ludovic.netlib | lapack(數值線性代數程式庫) | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | 空氣壓縮機 | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | 度量標註 | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | 指標-健康檢查 | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | 簡易客戶端_通用 | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | 收藏家 | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | 啟動 | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | 交易API | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | 醃製品 | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | 遠端茶-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | 螞蟻 | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | 箭頭格式 | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | 箭頭向量 | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | 策展客戶 | 2.13.0 |
org.apache.curator | curator-framework (策展人框架) | 2.13.0 |
org.apache.curator | 策展人-食譜 | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | 德比 | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | 常春藤 | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | 觀眾註釋 | 0.13.0 |
org.apache.zookeeper | 動物園管理員 | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | 品質檢查器 | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket 伺服器 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | 球衣-通用 | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | 附註 | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | 墊片 | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | 測試介面 | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest 相容 | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |