Databricks Runtime 14.3 LTS
下列版本資訊提供由 Apache Spark 3.5.0 提供之 Databricks Runtime 14.3 LTS 的相關信息。
Databricks 於 2024 年 2 月發行此版本。
注意
LTS 表示此版本受到長期支援。 請參閱 Databricks Runtime LTS 版本生命週期 (英文)。
提示
若要查看已達到終止支援 (EoS) 之 Databricks Runtime 版本的版本資訊,請參閱終止支援 Databricks Runtime 版本資訊。 EoS Databricks Runtime 版本已淘汰,且可能未更新。
新功能和改進
- 共用叢集上的 PySpark 使用者定義函式 (UDF) 中的工作區檔案系統支援
-
支援不使用 Photon 的刪除向量
MERGE
優化 - Spark 目錄 API 現在完全支援共用存取模式
- Delta UniForm 現已正式推出
- 新的 SQL 函式 EXECUTE IMMEDIATE
- 重新計算 Delta 表格的數據略過統計
- 具狀態串流查詢的查詢狀態資訊
- 在共用叢集上使用 Microsoft Kafka 驗證的 Entra 識別碼
- 已新增檔案和分割區剪除的支援,以改善查詢效能
- 在 SQL 工作階段中宣告暫存變數
- Thriftserver 進行更新,移除不使用的功能
- 在 Unity Catalog 卷中使用信任憑證庫和密鑰庫檔案
- 原生 XML 檔案格式支援 (公開預覽)
- Cloudflare R2 記憶體的支援 (公開預覽)
- Spark 和 dbutils 在具有共用存取權限的 Unity Catalog 叢集上存取工作區檔案的支援
- Init 腳本和叢集庫支援共享存取 Unity 目錄叢集
共用叢集上的 PySpark 使用者定義函式 (UDF) 中的工作區檔案系統支援
共用叢集上的 PySpark UDF 現在可以從 Git 資料夾、工作區檔案或 UC 磁碟區匯入 Python 模組。
如需在 Git 資料夾或工作區檔案中使用模組的詳細資訊,請參閱 使用 Python 和 R 模組。
支援不使用 Photon 的刪除向量 MERGE
優化
作業不再需要 MERGE
Photon 來利用刪除向量優化。 請參閱什麼是刪除向量?。
Spark 資料目錄 API 現在在共用存取模式中完全支援
您現在可以在以共用存取模式設定的 spark.catalog
計算上,在 PYTHON 和 Scala 中使用 API 中的所有函式。
Delta UniForm 現已正式推出
UniForm 現已正式推出,並使用 IcebergCompatV2
數據表功能。 您現在可以在現有的數據表上啟用或升級 UniForm。 請參閱 使用 Iceberg 用戶端讀取 Delta 數據表。
新的 SQL 函式 EXECUTE IMMEDIATE
您現在可以使用 EXECUTE IMMEDIATE 語法來支援 SQL 中的參數化查詢。 請參閱 EXECUTE IMMEDIATE。
重新計算 Delta 表的資料跳過統計數據
您現在可以在變更用於資料跳過的欄位後,重新計算儲存在 Delta 日誌中的統計數據。 請參閱 中有關指定 Delta 統計資料欄的。
具狀態串流查詢的查詢狀態資訊
您現在可以查詢結構化串流狀態數據和元數據。 請參閱 讀取結構化串流狀態資訊。
在共用叢集上使用 Microsoft Kafka 驗證的 Entra 識別碼
您現在可以透過 OAuth 驗證事件中樞服務,並在以共用存取模式設定的計算上,使用 Microsoft Entra 識別符。 請參閱使用 Microsoft Entra ID 和 Azure 事件中樞進行服務主體驗證。
已新增檔案和分割區剪除的支援,以改善查詢效能
為了加速某些在 JOIN 條件中依賴 Null 寬容相等的查詢,我們現在支援在 JOIN 中 DynamicFilePruning
運算子的 DynamicPartitionPruning
和 EqualNullSafe
。
在 SQL 工作階段中宣告暫存變數
此版本引進了在會話中宣告暫時變數的功能,這些變數可以被設定,然後從查詢中參照。 請參閱<變數>。
Thriftserver 更新以移除未使用的功能
Thriftserver 程式代碼已更新,以移除過時功能的程序代碼。 由於這些變更,不再支援下列設定:
- 不再支援使用
hive.aux.jars.path
屬性設定的 Hive 輔助 JAR 的hive-thriftserver
連接。 - Hive 全域 init 檔案(
.hiverc
),其位置是透過hive.server2.global.init.file.location
屬性或HIVE_CONF_DIR
環境變數來設定,現已不再支援hive-thriftserver
連線。
在 Unity Catalog 卷中使用信任庫和金鑰庫檔案
您現在可以使用 Unity 目錄磁碟區中的信任存放區和金鑰存放區檔案,向 Confluent 架構登錄進行驗證,以取得 avro 或通訊協定緩衝區數據。 請參閱avro或通訊協定緩衝區的檔。
原生 XML 檔案格式支援 (公開預覽)
原生 XML 檔案格式支援現在是公開預覽。 XML 檔案格式支援可允許擷取、查詢和剖析 XML 資料,以進行批次處理或串流處理。 它可以自動推斷和演進架構和數據類型、支援 SQL 運算式,例如 from_xml
,而且可以產生 XML 檔。 它不需要外部 JAR 檔,而且能與自動載入器、read_files
、COPY INTO
和 Delta 即時數據表順暢地運作。 請參閱<讀取和寫入 XML 檔案>。
Cloudflare R2 記憶體的支援 (公開預覽)
您現在可以使用 Cloudflare R2 作為 Unity 目錄中註冊數據的雲端記憶體。 Cloudflare R2 主要適用於 Delta Sharing 的使用案例,這些案例中您想要避免雲端提供者在數據跨越區域時收取的數據傳出費用。 R2 儲存體支援 AWS S3、Azure Data Lake Storage Gen2 與 Google Cloud Storage 中支援的所有 Databricks 資料和 AI 資產。 請參閱使用 Cloudflare R2 複本或將儲存體移轉至 R2 和建立儲存體認證以便連線至 Cloudflare R2。
Spark 和 dbutils 存取支援共用存取的 Unity 目錄叢集上的工作區檔案
共用存取模式的 Unity Catalog 叢集現在支援 Spark 和 dbutils
的工作區檔案讀取和寫入能力。 請參閱 使用工作區檔案。
共享存取的 Unity Catalog 叢集上的初始化腳本和叢集庫支援
連結庫升級
- 升級的 Python 連結庫:
- fastjsonschema 從 2.19.0 到 2.19.1
- filelock from 3.12.4 to 3.13.1
- googleapis-common-protos,從 1.61.0 到 1.62.0
- 封裝從 22.0 到 23.2
- 升級的 R 連結庫:
- foreign from 0.8-82 to 0.8-85
- nlme 從 3.1-162 到 3.1-163
- 從 4.1.19 到 4.1.21 的 rpart
- 升級的 Java 程式庫:
- com.databricks.databricks-sdk-java 從 0.7.0 到 0.13.0
- org.apache.orc.orc-core,從 1.9.1-shaded-protobuf 到 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce 從 1.9.1-shaded-protobuf 到 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims from 1.9.1 到 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12,從 2.9.0 到 2.11.0
Apache Spark
Databricks Runtime 14.3 包含 Apache Spark 3.5.0。 此版本包含 Databricks Runtime 14.2 (EoS) 中包含的所有 Spark 修正和改善,以及下列對 Spark 所做的其他錯誤修正和改進:
- [SPARK-46541] [SC-153546][SQL][CONNECT] 修正自我聯結中模棱兩可的欄位參考
- [SPARK-45433] 還原 “[SC-145163][SQL] 修正 CSV/JSON 架構推斷...
- [SPARK-46723] [14.3][SASP-2792][SC-153425][CONNECT][SCALA]讓 addArtifact 可重試
- [SPARK-46660] [SC-153391][CONNECT]ReattachExecute 要求更新 SessionHolder 的活躍度
- [SPARK-46670] [SC-153273][PYTHON][SQL]藉由分隔靜態和運行時間 Python 數據源,讓 DataSourceManager 能夠自我複製
- [SPARK-46720] [SC-153410][SQL][PYTHON]重構 Python 數據源以與其他 DSv2 內建數據源一致
- [SPARK-46684] [SC-153275][PYTHON][CONNECT]修正 CoGroup.applyInPandas/Arrow 以正確傳遞自變數
- [SPARK-46667] [SC-153271][SC-153263][SQL]XML:在多個 XML 數據源上擲回錯誤
- [SPARK-46382] [SC-151881][SQL]XML:預設 ignoreSurroundingSpaces 為 true
-
[SPARK-46382] [SC-153178][SQL] XML:
ignoreSurroundingSpaces
更新檔 - [SPARK-45292] 恢復 “[SC-151609][SQL][HIVE] 從 IsolatedClientLoader 的共用類別中移除 Guava”
- [SPARK-45292] [SC-151609][SQL][HIVE] 從 IsolatedClientLoader 的共用類別中移除 Guava 庫
-
[SPARK-46311] [SC-150137][CORE]在期間記錄驅動程式的最終狀態
Master.removeDriver
- [SPARK-46413] [SC-151052][PYTHON]驗證箭頭 Python UDF 的 returnType
- [SPARK-46633] [WARMFIX][SC-153092][SQL]修正 Avro 讀取器以處理零長度區塊
- [SPARK-46537] [SC-151286][SQL]將 NPE 和判斷提示從命令轉換成內部錯誤
- [SPARK-46179] [SC-151678][SQL]新增 CrossDbmsQueryTestSuites,從 Postgres 開始,針對其他 DBMS 的黃金檔案執行其他 DBMS
- [SPARK-44001] [SC-151413][PROTOBUF]新增選項以允許解除包裝 Protobuf 已知的包裝函式類型
- [SPARK-40876] [SC-151786][SQL]在 Parquet 讀取器中擴大小數位數的類型提升
-
[SPARK-46605] [SC-151769][CONNECT]在連線模組中建立
lit/typedLit
函式支援s.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005][SQL] 常值驗證不應該向下切入至 Null 字段
-
[SPARK-37039] [SC-153094][PS]修正
Series.astype
以正常運作遺漏值 -
[SPARK-46312][SC-150163][CORE]在中使用
lower_camel_case
store_types.proto
- [SPARK-46630] [SC-153084][SQL]XML:在寫入時驗證 XML 項目名稱
- [SPARK-46627] [SC-152981][SS][UI]修正串流 UI 上的時程表工具提示內容
- [SPARK-46248] [SC-151774][SQL]XML:支援 ignoreCorruptFiles 和 ignoreMissingFiles 選項
- [SPARK-46386] [SC-150766][PYTHON]改善觀察判斷提示 (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][CORE] 更新 AccumulatorV2 中 isZero 的註解
- [SPARK-46601] [SC-151785][CORE]修正 handleStatusMessage 中的記錄錯誤
- [SPARK-46568] [SC-151685][PYTHON]將 Python 數據源選項設為不區分大小寫的字典
- [SPARK-46611] [SC-151783][CORE] 使用 DateTimeFormatter 取代 SimpleDateFormat 來移除 ThreadLocal
-
[SPARK-46604] [SC-151768][SQL]提出
Literal.apply
支援s.c.immuable.ArraySeq
- [SPARK-46324] [SC-150223][SQL][PYTHON]修正 pyspark.sql.functions.user 和 session_user的輸出名稱
- [SPARK-46621] [SC-151794][PYTHON]在 Py4J 擷取的例外狀況中從 Exception.getMessage 尋址 Null
- [SPARK-46598] [SC-151767][SQL] OrcColumnarBatchReader 應該遵守為遺漏數據行建立數據行向量時的記憶體模式
- [SPARK-46613] [SC-151778][SQL][PYTHON]無法查閱 Python 數據源時記錄完整例外狀況
-
[SPARK-46559] [SC-151364][MLLIB]
export
將包裝在套件名稱中並加上反引號 - [SPARK-46522] [SC-151784][PYTHON]封鎖名稱衝突的 Python 數據源註冊
- [SPARK-45580] [SC-149956][SQL] 處理巢狀子查詢變成存在聯結的情況
- [SPARK-46609] [SC-151714][SQL]避免 PartitioningPreservingUnaryExecNode 中的指數爆炸
- [SPARK-46535] [SC-151288][SQL] 在描述沒有 col 統計數據的數據行擴充時修正 NPE
- [SPARK-46599] [SC-147661][SC-151770][SQL]XML:使用 TypeCoercion.findTightestCommonType 進行兼容性檢查
- [SPARK-40876] [SC-151129][SQL]在 Parquet 讀取器中擴大類型升階
- [SPARK-46179] [SC-151069][SQL]將程式代碼提取到 SQLQueryTestSuite 中可重複使用的函式
-
[SPARK-46586][SC-151679][SQL]支援
s.c.immutable.ArraySeq
,如 中所示customCollectionCls
MapObjects
-
[SPARK-46585] [SC-151622][CORE]直接建構
metricPeaks
為immutable.ArraySeq
,而不是在mutable.ArraySeq.toSeq
中使用Executor
- [SPARK-46488] [SC-151173][SQL]略過 trimAll 呼叫在時間戳剖析期間
-
[SPARK-46231] [SC-149724][PYTHON]將所有剩餘
NotImplementedError
和TypeError
移轉至 PySpark 錯誤架構 -
[SPARK-46348] [SC-150281][CORE]支援
spark.deploy.recoveryTimeout
-
[SPARK-46313] [SC-150164][CORE]記錄
Spark HA
復原持續時間 -
[SPARK-46358] [SC-150307][CONNECT]簡化中的條件檢查
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][SQL]取代評估內嵌數據表表達式之前的目前時間/日期。
- [SPARK-46563] [SC-151441][SQL]檢視 simpleString 未遵循 conf spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNCT][GRAPHX]使用 (string|array)length 取代 #string|array)size 來減少堆棧深度
- [SPARK-46539] [SC-151469][SQL] SELECT * EXCEPT(結構中的所有欄位)會導致斷言失敗
- [SPARK-46565] [SC-151414][PYTHON]精簡 Python 資料源的錯誤類別和錯誤訊息
- [SPARK-46576] [SC-151614][SQL]改善不支援數據源儲存模式的錯誤訊息
- [SPARK-46540] [SC-151355][PYTHON] 確保當 Python 數據源讀取函式輸出具名稱的 Row 物件時,能夠尊重欄位名稱。
- [SPARK-46577] [SC-151448][SQL]HiveMetastoreLazyInitializationSuite 會洩漏 hive 的 SessionState
-
[SPARK-44556][SC-151562][SQL]啟用 vectorizedReader 時重複使用
OrcTail
- [SPARK-46587] [SC-151618][SQL]XML:修正 XSD 大整數轉換
- [SPARK-46382] [SC-151297][SQL] XML:擷取元素之間交錯的值
- [SPARK-46567] [SC-151447][CORE] 移除 ReadAheadInputStream 的 ThreadLocal
- [SPARK-45917] [SC-151269][PYTHON][SQL]啟動時自動註冊 Python 數據源
- [SPARK-28386] [SC-151014][SQL] 無法解析具有 GROUP BY 和 HAVING 的 ORDER BY 欄位
- [SPARK-46524] [SC-151446][SQL]改善無效儲存模式的錯誤訊息
- [SPARK-46294] [SC-150672][SQL]清除 init 與零值的語意
-
[SPARK-46301] [SC-150100][CORE]支援
spark.worker.(initial|max)RegistrationRetries
-
[SPARK-46542] [SC-151324][SQL] 移除
c>=0
檢查,因為它在ExternalCatalogUtils#needsEscaping
中一律為 true -
[SPARK-46553] [SC-151360][PS]
FutureWarning
forinterpolate
with object dtype - [SPARK-45914] [SC-151312][PYTHON]支援 Python 數據源寫入的認可和中止 API
-
[SPARK-46543] [SC-151350][PYTHON][CONNECT]針對空白欄位進行
json_tuple
擲回 PySparkValueError - [SPARK-46520] [SC-151227][PYTHON]支援 Python 數據源寫入的覆寫模式
- [SPARK-46502] [SC-151235][SQL]支援 UnwrapCastInBinaryComparison 中的時間戳類型
-
[SPARK-46532] [SC-151279][CONNECT] 在
ErrorInfo
元數據中傳遞訊息參數 -
[SPARK-46397] 還原 “[SC-151311][PYTHON][CONNECT] 函
sha2
式應該引發PySparkValueError
無效numBits
” - [SPARK-46170] [SC-149472][SQL]支援在 SparkSessionExtensions 中插入調適型查詢後規劃策略規則
- [SPARK-46444] [SC-151195][SQL] V2SessionCatalog#createTable 不應該載入數據表
-
[SPARK-46397] [SC-151311][PYTHON][CONNECT]函
sha2
式應引發PySparkValueError
無效numBits
- [SPARK-46145] [SC-149471][SQL] spark.catalog.listTables 在找不到數據表或檢視表時不會擲回例外狀況
- [SPARK-46272] [SC-151012][SQL]使用 DSv2 來源支援 CTAS
- [SPARK-46480] [SC-151127][CORE][SQL] 修正數據表快取工作嘗試時 NPE
- [SPARK-46100] [SC-149051][CORE][PYTHON]使用 (string|array)length 取代 #string|array)size 來減少堆棧深度
- [SPARK-45795] [SC-150764][SQL]DS V2 支援下推模式
- [SPARK-46485] [SC-151133][SQL]不需要時,V1Write 不應該新增 Sort
- [SPARK-46468] [SC-151121][SQL]使用匯總處理 EXISTS 子查詢的 COUNT 錯誤,而不需分組索引鍵
- [SPARK-46246] [SC-150927][SQL] EXECUTE IMMEDIATE SQL 支援
-
[SPARK-46498] [SC-151199][CORE] 從
o.a.spark.util.Utils#getConfiguredLocalDirs
移除shuffleServiceEnabled
-
[SPARK-46440] [SC-150807][SQL] 預設將重新基底設定設為
CORRECTED
模式 - [SPARK-45525] [SC-151120][SQL][PYTHON]使用 DSv2 支援 Python 數據源寫入
-
[SPARK-46505] [SC-151187][CONNECT]在 中設定位元組臨界值
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][SQL] 移除舊版日期時間重定基準的 SQL 組態
- [SPARK-46443] [SC-151123][SQL]十進位有效位數和小數字數應該由 H2 方言決定。
- [SPARK-46384] [SC-150694][SPARK-46404][SS][UI]修正結構化串流頁面上的作業持續時間堆疊圖
- [SPARK-46207] [SC-151068][SQL]支援 DataFrameWriterV2 中的 MergeInto
- [SPARK-46452] [SC-151018][SQL]在 DataWriter 中新增 API 以寫入記錄反覆運算器
- [SPARK-46273] [SC-150313][SQL] 使用 DSv2 來源支援 INSERT INTO/OVERWRITE
- [SPARK-46344] [SC-150267][CORE]當驅動程式成功存在但 master 已中斷連線時,請正確發出警告
-
[SPARK-46284] [SC-149944][PYTHON][CONNECT]將函式新增
session_user
至 Python - [SPARK-46043] [SC-149786][SQL] 支援使用 DSv2 來源建立數據表
- [SPARK-46323] [SC-150191][PYTHON]修正 pyspark.sql.functions.now 的輸出名稱
-
[SPARK-46465][SC-151059][PYTHON][CONNECT]在 PySpark 中新增
Column.isNaN
-
[SPARK-46456] [SC-151050][CORE] 新增
spark.ui.jettyStopTimeout
以將 Jetty 伺服器停止逾時設定為解除封鎖 SparkContext 關機 - [SPARK-43427] [SC-150356][PROTOBUF] spark protobuf:允許向上傳播不帶正負號的整數類型
- [SPARK-46399] [SC-151013][14.x][Core]將結束狀態新增至 Application End 事件以使用 Spark 接聽程式
- [SPARK-46423] [SC-150752][PYTHON][SQL]在 DataSource.lookupDataSourceV2 建立 Python 數據源實例
- [SPARK-46424] [SC-150765][PYTHON][SQL]在 Python 數據源中支援 Python 計量
- [SPARK-46330] [SC-151015]啟用 HybridStore 時長時間載入 Spark UI 區塊
- [SPARK-46378] [SC-150397][SQL] 在將匯總轉換為項目之後仍移除排序
- [SPARK-45506] [SC-146959][CONNECT]將 ivy URI 支援新增至 SparkConnect addArtifact
- [SPARK-45814] [SC-147871][CONNECT][SQL]讓 ArrowConverters.createEmptyArrowBatch 呼叫 close() 以避免記憶體流失
- [SPARK-46427] [SC-150759][PYTHON][SQL] 修改 Python 數據源的描述,以便在解釋中更易於閱讀。
- [SPARK-45597] [SC-150730][PYTHON][SQL] 支援在 SQL 中使用 Python 數據源建立數據表 (DSv2 exec)
- [SPARK-46402] [SC-150700][PYTHON]新增 getMessageParameters 和 getQueryContext 支援
-
[SPARK-46453][SC-150897][CONNECT]從擲回例外狀況
internalError()
SessionHolder
- [SPARK-45758] [SC-147454][SQL]引進hadoop壓縮編解碼器的對應程式
-
[SPARK-46213][PYTHON]錯誤架構簡介
PySparkImportError
-
[SPARK-46230] [SC-149960][PYTHON]遷移
RetriesExceeded
至 PySpark 錯誤 - [SPARK-45035] [SC-145887][SQL]修正 ignoreCorruptFiles/ignoreMissingFiles 與多行 CSV/JSON 將報告錯誤
- [SPARK-46289] [SC-150846][SQL]支援在解譯模式中排序 UDT
- [SPARK-46229] [SC-150798][PYTHON][CONNECT]在 Spark Connect 中將 applyInArrow 新增至 groupBy 和 cogroup
- [SPARK-46420] [SC-150847][SQL] 移除 SparkSQLCLIDriver 中未使用的傳輸
-
[SPARK-46226] [PYTHON]將所有剩餘
RuntimeError
專案移轉至 PySpark 錯誤架構 - zh-TW: [SPARK-45796] [SC-150613][SQL] 支援模式()WITHIN GROUP(ORDER BY col)
- [SPARK-40559] [SC-149686][PYTHON][14.X]將 applyInArrow 新增至 groupBy 和 cogroup
- [SPARK-46069] [SC-149672][SQL]支援解除包裝時間戳類型至日期類型
- [SPARK-46406] [SC-150770][SQL]將名稱指派給錯誤類別_LEGACY_ERROR_TEMP_1023
-
[SPARK-46431][SC-150782][SS]在工作階段反覆運算器中轉換為
IllegalStateException
internalError
- [SPARK-45807] [SC-150751][SQL]改善 ViewCatalog API
- [SPARK-46009] [SC-149771][SQL][CONNECT]將 PercentileCont 和 PercentileDisc 的剖析規則合併至 functionCall
- [SPARK-46403] [SC-150756][SQL]使用 getBytesUnsafe 方法譯碼 parquet 二進制檔
-
[SPARK-46389][SC-150779][CORE]擲回例外狀況時
RocksDB/LevelDB
手動關閉checkVersion
實例 -
[SPARK-46360] [SC-150376][PYTHON]使用新的
getMessage
API 增強錯誤訊息偵錯 -
[SPARK-46233] [SC-149766][PYTHON]將所有剩餘
AttributeError
專案移轉至 PySpark 錯誤架構 -
[SPARK-46394] [SC-150599][SQL] 修正當
spark.sql.legacy.keepCommandOutputSchema
設定為 true 時,spark.catalog.listDatabases() 在含特殊字符的架構上出現的問題 - [SPARK-45964] [SC-148484][SQL] 在 Catalyst 套件下移除 XML 和 JSON 套件中的私有 SQL 存取器
- [SPARK-45856] [SC-148691]將 ArtifactManager 從 Spark Connect 移至 SparkSession (sql/core)
- [SPARK-46409] [SC-150714][CONNECT]修正 spark-connect-scala-client 啟動腳本
-
[SPARK-46416] [SC-150699][CORE]新增
@tailrec
至HadoopFSUtils#shouldFilterOutPath
-
[SPARK-46115] [SC-149154][SQL]在中限制字元集
encode()
- [SPARK-46253] [SC-150416][PYTHON]使用 MapInArrow 規劃 Python 數據源讀取
- [SPARK-46339] [SC-150266][SS]具有批次編號名稱的目錄不應視為元數據記錄檔
-
[SPARK-46353] [SC-150396][CORE]重構以改善
RegisterWorker
單元測試涵蓋範圍 - [SPARK-45826] [SC-149061][SQL]在 DataFrame 查詢內容中新增堆疊追蹤的 SQL 組態
- [SPARK-45649] [SC-150300][SQL]整合 OffsetWindowFunctionFrame 的準備架構
-
[SPARK-46346] [SC-150282][CORE] 修正 Master 節點,以便將工作節點從
UNKNOWN
更新為ALIVE
,對應於RegisterWorker
的訊息。 -
[SPARK-46388] [SC-150496][SQL]HiveAnalysis 遺漏 的模式防護
query.resolved
-
[SPARK-46401] [SC-150609][CORE]使用
!isEmpty()
onRoaringBitmap
而非getCardinality() > 0
inRemoteBlockPushResolver
- [SPARK-46393] [SC-150603][SQL] 分類 JDBC 數據表目錄中的例外狀況
- [SPARK-45798] [SC-150513][CONNECT]待處理:將 serverSessionId 新增至 SessionHolderInfo
- [SPARK-46153] [SC-146564][SC-150508][SQL]XML:新增 TimestampNTZType 支援
- [SPARK-46075] [SC-150393][CONNECT]SparkConnectSessionManager 的改善
- [SPARK-46357] [SC-150596] 將文件中不正確使用的 setConf 替換為 conf.set
- [SPARK-46202] [SC-150420][CONNECT]公開新的 ArtifactManager API 以支援自定義目標目錄
-
[SPARK-45824] [SC-147648][SQL]在中強制執行錯誤類別
ParseException
- [SPARK-45845] [SC-148163][SS][UI]將收回的狀態數據列數目新增至串流 UI
-
[SPARK-46316][SC-150181][CORE]在模組上
buf-lint-action
啟用core
-
[SPARK-45816][SC-147656][SQL]從時間戳轉換成整數期間溢位時傳回
NULL
-
[SPARK-46333][SC-150263][SQL]
IllegalStateException
在催化劑中取代SparkException.internalError
- [SPARK-45762] [SC-148486][CORE]藉由變更啟動順序,支援使用者 jar 中定義的隨機管理員
-
[SPARK-46239] [SC-149752][CORE]隱藏
Jetty
資訊 -
[SPARK-45886] [SC-148089][SQL]在 DataFrame 內容中
callSite
輸出完整堆疊追蹤 - [SPARK-46290] [SC-150059][PYTHON]將 saveMode 變更為 DataSourceWriter 的布爾值旗標
- [SPARK-45899] [SC-148097][CONNECT] 將 errorClass 設定於 errorInfoToThrowable 中
-
[SPARK-45841] [SC-147657][SQL]公開堆疊追蹤依據
DataFrameQueryContext
-
[SPARK-45843][SC-147721][CORE]REST 提交 API 中的支援
killall
-
[SPARK-46234][SC-149711][PYTHON]PySpark 錯誤架構簡介
PySparkKeyError
- [SPARK-45606] [SC-147655][SQL]多層運行時間篩選的發行限制
- [SPARK-45725] [SC-147006][SQL] 移除非預設 IN 子查詢運行時間篩選
-
[SPARK-45694] [SC-147314][SPARK-45695][SQL]清除已淘汰的 API 使用量
View.force
和ScalaNumberProxy.signum
-
[SPARK-45805] [SC-147488][SQL]讓
withOrigin
更多泛型 - [SPARK-46292] [SC-150086][CORE][UI]在 MasterPage 中顯示背景工作角色的摘要
-
[SPARK-45685] [SC-146881][CORE][SQL]使用
LazyList
而非Stream
- [SPARK-45888] [SC-149945][SS]將錯誤類別架構套用至狀態 (元數據) 資料源
-
[SPARK-46261] [SC-150111][CONNECT]
DataFrame.withColumnsRenamed
應保留聽寫/地圖排序 -
[SPARK-46263] [SC-149933][SQL][SS][ML][MLLIB][UI]清除
SeqOps.view
和ArrayOps.view
轉換 -
[SPARK-46029] [SC-149255][SQL]逸出單引號,
_
並%
針對 DS V2 下推 - [SPARK-46275] [SC-150189]Protobuf:還原串行化失敗時,以寬鬆模式傳回 Null。
-
[SPARK-46320] [SC-150187][CORE]支援
spark.master.rest.host
- [SPARK-46092] [SC-149658][SQL]不要向下推下 Overflow 的 Parquet 數據列群組篩選
- [SPARK-46300] [SC-150097][PYTHON][CONNECT] 比對欄位中的次要行為,並具備完整的測試涵蓋範圍
- [SPARK-46298] [SC-150092][PYTHON][CONNECT] 比對取代警告、測試案例和 Catalog.createExternalTable 的錯誤
-
[SPARK-45689] [SC-146898][SPARK-45690][SPARK-45691][CORE][SQL]清除與
StringContext/StringOps/RightProjection/LeftProjection/Either
和類型使用相關的已淘汰 API 使用方式BufferedIterator/CanBuildFrom/Traversable
- [SPARK-33393] [SC-148407][SQL] 支援 SHOW TABLE EXTENDED 於 v2 中
-
[SPARK-45737] [SC-147011][SQL] 移除
SparkPlan#executeTake
中不必要的.toArray[InternalRow]
- [SPARK-46249] [SC-149797][SS]需要實例鎖定以取得 RocksDB 計量,以防止與背景作業競爭
-
[SPARK-46260] [SC-149940][PYTHON][SQL]
DataFrame.withColumnsRenamed
應遵守聽寫順序 - [SPARK-46274] [SC-150043][SQL]修正 Range 運算子 computeStats() 以在轉換之前檢查長效性
- [SPARK-46040] [SC-149767][SQL][Python] 更新 UDTF API 以支援在 'analyze' 中對分區/排序欄位的通用表達式
-
[SPARK-46287] [SC-149949][PYTHON][CONNECT]
DataFrame.isEmpty
應該使用所有數據類型 - [SPARK-45678] [SC-146825][CORE] 處理 tryOrFetchFailedException 狀況下的 BufferReleasingInputStream 可用性和重置方法
-
[SPARK-45667] [SC-146716][CORE][SQL][CONNECT]清除與相關的
IterableOnceExtensionMethods
已淘汰 API 使用量。 -
[SPARK-43980] [SC-148992][SQL] 簡介
select * except
語法 - [SPARK-46269] [SC-149816][PS]啟用更多 NumPy 相容性函式測試
- [SPARK-45807] [SC-149851][SQL]將 createOrReplaceView(..) / replaceView(..) 新增至 ViewCatalog
-
[SPARK-45742] [SC-147212][CORE][CONNECT][MLLIB][PYTHON]引進適用於 Scala Array 的隱含函式,以包裝成
immutable.ArraySeq
。 -
[SPARK-46205] [SC-149655][CORE]使用改善
PersistenceEngine
效能KryoSerializer
- [SPARK-45746] [SC-149359][Python] 如果 UDTF 'analyze' 或 'eval' 方法接受或傳回錯誤值,則傳回特定的錯誤訊息
- [SPARK-46186] [SC-149707][CONNECT]修正 ExecuteThreadRunner 在啟動前中斷時不合法的狀態轉換
-
[SPARK-46262] [SC-149803][PS]啟用
np.left_shift
Pandas-on-Spark 對象的測試。 - [SPARK-45093] [SC-149679][CONNECT][PYTHON]正確支援 AddArtifactHandler 的錯誤處理和轉換
- [SPARK-46188] [SC-149571][Doc][3.5] 修正 Spark 檔產生的數據表 CSS
- [SPARK-45940] [SC-149549][PYTHON]將 InputPartition 新增至 DataSourceReader 介面
- [SPARK-43393] [SC-148301][SQL]解決序列表達式溢位錯誤。
- [SPARK-46144] [SC-149466][SQL] 失敗 INSERT INTO ... 如果條件包含子查詢,REPLACE 語句
-
[SPARK-46118] [SC-149096][SQL][SS][CONNECT]使用
SparkSession.sessionState.conf
而非SQLContext.conf
,並將標示SQLContext.conf
為已被取代 - [SPARK-45760] [SC-147550][SQL]新增With表達式以避免複製表達式
- [SPARK-43228] [SC-149670][SQL] 聯結索引鍵也會比對 CoalesceBucketsInJoin 中 PartitioningCollection
- [SPARK-46223] [SC-149691][PS]使用清除未使用的程式代碼測試 SparkPandasNotImplementedError
-
[SPARK-46119] [SC-149205][SQL]覆寫
toString
方法UnresolvedAlias
- [SPARK-46206] [SC-149674][PS]針對 SQL 處理器使用較窄的範圍例外狀況
-
[SPARK-46191] [SC-149565][CORE]改善
FileSystemPersistenceEngine.persist
現有檔案的錯誤訊息 - [SPARK-46036] [SC-149356][SQL]從raise_error函式移除錯誤類別
- [SPARK-46055] [SC-149254][SQL] 重寫目錄資料庫 API 實作
- [SPARK-46152] [SC-149454][SQL] XML:在 XML 架構推斷中新增 DecimalType 支援
- [SPARK-45943] [SC-149452][SQL]將 DetermineTableStats 移至解析規則
-
[SPARK-45887] [SC-148994][SQL]對齊的 codegen 和非 codegen 實作
Encode
- [SPARK-45022] [SC-147158][SQL]提供資料集 API 錯誤的內容
-
[SPARK-45469][SC-145135][CORE][SQL][CONNECT][PYTHON]將取代
toIterator
為iterator
IterableOnce
- [SPARK-46141] [SC-149357][SQL]將 spark.sql.legacy.ctePrecedencePolicy 的預設值變更為 CORRECTED
-
[SPARK-45663] [SC-146617][CORE][MLLIB]將取代
IterableOnceOps#aggregate
為IterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][SQL]在 ComputeCurrentTime 規則中重複使用 Literal 物件
-
[SPARK-45803] [SC-147489][CORE] 移除不再使用
RpcAbortException
- [SPARK-46148] [SC-149350][PS]修正pyspark.pandas.mlflow.load_model測試 (Python 3.12)
- [SPARK-46110] [SC-149090][PYTHON] 在 catalog、conf、connect、observation、pandas 模組中使用錯誤類別
- [SPARK-45827] [SC-149203][SQL]已停用 codegen 和向量化讀取器的 Variant 修正
- [SPARK-46080] 將 “[SC-149012][PYTHON] 將 Cloudpickle 升級至 3.0.0”
-
[SPARK-45460] [SC-144852][SQL]將取代
scala.collection.convert.ImplicitConversions
為scala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][SQL] 移除特定命令之 UnresolvedNamespace 的特殊解析度
- [SPARK-45600] [SC-148976][PYTHON]建立 Python 數據源註冊會話層級
- [SPARK-46074] [SC-149063][CONNECT][SCALA]UDF 失敗時錯誤訊息中的詳細數據不足
- [SPARK-46114] [SC-149076][PYTHON]為錯誤架構新增 PySparkIndexError
-
[SPARK-46120] [SC-149083][CONNECT][PYTHON] 移除輔助函數
DataFrame.withPlan
- [SPARK-45927] [SC-148660][PYTHON] Python 數據源的更新路徑處理
- [SPARK-46062] [14.x][SC-148991][SQL] 同步 CTE 定義與參考之間的 isStreaming 旗標
-
[SPARK-45698] [SC-146736][CORE][SQL][SS]清除已淘汰的 API 使用方式
Buffer
- [SPARK-46064] [SC-148984][SQL][SS]將 EliminateEventTimeWatermark 移至分析器,並變更為只對已解析的子系生效
- [SPARK-45922] [SC-149038][CONNECT][CLIENT]次要重試重構 (後續追蹤多個原則)
- [SPARK-45851] [SC-148419][CONNECT][SCALA]支援 Scala 用戶端中的多個原則
- [SPARK-45974] [SC-149062][SQL]為 RowLevelOperationRuntimeGroupFiltering 新增 scan.filterAttributes 非空白判斷
- [SPARK-46085] [SC-149049][CONNECT]Scala Spark Connect 用戶端中的 Dataset.groupingSets
- [SPARK-45136] [SC-146607][CONNECT]增強 ClosureCleaner 與 Blobte 支援
- [SPARK-46084] [SC-149020][PS]重構類別類型的數據類型轉換作業。
- [SPARK-46083] [SC-149018][PYTHON]將 SparkNoSuchElementException 設為標準錯誤 API
- [SPARK-46048] [SC-148982][PYTHON][CONNECT]在 Python Spark Connect 中支援 DataFrame.groupingSets
- [SPARK-46080] [SC-149012][PYTHON]將 Cloudpickle 升級至 3.0.0
- [SPARK-46082] [SC-149015][PYTHON][CONNECT]使用 Spark Connect 修正 Pandas Functions API 的 Protobuf 字串表示法
-
[SPARK-46065] [SC-148985][PS]重構
(DataFrame|Series).factorize()
以使用create_map
。 - [SPARK-46070] [SC-148993][SQL]在 Hot 循環外部的 SparkDateTimeUtils.getZoneId 中編譯 regex 模式
- [SPARK-46063] [SC-148981][PYTHON][CONNECT] 改善與參數類型相關的錯誤訊息,涵蓋 cute、rollup、groupby 和 pivot。
- [SPARK-44442] [SC-144120][MESOS] 移除 Mesos 支援
- [SPARK-45555] [SC-147620][PYTHON]包含失敗判斷提示的可偵錯物件
- [SPARK-46048] [SC-148871][PYTHON][SQL]支援 PySpark 中的 DataFrame.groupingSets
- [SPARK-45768] [SC-147304][SQL][PYTHON]讓 Faulthandler 成為 SQL 中 Python 執行的運行時間組態
- [SPARK-45996] [SC-148586][PYTHON][CONNECT]顯示 Spark Connect 的適當相依性需求訊息
- [SPARK-45681] [SC-146893][UI]複製UIUtils.errorMessageCell的 js 版本,以在UI上呈現一致的錯誤
-
[SPARK-45767] [SC-147225][CORE]刪除
TimeStampedHashMap
及其UT - [SPARK-45696] [SC-148864][CORE]修正方法 tryCompleteWith 在特性 Promise 中已被取代
- [SPARK-45503] [SC-146338][SS] 新增 Conf 以設定 RocksDB 壓縮
-
[SPARK-45338] [SC-143934][CORE][SQL]將取代
scala.collection.JavaConverters
為scala.jdk.CollectionConverters
-
[SPARK-44973][SC-148804][SQL]修正
ArrayIndexOutOfBoundsException
conv()
- [SPARK-45912] [SC-144982][SC-148467][SQL]XSDToSchema API 的增強功能:變更為適用於雲端記憶體輔助功能的 HDFS API
-
[SPARK-45819][SC-147570][CORE]REST 提交 API 中的支援
clear
-
[SPARK-45552] [14.x][SC-146874][PS] 引進彈性參數至
assertDataFrameEqual
-
[SPARK-45815] [SC-147877][SQL][Streaming][14.x][CHERRY-PICK] 為其他串流來源提供介面以新增
_metadata
數據行 - [SPARK-45929] [SC-148692][SQL]支持數據框架 API 中的 groupingSets 作業
- [SPARK-46012] [SC-148693][CORE]如果應用程式狀態檔遺失,EventLogFileReader 不應該讀取滾動記錄
- [SPARK-45965] [SC-148575][SQL]將 DSv2 資料分割表達式移至 functions.partitioning
-
[SPARK-45971] [SC-148541][CORE][SQL]將的套件名稱
SparkCollectionUtils
更正為org.apache.spark.util
-
[SPARK-45688] [SC-147356][SPARK-45693][CORE]清除與 修正相關的
MapOps
已淘汰 API 使用量method += in trait Growable is deprecated
-
[SPARK-45962] [SC-144645][SC-148497][SQL] 請移除 XML 中的
treatEmptyValuesAsNulls
並使用nullValue
選項 -
[SPARK-45988] [SC-148580][SPARK-45989][PYTHON]修正 typehints 以處理
list
Python 3.11+ 中的 GenericAlias -
[SPARK-45999][SC-148595][PS]在中使用專用
PandasProduct
cumprod
-
[SPARK-45986][SC-148583][ML][PYTHON]在 Python 3.11 中修正
pyspark.ml.torch.tests.test_distributor
-
[SPARK-45994] [SC-148581][PYTHON]變更
description-file
為description_file
- [SPARK-45575] [SC-146713][SQL]支援 df 讀取 API 的時間行動選項
- [SPARK-45747] [SC-148404][SS] 使用狀態元數據中的前置詞鍵資訊來處理會話視窗彙總的讀取狀態
- [SPARK-45898] [SC-148213][SQL] 重寫目錄數據表 API 以使用未解析的邏輯計劃
- [SPARK-45828] [SC-147663][SQL] 移除 dsl 中已被取代的方法
-
[SPARK-45990] [SC-148576][SPARK-45987][PYTHON][CONNECT]升級
protobuf
至 4.25.1 以支援Python 3.11
- [SPARK-45911] [SC-148226][CORE]將 TLS1.3 設為 RPC SSL 的預設值
- [SPARK-45955] [SC-148429][UI]折疊火焰圖和線程傾印詳細數據的支援
-
[SPARK-45936] [SC-148392][PS] 優化
Index.symmetric_difference
- [SPARK-45389] [SC-144834][SQL][3.5] 取得分割區元數據的正確 MetaException 比對規則
- [SPARK-45655] [SC-148085][SQL][SS]允許 CollectMetrics 中 AggregateFunctions 內的不具決定性表達式
- [SPARK-45946] [SC-148448][SS]修正使用已被取代的 FileUtils 寫入,以在 RocksDBSuite 中傳遞預設字元集
- [SPARK-45511] [SC-148285][SS]狀態資料來源 - 讀取器
-
[SPARK-45918] [SC-148293][PS] 優化
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][CONNECT][PYTHON]從命令傳回觀察到的計量
-
[SPARK-45867] [SC-147916][CORE]支援
spark.worker.idPattern
-
[SPARK-45945] [SC-148418][CONNECT]為新增協助程式函式
parser
- [SPARK-45930] [SC-148399][SQL]在 MapInPandas/MapInArrow 中支援不具決定性的 UDF
- [SPARK-45810] [SC-148356][Python] 建立 Python UDTF API 以停止從輸入數據表取用數據列
-
[SPARK-45731] [SC-147929][SQL] 也使用
ANALYZE TABLE
命令更新分割區統計數據 -
[SPARK-45868] [SC-148355][CONNECT]請務必
spark.table
搭配 Vanilla spark 使用相同的剖析器 - [SPARK-45882] [SC-148161][SQL]BroadcastHashJoinExec 傳播分割應遵守 CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][SQL]將名稱指派給錯誤_LEGACY_ERROR_TEMP_21[59,60,61,62]
-
[SPARK-45915] [SC-148306][SQL]將 decimal(x, 0) 與 In 中的 IntegralType 相同
PromoteStrings
- [SPARK-45786] [SC-147552][SQL]修正不正確的十進位乘法和除法結果
-
[SPARK-45871][SC-148084][CONNECT]模組中
.toBuffer
與相關的connect
優化集合轉換 - [SPARK-45822] [SC-147546][CONNECT]SparkConnectSessionManager 可能會查閱已停止的sparkcontext
- [SPARK-45913] [SC-148289][PYTHON]將內部屬性從 PySpark 錯誤設為私用。
- [SPARK-45827] [SC-148201][SQL]在 Spark 中新增 Variant 資料類型。
- [SPARK-44886] [SC-147876][SQL] 引進 CLUSTER BY 子句以便用於 CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][CORE]支援
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][CONNECT]判斷提示伺服器端會話標識碼
-
[SPARK-45896][SC-148091][SQL]使用正確的預期型別建構
ValidateExternalType
-
[SPARK-45902] [SC-148123][SQL] 從
DataSource
移除未使用的函式resolvePartitionColumns
-
[SPARK-45909] [SC-148137][SQL] 如果可在
IsNotNull
中安全地向上轉換,請移除NumericType
轉換 - [SPARK-42821] [SC-147715][SQL] 移除 splitFiles 方法中未使用的參數
-
[SPARK-45875] [SC-148088][CORE] 從
core
模組中移除MissingStageTableRowData
- [SPARK-45783] [SC-148120][PYTHON][CONNECT] 在啟用 Spark Connect 模式但未設定遠端 URL 時改善錯誤訊息
- [SPARK-45804] [SC-147529][UI]新增spark.ui.threadDump.flamegraphEnabled config 以開啟/關閉火焰圖形
- [SPARK-45664] [SC-146878][SQL]介紹 orc 壓縮編解碼器的對應程式
- [SPARK-45481] [SC-146715][SQL]介紹 Parquet 壓縮編解碼器的對應程式
- [SPARK-45752] [SC-148005][SQL]簡化檢查未參考 CTE 關係的程式代碼
- [SPARK-44752] [SC-146262][SQL] XML: 更新 Spark Docs
- [SPARK-45752] [SC-147869][SQL]CheckAnalysis0 應該檢查未推斷的 CTE
- [SPARK-45842] [SC-147853][SQL] 重構類別目錄函式 API 以使用分析器
- [SPARK-45639] [SC-147676][SQL][PYTHON]支援在 DataFrameReader 中載入 Python 數據源
- [SPARK-45592] [SC-146977][SQL]AQE 中 InMemoryTableScanExec 的正確性問題
- [SPARK-45794] [SC-147646][SS]介紹狀態元數據來源來查詢串流狀態元數據資訊
- [SPARK-45739] [SC-147059][PYTHON]僅針對 faulthandler 攔截 IOException 而不是 EOFException
- [SPARK-45677] [SC-146700]觀察 API 的更佳錯誤記錄
- [SPARK-45544] [SC-146873][CORE]將 SSL 支援整合到 TransportContext
- [SPARK-45654] [SC-147152][PYTHON]新增 Python 數據源寫入 API
-
[SPARK-45771][SC-147270][CORE]默認為啟用
spark.eventLog.rolling.enabled
- [SPARK-45713] [SC-146986][PYTHON]支援註冊 Python 數據源
- [SPARK-45656] [SC-146488][SQL]修正不同數據集上具有相同名稱的具名觀察時觀察
- [SPARK-45808] [SC-147571][CONNECT][PYTHON]更好的 SQL 例外狀況錯誤處理
-
[SPARK-45774][SC-147353][CORE][UI]中的支援
spark.master.ui.historyServerUrl
ApplicationPage
-
[SPARK-45776] [SC-147327][CORE] 移除 SPARK-39553 中新增之
MapOutputTrackerMaster#unregisterShuffle
防禦 Null 檢查 - [SPARK-45780] [SC-147410][CONNECT]在 InheritableThread 中傳播所有 Spark Connect 用戶端線程定位
-
[SPARK-45785] [SC-147419][CORE]支援
spark.deploy.appNumberModulo
輪替應用程式號碼 - [SPARK-45793] [SC-147456][CORE]改善內建壓縮編解碼器
- [SPARK-45757] [SC-147282][ML] 避免在 Binarizer 中重新計算 NNZ
- [SPARK-45209] [SC-146490][CORE][UI]Executor 線程傾印頁面的 Flame Graph 支援
-
[SPARK-45777][SC-147319][CORE]中的支援
spark.test.appId
LocalSchedulerBackend
- [SPARK-45523] [SC-146331][PYTHON]將 Null 檢查重構為具有快捷方式
- [SPARK-45711] [SC-146854][SQL]介紹avro壓縮編解碼器的對應程式
- [SPARK-45523] [SC-146077][Python] 如果 UDTF 針對任何不可為 Null 的欄位返回 None,則返回有用的錯誤訊息
- [SPARK-45614] [SC-146729][SQL]將名稱指派給錯誤_LEGACY_ERROR_TEMP_215[6,7,8]
-
[SPARK-45755] [SC-147164][SQL] 套用全域限制來提升
Dataset.isEmpty()
1
的效能 - [SPARK-45569] [SC-145915][SQL]將名稱指派給錯誤_LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][CORE][WEBUI] 修正
Spark History Server
以正確排序Duration
欄 -
[SPARK-45754] [SC-147169][CORE]支援
spark.deploy.appIdPattern
-
[SPARK-45707][SC-146880][SQL]使用簡化
DataFrameStatFunctions.countMinSketch
CountMinSketchAgg
-
[SPARK-45753] [SC-147167][CORE]支援
spark.deploy.driverIdPattern
-
[SPARK-45763] [SC-147177][CORE][UI] 改善
MasterPage
,僅在其存在時顯示Resource
列 - [SPARK-45112] [SC-143259][SQL]在 SQL 數據集函式中使用未解析的函式解析
Databricks ODBC/JDBC 驅動程式支援
Databricks 支援在過去 2 年中發行的 ODBC/JDBC 驅動程式。 請下載最近發行的驅動程式和升級 (下載 ODBC,下載 JDBC)。
維護更新
請參閱 Databricks Runtime 14.3 維護更新。
系統環境
- 作業系統:Ubuntu 22.04.3 LTS
- Java:Zulu 8.74.0.17-CA-linux64
- Scala:2.12.15
- Python:3.10.12
- R:4.3.1
- Delta Lake:3.1.0
已安裝的 Python 程式庫
程式庫 | 版本 | 程式庫 | 版本 | 程式庫 | 版本 |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.4 | comm | 0.1.2 |
contourpy | 1.0.5 | 密碼編譯 | 39.0.1 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0.11 | entrypoints | 0.4 |
executing | 0.8.3 | facets-overview | 1.1.1 | fastjsonschema | 2.19.1 |
filelock | 3.13.1 | fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
mistune | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
筆記本 | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | packaging | 23.2 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 22.3.1 | platformdirs | 2.5.2 |
plotly | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0.5 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
requests | 2.28.1 | 繩子 | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
six | 1.16.0 | sniffio | 1.2.0 | soupsieve | 2.3.2.post1 |
ssh-import-id | 5.11 | stack-data | 0.2.0 | statsmodels | 0.13.5 |
tenacity | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
wheel | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
已安裝的 R 程式庫
R 連結庫會從 2023-02-10 上的 Posit 封裝管理員 CRAN 快照集安裝。
程式庫 | 版本 | 程式庫 | 版本 | 程式庫 | 版本 |
---|---|---|---|---|---|
箭號 | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
broom | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
callr | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | class | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | clock | 0.7.0 | 叢集 | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.9.0 |
compiler | 4.3.1 | config | 0.3.1 | 衝突 | 1.2.0 |
cpp11 | 0.4.4 | crayon | 1.5.2 | 資格證明 | 1.3.2 |
curl | 5.0.1 | 資料表 | 1.14.8 | datasets | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | 遞減 | 1.4.2 |
devtools | 2.4.5 | 圖表 | 1.6.5 | diffobj | 0.3.5 |
digest | 0.6.33 | downlit | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | 省略符號 | 0.3.2 |
evaluate | 0.21 | fansi | 1.0.4 | farver | 2.1.1 |
fastmap | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | foreign | 0.8-85 | forge | 0.2.0 |
fs | 1.6.2 | future | 1.33.0 | future.apply | 1.11.0 |
gargle | 1.5.1 | 泛型 | 0.1.3 | gert | 1.9.2 |
ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globals | 0.16.2 | glue | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.3.1 | grDevices | 4.3.1 | grid | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0.7 | gtable | 0.3.3 |
hardhat | 1.3.0 | haven | 2.5.3 | highr | 0.10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1.43 |
labeling | 0.4.2 | later | 1.3.1 | lattice | 0.21-8 |
Lava | 1.7.2.1 | 生命週期 | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1.7 |
MASS | 7.3-60 | 矩陣 | 1.5-4.1 | memoise | 2.0.1 |
方法 | 4.3.1 | mgcv | 1.8-42 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | 進度 | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | recipes | 1.0.6 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.6 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
spatial | 7.3-15 | splines | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.3.1 | stats4 | 4.3.1 |
stringi | 1.7.12 | stringr | 1.5.0 | survival | 3.5-5 |
sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | textshaping | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
timechange | 0.2.0 | timeDate | 4022.108 | tinytex | 0.45 |
tools | 4.3.1 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
usethis | 2.2.2 | utf8 | 1.2.3 | utils | 4.3.1 |
uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | waldo | 0.5.1 | whisker | 0.4.1 |
withr | 2.5.0 | xfun | 0.39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
zip | 2.3.0 |
安裝 Java 和 Scala 函式庫 (Scala 2.12 叢群版本)
群組識別碼 | 成品識別碼 | 版本 |
---|---|---|
ANTLR | ANTLR | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-js-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.咖啡因 | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 原生 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 原生 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 原生 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 原生 |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | 分析工具 | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.版 |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | H3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.3 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlet | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | 收集器 | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | 啟用 | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | arrow-vector | 12.0.1 |
org.apache.avro | Avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | HttpClient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | ZooKeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | 墊片 | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest 相容 | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |