共用方式為


自動載入器選項

特定於 cloudFiles 來源的組態選項以 cloudFiles 為首碼,因此它們位於與其他結構化串流來源選項不同的命名空間中。

常見自動載入器選項

您可以為目錄清單或檔案通知模式設定下列選項。

選項
cloudFiles.allowOverwrites
類型:Boolean
是否允許輸入目錄檔案變更以覆寫現有的資料。
此設定的啟用需要注意幾個事項。如需詳細資料,請參閱自動載入器是否會在檔案附加或覆寫時再次處理檔案?
預設值:false
cloudFiles.backfillInterval
類型:Interval String
自動載入器可以在指定的間隔觸發非同步回填,
例如,1 day 表示每天回填一次,1 week 表示每週回填一次。 檔案事件通知系統不保證 100% 交付已上傳的所有檔案,因此您可以使用回填來保證所有檔案最終都得到處理,此功能在 Databricks Runtime 8.4 (EoS) 和更新版本中可用。
預設值:無
cloudFiles.format
類型:String
來源路徑中的資料檔案格式。 允許的值包括:

預設值:無 (必要選項)
cloudFiles.includeExistingFiles
類型:Boolean
是包含串流處理輸入路徑中的現有檔案,還是僅處理初始設定後到達的新檔案。 僅在您第一次啟動串流時會評估此選項。 在重新啟動串流後變更此選項沒有任何作用。
預設值:true
cloudFiles.inferColumnTypes
類型:Boolean
在使用結構描述進行推斷時,是否要推斷精確的資料行類型。 根據預設,在推斷 JSON 和 CSV 資料集時,資料行會推斷為字串。 如需詳細資料,請參閱結構描述推斷
預設值:false
cloudFiles.maxBytesPerTrigger
類型:Byte String
每個觸發程序中要處理的新位元組數目上限。 您可以指定位元組字串 (例如 10g),將每個微批次限制為 10 GB 資料。 這是軟性上限。 如果每個檔案為 3 GB,則 Azure Databricks 在一個微批次中可以處理 12 GB。 與 cloudFiles.maxFilesPerTrigger 一起使用時,Azure Databricks 將最多消耗到 cloudFiles.maxFilesPerTriggercloudFiles.maxBytesPerTrigger 的下限,視哪一項先達到而定。 與 Trigger.Once() (Trigger.Once() 已取代) 一起使用時,此選項沒有任何作用。
預設值:無
cloudFiles.maxFileAge
類型:Interval String
為去重目的而追蹤檔案事件的時間長度。 Databricks 不建議調整此參數,除非您正在以每小時數百萬個檔案的速度匯入資料。 如需詳細資料,請參閱事件保留一節。
過於激進地調整 cloudFiles.maxFileAge 可能會導致資料品質問題,例如重複擷取或遺漏檔案。 因此,Databricks 建議為 cloudFiles.maxFileAge 使用保守設定,例如 90 天,這與類似資料擷取解決方案建議的值相當。
預設值:無
cloudFiles.maxFilesPerTrigger
類型:Integer
每個觸發程序中要處理的新檔案數目上限。 與 cloudFiles.maxBytesPerTrigger 一起使用時,Azure Databricks 將最多消耗到 cloudFiles.maxFilesPerTriggercloudFiles.maxBytesPerTrigger 的下限,視哪一項先達到而定。 與 Trigger.Once() (已取代) 一起使用時,此選項沒有任何作用。
預設值:1000
cloudFiles.partitionColumns
類型:String
要從檔案的目錄結構推斷的以逗號分隔的 Hive 樣式分割欄位清單。 Hive 格式的分區欄位是用等號組合的鍵值對,例如
<base-path>/a=x/b=1/c=y/file.format. 在此範例中,分割欄位為 abc。 根據預設,如果您使用的是架構推斷並提供<base-path>以載入資料,那麼這些欄位將自動新增至您的架構中。 如果您提供結構描述,自動載入器會預期這些資料行包含在結構描述中。 如果不希望這些資料行成為結構描述的一部分,您可以指定 "" 以略過這些資料行。 此外,當您希望將資料行推斷為複雜目錄結構中的檔案路徑時,可以使用此選項,如下列範例所示:
<base-path>/year=2022/week=1/file1.csv
<base-path>/year=2022/month=2/day=3/file2.csv
<base-path>/year=2022/month=2/day=4/file3.csv
如果把 cloudFiles.partitionColumns 指定為 year,month,day,將會返回
針對 year=2022,會是 file1.csv,但 monthday 欄將會是 null
monthday 將會被正確地剖析以適應 file2.csvfile3.csv
預設值:無
cloudFiles.schemaEvolutionMode
類型:String
探索資料時發現新資料行後的結構演進方式。 根據預設,在推斷 JSON 資料集時,資料行會推斷為字串。 如需詳細資料,請參閱結構描述演進
預設值:未提供結構描述時為 "addNewColumns"
否則為 "none"
cloudFiles.schemaHints
類型:String
您在結構描述推斷期間提供給自動載入器的結構描述資訊。 如需詳細資料,請參閱結構描述提示
預設值:無
cloudFiles.schemaLocation
類型:String
儲存推斷結構描述和後續變更的位置。 如需詳細資料,請參閱結構描述推斷
預設值:無 (推斷結構描述時需要)
cloudFiles.useStrictGlobber
類型:Boolean
是否使用與 Apache Spark 中其他檔案來源的預設萬用字元匹配行為相符的嚴格萬用字元規則? 如需詳細資料,請參閱常見資料載入模式。 在 Databricks Runtime 12.2 LTS 和更新版本中可用。
預設值:false
cloudFiles.validateOptions
類型:Boolean
是否要驗證 Auto Loader 的選項,並對未知或不一致的選項返回錯誤。
預設值:true

目錄清單選項

下列選項與目錄清單模式相關。

選項
cloudFiles.useIncrementalListing (已取代)
類型:String
這個功能已被取代。 Databricks 建議使用檔案通知模式,而不是
cloudFiles.useIncrementalListing.
是否在目錄清單模式下使用累加式清單,而不是完整列表。 根據預設,自動載入器竭盡所能自動偵測指定目錄是否適用於累加式清單。 您可以明確使用累加式清單,或者透過將完整目錄清單分別設定為 truefalse 來使用該清單。
不正確地在非依詞彙排序的目錄上啟用累加式清單會阻止自動載入器探索新檔案。
適用於 Azure Data Lake Storage Gen2 (abfss://)、S3 (s3://) 和 GCS (gs://)。
Databricks Runtime 9.1 LTS 和更新版本中可用。
預設值:auto
可用值:autotruefalse

檔案通知選項

下列選項與檔案通知模式相關。

選項
cloudFiles.fetchParallelism
類型:Integer
從佇列服務擷取訊息時要使用的執行緒數目。
預設值:1
cloudFiles.pathRewrites
類型:JSON 字串
僅在您指定從多個 S3 儲存桶接收文件通知的 queueUrl,並欲利用為存取這些容器中的資料而設定的掛載點時,才需要此選項。 使用此選項可使用掛載點重新寫入 bucket/key 路徑的前綴。 只能重寫前綴。 例如,對於組態
{"<databricks-mounted-bucket>/path": "dbfs:/mnt/data-warehouse"},路徑
s3://<databricks-mounted-bucket>/path/2017/08/fileA.json 會重寫為 dbfs:/mnt/data-warehouse/2017/08/fileA.json
預設值:無
cloudFiles.resourceTag
類型:Map(String, String)
一系列索引鍵/值標籤組,可協助關聯和識別相關資源,例如:
cloudFiles.option("cloudFiles.resourceTag.myFirstKey", "myFirstValue")
.option("cloudFiles.resourceTag.mySecondKey", "mySecondValue")
如需有關 AWS 的詳細資訊,請參閱 Amazon SQS 成本配置標籤為 Amazon SNS 主題設定標籤(1)
如需有關 Azure 的詳細資訊,請參閱命名佇列和中繼資料properties.labels中的相關內容。 自動載入器將這些索引鍵/值標籤組以 JSON 格式儲存為標籤。 (1)
如需有關 GCP 的詳細資訊,請參閱使用標籤報告使用量(1)
預設值:無
cloudFiles.useNotifications
類型:Boolean
是否使用檔案通知模式來確定何時存在新檔案。 如果為 false,則使用目錄清單模式。 請參閱比較自動載入器檔案偵測模式
預設值:false

(1) 根據預設,自動載入器會盡全力新增下列索引鍵/值標籤組:

  • vendorDatabricks
  • path:從中載入資料的位置。 由於標籤限制,在 GCP 中不可用。
  • checkpointLocation:串流檢查點的位置。 由於標籤限制,在 GCP 中不可用。
  • streamId:串流的全域唯一識別碼。

這些索引鍵名稱是保留的,無法覆寫其值。

檔案格式選項

使用自動載入器,您可以擷取 JSONCSVPARQUETAVROTEXTBINARYFILEORC 檔案。

泛型選項

下列選項適用於所有檔案格式。

選項
ignoreCorruptFiles
類型:Boolean
是否要略過損毀的檔案。 如果為 true,則 Spark 作業會在遇到損毀的檔案時繼續執行,而且仍然會傳回已讀取的內容。 可觀測到,如 numSkippedCorruptFiles 中所示
Delta Lake 歷程記錄的 operationMetrics 欄位。 在 Databricks Runtime 11.3 LTS 和更新版本中可用。
預設值:false
ignoreMissingFiles
類型:Boolean
是否略過遺漏的檔案。 如果為 true,則 Spark 作業會在遇到遺漏的檔案時繼續執行,而且仍然會傳回已讀取的內容。 在 Databricks Runtime 11.3 LTS 和更新版本中可用。
預設值:false 用於自動載入器,true 用於 COPY INTO(舊版)
modifiedAfter
類型:Timestamp String,例如 2021-01-01 00:00:00.000000 UTC+0
一個選用時間戳記,用於擷取其修改時間戳記晚於所提供時間戳記的檔案。
預設值:無
modifiedBefore
類型:Timestamp String,例如 2021-01-01 00:00:00.000000 UTC+0
一個選用時間戳記,用於匯入修改時間戳記早於所提供時間戳記的檔案。
預設值:無
pathGlobFilterfileNamePattern
類型:String
潛在的 Glob 模式,用於選擇檔案。 相當於
PATTERN (舊版) 中的 COPY INTOfileNamePattern 可以在 read_files 中使用。
預設值:無
recursiveFileLookup
類型:Boolean
是否在結構描述推斷期間略過分割推斷。 這不會影響載入的檔案。
預設值:false

JSON 選項

選項
allowBackslashEscapingAnyCharacter
類型:Boolean
是否允許反斜線逸出其後面的任何字元。 如果未啟用,則只能逸出 JSON 規格明確列出的字元。
預設值:false
allowComments
類型:Boolean
是否允許在剖析的內容中使用 Java、C 和 C++ 樣式註解 ('/''*''//' 變體)。
預設值:false
allowNonNumericNumbers
類型:Boolean
是否允許將非數 (NaN) 符號集合用作合法浮點數值。
預設值:true
allowNumericLeadingZeros
類型:Boolean
是否允許整數以附加的 (可略過的) 零開頭 (例如 000001)。
預設值:false
allowSingleQuotes
類型:Boolean
是否允許使用單引號 (撇號字元 '\') 來引用字串 (名稱和字串值)。
預設值:true
allowUnquotedControlChars
類型:Boolean
是否允許 JSON 字串包含未經轉義的控制字元(ASCII 值小於 32 的字元,包括定位字元和換行字元)。
預設值:false
allowUnquotedFieldNames
類型:Boolean
是否允許使用未加上引號的欄位名稱 (JavaScript 允許,但 JSON 規格不允許)。
預設值:false
badRecordsPath
類型:String
用於記錄有關錯誤 JSON 記錄的資訊的檔案儲存路徑。
預設值:無
columnNameOfCorruptRecord
類型:String
儲存格式錯誤且無法解析的記錄的資料行。 如果用於剖析的 mode 設定為 DROPMALFORMED,則此資料行將為空。
預設值:_corrupt_record
dateFormat
類型:String
用於剖析日期字串的格式。
預設值:yyyy-MM-dd
dropFieldIfAllNull
類型:Boolean
是否要在結構推斷期間忽略所有值為 Null 的欄、空陣列和空結構。
預設值:false
encodingcharset
類型:String
JSON 檔案編碼的名稱。 如需選項清單,請參閱 java.nio.charset.Charset。 當 UTF-16UTF-32 時,您無法使用 multilinetrue
預設值:UTF-8
inferTimestamp
類型:Boolean
是否嘗試將時間戳記字串推斷為 TimestampType。 設定為
true 時,模式推斷的時間可能顯著延長。 您必須啟用 cloudFiles.inferColumnTypes,才能與自動載入器搭配使用。
預設值:false
lineSep
類型:String
兩筆連續 JSON 記錄之間的字串。
預設值:無,其中涵蓋 \r\r\n\n
locale
類型:String
java.util.Locale 識別碼。 影響 JSON 中的預設日期、時間戳記和小數解析。
預設值:US
mode
類型:String
用於處理格式錯誤記錄的解析器模式。 下列其中一項:'PERMISSIVE'
'DROPMALFORMED''FAILFAST'
預設值:PERMISSIVE
multiLine
類型:Boolean
JSON 記錄是否跨越多行。
預設值:false
prefersDecimal
類型:Boolean
如果可能,嘗試將字串類型推斷成 DecimalType 而非浮點型或雙精度型。 還必須透過啟用以下項來使用結構描述推斷:
inferSchema 或將 cloudFiles.inferColumnTypes 與自動載入器搭配使用。
預設值:false
primitivesAsString
類型:Boolean
是否將數字和布林值等基本類型推斷為 StringType
預設值:false
readerCaseSensitive
類型:Boolean
指定啟用 rescuedDataColumn 時的大小寫敏感行為。 如果為 true,則修復名稱因大小寫不同而與架構不匹配的資料行;否則,請不區分大小寫地讀取資料。 可在 Databricks Runtime 中使用
13.3 及以上。
預設值:true
rescuedDataColumn
類型:String
是否要將所有因資料類型不符或結構描述不符(包括資料行大小寫)而無法剖析的資料收集到一個獨立的資料行中。 使用自動載入器時,系統會預設包含這個欄位。 如需詳細資料,請參閱什麼是修復的資料行?
COPY INTO (舊版) 不支援已獲救的數據行,因為您無法使用 COPY INTO手動設定架構。 Databricks 建議針對大部分的擷取案例使用自動載入器。
預設值:無
singleVariantColumn
類型:String
是否擷取整個 JSON 文件,將其剖析為以指定字串作為資料行名稱的單一 Variant 資料行。 如果停用,JSON 欄位將會匯入至個別的資料行。
預設值:無
timestampFormat
類型:String
用於剖析時間戳記字串的格式。
預設值:yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]
timeZone
類型:String
在剖析時間戳記和日期時使用的 java.time.ZoneId
預設值:無

CSV 選項

選項
badRecordsPath
類型:String
用於記錄有關錯誤 CSV 記錄的資訊的檔案儲存路徑。
預設值:無
charToEscapeQuoteEscaping
類型:Char
用來對用於逸出引號的字元進行逸出的字元。 例如,對於下列記錄:[ " a\\", b ]
  • 如果未定義跳脫字元 '\',則記錄不會被解析。 剖析器會將字元讀取為 [a],[\],["],[,],[ ],[b],並拋出錯誤,因為找不到結束引號。
  • 如果將逸出字元定義為 '\',則該記錄會以兩個值來讀取,即 [a\][b]

預設值:'\0'
columnNameOfCorruptRecord
支援自動載入器。 不支援 COPY INTO(舊版)。
類型:String
儲存格式錯誤且無法解析的記錄的欄位。 如果用於剖析的 mode 設定為 DROPMALFORMED,則此資料行將為空。
預設值:_corrupt_record
comment
類型:Char
定義表示行註解的字元 (位於文字行的開頭時)。 使用 '\0' 來停用註解略過功能。
預設值:'\u0000'
dateFormat
類型:String
用於剖析日期字串的格式。
預設值:yyyy-MM-dd
emptyValue
類型:String
空值的字串表示法。
預設值:""
encodingcharset
類型:String
CSV 檔案編碼的名稱。 如需選項清單,請參閱 java.nio.charset.Charset。 當 UTF-16UTF-32 時,不能使用 multilinetrue
預設值:UTF-8
enforceSchema
類型:Boolean
是否將指定的或推斷的結構描述強制套用於 CSV 檔案。 如果啟用此選項,則會略過 CSV 檔案的標頭。 根據預設,當使用自動載入器來修復資料並允許結構描述演進時,會略過此選項。
預設值:true
escape
類型:Char
剖析資料時要使用的跳脫字元。
預設值:'\'
header
類型:Boolean
CSV 檔案是否包含標頭。 自動載入器在推斷結構描述時,假設檔案具有標頭。
預設值:false
ignoreLeadingWhiteSpace
類型:Boolean
是否忽略每個解析值的前置空白字元。
預設值:false
ignoreTrailingWhiteSpace
類型:Boolean
是否略過每個所剖析值的後置空白字元。
預設值:false
inferSchema
類型:Boolean
是推斷所剖析 CSV 記錄的資料類型,還是假設所有資料行都是 StringType。 如果設定為 true,則需要對資料進行另一輪作業。 針對自動載入器,請改用 cloudFiles.inferColumnTypes
預設值:false
lineSep
類型:String
兩筆連續 CSV 記錄之間的字串。
預設值:無,其中涵蓋 \r\r\n\n
locale
類型:String
java.util.Locale 識別碼。 影響 CSV 內的預設日期、時間戳記和十進位解析。
預設值:US
maxCharsPerColumn
類型:Int
要解析的值的最大可容納字元數。 可用於避免記憶體錯誤。 預設為 -1,這表示無限制。
預設值:-1
maxColumns
類型:Int
記錄可以包含的資料行數的硬性限制。
預設值:20480
mergeSchema
類型:Boolean
是否要跨多個檔案推斷結構描述,以及合併每個檔案的結構描述。 自動載入器在推斷結構時,預設是啟用的。
預設值:false
mode
類型:String
用於處理格式錯誤記錄的解析器模式。 下列其中一項:'PERMISSIVE'
'DROPMALFORMED''FAILFAST'
預設值:PERMISSIVE
multiLine
類型:Boolean
CSV 記錄是否跨多行。
預設值:false
nanValue
類型:String
在剖析 FloatTypeDoubleType 欄位時,表示非數字值的字串。
預設值:"NaN"
negativeInf
類型:String
當解析 FloatTypeDoubleType 欄時,負無限大的字串表示法。
預設值:"-Inf"
nullValue
類型:String
空值的字串表示法。
預設值:""
parserCaseSensitive (已取代)
類型:Boolean
讀取檔案時,是否以區分大小寫的方式將標頭中宣告的欄位與結構描述對應起來。 對於自動載入器,此選項預設為 true。 如果啟用,則會在 rescuedDataColumn 中復原大小寫有差異的資料行。 此選項已取代為 readerCaseSensitive
預設值:false
positiveInf
類型:String
解析 FloatTypeDoubleType 欄位時,正無限大的字串表示法。
預設值:"Inf"
preferDate
類型:Boolean
如果可能,嘗試將字串推斷為日期而不是時間戳記。 你必須啟用 inferSchema 或使用結構推斷來完成此操作。
cloudFiles.inferColumnTypes 搭配自動載入器使用。
預設值:true
quote
類型:Char
當欄位分隔符號是值的一部分時用於逸出值的字元。
預設值:"
readerCaseSensitive
類型:Boolean
指定啟用 rescuedDataColumn 時的大小寫敏感行為。 如果為 true,則還原其名稱因大小寫而與架構不同的資料行;否則,以不區分大小寫的方式讀取資料。
預設值:true
rescuedDataColumn
類型:String
是否將因資料類型不符和架構不符(包括欄位大小寫)而無法解析的所有資料收集至單獨的欄位。 使用自動載入器時,系統會預設包含這個欄位。 如需詳細資料,請參閱什麼是復原的資料欄?
COPY INTO (舊版) 不支援已獲救的數據行,因為您無法使用 COPY INTO手動設定架構。 Databricks 建議針對大部分的擷取案例使用自動載入器。
預設值:無
sepdelimiter
類型:String
欄位之間的分隔符號字串。
預設值:","
skipRows
類型:Int
CSV 檔案開頭應略過的資料列數 (包括註解資料列和空資料列)。 如果 header 為 true,則標頭將是第一個未略過且未註解的列。
預設值:0
timestampFormat
類型:String
用於剖析時間戳記字串的格式。
預設值:yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]
timeZone
類型:String
用於解析時間戳記和日期的 java.time.ZoneId
預設值:無
unescapedQuoteHandling
類型:String
處理未逸出引號的策略。 允許的選項:
  • STOP_AT_CLOSING_QUOTE:如果在輸入中發現未經處理的引號,則會記錄引號字元,並繼續將值解析為帶引號的值,直至找到右引號。
  • BACK_TO_DELIMITER:如果在輸入中發現了未轉義的引號,則視該值為未加引號的值。 這會使剖析器累積目前剖析值的所有字元,直到找到 sep 定義的分隔符號。 如果在值中找不到分隔符號,剖析器會繼續從輸入累積字元,直至找到分隔符號或行尾結束符號為止。
  • STOP_AT_DELIMITER:如果在輸入中發現了未轉義的引號,則視此值為未加引號的值。 這會使剖析器累積所有字元,直至在輸入中找到 sep 定義的分隔符號或找到行尾結束符號。
  • SKIP_VALUE:如果在輸入中發現未處理的引號,則從該值開始的內容會被略過(直到找到下一個分隔符為止),然後將產生 nullValue 中設定的值。
  • RAISE_ERROR:如果在輸入中找到未轉義的引號,則為
    TextParsingException將被拋出。

預設值:STOP_AT_DELIMITER

XML 選項

選項 描述 範圍
rowTag 要將 XML 檔案中的行標籤視為資料列。 在範例 XML <books> <book><book>...<books> 中,適當的值為 book。 這是必要選項。 閱讀
samplingRatio 定義用於推斷資料模式的資料列分數比例。 XML 內建函數會略過此選項。 預設值:1.0 閱讀
excludeAttribute 是否要排除元素中的屬性。 預設值:false 已讀
mode 在剖析過程中處理損壞資料記錄的模式。
PERMISSIVE:對於損毀的記錄,將格式錯誤的字串放入由 columnNameOfCorruptRecord 設定的欄位中,並將格式錯誤的欄位設定為 null。 若要保留損毀的記錄,您可以在使用者定義的結構描述中設定名為 stringcolumnNameOfCorruptRecord 類型欄位。 如果結構中沒有該欄位,在剖析過程中會忽略損毀的記錄。 推斷結構描述時,剖析器會隱含地在輸出結構描述中新增 columnNameOfCorruptRecord 欄位。
DROPMALFORMED:略過損毀的記錄。 XML 內建函數不支援此模式。
FAILFAST:在剖析器遇到損毀的記錄時拋出異常。
已讀
inferSchema 如果為 true,則嘗試推斷每個產生的 DataFrame 資料行的適當類型。 如果為 false,則所有產生的資料行都是 string 類型。 預設:
true. XML 內建函數會略過此選項。
已讀
columnNameOfCorruptRecord 允許重新命名包含格式不正確字串的新欄位
PERMISSIVE 模式。 預設值:spark.sql.columnNameOfCorruptRecord
已讀
attributePrefix 屬性的前置詞,用於區分屬性與元素。 這將是欄位名稱的前置詞。 預設值為 _。 讀取 XML 時可以為空,但寫入時不能為空。 讀、寫
valueTag 用於包含屬性或子元素的元素中字元資料的標籤。 使用者可以在結構描述中指定 valueTag 欄位,或者當字元資料存在於具有其他元素或屬性的元素中時,該欄位將在結構描述推斷期間自動新增。 預設:_VALUE 讀取、寫入
encoding 讀取時,依指定的編碼類型解碼 XML 檔案。 對於寫入,請指定已儲存 XML 檔案的編碼 (字元集)。 XML 內建函數會略過此選項。 預設值:UTF-8 讀取、寫入
ignoreSurroundingSpaces 定義是否應忽略被讀取值周圍的空白。 預設值:true。 僅由空白字元組成的字元資料會被忽略。 閱讀
rowValidationXSDPath 用於驗證每個資料列的 XML 的可選 XSD 檔案路徑。 無法驗證的資料列視為上述剖析錯誤。 XSD 不會以其他方式影響提供或推斷的結構描述。 閱讀
ignoreNamespace 如果為 true,則略過 XML 元素和屬性上的命名空間前置詞。 例如,標籤 <abc:author><def:author> 視為兩者都只是 <author>。 無法忽略 rowTag 元素上的命名空間,只能忽略其可讀子元素。 即使存在false,XML 剖析也不會識別命名空間。 預設值:false 閱讀
timestampFormat 遵循日期時間模式格式的自訂時間戳記格式字串。 這適用於 timestamp 類型。 預設值:yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX] 讀、寫
timestampNTZFormat 遵循日期時間模式格式的不含時區的自訂時間標記格式字串。 這適用於 TimestampNTZType 類型。 預設:
yyyy-MM-dd'T'HH:mm:ss[.SSS]
閱讀、寫作
dateFormat 遵循日期時間模式格式的自訂日期格式字串。 這適用於日期類型。 預設值:yyyy-MM-dd 讀取、寫入
locale 將地區語言標籤設為 IETF BCP 47 格式。 例如,在剖析日期和時間戳記時使用 locale。 預設值:en-US 閱讀
rootTag XML 檔案的根標籤。 例如,在 <books> <book><book>...</books> 中,適當的值為 books。 您可以透過指定類似 books foo="bar" 的值來包含基本屬性。 預設值:ROWS
declaration 要在每個輸出 XML 檔案的開頭 (在 rootTag 之前) 寫入的 XML 宣告內容。 例如,foo 的值會導致寫入 <?xml foo?>。 設定空字串以隱藏。 預設:version="1.0"
encoding="UTF-8" standalone="yes".
arrayElementName 寫入時將陣列值資料行的每個元素括起來的 XML 元素的名稱。 預設值:item
nullValue 設定 null 值的字串表示法。 預設值:字串 null。 當這是 null 時,剖析器不會為欄位寫入屬性和元素。 讀取、寫入
compression 儲存至檔案時使用的壓縮碼。 這可以是已知不區分大小寫的縮寫名稱之一 (nonebzip2gziplz4snappy
deflate)。 XML 內建函數會略過此選項。 預設值:none
validateName 如果為 true,則當 XML 元素名稱驗證失敗時擲回錯誤。 例如,SQL 欄位名稱可以有空格,但 XML 元素名稱不能有空格。 預設:
true.
readerCaseSensitive 指定在啟用 rescuedDataColumn 時如何處理區分大小寫的行為。 如果為 true,則修復名稱因大小寫而與架構不同的資料欄位;否則,請以不區分大小寫的方式讀取資料。 預設值:true 已讀
rescuedDataColumn 是否將因資料類型不符及綱要不符(包括欄位大小寫)而無法剖析的所有資料收集至單獨的欄位。 使用自動載入器時,系統會預設包含這個欄位。 如需詳細資料,請參閱什麼是復原的資料欄?
COPY INTO (舊版) 不支援已獲救的數據行,因為您無法使用 COPY INTO手動設定架構。 Databricks 建議針對大部分的擷取案例使用自動載入器。
預設值:無。
閱讀

PARQUET 選項

選項
datetimeRebaseMode
類型:String
控制 DATE 和 TIMESTAMP 值在儒略曆與前置格里曆之間的基準變換。 允許的值:EXCEPTIONLEGACY
CORRECTED.
預設值:LEGACY
int96RebaseMode
類型:String
控制 INT96 時間戳記值在儒略曆與前置格里高利曆之間的重新基準化。 允許的值:EXCEPTIONLEGACY
CORRECTED.
預設值:LEGACY
mergeSchema
類型:Boolean
是否要跨多個檔案推斷結構描述,以及合併每個檔案的結構描述。
預設值:false
readerCaseSensitive
類型:Boolean
指定啟用 rescuedDataColumn 時的大小寫敏感行為。 如果為 true,則修復名稱因大小寫而與結構描述不同的資料行;否則,請以不區分大小寫的方式讀取資料。
預設值:true
rescuedDataColumn
類型:String
是否將因資料類型不符和架構不符(包括欄位大小寫)而無法解析的所有資料收集至單獨的欄位。 使用自動載入器時,系統會預設包含這個欄位。 如需詳細資料,請參閱什麼是復原的資料欄?
COPY INTO (舊版) 不支援已獲救的數據行,因為您無法使用 COPY INTO手動設定架構。 Databricks 建議針對大部分的擷取案例使用自動載入器。
預設值:無

AVRO 選項

選項
avroSchema
類型:String
使用者以 Avro 格式提供的可選模式。 讀取 Avro 時,可以將此選項設定為一個演進的結構描述,該結構描述與實際 Avro 結構描述相容但不同。 反序列化結構描述將與演進的結構描述保持一致。 例如,如果您設定的演進結構描述包含一個具有預設值的其他資料行,則讀取結果也會包含該新資料行。
預設值:無
datetimeRebaseMode
類型:String
控制 DATE 和 TIMESTAMP 值在儒略曆與前推格里曆之間的重設基準。 允許的值:EXCEPTIONLEGACY
CORRECTED.
預設值:LEGACY
mergeSchema
類型:Boolean
是否要跨多個檔案推斷結構描述,以及合併每個檔案的結構描述。
Avro 的 mergeSchema 無法簡化資料類型。
預設值:false
readerCaseSensitive
類型:Boolean
指定啟用 rescuedDataColumn 時的大小寫敏感行為。 如果為 true,則拯救那些名稱大小寫與模式不符的資料行;否則,以不區分大小寫的方式讀取資料。
預設值:true
rescuedDataColumn
類型:String
是否將因資料類型不符和架構不符(包括欄位大小寫)而無法解析的所有資料收集至單獨的欄位。 使用自動載入器時,系統會預設包含這個欄位。
COPY INTO (舊版) 不支援已獲救的數據行,因為您無法使用 COPY INTO手動設定架構。 Databricks 建議針對大部分的擷取案例使用自動載入器。
如需詳細資料,請參閱什麼是復原的資料欄?
預設值:無

BINARYFILE 選項

二進位檔案沒有任何額外的組態選項。

TEXT 選項

選項
encoding
類型:String
TEXT 檔案編碼的名稱。 如需選項清單,請參閱 java.nio.charset.Charset
預設值:UTF-8
lineSep
類型:String
兩筆連續 TEXT 記錄之間的字串。
預設值:無,其中涵蓋 \r\r\n\n
wholeText
類型:Boolean
是否要將檔案讀取為單一記錄。
預設值:false

ORC 選項

選項
mergeSchema
類型:Boolean
是否要跨多個檔案推斷結構描述,以及合併每個檔案的結構描述。
預設值:false

雲端特定選項

自動載入器提供許多用於設定雲端基礎結構的選項。

AWS 特定選項

只有在您選擇 cloudFiles.useNotifications = true 且希望自動載入器為您設定通知服務時,才提供下列選項:

選項
cloudFiles.region
類型:String
S3 貯體之所在區域,以及將建立 AWS SNS 和 SQS 服務的地區。
預設值:EC2 執行個體的區域。

只有在您選擇 cloudFiles.useNotifications = true 且希望自動載入器使用您已設定的佇列時,才提供下列選項:

選項
cloudFiles.queueUrl
類型:String
SQS 佇列的 URL。 如果提供此選項,則自動載入器會直接取用此佇列中的事件,而不是設定自己的 AWS SNS 和 SQS 服務。
預設值:無

AWS 驗證選項

提供下列驗證選項,以使用 Databricks 服務認證:

選項
databricks.serviceCredential
類型:String
Databricks 服務認證的名稱
預設值:無

當 Databricks 服務認證或 IAM 角色無法使用時,您可以改為提供下列驗證選項:

選項
cloudFiles.awsAccessKey
類型:String
使用者的 AWS 存取金鑰識別碼。 必須與以下選項一起提供:
cloudFiles.awsSecretKey.
預設值:無
cloudFiles.awsSecretKey
類型:String
使用者的 AWS 祕密存取金鑰。 必須與以下選項一起提供:
cloudFiles.awsAccessKey.
預設值:無
cloudFiles.roleArn
類型:String
如有需要,要承擔之 IAM 角色的 ARN。 您可以透過叢集的實例設定檔或提供憑證來擔任該角色:
cloudFiles.awsAccessKeycloudFiles.awsSecretKey
預設值:無
cloudFiles.roleExternalId
類型:String
使用 cloudFiles.roleArn 擔任角色時提供的識別碼。
預設值:無
cloudFiles.roleSessionName
類型:String
假設角色時可使用的選擇性會話名稱:
cloudFiles.roleArn.
預設值:無
cloudFiles.stsEndpoint
類型:String
一個可選的端點,用於在使用 cloudFiles.roleArn 假設角色時存取 AWS STS。
預設值:無

Azure 特定選項

如果您指定 cloudFiles.useNotifications = true,並且希望自動載入器設定通知服務,則必須為下列所有選項提供值:

選項
cloudFiles.resourceGroup
類型:String
在其下建立儲存體帳戶的 Azure 資源群組。
預設值:無
cloudFiles.subscriptionId
類型:String
用於建立資源群組的 Azure 訂閱識別碼。
預設值:無
databricks.serviceCredential
類型:String
Databricks 服務認證的名稱
預設值:無

如果 Databricks 服務認證無法使用,您可以改為提供下列驗證選項:

選項
cloudFiles.clientId
類型:String
服務主體的用戶端識別碼或應用程式識別碼。
預設值:無
cloudFiles.clientSecret
類型:String
服務主體的用戶端密鑰。
預設值:無
cloudFiles.connectionString
類型:String
儲存體帳戶的連接字串,基於帳戶存取金鑰或共用存取簽章 (SAS)。
預設值:無
cloudFiles.tenantId
類型:String
用於建立服務主體的 Azure 租用戶識別碼。
預設值:無

重要

使用 Databricks Runtime 9.1 和更新版本可在 Azure 中國和政府區域中使用自動通知設定。 對於較舊的 DBR 版本,您必須在這些區域中提供 queueName,才能將自動載入器與檔案通知搭配使用。

只有在您選擇 cloudFiles.useNotifications = true 且希望自動載入器使用您已設定的佇列時,才提供下列選項:

選項
cloudFiles.queueName
類型:String
Azure 佇列的名稱。 如果提供此選項,則雲端檔案來源將直接取用此佇列中的事件,而不是設定自身的 Azure 事件方格和佇列儲存體服務。 在此情況下,您的 databricks.serviceCredentialcloudFiles.connectionString 只需具有佇列的讀取權限。
預設值:無

Google 特定選項

自動載入器可利用 Databricks 服務認證,自動為您設定通知服務。 使用 Databricks 服務認證建立的服務帳戶將需要 什麼是自動載入器檔案通知模式中指定的許可權?

選項
cloudFiles.projectId
類型:String
GCS 儲存桶所在的專案識別碼。 Google Cloud Pub/Sub 訂用帳戶也會在此專案內建立。
預設值:無
databricks.serviceCredential
類型:String
Databricks 服務認證的名稱
預設值:無

如果 Databricks 服務認證無法使用,您可以直接使用 Google 服務帳戶。 您可以依照 Google 服務設定,或直接提供下列驗證選項,將您的叢集設定為假設服務帳戶:

選項
cloudFiles.client
類型:String
Google 服務帳戶的用戶端識別碼。
預設值:無
cloudFiles.clientEmail
類型:String
Google 服務帳戶的電子郵件。
預設值:無
cloudFiles.privateKey
類型:String
為 Google 服務帳戶產生的私密金鑰。
預設值:無
cloudFiles.privateKeyId
類型:String
為 Google 服務帳戶產生的私密金鑰識別碼。
預設值:無

只有在您選擇 cloudFiles.useNotifications = true 且希望自動載入器使用您已設定的佇列時,才提供下列選項:

選項
cloudFiles.subscription
類型:String
Google Cloud Pub/Sub 訂用帳戶的名稱。 如果提供此選項,則雲端檔案來源將取用此佇列中的事件,而不是設定自身的 GCS 通知和 Google Cloud Pub/Sub 服務。
預設值:無