INSERT OVERWRITE DIRECTORY
適用於: Databricks SQL Databricks Runtime
使用指定的 Spark 檔案格式,以新的值覆寫目錄中的現有數據。 您可以依值表示式或查詢結果指定插入的數據列。
語法
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
參數
directory_path
目的地目錄。 您也可以使用
path
來OPTIONS
指定。LOCAL
關鍵詞用來指定目錄位於本機檔案系統上。file_format
要用於插入的檔案格式。 有效的選項為
TEXT
、CSV
、、、HIVE
JDBC
PARQUET
JSON
ORC
、LIBSVM
或 自定義實org.apache.spark.sql.execution.datasources.FileFormat
作的完整類別名稱。OPTIONS ( { key [ = ] val } [ , ... ] )
指定寫入檔案格式的一或多個選項。
VALUES ( { value |NULL } [ , ... ][ , ( … ) ]
要插入的值。 可以插入明確指定的值或 NULL。 逗號必須用來分隔 子句中的每個值。 您可以指定一組以上的值來插入多個資料列。
query
產生要插入之數據列的查詢。 下列其中一種格式:
- 語句
SELECT
- 語句
TABLE
- 語句
FROM
- 語句
範例
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;