共用方式為


INSERT OVERWRITE DIRECTORY

適用於: 核取記號為「是」Databricks SQL 核取記號為「是」Databricks Runtime

使用指定的 Spark 檔案格式,以新的值覆寫目錄中的現有數據。 您可以依值表示式或查詢結果指定插入的數據列。

語法

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

參數

  • directory_path

    目的地目錄。 您也可以使用 pathOPTIONS指定。 LOCAL關鍵詞用來指定目錄位於本機檔案系統上。

  • file_format

    要用於插入的檔案格式。 有效的選項為 TEXTCSV、、、HIVEJDBCPARQUETJSONORCLIBSVM或 自定義實org.apache.spark.sql.execution.datasources.FileFormat作的完整類別名稱。

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    指定寫入檔案格式的一或多個選項。

  • VALUES ( { value |NULL } [ , ... ][ , ( … ) ]

    要插入的值。 可以插入明確指定的值或 NULL。 逗號必須用來分隔 子句中的每個值。 您可以指定一組以上的值來插入多個資料列。

  • query

    產生要插入之數據列的查詢。 下列其中一種格式:

    • 語句SELECT
    • 語句TABLE
    • 語句FROM

範例

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;