INSERT OVERWRITE DIRECTORY
適用対象: Databricks SQL Databricks Runtime
指定した Spark ファイル形式を使用して、ディレクトリ内の既存のデータを新しい値で上書きします。 挿入された行は、値式またはクエリの結果によって指定します。
構文
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
パラメーター
directory_path
宛先ディレクトリ。 これは、
OPTIONS
でpath
を使用しても指定できます。LOCAL
キーワードは、ディレクトリがローカル ファイル システム上にあると指定するために使用します。file_format
挿入に使用するファイル形式。 有効なオプションは、
TEXT
、CSV
、JSON
、JDBC
、PARQUET
、ORC
、HIVE
、LIBSVM
、またはorg.apache.spark.sql.execution.datasources.FileFormat
のカスタム実装の完全修飾クラス名です。OPTIONS ( { key [ = ] val } [ , … ] )
ファイル形式の書き込みオプションを 1 つ以上指定します。
VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]
挿入される値。 明示的に指定された値または NULL のいずれかを挿入できます。 句の中でそれぞれの値を区切るには、コンマを使用する必要があります。 複数の行を挿入するために、値のセットを複数指定できます。
query
挿入する行を生成するクエリ。 次のいずれかの形式です。
SELECT
ステートメントTABLE
ステートメントFROM
ステートメント
例
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;