INSERT OVERWRITE DIRECTORY
Область применения: Databricks SQL Databricks Runtime
Перезаписывает существующие данные в директории новым values с использованием заданного формата файла Spark. Добавляемые строки определяются выражениями значений или результатом запроса.
Синтаксис
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameters
directory_path
Каталог назначения. Также его можно указать в
OPTIONS
с помощьюpath
. Ключевое словоLOCAL
обозначает, что каталог находится в локальной файловой системе.file_format
Формат файла, используемый для insert. Допускаются следующие значения:
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
,LIBSVM
или полное имя класса пользовательской реализацииorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { ключ [ = val } [ , ... ] )
Задает один или несколько параметров для записи формата файла.
VALUES ( { значение | NULL } [ , … ] ) [ , ( … ) ]
values, который нужно вставить. Можно вставить явно указанное значение или NULL. Для разделения значений в предложении используйте запятую. Можно указать несколько setvalues для insert нескольких строк.
query
Запрос, создающий вставляемые строки. Один из следующих форматов:
- Инструкция
SELECT
- Инструкция
TABLE
- Инструкция
FROM
- Инструкция
Примеры
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;