INSERT OVERWRITE DIRECTORY
Dotyczy: Databricks SQL Databricks Runtime
Zastępuje istniejące dane w katalogu nowymi wartościami przy użyciu danego formatu pliku Spark. Należy określić wstawiony wiersz według wyrażeń wartości lub wyniku zapytania.
Składnia
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parametry
directory_path
Katalog docelowy. Można go również określić przy
OPTIONS
użyciu poleceniapath
. SłowoLOCAL
kluczowe służy do określania, że katalog znajduje się w lokalnym systemie plików.file_format
Format pliku, który ma być używany do wstawiania. Prawidłowe opcje to
TEXT
, ,JSON
CSV
,JDBC
PARQUET
HIVE
ORC
LIBSVM
lub w pełni kwalifikowana nazwa klasy niestandardowej implementacji .org.apache.spark.sql.execution.datasources.FileFormat
OPTIONS ( { key [ = ] val } [ , ... ] )
Określa co najmniej jedną opcję zapisu formatu pliku.
VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]
Wartości do wstawienia. Można wstawić jawnie określoną wartość lub wartość NULL. Przecinek musi być używany do oddzielania każdej wartości w klauzuli . Można określić więcej niż jeden zestaw wartości, aby wstawić wiele wierszy.
query
Zapytanie, które generuje wiersze do wstawienia. Jeden z następujących formatów:
- Instrukcja
SELECT
- Instrukcja
TABLE
- Instrukcja
FROM
- Instrukcja
Przykłady
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;