INSERT OVERWRITE DIRECTORY
Platí pro: Databricks SQL Databricks Runtime
Přepíše existující data v adresáři novými hodnotami pomocí daného formátu souboru Sparku. Vložený řádek zadáte podle výrazů hodnot nebo výsledku dotazu.
Syntaxe
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parametry
directory_path
Cílový adresář. Lze jej také zadat pomocí
OPTIONS
path
. KlíčovéLOCAL
slovo se používá k určení, že adresář je v místním systému souborů.file_format
Formát souboru, který se má použít pro vložení. Platné možnosti jsou
TEXT
, ,CSV
,JDBC
JSON
,PARQUET
ORC
HIVE
,LIBSVM
, nebo plně kvalifikovaný název třídy vlastní implementace .org.apache.spark.sql.execution.datasources.FileFormat
OPTIONS ( { klíč [ = ] val } [ , ... ] )
Určuje jednu nebo více možností zápisu formátu souboru.
VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]
Hodnoty, které se mají vložit. Můžete vložit explicitně zadanou hodnotu nebo hodnotu NULL. Čárka musí být použita k oddělení každé hodnoty v klauzuli. Pro vložení více řádků lze zadat více než jednu sadu hodnot.
query
Dotaz, který vytvoří řádky, které se mají vložit. Jeden z následujících formátů:
- Příkaz A
SELECT
- Příkaz A
TABLE
- Příkaz A
FROM
- Příkaz A
Příklady
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;