INSERT OVERWRITE DIRECTORY
Gäller för: Databricks SQL Databricks Runtime
Skriver över befintliga data i katalogen med den nya values med ett visst Spark-filformat. Du anger den infogade raden efter värdeuttryck eller resultatet av en fråga.
Syntax
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameters
directory_path
Målkatalogen. Det kan också anges i
OPTIONS
med hjälp avpath
. NyckelordetLOCAL
används för att ange att katalogen finns i det lokala filsystemet.file_format
Filformatet som ska användas för insert. Giltiga alternativ är
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
LIBSVM
eller ett fullständigt kvalificerat klassnamn för en anpassad implementering avorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
Anger ett eller flera alternativ för skrivning av filformatet.
VALUES ( { värde | NULL } [ , ... ] ) [ , ( … ) ]
values som ska infogas. Antingen kan ett uttryckligt angivet värde eller en NULL infogas. Ett kommatecken måste användas för att avgränsa varje värde i -satsen. Mer än en set av values kan anges för att insert flera rader.
fråga
En fråga som skapar de rader som ska infogas. Något av följande format:
- En
SELECT
instruktion - En
TABLE
instruktion - En
FROM
instruktion
- En
Exempel
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;