INSERT OVERWRITE DIRECTORY
Gilt für: Databricks SQL Databricks Runtime
Überschreibt die vorhandenen Daten im Verzeichnis mit den neuen Werten unter Verwendung eines bestimmten Spark-Dateiformats. Sie geben die eingefügte Zeile über Wertausdrücke oder das Ergebnis einer Abfrage an.
Syntax
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameter
directory_path
Das Zielverzeichnis. Es kann auch in
OPTIONS
mitpath
angegeben werden. Das SchlüsselwortLOCAL
wird verwendet, um anzugeben, dass sich das Verzeichnis im lokalen Dateisystem befindet.file_format
Das Dateiformat für die Einfügung. Gültige Optionen sind
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
,LIBSVM
oder ein vollqualifizierter Klassenname einer benutzerdefinierten Implementierung vonorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , … ] )
Gibt mindestens eine Option für das Schreiben des Dateiformats an.
VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]
Die einzufügenden Werte. Es kann entweder ein explizit angegebener Wert oder NULL eingefügt werden. Zum Trennen der einzelnen Werte in der Klausel müssen Kommas verwendet werden. Es können mehrere Wertesätze angegeben werden, um mehrere Zeilen einzufügen.
query
Eine Abfrage, die die einzufügenden Zeilen erzeugt. Eines der folgenden Formate:
- Eine
SELECT
-Anweisung - Eine
TABLE
-Anweisung - Eine
FROM
-Anweisung
- Eine
Beispiele
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;