INSERT OVERWRITE DIRECTORY
Van toepassing op: Databricks SQL Databricks Runtime
Overschrijft de bestaande gegevens in de map met de nieuwe waarden met behulp van een bepaalde Spark-bestandsindeling. U geeft de ingevoegde rij op op waarde-expressies of het resultaat van een query.
Syntaxis
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameters
directory_path
De doelmap. Het kan ook worden opgegeven in
OPTIONS
het gebruikpath
. HetLOCAL
trefwoord wordt gebruikt om op te geven dat de map zich in het lokale bestandssysteem bevindt.file_format
De bestandsindeling die moet worden gebruikt voor het invoegen. Geldige opties zijn
TEXT
,CSV
,JSON
,JDBC
,PARQUET
, ,ORC
, ,HIVE
ofLIBSVM
een volledig gekwalificeerde klassenaam van een aangepaste implementatie vanorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
Hiermee geeft u een of meer opties voor het schrijven van de bestandsindeling.
VALUES ( { waarde | NULL } [ , ... ] ) [ , ( … ) ]
De waarden die moeten worden ingevoegd. Een expliciet opgegeven waarde of een NULL kan worden ingevoegd. Er moet een komma worden gebruikt om elke waarde in de component te scheiden. Er kunnen meerdere waarden worden opgegeven om meerdere rijen in te voegen.
query
Een query die de rijen produceert die moeten worden ingevoegd. Een van de volgende indelingen:
- Een
SELECT
instructie - Een
TABLE
instructie - Een
FROM
instructie
- Een
Voorbeelden
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;