INSERT OVERWRITE DIRECTORY
Se aplica a: Databricks SQL Databricks Runtime
Sobrescribe los datos existentes en el directorio con los nuevos valores, para lo que usa un formato de archivo de Spark dado. Especifique la fila insertada por expresiones de valor o el resultado de una consulta.
Sintaxis
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parámetros
directory_path
El directorio de destino. También se puede especificar en
OPTIONS
mediantepath
. La palabra claveLOCAL
se usa para especificar que el directorio está en el sistema de archivos local.file_format
Formato de archivo que se usa para la inserción. Las opciones válidas son
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
uLIBSVM
, o un nombre de clase completo de una implementación personalizada deorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , … ] )
Especifica una o varias opciones para escribir el formato de archivo.
VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]
Valores que se van a insertar. Se puede insertar un valor especificado explícitamente o un valor NULL. Se debe usar una coma para separar cada valor de la cláusula. Se puede especificar más de un conjunto de valores para insertar varias filas.
consulta
Consulta que genera las filas que se van a insertar. Uno de los siguientes formatos:
- Una instrucción
SELECT
- Una instrucción
TABLE
- Una instrucción
FROM
- Una instrucción
Ejemplos
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;