INSERT OVERWRITE DIRECTORY
S’applique à : Databricks SQL Databricks Runtime
Remplace les données existantes dans le répertoire par les nouvelles valeurs en utilisant un format de fichier Spark donné. Vous spécifiez les lignes insérées par des expressions de valeur ou le résultat d’une requête.
Syntaxe
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Paramètres
directory_path
Répertoire de destination. Il ne peut être spécifié que dans
OPTIONS
à l’aide depath
. Le mot cléLOCAL
est utilisé pour spécifier que le répertoire se trouve sur le système de fichiers local.file_format
Format de fichier à utiliser pour l’insertion. Les options valides sont
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
,LIBSVM
, ou un nom de classe complet d’une implémentation personnalisée deorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , … ] )
Spécifie une ou plusieurs options pour l’écriture du format de fichier.
VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]
Valeurs à insérer. Vous pouvez insérer une valeur spécifiée explicitement ou une valeur NULL. Une virgule doit être utilisée pour séparer les valeurs dans la clause. Vous pouvez spécifier plusieurs jeux de valeurs pour insérer plusieurs lignes.
query
Requête qui produit les lignes à insérer. Les formats possibles sont les suivants :
- Instruction
SELECT
- Instruction
TABLE
- Instruction
FROM
- Instruction
Exemples
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;