Dela via


INSERT OVERWRITE DIRECTORY

Gäller för:markerad ja Databricks SQL markerad ja Databricks Runtime

Skriver över befintliga data i katalogen med den nya values med ett visst Spark-filformat. Du anger den infogade raden efter värdeuttryck eller resultatet av en fråga.

Syntax

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parameters

  • directory_path

    Målkatalogen. Det kan också anges i OPTIONS med hjälp av path. Nyckelordet LOCAL används för att ange att katalogen finns i det lokala filsystemet.

  • file_format

    Filformatet som ska användas för insert. Giltiga alternativ är TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVELIBSVMeller ett fullständigt kvalificerat klassnamn för en anpassad implementering av org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Anger ett eller flera alternativ för skrivning av filformatet.

  • VALUES ( { värde | NULL } [ , ... ] ) [ , ( … ) ]

    values som ska infogas. Antingen kan ett uttryckligt angivet värde eller en NULL infogas. Ett kommatecken måste användas för att avgränsa varje värde i -satsen. Mer än en set av values kan anges för att insert flera rader.

  • fråga

    En fråga som skapar de rader som ska infogas. Något av följande format:

    • En SELECT instruktion
    • En TABLE instruktion
    • En FROM instruktion

Exempel

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;