Kör Spark-kod

Slutförd

Om du vill redigera och köra Spark-kod i Microsoft Fabric kan du använda notebook-filer eller definiera ett Spark-jobb.

Notebook-filer

När du vill använda Spark för att utforska och analysera data interaktivt använder du en notebook-fil. Med notebook-filer kan du kombinera text, bilder och kod som skrivits på flera språk för att skapa ett interaktivt objekt som du kan dela med andra och samarbeta.

Skärmbild av en notebook-fil i Microsoft Fabric.

Notebook-filer består av en eller flera celler, som var och en kan innehålla markdown-formaterat innehåll eller körbar kod. Du kan köra koden interaktivt i notebook-filen och se resultatet direkt.

Definition av Spark-jobb

Om du vill använda Spark för att mata in och transformera data som en del av en automatiserad process kan du definiera ett Spark-jobb för att köra ett skript på begäran eller baserat på ett schema.

Skärmbild av en Spark-jobbdefinition i Microsoft Fabric.

Om du vill konfigurera ett Spark-jobb skapar du en Spark-jobbdefinition på din arbetsyta och anger vilket skript det ska köra. Du kan också ange en referensfil (till exempel en Python-kodfil som innehåller definitioner av funktioner som används i skriptet) och en referens till ett specifikt lakehouse som innehåller data som skriptet bearbetar.