Kör Spark-kod
Om du vill redigera och köra Spark-kod i Microsoft Fabric kan du använda notebook-filer eller definiera ett Spark-jobb.
Notebook-filer
När du vill använda Spark för att utforska och analysera data interaktivt använder du en notebook-fil. Med notebook-filer kan du kombinera text, bilder och kod som skrivits på flera språk för att skapa ett interaktivt objekt som du kan dela med andra och samarbeta.
Notebook-filer består av en eller flera celler, som var och en kan innehålla markdown-formaterat innehåll eller körbar kod. Du kan köra koden interaktivt i notebook-filen och se resultatet direkt.
Definition av Spark-jobb
Om du vill använda Spark för att mata in och transformera data som en del av en automatiserad process kan du definiera ett Spark-jobb för att köra ett skript på begäran eller baserat på ett schema.
Om du vill konfigurera ett Spark-jobb skapar du en Spark-jobbdefinition på din arbetsyta och anger vilket skript det ska köra. Du kan också ange en referensfil (till exempel en Python-kodfil som innehåller definitioner av funktioner som används i skriptet) och en referens till ett specifikt lakehouse som innehåller data som skriptet bearbetar.