Redigera

Dela via


Vanliga frågor och svar om administration av Apache Spark-arbetsytor

Den här artikeln innehåller svar på vanliga frågor om administrationsinställningar för Apache Spark-arbetsytor.

Hur gör jag för att använda RBAC-rollerna för att konfigurera mina Spark-arbetsyteinställningar?

Använd menyn Hantera åtkomst för att lägga till administratörsbehörigheter för specifika användare, distributionsgrupper eller säkerhetsgrupper. Du kan också använda den här menyn för att göra ändringar i arbetsytan och ge åtkomst till att lägga till, ändra eller ta bort Spark-arbetsyteinställningarna.

Gäller ändringarna av Spark-egenskaperna på miljönivå för aktiva notebook-sessioner eller schemalagda Spark-jobb?

När du gör en konfigurationsändring på arbetsytans nivå tillämpas den inte på aktiva Spark-sessioner. Detta inkluderar batch- eller notebook-baserade sessioner. Du måste starta en ny notebook-fil eller en batchsession när du har sparat de nya konfigurationsinställningarna för att inställningarna ska börja gälla.

Kan jag konfigurera nodfamiljen, Spark-körningen och Spark-egenskaperna på kapacitetsnivå?

Ja, du kan ändra körningen eller hantera spark-egenskaperna med hjälp av inställningarna för Dataingenjör ing/vetenskap som en del av sidan för kapacitetsadministratörsinställningar. Du behöver kapacitetsadministratörsåtkomst för att visa och ändra dessa kapacitetsinställningar.

Kan jag välja olika nodfamiljer för olika notebook-filer och Spark-jobbdefinitioner på min arbetsyta?

För närvarande kan du bara välja Minnesoptimerad baserad nodfamilj för hela arbetsytan.

Kan jag konfigurera de här inställningarna på notebook-nivå?

Ja, du kan använda %%configure för att anpassa egenskaper på Spark-sessionsnivå i Notebooks

Kan jag konfigurera det lägsta och högsta antalet noder för den valda nodfamiljen?

Ja, du kan välja noderna min och max baserat på den tillåtna maxgränsen för den infrastrukturkapacitet som är länkad till arbetsytan Infrastruktur.

Kan jag aktivera automatisk skalning för Spark-pooler i en minnesoptimerad eller maskinvaruaccelererad GPU-baserad nodfamilj?

Automatisk skalning är tillgängligt för Spark-pooler och aktivering som gör att systemet automatiskt kan skala upp beräkningen baserat på jobbfaserna under körningen. GPU:er är för närvarande inte tillgängliga. Den här funktionen aktiveras i framtida versioner.

Stöds eller aktiveras Intelligent cachelagring för Spark-poolerna som standard för en arbetsyta?

Intelligent cachelagring är aktiverat som standard för Spark-poolerna för alla arbetsytor.