Denne artikkelen viser svar på vanlige spørsmål om administrasjonsinnstillinger for Apache Spark-arbeidsområder.
Hvordan bruke RBAC-rollene til å konfigurere innstillingene for Spark-arbeidsområdet?
Bruk Behandle Tilgang-menyen til å legge til administratortillatelser for bestemte brukere, distribusjonsgrupper eller sikkerhetsgrupper. Du kan også bruke denne menyen til å gjøre endringer i arbeidsområdet og gi tilgang til å legge til, endre eller slette innstillingene for Spark-arbeidsområdet.
Gjelder endringene for Spark-egenskapene på miljønivå for aktive notatblokkøkter eller planlagte Spark-jobber?
Når du gjør en konfigurasjonsendring på arbeidsområdenivå, brukes den ikke på aktive Spark-økter. Dette inkluderer satsvise økter eller notatblokkbaserte økter. Du må starte en ny notatblokk eller en satsvis økt etter at du har lagret de nye konfigurasjonsinnstillingene for at innstillingene skal tre i kraft.
Kan jeg konfigurere nodefamilien, Spark runtime og Spark-egenskapene på kapasitetsnivå?
Ja, du kan endre kjøretiden, eller administrere spark-egenskapene ved hjelp av innstillingene for Dataingeniør ing/vitenskap som en del av siden for innstillinger for kapasitetsadministrator. Du trenger tilgang til kapasitetsadministratoren for å vise og endre disse kapasitetsinnstillingene.
Kan jeg velge forskjellige nodefamilier for forskjellige notatblokker og Spark-jobbdefinisjoner i arbeidsområdet?
For øyeblikket kan du bare velge minneoptimalisert basert nodefamilie for hele arbeidsområdet.
Kan jeg konfigurere disse innstillingene på notatblokknivå?
Ja, du kan bruke %%configure til å tilpasse egenskaper på Spark-øktnivå i notatblokker
Kan jeg konfigurere minimum og maksimalt antall noder for den valgte nodefamilien?
Ja, du kan velge min- og maksnodene basert på tillatte maksimumsgrenser for stoffkapasiteten som er koblet til Fabric-arbeidsområdet.
Kan jeg aktivere autoskalering for Spark Pools i en minneoptimalisert eller maskinvareakselerert GPU-basert nodefamilie?
Autoskalering er tilgjengelig for Spark-bassenger og aktivering som gjør at systemet automatisk kan skalere opp databehandlingen basert på jobbfasene under kjøretid. GPU-er er for øyeblikket utilgjengelige. Denne funksjonen aktiveres i fremtidige versjoner.
Støttes eller aktiveres intelligent hurtigbufring for Spark Pools som standard for et arbeidsområde?
Intelligent hurtigbufring er aktivert som standard for Spark-utvalgene for alle arbeidsområder.