Rediger

Del via


Vanlige spørsmål om administrasjonsinnstillinger for Apache Spark-arbeidsområdet

Denne artikkelen viser svar på vanlige spørsmål om administrasjonsinnstillinger for Apache Spark-arbeidsområder.

Hvordan bruke RBAC-rollene til å konfigurere innstillingene for Spark-arbeidsområdet?

Bruk Behandle Tilgang-menyen til å legge til administratortillatelser for bestemte brukere, distribusjonsgrupper eller sikkerhetsgrupper. Du kan også bruke denne menyen til å gjøre endringer i arbeidsområdet og gi tilgang til å legge til, endre eller slette innstillingene for Spark-arbeidsområdet.

Gjelder endringene for Spark-egenskapene på miljønivå for aktive notatblokkøkter eller planlagte Spark-jobber?

Når du gjør en konfigurasjonsendring på arbeidsområdenivå, brukes den ikke på aktive Spark-økter. Dette inkluderer satsvise økter eller notatblokkbaserte økter. Du må starte en ny notatblokk eller en satsvis økt etter at du har lagret de nye konfigurasjonsinnstillingene for at innstillingene skal tre i kraft.

Kan jeg konfigurere nodefamilien, Spark runtime og Spark-egenskapene på kapasitetsnivå?

Ja, du kan endre kjøretiden, eller administrere spark-egenskapene ved hjelp av innstillingene for Dataingeniør ing/vitenskap som en del av siden for innstillinger for kapasitetsadministrator. Du trenger tilgang til kapasitetsadministratoren for å vise og endre disse kapasitetsinnstillingene.

Kan jeg velge forskjellige nodefamilier for forskjellige notatblokker og Spark-jobbdefinisjoner i arbeidsområdet?

For øyeblikket kan du bare velge minneoptimalisert basert nodefamilie for hele arbeidsområdet.

Kan jeg konfigurere disse innstillingene på notatblokknivå?

Ja, du kan bruke %%configure til å tilpasse egenskaper på Spark-øktnivå i notatblokker

Kan jeg konfigurere minimum og maksimalt antall noder for den valgte nodefamilien?

Ja, du kan velge min- og maksnodene basert på tillatte maksimumsgrenser for stoffkapasiteten som er koblet til Fabric-arbeidsområdet.

Kan jeg aktivere autoskalering for Spark Pools i en minneoptimalisert eller maskinvareakselerert GPU-basert nodefamilie?

Autoskalering er tilgjengelig for Spark-bassenger og aktivering som gjør at systemet automatisk kan skalere opp databehandlingen basert på jobbfasene under kjøretid. GPU-er er for øyeblikket utilgjengelige. Denne funksjonen aktiveres i fremtidige versjoner.

Støttes eller aktiveres intelligent hurtigbufring for Spark Pools som standard for et arbeidsområde?

Intelligent hurtigbufring er aktivert som standard for Spark-utvalgene for alle arbeidsområder.