Ofte stillede spørgsmål om administrationsindstillinger for Apache Spark-arbejdsområde

Denne artikel indeholder svar på ofte stillede spørgsmål om administrationsindstillinger for Apache Spark-arbejdsområde.

Hvordan gør jeg bruge RBAC-rollerne til at konfigurere indstillingerne for mit Spark-arbejdsområde?

Brug menuen Administrer adgang til at tilføje administratortilladelser for bestemte brugere, distributionsgrupper eller sikkerhedsgrupper. Du kan også bruge denne menu til at foretage ændringer i arbejdsområdet og til at give adgang til at tilføje, redigere eller slette indstillingerne for Spark-arbejdsområdet.

Gælder ændringerne af Spark-egenskaberne på miljøniveau for de aktive notesbogsessioner eller planlagte Spark-job?

Når du foretager en konfigurationsændring på arbejdsområdeniveau, anvendes den ikke på aktive Spark-sessioner. Dette omfatter batch- eller notesbogbaserede sessioner. Du skal starte en ny notesbog eller en batchsession, når du har gemt de nye konfigurationsindstillinger, for at indstillingerne kan træde i kraft.

Kan jeg konfigurere egenskaberne nodefamilie, Spark-kørsel og Spark på kapacitetsniveau?

Ja, du kan ændre kørselstidspunktet eller administrere spark-egenskaberne ved hjælp af indstillingerne for Dataudvikler/Videnskab som en del af siden med indstillinger for kapacitetsadministrator. Du skal have adgang som kapacitetsadministrator for at få vist og ændre disse kapacitetsindstillinger.

Kan jeg vælge forskellige nodefamilier til forskellige notesbøger og Spark-jobdefinitioner i mit arbejdsområde?

I øjeblikket kan du kun vælge Hukommelsesoptimeret baseret nodefamilie for hele arbejdsområdet.

Kan jeg konfigurere disse indstillinger på notesbogniveau?

Ja, du kan bruge %%konfigurer til at tilpasse egenskaber på Spark-sessionsniveau i Notesbøger

Kan jeg konfigurere det mindste og maksimale antal noder for den valgte nodefamilie?

Ja, du kan vælge min. og maks. noder baseret på de tilladte maksimale burstgrænser for Fabric-kapaciteten, der er knyttet til Fabric-arbejdsområdet.

Kan jeg aktivere automatisk skalering for Spark-bassinerne i en hukommelsesoptimeret eller hardwareaccelereret GPU-baseret nodefamilie?

Automatisk skalering er tilgængelig for Spark-puljer og gør det muligt for systemet automatisk at skalere beregningen baseret på jobfaserne under kørsel. GPU'er er ikke tilgængelige i øjeblikket. Denne funktion aktiveres i fremtidige versioner.

Understøttes eller aktiveres Intelligent cachelagring for Spark-grupper som standard for et arbejdsområde?

Intelligent cachelagring er som standard aktiveret for Spark-puljerne for alle arbejdsområder.