In dit artikel vindt u antwoorden op veelgestelde vragen over beheerinstellingen voor Apache Spark-werkruimten.
Hoe kan ik de RBAC-rollen gebruiken om mijn Spark-werkruimte-instellingen te configureren?
Gebruik het menu Toegang beheren om beheerdersmachtigingen toe te voegen voor specifieke gebruikers, distributiegroepen of beveiligingsgroepen. U kunt dit menu ook gebruiken om wijzigingen aan te brengen in de werkruimte en om toegang te verlenen om de instellingen van de Spark-werkruimte toe te voegen, te wijzigen of te verwijderen.
Zijn de wijzigingen die zijn aangebracht in de Spark-eigenschappen op omgevingsniveau van toepassing op de actieve notebooksessies of geplande Spark-taken?
Wanneer u een configuratiewijziging aanbrengt op werkruimteniveau, wordt deze niet toegepast op actieve Spark-sessies. Dit omvat batch- of notebooksessies. U moet een nieuw notebook of een batchsessie starten nadat u de nieuwe configuratie-instellingen hebt opgeslagen om de instellingen van kracht te laten worden.
Kan ik de knooppuntfamilie, Spark-runtime en Spark-eigenschappen op capaciteitsniveau configureren?
Ja, u kunt de runtime wijzigen of de spark-eigenschappen beheren met behulp van de instellingen voor Data-engineer/Wetenschap als onderdeel van de pagina instellingen voor capaciteitsbeheerders. U hebt de capaciteitsbeheerderstoegang nodig om deze capaciteitsinstellingen weer te geven en te wijzigen.
Kan ik verschillende knooppuntfamilies kiezen voor verschillende notebooks en Spark-taakdefinities in mijn werkruimte?
Op dit moment kunt u alleen op geheugen geoptimaliseerde knooppuntfamilie voor de hele werkruimte selecteren.
Kan ik deze instellingen configureren op notebookniveau?
Ja, u kunt %%configureren om eigenschappen aan te passen op spark-sessieniveau in Notebooks
Kan ik het minimum- en maximum aantal knooppunten configureren voor de geselecteerde knooppuntfamilie?
Ja, u kunt de minimale en maximale knooppunten kiezen op basis van de toegestane maximale burstlimieten van de infrastructuurcapaciteit die is gekoppeld aan de infrastructuurwerkruimte.
Kan ik automatisch schalen inschakelen voor de Spark-pools in een op geheugen geoptimaliseerde of hardwareversnelde GPU-knooppuntfamilie?
Automatisch schalen is beschikbaar voor Spark-pools en het inschakelen waarmee het systeem de berekening automatisch kan opschalen op basis van de taakfasen tijdens runtime. GPU's zijn momenteel niet beschikbaar. Deze mogelijkheid wordt ingeschakeld in toekomstige releases.
Wordt Intelligent Caching voor de Spark-pools standaard ondersteund of ingeschakeld voor een werkruimte?
Intelligente caching is standaard ingeschakeld voor de Spark-pools voor alle werkruimten.