Upravit

Sdílet prostřednictvím


Nejčastější dotazy k nastavení správy pracovních prostorů Apache Sparku

Tento článek obsahuje odpovědi na nejčastější dotazy týkající se nastavení správy pracovních prostorů Apache Sparku.

Návody ke konfiguraci nastavení pracovního prostoru Sparku použít role RBAC?

Pomocí nabídky Spravovat přístup můžete přidat oprávnění správce pro konkrétní uživatele, distribuční skupiny nebo skupiny zabezpečení. Pomocí této nabídky můžete také provést změny pracovního prostoru a udělit přístup k přidání, úpravě nebo odstranění nastavení pracovního prostoru Sparku.

Provádějí se změny vlastností Sparku na úrovni prostředí u aktivních relací poznámkového bloku nebo plánovaných úloh Sparku?

Když provedete změnu konfigurace na úrovni pracovního prostoru, nepoužije se u aktivních relací Sparku. To zahrnuje dávkové relace nebo relace založené na poznámkových blocích. Po uložení nového nastavení konfigurace musíte spustit nový poznámkový blok nebo dávkovou relaci, aby se nastavení projevila.

Můžu nakonfigurovat řadu uzlů, modul runtime Sparku a vlastnosti Sparku na úrovni kapacity?

Ano, modul runtime můžete změnit nebo spravovat vlastnosti sparku pomocí nastavení Datoví technici/Vědy jako součást stránky nastavení správce kapacity. K zobrazení a změně těchto nastavení kapacity potřebujete přístup správce kapacity.

Můžu v pracovním prostoru zvolit různé rodiny uzlů pro různé poznámkové bloky a definice úloh Sparku?

V současné době můžete vybrat pouze řadu uzlů založených na paměti pro celý pracovní prostor.

Můžu tato nastavení nakonfigurovat na úrovni poznámkového bloku?

Ano, můžete použít %%configure k přizpůsobení vlastností na úrovni relace Sparku v poznámkových blocích.

Můžu pro vybranou řadu uzlů nakonfigurovat minimální a maximální počet uzlů?

Ano, můžete zvolit minimální a maximální počet uzlů na základě povolených limitů maximálního nárůstu kapacity prostředků infrastruktury propojeného s pracovním prostorem Fabric.

Můžu pro fondy Sparku povolit automatické škálování v sadě uzlů optimalizovaných pro paměť nebo hardwarově akcelerovanou řadu uzlů založených na GPU?

Automatické škálování je k dispozici pro fondy Spark a umožňuje systému automaticky vertikálně navýšit kapacitu výpočetních prostředků na základě fází úlohy během běhu. Gpu jsou momentálně nedostupná. Tato funkce bude povolená v budoucích verzích.

Podporuje se inteligentní ukládání do mezipaměti pro fondy Sparku nebo je ve výchozím nastavení povolené pro pracovní prostor?

Inteligentní ukládání do mezipaměti je ve výchozím nastavení povolené pro fondy Sparku pro všechny pracovní prostory.