In diesem Artikel finden Sie Antworten auf häufig gestellte Fragen zu den Arbeitsbereichs-Verwaltungseinstellungen für Apache Spark.
Wie werden die RBAC-Rollen verwendet, um Spark-Arbeitsbereichseinstellungen zu konfigurieren?
Verwenden Sie das Menü Zugriff verwalten, um Administrator-Berechtigungen für bestimmte Benutzer, Verteilergruppen oder Sicherheitsgruppen hinzuzufügen. Sie können dieses Menü außerdem verwenden, um Änderungen am Arbeitsbereich vorzunehmen und den Zugriff zum Hinzufügen, Ändern oder Löschen der Spark-Arbeitsbereichseinstellungen zu erteilen.
Gelten die Änderungen an den Spark-Eigenschaften auf Umgebungsebene für die aktiven Notebooksitzungen oder für geplante Spark-Aufträge?
Wenn Sie eine Konfigurationsänderung auf Arbeitsbereichsebene vornehmen, wird sie nicht auf aktive Spark-Sitzungen angewendet. Dies schließt Batch- oder Notebook-basierte Sitzungen ein. Sie müssen nach dem Speichern der neuen Konfigurationseinstellungen ein neues Notebook oder eine Batchsitzung starten, damit die Einstellungen wirksam werden.
Kann ich die Knotenfamilie, die Spark-Runtime und die Spark-Eigenschaften auf Kapazitätsebene konfigurieren?
Ja, Sie können die Runtime ändern oder die Spark-Eigenschaften mithilfe der Einstellungen für Datentechnik/Data Science als Teil der Seite „Kapazitätsadministratoreinstellungen“ verwalten. Sie benötigen den Kapazitätsadministratorzugriff, um diese Kapazitätseinstellungen anzuzeigen und zu ändern.
Kann ich verschiedene Knotenfamilien für verschiedene Notebooks und Spark-Auftragsdefinitionen in meinem Arbeitsbereich auswählen?
Derzeit können Sie nur die auf Speicheroptimierung basierende Knotenfamilie für den gesamten Arbeitsbereich auswählen.
Lassen sich diese Einstellungen auf Notebookebene konfigurieren?
Ja, Sie können %%configure verwenden, um Eigenschaften auf Spark-Sitzungsebene in Notebooks anzupassen.
Kann ich die minimale und maximale Anzahl von Knoten für die ausgewählte Knotenfamilie konfigurieren?
Ja, Sie können die minimale und die maximale Anzahl an Knoten basierend auf den zulässigen maximalen Burst-Grenzen der mit dem Fabric-Arbeitsbereich verknüpften Fabric-Kapazität wählen.
Kann ich die automatische Skalierung für die Spark-Pools in einer speicheroptimierten oder hardwarebeschleunigten GPU-basierten Knotenfamilie aktivieren?
Die automatische Skalierung ist für Spark-Pools verfügbar und ermöglicht es dem System, den Compute basierend auf den Auftragsphasen während der Runtime automatisch hochzuskalieren. GPUs sind derzeit nicht verfügbar. Diese Funktion wird in zukünftigen Releases aktiviert.
Wird intelligentes Zwischenspeichern für die Spark-Pools für einen Arbeitsbereich standardmäßig unterstützt oder aktiviert?
Intelligentes Zwischenspeichern ist standardmäßig für die Spark-Pools für alle Arbeitsbereiche aktiviert.