En este artículo, se muestran las respuestas a las preguntas más frecuentes sobre la configuración de administración del área de trabajo de Apache Spark.
¿Cómo puedo usar los roles RBAC para configurar las opciones del área de trabajo de Spark?
Use el menú Administrar acceso para agregar permisos de Administración para usuarios específicos, grupos de distribución o grupos de seguridad. También puede usar este menú para realizar cambios en el área de trabajo y para conceder acceso para agregar, modificar o eliminar la configuración del área de trabajo de Spark.
¿Los cambios realizados en las propiedades de Spark en el nivel de entorno se aplican a las sesiones activas del cuaderno o a los trabajos de Spark programados?
Cuando se realiza un cambio de configuración en el nivel de área de trabajo, no se aplica a las sesiones activas de Spark. Esto incluye sesiones basadas en lotes o cuadernos. Debe iniciar un nuevo cuaderno o una sesión por lotes después de guardar las nuevas opciones de configuración para que la configuración surta efecto.
¿Puedo configurar la familia de nodos, el entorno de ejecución de Spark y las propiedades de Spark en un nivel de capacidad?
Sí, puede cambiar el entorno de ejecución o administrar las propiedades de Spark mediante la configuración de Ingeniería de datos o Ciencia de datos como parte de la página de configuración del administrador de capacidad. Necesita tener acceso de administrador de capacidad para ver y cambiar esta configuración de capacidad.
¿Puedo elegir diferentes familias de nodos para distintos cuadernos y definiciones de trabajos de Spark en mi área de trabajo?
Actualmente, solo puede seleccionar la familia de nodos optimizada para memoria para toda el área de trabajo.
¿Puedo configurar estas opciones en un nivel de cuaderno?
Sí, puede usar %%configure para personalizar las propiedades en el nivel de sesión de Spark en cuadernos.
¿Puedo configurar el número mínimo y máximo de nodos para la familia de nodos seleccionada?
Sí, puede elegir los nodos mínimo y máximo en función de los límites máximos de ráfaga permitidos de la capacidad de Fabric vinculada al área de trabajo de Fabric.
¿Puedo habilitar el escalado automático para los grupos de Spark en una familia de nodos basada en GPU optimizada para memoria o acelerada mediante hardware?
El escalado automático está disponible para los grupos de Spark y su activación permite al sistema escalar automáticamente el cálculo en función de las fases del trabajo durante el runtime. Las GPU no están disponibles actualmente. Esta funcionalidad se habilitará en futuras versiones.
¿El almacenamiento en caché inteligente para los grupos de Spark es compatible o está habilitado de forma predeterminada para un área de trabajo?
El almacenamiento en caché inteligente está habilitado de forma predeterminada para los grupos de Spark para todas las áreas de trabajo.