Compartir vía


¿Qué es Apache Spark en Azure Synapse Analytics?

Apache Spark es una plataforma de procesamiento paralelo que admite el procesamiento en memoria para mejorar el rendimiento de aplicaciones de análisis de macrodatos. Apache Spark en Azure Synapse Analytics es una de las implementaciones de Microsoft de Apache Spark en la nube. Azure Synapse facilita la creación y la configuración de un grupo de Apache Spark sin servidor en Azure. Los grupos de Spark en Azure Synapse son compatibles con Azure Storage y Azure Data Lake Storage Generation 2. Por lo tanto, puede usar grupos de Spark para procesar los datos almacenados en Azure.

Diagrama en el que se muestran Spark SQL, Spark MLib y GraphX vinculados al motor principal de Spark, por encima de una capa de YARN sobre los servicios de almacenamiento.

¿Qué es Apache Spark?

Apache Spark proporciona primitivas para la computación de clústeres en memoria. Un trabajo de Spark puede cargar y almacenar en la memoria caché datos, y repetir consultas sobre ellos. La computación en memoria es más rápida que las aplicaciones basadas en disco. Spark también se integra con varios lenguajes de programación para que pueda manipular los conjuntos de datos distribuidos, como las colecciones locales. No se necesita estructurar todo como operaciones de asignación y reducción. Puede obtener más información en el vídeo de Apache Spark para Synapse.

Diagrama en el que se muestra MapReduce tradicional, con aplicaciones basadas en disco y Spark, con operaciones basadas en caché.

Los grupos de Spark en Azure Synapse ofrecen un servicio de Spark totalmente administrado. A continuación, se enumeran las ventajas de crear un grupo de Spark en Azure Synapse Analytics.

Característica Descripción
Velocidad y eficacia Las instancias de Spark comienzan en aproximadamente 2 minutos cuando hay menos de 60 nodos y en unos 5 minutos cuando hay más de 60 nodos. De forma predeterminada, la instancia se cierra 5 minutos después del último trabajo que se ejecuta, a menos que se mantenga activa mediante una conexión de cuaderno.
Creación fácil Puede crear un grupo de Spark en Azure Synapse en unos minutos mediante Azure Portal, Azure PowerShell o el SDK de .NET de Synapse Analytics. Consulte Introducción a los grupos de Spark en Azure Synapse Analytics.
Facilidad de uso Synapse Analytics incluye un cuaderno personalizado derivado de Nteract. Puede usar estos notebooks para el procesamiento y la visualización de datos interactivos.
API de REST Spark en Azure Synapse Analytics incluye Apache Livy, un servidor de trabajos de Spark basado en una API REST para enviar y supervisar trabajos de forma remota.
Compatibilidad con Azure Data Lake Storage Generation 2 Los grupos de Spark en Azure Synapse pueden usar Azure Data Lake Storage Generation 2 y Blob Storage. Para más información sobre Data Lake Storage, consulte Introducción a Azure Data Lake Storage
Integración con IDE de terceros Azure Synapse proporciona un complemento IDE para IntelliJ IDEA de JetBrains, que es útil para crear y enviar aplicaciones a un grupo de Spark.
Bibliotecas de Anaconda precargadas Los grupos de Spark en Azure Synapse vienen con las bibliotecas de Anaconda preinstaladas. Anaconda ofrece casi 200 bibliotecas para el aprendizaje automático, el análisis de datos, la visualización y otras tecnologías.
Escalabilidad Apache Spark en los grupos de Azure Synapse puede tener habilitada la escalabilidad automática, de modo que los grupos se escalen agregando o quitando nodos según sea necesario. Además, se pueden cerrar clústeres de Spark sin que se pierdan datos, ya que todos están almacenados en Azure Storage o Data Lake Storage.

Los grupos de Spark en Azure Synapse incluyen los siguientes componentes, que están disponibles en los grupos de forma predeterminada:

Arquitectura de grupos de Spark

Las aplicaciones de Spark se ejecutan como conjuntos independientes de procesos en un grupo, coordinados por el objeto SparkContext en el programa principal, denominado el programa conductor.

SparkContext puede conectarse al administrador de clústeres, que asigna recursos entre aplicaciones. El administrador de clústeres es Apache Hadoop YARN. Una vez conectado, Spark adquiere ejecutores en los nodos del grupo, que son procesos que ejecutan cálculos y almacenan datos de la aplicación. A continuación, envía el código de la aplicación, definido por archivos JAR o Python que se pasan a SparkContext, a los ejecutores. Por último, SparkContext envía las tareas a los ejecutores para su ejecución.

SparkContext ejecuta la función principal del usuario y las distintas operaciones paralelas en los nodos. A continuación, SparkContext recopila los resultados de las operaciones. Los nodos leen y escriben datos desde y hacia el sistema de archivos. Además, los nodos almacenan en caché los datos transformados en memoria como conjuntos de datos distribuidos resistentes (RDD).

SparkContext se conecta al grupo de Spark y es responsable de convertir una aplicación en un grafo acíclico dirigido (DAG). El grafo consta de tareas individuales que se ejecutan en un proceso ejecutor en los nodos. Cada aplicación obtiene sus propios procesos ejecutores, que permanecen activos mientras dure la aplicación y ejecutan tareas en varios subprocesos.

Casos de uso de Apache Spark en Azure Synapse Analytics

Los grupos de Spark en Azure Synapse Analytics permiten los siguientes escenarios clave:

  • Ingeniería y preparación de los datos

Apache Spark incluye muchas características de lenguaje que admiten la preparación y el procesamiento de grandes volúmenes de datos, de modo que se puedan transformar en otros más valiosos y, luego, puedan consumirlos otros servicios dentro de Azure Synapse Analytics. Esto es posible gracias a varios lenguajes (C#, Scala, PySpark, Spark SQL) y las bibliotecas suministradas para el procesamiento y la conectividad.

  • Machine Learning

Apache Spark incluye MLlib, una biblioteca de aprendizaje automático basada en Spark que puede usar desde un grupo de Spark en Azure Synapse Analytics. Los grupos de Spark en Azure Synapse Analytics también incluyen Anaconda, una distribución de Python con varios paquetes dirigida a la ciencia de datos, incluido el aprendizaje automático. Cuando se combinan con la compatibilidad integrada con los cuadernos, dispone de un entorno para crear aplicaciones de aprendizaje automático.

  • Transmisión por secuencias de datos

Synapse Spark admite el streaming estructurado de Spark siempre que ejecute la versión compatible de la versión en tiempo de ejecución de Spark de Azure Synapse. Todos los trabajos pueden durar siete días. Esto se aplica a los trabajos de streaming y por lotes, y generalmente, los clientes automatizan el proceso de reinicio mediante Azure Functions.

Use los siguientes artículos para aprender más sobre Apache Spark en Azure Synapse Analytics:

Nota:

Parte de la documentación oficial de Apache Spark se basa en el uso de la consola de Spark, que no está disponible en Azure Synapse Spark. En su lugar, use las experiencias de cuaderno o IntelliJ.