Utiliser Apache Spark dans Microsoft Fabric
Apache Spark est une technologie de base pour l’analytique des données à grande échelle. Microsoft Fabric fournit une prise en charge les clusters Spark, ce qui vous permet d’analyser et de traiter des données dans un lakehouse à grande échelle.
Objectifs d’apprentissage
Dans ce module, vous allez découvrir comment :
- Configurer Spark dans un espace de travail Microsoft Fabric.
- Identifier les scénarios appropriés pour les notebooks Spark et les travaux Spark.
- Utiliser Spark pour se connecter aux données sources et ingérer des données
- Utiliser des dataframes Spark pour analyser et transformer des données.
- Utiliser Spark SQL pour interroger des données dans des tables et des vues.
- Visualiser des données dans un notebook Spark.
Prérequis
Avant de commencer ce module, vous devez vous familiariser avec l’interface Microsoft Fabric et les concepts de base.