Intégration des données à grande échelle avec un pipeline Azure Data Factory ou Azure Synapse
Dans ce parcours d’apprentissage, les étudiants apprennent à créer et à gérer des pipelines de données dans le cloud avec Azure Data Factory.
Prérequis
Les prérequis suivants doivent être suivis :
- Se connecter au portail Azure.
- Comprendre les options de stockage Azure.
- Comprendre les options de calcul Azure.
Code de réussite
Souhaitez-vous demander un code de réussite ?
Modules de ce parcours d’apprentissage
Dans ce module, vous examinez Azure Data Factory et les principaux composants qui vous permettent de créer des solutions d’ingestion de données à grande échelle dans le cloud
Dans ce module, vous allez apprendre les différentes méthodes qui peuvent être utilisées pour ingérer des données entre différents magasins de données à l’aide d’Azure Data Factory.
Dans ce module, vous allez apprendre à effectuer des opérations courantes de transformation et de nettoyage des données dans Azure Data Factory sans utiliser de code.
Dans ce module, vous allez découvrir comment implémenter une dimension à variation lente avec Azure Data Factory ou des pipelines Azure Synapse.
Dans ce module, vous apprendrez comment Azure Data Factory peut orchestrer un déplacement de données à grande échelle à l’aide d’autres technologies de Machine Learning et de plateformes de données Azure.
Dans ce module, vous allez voir comment intégrer des packages SQL Server Integration Services à une solution Azure Data Factory
Dans ce module, vous allez découvrir comment vous pouvez publier votre projet Azure Data Factory dans différents environnements.