Introduction
Les pipelines de données définissent une séquence d’activités qui orchestrent un processus global, généralement en extrayant des données d’une ou plusieurs sources et en les chargeant dans une destination, souvent en les transformant en cours de route. Les pipelines sont couramment utilisés pour automatiser les processus d'extraction, de transformation et de chargement (ETL) qui ingèrent des données transactionnelles à partir de magasins de données opérationnels dans un magasin de données analytiques, tel qu'un lakehouse, un entrepôt de données ou une base de données SQL.
Si vous êtes déjà familiarisé avec Azure Data Factory, les pipelines de données dans Microsoft Fabric vous seront immédiatement familiers. Ils utilisent la même architecture d’activités connectées pour définir un processus qui peut inclure plusieurs types de tâches de traitement des données et la logique de flux de contrôle. Vous pouvez exécuter des pipelines de manière interactive dans l’interface utilisateur de Microsoft Fabric ou planifier leur exécution automatique.