Introdução

Concluído

Os pipelines de dados definem uma sequência de atividades que orquestram um processo geral, geralmente extraindo dados de uma ou mais fontes e carregando-os em um destino, frequentemente transformando-os ao longo do caminho. Pipelines são comumente usados ​​para automatizar processos de extração, transformação e carregamento (ETL) que ingerem dados transacionais de armazenamentos de dados operacionais em um armazenamento de dados analíticos, como um lakehouse, data warehouse ou banco de dados SQL.

Se você já estiver familiarizado com o Azure Data Factory, os pipelines de dados no Microsoft Fabric serão imediatamente familiares. Eles usam a mesma arquitetura de atividades conectadas para definir um processo que pode incluir vários tipos de tarefas de processamento de dados e uma lógica de fluxo de controle. É possível executar pipelines interativamente na interface do usuário do Microsoft Fabric ou agendá-los para serem executados automaticamente.