Copiar do Armazenamento de Blobs do Azure para o Lakehouse
Neste tutorial, você cria um pipeline de dados para mover um arquivo CSV de uma pasta de entrada de uma fonte de Armazenamento de Blobs do Azure para um destino Lakehouse.
Pré-requisitos
Para começar, você deve preencher os seguintes pré-requisitos:
Verifique se você tem um espaço de trabalho habilitado para Project Microsoft Fabric: Criar um espaço de trabalho.
Selecione o botão Experimente agora! para preparar a fonte de dados do Armazenamento de Blobs do Azure da Cópia. Crie um novo grupo de recursos para este Armazenamento de Blobs do Azure e selecione Rever + Criar>Criar.
Em seguida, um Armazenamento de Blob do Azure é criado e moviesDB2.csv carregado na pasta de entrada do Armazenamento de Blob do Azure criado.
Criar um pipeline de dados
Mude para Data factory na página app.powerbi.com.
Crie um novo espaço de trabalho para esta demonstração.
Selecione Novo e, em seguida, selecione Pipeline de Dados.
Copiar dados usando o Assistente de Cópia
Nesta sessão, você começa a criar um pipeline de dados usando as etapas a seguir. Estas etapas copiam um arquivo CSV de uma pasta de entrada de um Armazenamento de Blobs do Azure para um destino Lakehouse usando o assistente de cópia.
Passo 1: Comece com o assistente de cópia
Selecione Copiar assistente de dados na tela para abrir a ferramenta assistente de cópia para começar. Ou selecione Usar assistente de cópia na lista suspensa Copiar dados na guia Atividades da faixa de opções.
Etapa 2: Configurar a origem
Digite blob no filtro de seleção, selecione Blobs do Azure e selecione Avançar.
Forneça o nome ou URL da sua conta e crie uma conexão com sua fonte de dados selecionando Criar nova conexão na lista suspensa Conexão.
Depois de selecionar Criar nova conexão com sua conta de armazenamento especificada, você só precisa preencher Tipo de autenticação. Nesta demonstração, escolhemos a chave da conta, mas você pode escolher outro tipo de autenticação, dependendo da sua preferência.
Depois que a conexão for criada com êxito, você só precisará selecionar Avançar para Conectar à fonte de dados.
Escolha o arquivo moviesDB2.csv na configuração de origem para visualizar e selecione Avançar.
Etapa 3: Configurar seu destino
Selecione Lakehouse.
Forneça um nome para o novo Lakehouse. Em seguida, selecione Criar e conectar.
Configure e mapeie os seus dados de origem para o seu destino; em seguida, selecione Avançar para concluir as configurações de destino.
Etapa 4: revisar e criar sua atividade de cópia
Revise as configurações de atividade de cópia nas etapas anteriores e selecione Salvar + executar para concluir. Ou você pode voltar às etapas anteriores para editar suas configurações, se necessário, na ferramenta.
Depois de concluída, a atividade de cópia é adicionada à tela do pipeline de dados e executada diretamente se você deixar a caixa de seleção Iniciar transferência de dados imediatamente marcada.
Executar e agendar seu pipeline de dados
Se não tiver deixado a caixa de verificação Iniciar transferência de dados imediatamente na página Rever + criar , mude para o separador Base e selecione Executar. Em seguida, selecione Salvar e executar.
Na guia Saída, selecione o link com o nome da sua atividade Copiar para monitorar o progresso e verificar os resultados da execução.
A caixa de diálogo Copiar detalhes de dados exibe os resultados da execução, incluindo status, volume de dados lidos e gravados, horários de início e parada e duração.
Você também pode agendar o pipeline para ser executado com uma frequência específica, conforme necessário. O exemplo a seguir mostra como agendar o pipeline para ser executado a cada 15 minutos.
Conteúdos relacionados
O pipeline neste exemplo mostra como copiar dados do Armazenamento de Blobs do Azure para o Lakehouse. Aprendeu a:
- Crie um pipeline de dados.
- Copie dados com o Assistente de cópia.
- Execute e agende seu pipeline de dados.
Em seguida, avance para saber mais sobre como monitorar suas execuções de pipeline.