Compartilhar via


Copiar ou clonar um data factory no Azure Data Factory

APLICA-SE A: Azure Data Factory Azure Synapse Analytics

Dica

Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange desde movimentação de dados até ciência de dados, análise em tempo real, business intelligence e relatórios. Saiba como iniciar uma avaliação gratuita!

Este artigo descreve como copiar ou clonar um data factory no Azure Data Factory.

Casos de uso para clonar um data factory

Aqui estão algumas das circunstâncias em que você pode considerar útil copiar ou clonar um data factory:

  • Mover o Data Factory para uma nova região. A melhor maneira de mover o Data Factory para uma região diferente é criando uma cópia na região de destino e excluindo o já existente.

  • Renomeando o Data Factory. O Azure não dá suporte para renomeação de recursos. Se quiser renomear um data factory, você deve cloná-lo com um nome diferente e, em seguida, excluir o já existente.

  • Depurando alterações quando os recursos de depuração não forem suficientes. Na maioria dos casos, você pode Depurar. Em outros, o teste das alterações em um ambiente de área restrita clonado faz mais sentido. Por exemplo, como os pipelines de ETL com parâmetros se comportariam quando um gatilho fosse acionado na chegada do arquivo em relação com a janela de tempo em cascata? Isso pode não ser facilmente testado apenas com depuração. Nesses casos, talvez seja interessante clonar um ambiente de área restrita para fazer experiências. Já que o Azure Data Factory cobra principalmente pelo número de execuções, um segundo alocador não geraria nenhuma cobrança adicional.

Para clonar um data factory

  1. Como um pré-requisito, você precisa criar um data factory de destino a partir do portal do Azure.

  2. Se você estiver no modo GIT:

    1. Sempre que você publica usando o portal, o modelo do Resource Manager do alocador é salvo no GIT, no branch adf_publish
    2. Conecte o novo alocador com o mesmo repositório e faça o build por meio do branch adf_publish. Recursos, como pipelines, conjuntos de dados e gatilhos, serão transferidos
  3. Se você estiver no modo dinâmico:

    1. A interface do usuário do Data Factory permite exportar todo o conteúdo do seu data factory para um arquivo de modelo do Resource Manager e para um arquivo de parâmetro. Eles podem ser acessados usando o botão modelo do ARM \ Exportar modelo do Resource Manager no Portal.
    2. Você pode fazer as alterações apropriadas no arquivo de parâmetro e alternar os novos valores para o novo alocador
    3. Em seguida, você pode implantá-lo por meio dos métodos de implantação padrão de modelo do Resource Manager.
  4. Se você tem um runtime de integração auto-hospedado no alocador de origem, você precisa recriá-lo com o mesmo nome no alocador de destino. Se você quiser compartilhar o runtime de integração auto-hospedado entre alocadores diferentes, poderá usar o padrão publicado aqui no runtime de integração auto-hospedado de compartilhamento.

  5. Por motivos de segurança, o modelo do Resource Manager gerado não contém nenhuma informação secreta, como senhas para serviços vinculados. Por isso você precisa fornecer as credenciais como parâmetros de implantação. Se a inserção manual de credenciais não for desejável para suas configurações, considere recuperar as cadeias de conexão e as senhas do Azure Key Vault. Veja mais

Examine as diretrizes para a criação de um data factory no portal do Azure em Criar um data factory usando a interface do usuário do Azure Data Factory.