Copiare o clonare una data factory in Azure Data Factory
SI APPLICA A: Azure Data Factory Azure Synapse Analytics
Suggerimento
Provare Data Factory in Microsoft Fabric, una soluzione di analisi all-in-one per le aziende. Microsoft Fabric copre tutto, dallo spostamento dati al data science, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita!
Questo articolo descrive come copiare o clonare una data factory in Azure Data Factory.
Casi d'uso per la clonazione di una data factory
Ecco alcune delle circostanze in cui potrebbe essere utile copiare o clonare una data factory:
Spostare Data Factory in una nuova area. Se si vuole spostare data factory in un'area diversa, il modo migliore consiste nel creare una copia nell'area di destinazione ed eliminare quella esistente.
Ridenominazione di Data Factory. Azure non supporta la ridenominazione di risorse. Se si vuole rinominare una data factory, è possibile clonare la data factory con un nome diverso ed eliminare quella esistente.
Modifiche di debug quando le funzionalità di debug non sono sufficienti. Nella maggior parte degli scenari è possibile usare Debug. In altri casi, il test delle modifiche in un ambiente sandbox clonato ha più senso. Ad esempio, il comportamento delle pipeline ETL con parametri quando un trigger viene attivato all'arrivo del file rispetto a un intervallo di tempo a cascata, potrebbe non essere facilmente testabile solo tramite debug. In questi casi, è possibile clonare un ambiente sandbox per l'esperimento. Poiché Azure Data Factory addebita principalmente il numero di esecuzioni, una seconda factory non comporta costi aggiuntivi.
Come clonare una Data factory
Come prerequisito, è prima necessario creare la data factory di destinazione dal portale di Azure.
Se si è in modalità GIT:
- Ogni volta che si pubblica dal portale, il modello di Resource Manager della factory viene salvato in GIT nel ramo adf_publish
- Connettere la nuova factory allo stesso repository e creare da adf_publish ramo. Le risorse, ad esempio pipeline, set di dati e trigger, porteranno attraverso
Se si è in modalità live:
- L'interfaccia utente di Data Factory consente di esportare l'intero payload della data factory in un file modello di Resource Manager e in un file di parametri. È possibile accedervi dal pulsante modello di Resource Manager \ Esporta modello di Resource Manager nel portale.
- È possibile apportare modifiche appropriate al file di parametri e scambiare i nuovi valori per la nuova factory
- Successivamente, è possibile distribuirlo tramite i metodi di distribuzione dei modelli di Resource Manager standard.
Se si dispone di un'integrazione SelfHostedRuntime nella factory di origine, è necessario crearla con lo stesso nome nella factory di destinazione. Se si vuole condividere il runtime di integrazione SelfHosted tra diverse factory, è possibile usare il modello pubblicato qui per condividere il runtime di integrazione SelfHosted.
Per motivi di sicurezza, il modello di Resource Manager generato non conterrà informazioni segrete, ad esempio password per i servizi collegati. Di conseguenza, è necessario specificare le credenziali come parametri di distribuzione. Se l'input manuale delle credenziali non è consigliabile per le impostazioni, prendere in considerazione il recupero delle stringa di connessione e delle password da Azure Key Vault. Visualizza altro
Contenuto correlato
Esaminare le indicazioni per la creazione di una data factory nel portale di Azure in Creare una data factory usando l'interfaccia utente di Azure Data Factory.