Rychlý start: Vytvoření služby Azure Data Factory pomocí Azure CLI
Tento rychlý start popisuje, jak pomocí Azure CLI vytvořit službu Azure Data Factory. Kanál, který vytvoříte v této datové továrně, kopíruje data z jedné složky do jiné složky ve službě Azure Blob Storage. Informace o tom, jak transformovat data pomocí služby Azure Data Factory, najdete v tématu Transformace dat ve službě Azure Data Factory.
Úvod do služby Azure Data Factory najdete v tématu Úvod do Azure Data Factory.
Pokud ještě nemáte předplatné Azure, vytvořte si napřed bezplatný účet.
Požadavky
Použijte prostředí Bash v Azure Cloud Shellu. Další informace najdete v tématu Rychlý start pro Bash v Azure Cloud Shellu.
Pokud dáváte přednost místnímu spouštění referenčních příkazů rozhraní příkazového řádku, nainstalujte Azure CLI. Pokud používáte Windows nebo macOS, zvažte spuštění Azure CLI v kontejneru Docker. Další informace najdete v tématu Jak spustit Azure CLI v kontejneru Dockeru.
Pokud používáte místní instalaci, přihlaste se k Azure CLI pomocí příkazu az login. Pokud chcete dokončit proces ověřování, postupujte podle kroků zobrazených na terminálu. Další možnosti přihlášení najdete v tématu Přihlášení pomocí Azure CLI.
Po zobrazení výzvy nainstalujte rozšíření Azure CLI při prvním použití. Další informace o rozšířeních najdete v tématu Využití rozšíření v Azure CLI.
Spuštěním příkazu az version zjistěte verzi a závislé knihovny, které jsou nainstalované. Pokud chcete upgradovat na nejnovější verzi, spusťte az upgrade.
Poznámka:
Pro vytvoření instancí služby Data Factory musí být uživatelský účet, který použijete pro přihlášení k Azure, členem role přispěvatel nebo vlastník nebo správcem předplatného Azure. Další informace naleznete v článku Role Azure.
Příprava kontejneru a testovacího souboru
V tomto rychlém startu se používá účet Azure Storage, který zahrnuje kontejner se souborem.
K vytvoření skupiny prostředků s názvem
ADFQuickStartRG
použijte příkaz az group create :az group create --name ADFQuickStartRG --location eastus
Vytvořte účet úložiště pomocí příkazu az storage account create :
az storage account create --resource-group ADFQuickStartRG \ --name adfquickstartstorage --location eastus
Pomocí příkazu az storage container create vytvořte kontejner s názvem:
adftutorial
az storage container create --resource-group ADFQuickStartRG --name adftutorial \ --account-name adfquickstartstorage --auth-mode key
V místním adresáři vytvořte soubor s názvem
emp.txt
pro nahrání. Pokud pracujete v Azure Cloud Shellu, můžete aktuální pracovní adresář najít pomocíecho $PWD
příkazu Bash. K vytvoření souboru můžete použít standardní příkazy Bash, napříkladcat
:cat > emp.txt This is text.
K uložení nového souboru použijte Ctrl+D .
K nahrání nového souboru do kontejneru úložiště Azure použijte příkaz az storage blob upload :
az storage blob upload --account-name adfquickstartstorage --name input/emp.txt \ --container-name adftutorial --file emp.txt --auth-mode key
Tento příkaz se nahraje do nové složky s názvem
input
.
Vytvoření datové továrny
Pokud chcete vytvořit objekt pro vytváření dat Azure, spusťte příkaz az datafactory create :
az datafactory create --resource-group ADFQuickStartRG \
--factory-name ADFTutorialFactory
Důležité
Nahraďte ADFTutorialFactory
globálně jedinečným názvem datové továrny, například ADFTutorialFactorySP1127.
Datovou továrnu, kterou jste vytvořili, můžete zobrazit pomocí příkazu az datafactory show :
az datafactory show --resource-group ADFQuickStartRG \
--factory-name ADFTutorialFactory
Vytvoření propojené služby a datových sad
Dále vytvořte propojenou službu a dvě datové sady.
Pomocí příkazu az storage account show-connection-string získejte připojovací řetězec pro váš účet úložiště:
az storage account show-connection-string --resource-group ADFQuickStartRG \ --name adfquickstartstorage --key primary
V pracovním adresáři vytvořte soubor JSON s tímto obsahem, který obsahuje vlastní připojovací řetězec z předchozího kroku. Pojmenujte soubor
AzureStorageLinkedService.json
:{ "type": "AzureBlobStorage", "typeProperties": { "connectionString": "DefaultEndpointsProtocol=https;AccountName=<accountName>;AccountKey=<accountKey>;EndpointSuffix=core.windows.net" } }
Vytvořte propojenou službu s názvem
AzureStorageLinkedService
az datafactory linked-service create command:az datafactory linked-service create --resource-group ADFQuickStartRG \ --factory-name ADFTutorialFactory --linked-service-name AzureStorageLinkedService \ --properties AzureStorageLinkedService.json
V pracovním adresáři vytvořte soubor JSON s tímto obsahem s názvem
InputDataset.json
:{ "linkedServiceName": { "referenceName": "AzureStorageLinkedService", "type": "LinkedServiceReference" }, "annotations": [], "type": "Binary", "typeProperties": { "location": { "type": "AzureBlobStorageLocation", "fileName": "emp.txt", "folderPath": "input", "container": "adftutorial" } } }
Pomocí příkazu az datafactory dataset create vytvořte vstupní datovou sadu s názvem:
InputDataset
az datafactory dataset create --resource-group ADFQuickStartRG \ --dataset-name InputDataset --factory-name ADFTutorialFactory \ --properties InputDataset.json
V pracovním adresáři vytvořte soubor JSON s tímto obsahem s názvem
OutputDataset.json
:{ "linkedServiceName": { "referenceName": "AzureStorageLinkedService", "type": "LinkedServiceReference" }, "annotations": [], "type": "Binary", "typeProperties": { "location": { "type": "AzureBlobStorageLocation", "folderPath": "output", "container": "adftutorial" } } }
Pomocí příkazu az datafactory dataset create vytvořte výstupní datovou sadu s názvem:
OutputDataset
az datafactory dataset create --resource-group ADFQuickStartRG \ --dataset-name OutputDataset --factory-name ADFTutorialFactory \ --properties OutputDataset.json
Vytvoření a spuštění kanálu
Nakonec vytvořte a spusťte kanál.
V pracovním adresáři vytvořte soubor JSON s tímto obsahem s názvem
Adfv2QuickStartPipeline.json
:{ "name": "Adfv2QuickStartPipeline", "properties": { "activities": [ { "name": "CopyFromBlobToBlob", "type": "Copy", "dependsOn": [], "policy": { "timeout": "7.00:00:00", "retry": 0, "retryIntervalInSeconds": 30, "secureOutput": false, "secureInput": false }, "userProperties": [], "typeProperties": { "source": { "type": "BinarySource", "storeSettings": { "type": "AzureBlobStorageReadSettings", "recursive": true } }, "sink": { "type": "BinarySink", "storeSettings": { "type": "AzureBlobStorageWriteSettings" } }, "enableStaging": false }, "inputs": [ { "referenceName": "InputDataset", "type": "DatasetReference" } ], "outputs": [ { "referenceName": "OutputDataset", "type": "DatasetReference" } ] } ], "annotations": [] } }
Vytvořte kanál s názvem
Adfv2QuickStartPipeline
pomocí příkazu az datafactory pipeline create :az datafactory pipeline create --resource-group ADFQuickStartRG \ --factory-name ADFTutorialFactory --name Adfv2QuickStartPipeline \ --pipeline Adfv2QuickStartPipeline.json
Spuštění kanálu pomocí příkazu az datafactory pipeline create-run :
az datafactory pipeline create-run --resource-group ADFQuickStartRG \ --name Adfv2QuickStartPipeline --factory-name ADFTutorialFactory
Tento příkaz vrátí ID spuštění. Zkopírujte ho pro použití v dalším příkazu.
Pomocí příkazu az datafactory pipeline-run show ověřte, že spuštění kanálu proběhlo úspěšně:
az datafactory pipeline-run show --resource-group ADFQuickStartRG \ --factory-name ADFTutorialFactory --run-id 00000000-0000-0000-0000-000000000000
Pomocí webu Azure Portal můžete také ověřit, že váš kanál běžel podle očekávání. Další informace najdete v tématu Kontrola nasazených prostředků.
Vyčištění prostředků
Všechny prostředky v tomto rychlém startu jsou součástí stejné skupiny prostředků. Pokud je chcete odebrat všechny, použijte příkaz az group delete :
az group delete --name ADFQuickStartRG
Pokud tuto skupinu prostředků používáte pro cokoli jiného, odstraňte místo toho jednotlivé prostředky. Pokud například chcete odebrat propojenou službu, použijte příkaz az datafactory linked-service delete .
V tomto rychlém startu jste vytvořili následující soubory JSON:
- AzureStorageLinkedService.json
- InputDataset.json
- OutputDataset.json
- Adfv2QuickStartPipeline.json
Odstraňte je pomocí standardních příkazů Bash.