Introdução ao Azure Data Lake Analytics com a CLI do Azure
Importante
As novas contas do Azure Data Lake Analytics já não podem ser criadas, a menos que a subscrição tenha sido ativada. Se precisar que a sua subscrição esteja ativada , contacte o suporte e forneça o seu cenário empresarial.
Se já estiver a utilizar o Azure Data Lake Analytics, terá de criar um plano de migração para Azure Synapse Analytics para a sua organização até 29 de fevereiro de 2024.
Este artigo descreve como utilizar a interface de linha de comandos da CLI do Azure para criar contas de Data Lake Analytics do Azure, submeter tarefas e catálogos USQL. A tarefa que lê um ficheiro de valores separados por tabulações (TSV) e converte-o num ficheiro de valores separados por vírgulas (CSV).
Pré-requisitos
Antes de começar, irá precisar dos seguintes itens:
- Uma subscrição do Azure. Consulte Obter versão de avaliação gratuita do Azure.
- Este artigo requer que esteja a executar a versão 2.0 ou posterior da CLI do Azure. Se precisar de instalar ou atualizar, veja Install Azure CLI (Instalar o Azure CLI).
Iniciar sessão no Azure
Para iniciar sessão na sua subscrição do Azure:
az login
É-lhe pedido que navegue para um URL e introduza um código de autenticação. E, em seguida, siga as instruções para introduzir as suas credenciais.
Depois de iniciar sessão, o comando de início de sessão lista as suas subscrições.
Para utilizar uma subscrição específica:
az account set --subscription <subscription id>
Criar conta de Data Lake Analytics
Tem de ter uma conta de Data Lake Analytics antes de poder executar quaisquer tarefas. Para criar uma conta de Data Lake Analytics, tem de especificar os seguintes itens:
- Grupo de Recursos do Azure. Uma conta do Data Lake Analytics tem de ser criada dentro de um grupo de recursos do Azure. O Azure Resource Manager permite trabalhar com os recursos na aplicação como um grupo. Pode implementar, atualizar ou eliminar todos os recursos da aplicação numa operação única e coordenada.
Para listar os grupos de recursos existentes na sua subscrição:
az group list
Para criar um novo grupo de recursos:
az group create --name "<Resource Group Name>" --location "<Azure Location>"
- Data Lake Analytics nome da conta. Cada conta do Data Lake Analytics tem um nome.
- Localização. Utilize um dos centros de dados do Azure que suportem a Data Lake Analytics.
- Conta do Data Lake Store predefinida: cada conta do Data Lake Analytics tem uma conta do Data Lake Store predefinida.
Para listar a conta existente do Data Lake Store:
az dls account list
Para criar uma nova conta do Data Lake Store:
az dls account create --account "<Data Lake Store Account Name>" --resource-group "<Resource Group Name>"
Utilize a seguinte sintaxe para criar uma conta do Data Lake Analytics:
az dla account create --account "<Data Lake Analytics Account Name>" --resource-group "<Resource Group Name>" --location "<Azure location>" --default-data-lake-store "<Default Data Lake Store Account Name>"
Depois de criar uma conta, pode utilizar os comandos seguintes para listar as contas e mostrar detalhes da conta:
az dla account list
az dla account show --account "<Data Lake Analytics Account Name>"
Carregar dados para o Data Lake Store
Neste tutorial, vai processar alguns registos de pesquisa. O registo de pesquisa pode ser armazenado no Data Lake Store ou no Armazenamento de Blobs do Azure.
O portal do Azure fornece uma interface de utilizador para copiar alguns ficheiros de dados de exemplo para a conta predefinida do Data Lake Store, que incluem um ficheiro de registo de pesquisa. Consulte Preparar dados de origem para carregar os dados para a conta de Data Lake Store predefinida.
Para carregar ficheiros com a CLI do Azure, utilize os seguintes comandos:
az dls fs upload --account "<Data Lake Store Account Name>" --source-path "<Source File Path>" --destination-path "<Destination File Path>"
az dls fs list --account "<Data Lake Store Account Name>" --path "<Path>"
A Data Lake Analytics também pode aceder ao armazenamento de Blobs do Azure. Para carregar dados para o armazenamento de Blobs do Azure, consulte Utilizar a CLI do Azure com o Armazenamento do Azure.
Submeter tarefas de Data Lake Analytics
As tarefas de Data Lake Analytics são escritas em linguagem U-SQL. Para saber mais sobre U-SQL, consulte Introdução à linguagem U SQL e Referência de linguagem U-SQL.
Para criar um script de tarefa de Data Lake Analytics
Crie um ficheiro de texto com o seguinte script de U-SQL e guarde o ficheiro de texto na estação de trabalho:
@a =
SELECT * FROM
(VALUES
("Contoso", 1500.0),
("Woodgrove", 2700.0)
) AS
D( customer, amount );
OUTPUT @a
TO "/data.csv"
USING Outputters.Csv();
Este script U-SQL lê o ficheiro de dados de origem, utilizando Extractors.Tsv(), e, em seguida, cria um ficheiro csv, utilizando Outputters.Csv().
Não modifique os dois caminhos, exceto se copiar o ficheiro de origem para uma localização diferente. O Data Lake Analytics cria a pasta de saída se não existir.
É mais simples utilizar caminhos relativos para ficheiros armazenados em contas do Data Lake Store predefinidas. Também pode utilizar caminhos absolutos. Por exemplo:
adl://<Data LakeStorageAccountName>.azuredatalakestore.net:443/Samples/Data/SearchLog.tsv
Tem de utilizar caminhos absolutos para aceder a ficheiros em contas de Armazenamento ligadas. A sintaxe para ficheiros armazenados numa Conta de Armazenamento do Azure ligada é:
wasb://<BlobContainerName>@<StorageAccountName>.blob.core.windows.net/Samples/Data/SearchLog.tsv
Nota
O contentor de Blobs do Azure com blobs públicos não é suportado. O contentor de Blobs do Azure com contentores públicos não é suportado.
Para submeter tarefas
Utilize a sintaxe seguinte para submeter uma tarefa.
az dla job submit --account "<Data Lake Analytics Account Name>" --job-name "<Job Name>" --script "<Script Path and Name>"
Por exemplo:
az dla job submit --account "myadlaaccount" --job-name "myadlajob" --script @"C:\DLA\myscript.txt"
Para listar tarefas e mostrar detalhes da tarefa
az dla job list --account "<Data Lake Analytics Account Name>"
az dla job show --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"
Para cancelar as tarefas
az dla job cancel --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"
Obter resultados de tarefa
Depois de uma tarefa ser concluída, pode utilizar os seguintes comandos para listar os ficheiros de saída e transferir os ficheiros:
az dls fs list --account "<Data Lake Store Account Name>" --source-path "/Output" --destination-path "<Destination>"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv" --length 128 --offset 0
az dls fs download --account "<Data Lake Store Account Name>" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "<Destination Path and File Name>"
Por exemplo:
az dls fs download --account "myadlsaccount" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "C:\DLA\myfile.csv"
Passos seguintes
- Para ver o documento de referência Data Lake Analytics CLI do Azure, veja Data Lake Analytics.
- Para ver o documento de referência da CLI do Azure do Data Lake Store, veja Data Lake Store.
- Para ver uma consulta mais complexa, consulte Analisar registos de site através da Análise do Azure Data Lake.