Compartilhar via


Usar o Python para gerenciar arquivos e pastas no Microsoft OneLake

Este artigo mostra como você pode usar o SDK do Python do Armazenamento do Azure para gerenciar arquivos e diretórios no OneLake. Este passo a passo abrange o mesmo conteúdo de Usar o Python para gerenciar diretórios e arquivos no ADLS Gen2 e destaca as diferenças ao conectar-se ao OneLake.

Pré-requisitos

Antes de iniciar seu projeto, verifique se você tem o seguinte:

  • Um espaço de trabalho no seu locatário do Fabric com permissões de Colaborador.
  • Um lakehouse no espaço de trabalho. Opcionalmente, tenha dados pré-carregados para leitura usando Python.

Configurar o seu projeto

No diretório do projeto, instale pacotes para as bibliotecas de cliente do Azure Data Lake Storage e do Azure Identity. O OneLake dá suporte aos mesmos SDKs que o Azure Data Lake Storage (ADLS) Gen2 e dá suporte à autenticação do Microsoft Entra, que é fornecida pelo pacote azure-identity.

pip install azure-storage-file-datalake azure-identity

Em seguida, adicione as instruções de importação necessárias ao arquivo de código:

import os
from azure.storage.filedatalake import (
    DataLakeServiceClient,
    DataLakeDirectoryClient,
    FileSystemClient
)
from azure.identity import DefaultAzureCredential

Autorizar o acesso ao OneLake

O exemplo a seguir cria um cliente de serviço conectado ao OneLake que você pode usar para criar clientes do sistema de arquivos para outras operações. Para autenticar no OneLake, esse exemplo usa o DefaultAzureCredential para detectar automaticamente as credenciais e obter o token de autenticação correto. Os métodos comuns de fornecer credenciais para o SDK do Azure incluem o uso do comando "az login" na Interface de Linha de Comando do Azure ou o cmdlet "Connect-AzAccount" do Azure PowerShell.

def get_service_client_token_credential(self, account_name) -> DataLakeServiceClient:
    account_url = f"https://{account_name}.dfs.fabric.microsoft.com"
    token_credential = DefaultAzureCredential()

    service_client = DataLakeServiceClient(account_url, credential=token_credential)

    return service_client

Para obter mais informações sobre o uso do DefaultAzureCredential para autorizar o acesso aos dados, consulte Visão geral: Autenticar aplicativos Python no Azure usando o SDK do Azure.

Trabalhar com diretórios

Para trabalhar com um diretório no OneLake, crie um cliente de sistema de arquivos e um cliente de diretório. Você pode usar esse cliente de diretório para executar várias operações, incluindo renomeação, movimentação ou listagem de caminhos (como visto no exemplo a seguir). Você também pode criar um cliente de diretório ao criar um diretório usando o método FileSystemClient.create_directory.

def create_file_system_client(self, service_client, file_system_name: str) : DataLakeServiceClient) -> FileSystemClient:
    file_system_client = service_client.get_file_system_client(file_system = file_system_name)
    return file_system_client

def create_directory_client(self, file_system_client : FileSystemClient, path: str) -> DataLakeDirectoryClient: directory_client 
    directory_client = file_system_client.GetDirectoryClient(path)
    return directory_client


def list_directory_contents(self, file_system_client: FileSystemClient, directory_name: str):
    paths = file_system_client.get_paths(path=directory_name)

    for path in paths:
        print(path.name + '\n')

Fazer upload de um arquivo

Você pode fazer upload de conteúdo para um arquivo novo ou existente usando o método DataLakeFileClient.upload_data.

def upload_file_to_directory(self, directory_client: DataLakeDirectoryClient, local_path: str, file_name: str):
    file_client = directory_client.get_file_client(file_name)

    with open(file=os.path.join(local_path, file_name), mode="rb") as data:
        file_client.upload_data(dataW, overwrite=True)

Amostra

O exemplo de código a seguir lista o conteúdo do diretório de qualquer pasta no OneLake.

#Install the correct packages first in the same folder as this file. 
#pip install azure-storage-file-datalake azure-identity

from azure.storage.filedatalake import (
    DataLakeServiceClient,
    DataLakeDirectoryClient,
    FileSystemClient
)
from azure.identity import DefaultAzureCredential

# Set your account, workspace, and item path here
ACCOUNT_NAME = "onelake"
WORKSPACE_NAME = "<myWorkspace>"
DATA_PATH = "<myLakehouse>.Lakehouse/Files/<path>"

def main():
    #Create a service client using the default Azure credential

    account_url = f"https://{ACCOUNT_NAME}.dfs.fabric.microsoft.com"
    token_credential = DefaultAzureCredential()
    service_client = DataLakeServiceClient(account_url, credential=token_credential)

    #Create a file system client for the workspace
    file_system_client = service_client.get_file_system_client(WORKSPACE_NAME)
    
    #List a directory within the filesystem
    paths = file_system_client.get_paths(path=DATA_PATH)

    for path in paths:
        print(path.name + '\n')

if __name__ == "__main__":
    main()

Para executar este exemplo, salve o código anterior em um arquivo listOneLakeDirectory.py e execute o comando a seguir no mesmo diretório. Lembre-se de substituir o workspace e o caminho por seus próprios valores no exemplo.

python listOneLakeDirectory.py