Compartilhar via


DataLakeFileClient class

Um DataLakeFileClient representa uma URL para o arquivo de Armazenamento do Azure.

Extends

Construtores

DataLakeFileClient(string, Pipeline)

Cria uma instância de DataLakeFileClient da URL e do pipeline.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Cria uma instância de DataLakeFileClient com base na URL e na credencial.

Propriedades

fileSystemName

Nome do sistema de arquivos atual.

name

Nome do caminho atual (diretório ou arquivo).

Propriedades herdadas

accountName
credential

Como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do pacote @azure/identity para autenticar solicitações para o serviço. Você também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, AnonymousCredential será usado.

url

Valor da cadeia de caracteres de URL codificada.

Métodos

append(RequestBodyType, number, number, FileAppendOptions)

Carrega dados a serem acrescentados a um arquivo. Os dados só podem ser acrescentados a um arquivo. Para aplicar dados carregados de forma permeável a um arquivo, libere a chamada.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

create(FileCreateOptions)

Crie um arquivo.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

create(PathResourceTypeModel, PathCreateOptions)

Crie um arquivo.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(FileCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

flush(number, FileFlushOptions)

Libera (gravações) dados anexados anteriormente a um arquivo.

generateSasStringToSign(FileGenerateSasUrlOptions)

Disponível somente para clientes construídos com uma credencial de chave compartilhada.

Gera uma cadeia de caracteres para assinar um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela credencial de chave compartilhada do cliente.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

generateSasUrl(FileGenerateSasUrlOptions)

Disponível somente para clientes construídos com uma credencial de chave compartilhada.

Gera um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela credencial de chave compartilhada do cliente.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

generateUserDelegationSasStringToSign(FileGenerateSasUrlOptions, UserDelegationKey)

Gera uma cadeia de caracteres para assinar um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela chave de delegação do usuário de entrada.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

generateUserDelegationSasUrl(FileGenerateSasUrlOptions, UserDelegationKey)

Gera um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela chave de delegação do usuário de entrada.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

query(string, FileQueryOptions)

Consulta rápida para um arquivo formatado em JSON ou CSV.

Uso de exemplo (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
read(number, number, FileReadOptions)

Baixa um arquivo do serviço, incluindo seus metadados e propriedades.

  • Em Node.js, os dados retornam em um fluxo legível readableStreamBody
  • Em navegadores, os dados retornam em uma promessa contentAsBlob

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Uso de exemplo (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Uso de exemplo (navegador):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Lê um arquivo data lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro.

Aviso: os buffers só podem dar suporte a arquivos de até um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile .

readToBuffer(number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME

Lê um arquivo data lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro

Aviso: os buffers só podem dar suporte a arquivos de até um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile .

readToFile(string, number, number, FileReadOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Baixa um arquivo data lake em um arquivo local. Falhará se o caminho de arquivo fornecido já for encerrado. Deslocamento e contagem são opcionais, passam 0 e indefinidos, respectivamente, para baixar o arquivo inteiro.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Define um tempo de expiração em um arquivo, uma vez que esse tempo é atingido, o arquivo é excluído.

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carrega um buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView em um arquivo.

uploadFile(string, FileParallelUploadOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Carrega um arquivo local em um arquivo do Data Lake.

uploadStream(Readable, FileParallelUploadOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Carrega um fluxo legível Node.js em um arquivo data lake. Esse método tentará criar um arquivo e, em seguida, começará a carregar parte por parte. Verifique se o tamanho potencial do fluxo não excede FILE_MAX_SIZE_BYTES e o número potencial de partes não excede BLOCK_BLOB_MAX_BLOCKS.

DICAS DE MELHORIA DE DESEMPENHO:

  • O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações buffer.concat().

Métodos herdados

delete(boolean, PathDeleteOptions)

Excluir o caminho atual (diretório ou arquivo).

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

deleteIfExists(boolean, PathDeleteOptions)

Exclua o caminho atual (diretório ou arquivo) se ele existir.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

exists(PathExistsOptions)

Retornará true se o arquivo Data Lake representado por esse cliente existir; false caso contrário.

OBSERVAÇÃO: use essa função com cuidado, pois um arquivo existente pode ser excluído por outros clientes ou aplicativos. Vice-versa, novos arquivos podem ser adicionados por outros clientes ou aplicativos após a conclusão dessa função.

getAccessControl(PathGetAccessControlOptions)

Retorna os dados de controle de acesso para um caminho (diretório do arquivo).

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

getDataLakeLeaseClient(string)

Obtenha um DataLakeLeaseClient que gerencia as concessões no caminho (diretório ou arquivo).

getProperties(PathGetPropertiesOptions)

Retorna todos os metadados definidos pelo usuário, as propriedades HTTP padrão e as propriedades do sistema para o caminho (diretório ou arquivo).

AVISO: O objeto metadata retornado na resposta terá suas chaves em letras minúsculas, mesmo que originalmente contivessem caracteres maiúsculos. Isso difere das chaves de metadados retornadas pelos métodos de DataLakeFileSystemClient que listam caminhos usando a opção includeMetadata, que manterá sua caixa original.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

move(string, PathMoveOptions)

Mover diretório ou arquivo no mesmo sistema de arquivos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

move(string, string, PathMoveOptions)

Mova o diretório ou o arquivo para outro sistema de arquivos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Remove o Controle de Acesso em um caminho e sub-caminhos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Defina os dados de controle de acesso para um caminho (diretório do arquivo).

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Define o Controle de Acesso em um caminho e sub-caminhos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Define as propriedades do sistema no caminho (diretório ou arquivo).

Se nenhum valor for fornecido ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, esses cabeçalhos HTTP de blob sem um valor serão limpos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

setMetadata(Metadata, PathSetMetadataOptions)

Define metadados definidos pelo usuário para o caminho especificado (diretório do arquivo) como um ou mais pares nome-valor.

Se nenhuma opção for fornecida ou nenhum metadados definido no parâmetro, os metadados do caminho serão removidos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Define as permissões de arquivo em um caminho.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

toDirectoryClient()

Converta DataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.

toFileClient()

Converta DataLakePathClient atual em DataLakeFileClient se o caminho atual for um arquivo.

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica o Controle de Acesso em um caminho e sub-caminhos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

Detalhes do construtor

DataLakeFileClient(string, Pipeline)

Cria uma instância de DataLakeFileClient da URL e do pipeline.

new DataLakeFileClient(url: string, pipeline: Pipeline)

Parâmetros

url

string

Uma cadeia de caracteres do cliente apontando para o arquivo data lake do Armazenamento do Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Você pode acrescentar uma SAS se estiver usando AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

pipeline
Pipeline

Chame newPipeline() para criar um pipeline padrão ou forneça um pipeline personalizado.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Cria uma instância de DataLakeFileClient com base na URL e na credencial.

new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)

Parâmetros

url

string

Uma cadeia de caracteres do cliente apontando para o arquivo data lake do Armazenamento do Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Você pode acrescentar uma SAS se estiver usando AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

credential

StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do pacote @azure/identity para autenticar solicitações para o serviço. Você também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, AnonymousCredential será usado.

options
StoragePipelineOptions

Opcional. Opções para configurar o pipeline HTTP.

Detalhes da propriedade

fileSystemName

Nome do sistema de arquivos atual.

string fileSystemName

Valor da propriedade

string

name

Nome do caminho atual (diretório ou arquivo).

string name

Valor da propriedade

string

Detalhes das propriedades herdadas

accountName

accountName: string

Valor da propriedade

string

herdado deDataLakePathClient.accountName

credential

Como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do pacote @azure/identity para autenticar solicitações para o serviço. Você também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, AnonymousCredential será usado.

credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Valor da propriedade

herdado deDataLakePathClient.credential

url

Valor da cadeia de caracteres de URL codificada.

url: string

Valor da propriedade

string

herdado deDataLakePathClient.url

Detalhes do método

append(RequestBodyType, number, number, FileAppendOptions)

Carrega dados a serem acrescentados a um arquivo. Os dados só podem ser acrescentados a um arquivo. Para aplicar dados carregados de forma permeável a um arquivo, libere a chamada.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>

Parâmetros

body
HttpRequestBody

Conteúdo a ser carregado.

offset

number

Acrescente o deslocamento em bytes.

length

number

Comprimento do conteúdo a ser acrescentado em bytes.

options
FileAppendOptions

Opcional. Opções ao acrescentar dados.

Retornos

create(FileCreateOptions)

Crie um arquivo.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(options?: FileCreateOptions): Promise<FileCreateResponse>

Parâmetros

options
FileCreateOptions

Opcional. Opções ao criar arquivo.

Retornos

create(PathResourceTypeModel, PathCreateOptions)

Crie um arquivo.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>

Parâmetros

resourceType
PathResourceTypeModel

Tipo de recurso, deve ser "arquivo" para DataLakeFileClient.

options
PathCreateOptions

Opcional. Opções ao criar arquivo.

Retornos

createIfNotExists(FileCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>

Parâmetros

options
FileCreateIfNotExistsOptions

Opcional. Opções ao criar arquivo.

Retornos

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>

Parâmetros

resourceType
PathResourceTypeModel

Tipo de recurso, deve ser "arquivo" para DataLakeFileClient.

Retornos

flush(number, FileFlushOptions)

Libera (gravações) dados anexados anteriormente a um arquivo.

function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>

Parâmetros

position

number

Posição do arquivo a ser liberada. Esse parâmetro permite que o chamador carregue dados em paralelo e controle a ordem na qual ele é acrescentado ao arquivo. É necessário ao carregar dados a serem acrescentados ao arquivo e ao liberar dados carregados anteriormente no arquivo. O valor deve ser a posição em que os dados devem ser acrescentados. Os dados carregados não são imediatamente liberados ou gravados no arquivo. Para liberar, os dados carregados anteriormente devem ser contíguos, o parâmetro de posição deve ser especificado e igual ao comprimento do arquivo depois que todos os dados tiverem sido gravados e não deve haver um corpo de entidade de solicitação incluído na solicitação.

options
FileFlushOptions

Opcional. Opções ao liberar dados.

Retornos

generateSasStringToSign(FileGenerateSasUrlOptions)

Disponível somente para clientes construídos com uma credencial de chave compartilhada.

Gera uma cadeia de caracteres para assinar um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela credencial de chave compartilhada do cliente.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateSasStringToSign(options: FileGenerateSasUrlOptions): string

Parâmetros

options
FileGenerateSasUrlOptions

Parâmetros opcionais.

Retornos

string

O URI de SAS que consiste no URI para o recurso representado por esse cliente, seguido pelo token SAS gerado.

generateSasUrl(FileGenerateSasUrlOptions)

Disponível somente para clientes construídos com uma credencial de chave compartilhada.

Gera um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela credencial de chave compartilhada do cliente.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>

Parâmetros

options
FileGenerateSasUrlOptions

Parâmetros opcionais.

Retornos

Promise<string>

O URI de SAS que consiste no URI para o recurso representado por esse cliente, seguido pelo token SAS gerado.

generateUserDelegationSasStringToSign(FileGenerateSasUrlOptions, UserDelegationKey)

Gera uma cadeia de caracteres para assinar um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela chave de delegação do usuário de entrada.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateUserDelegationSasStringToSign(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): string

Parâmetros

options
FileGenerateSasUrlOptions

Parâmetros opcionais.

userDelegationKey
UserDelegationKey

Valor retornado de blobServiceClient.getUserDelegationKey()

Retornos

string

O URI de SAS que consiste no URI para o recurso representado por esse cliente, seguido pelo token SAS gerado.

generateUserDelegationSasUrl(FileGenerateSasUrlOptions, UserDelegationKey)

Gera um URI de SAS (Assinatura de Acesso Compartilhado de Serviço) com base nas propriedades e parâmetros do cliente passados. A SAS é assinada pela chave de delegação do usuário de entrada.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateUserDelegationSasUrl(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): Promise<string>

Parâmetros

options
FileGenerateSasUrlOptions

Parâmetros opcionais.

userDelegationKey
UserDelegationKey

Valor retornado de blobServiceClient.getUserDelegationKey()

Retornos

Promise<string>

O URI de SAS que consiste no URI para o recurso representado por esse cliente, seguido pelo token SAS gerado.

query(string, FileQueryOptions)

Consulta rápida para um arquivo formatado em JSON ou CSV.

Uso de exemplo (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>

Parâmetros

query

string

Retornos

Promise<FileReadResponse>

read(number, number, FileReadOptions)

Baixa um arquivo do serviço, incluindo seus metadados e propriedades.

  • Em Node.js, os dados retornam em um fluxo legível readableStreamBody
  • Em navegadores, os dados retornam em uma promessa contentAsBlob

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Uso de exemplo (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Uso de exemplo (navegador):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parâmetros

offset

number

Opcional. Deslocamento para o arquivo de leitura, o valor padrão é 0.

count

number

Opcional. Quantos bytes ler, o padrão lerá de deslocamento até o final.

options
FileReadOptions

Opcional. Opções ao ler o arquivo.

Retornos

Promise<FileReadResponse>

readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Lê um arquivo data lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro.

Aviso: os buffers só podem dar suporte a arquivos de até um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile .

function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parâmetros

buffer

Buffer

O buffer a ser preenchido deve ter um comprimento maior que a contagem

offset

number

De qual posição do arquivo Data Lake será lida

count

number

Quantos dados devem ser lidos. Lerá até o final ao passar indefinido

Retornos

Promise<Buffer>

readToBuffer(number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME

Lê um arquivo data lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro

Aviso: os buffers só podem dar suporte a arquivos de até um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile .

function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parâmetros

offset

number

De qual posição do arquivo Data Lake será lida(em bytes)

count

number

Quantos dados(em bytes) devem ser lidos. Lerá até o final ao passar indefinido

Retornos

Promise<Buffer>

readToFile(string, number, number, FileReadOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Baixa um arquivo data lake em um arquivo local. Falhará se o caminho de arquivo fornecido já for encerrado. Deslocamento e contagem são opcionais, passam 0 e indefinidos, respectivamente, para baixar o arquivo inteiro.

function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parâmetros

filePath

string

offset

number

De qual posição do arquivo será baixado.

count

number

Quantos dados serão baixados. Será baixado até o final ao passar indefinido.

options
FileReadOptions

Opções para ler o arquivo Data Lake.

Retornos

Promise<FileReadResponse>

Os dados de resposta para a operação de leitura de arquivo, mas com readableStreamBody definido como indefinido, pois seu conteúdo já é lido e gravado em um arquivo local no caminho especificado.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Define um tempo de expiração em um arquivo, uma vez que esse tempo é atingido, o arquivo é excluído.

function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>

Parâmetros

Retornos

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carrega um buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView em um arquivo.

function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

data

Blob | ArrayBuffer | ArrayBufferView | Buffer

Buffer(Nó), Blob, ArrayBuffer ou ArrayBufferView

Retornos

uploadFile(string, FileParallelUploadOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Carrega um arquivo local em um arquivo do Data Lake.

function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

filePath

string

Caminho completo do arquivo local

Retornos

uploadStream(Readable, FileParallelUploadOptions)

DISPONÍVEL APENAS EM NODE.JS RUNTIME.

Carrega um fluxo legível Node.js em um arquivo data lake. Esse método tentará criar um arquivo e, em seguida, começará a carregar parte por parte. Verifique se o tamanho potencial do fluxo não excede FILE_MAX_SIZE_BYTES e o número potencial de partes não excede BLOCK_BLOB_MAX_BLOCKS.

DICAS DE MELHORIA DE DESEMPENHO:

  • O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

stream

Readable

Node.js fluxo legível.

Retornos

Detalhes do método herdado

delete(boolean, PathDeleteOptions)

Excluir o caminho atual (diretório ou arquivo).

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>

Parâmetros

recursive

boolean

Obrigatório e válido somente quando o recurso é um diretório. Se "true", todos os caminhos abaixo do diretório serão excluídos.

options
PathDeleteOptions

Opcional. Opções ao excluir o caminho.

Retornos

herdado deDataLakePathClient.delete

deleteIfExists(boolean, PathDeleteOptions)

Exclua o caminho atual (diretório ou arquivo) se ele existir.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>

Parâmetros

recursive

boolean

Obrigatório e válido somente quando o recurso é um diretório. Se "true", todos os caminhos abaixo do diretório serão excluídos.

Retornos

herdado deDataLakePathClient.deleteIfExists

exists(PathExistsOptions)

Retornará true se o arquivo Data Lake representado por esse cliente existir; false caso contrário.

OBSERVAÇÃO: use essa função com cuidado, pois um arquivo existente pode ser excluído por outros clientes ou aplicativos. Vice-versa, novos arquivos podem ser adicionados por outros clientes ou aplicativos após a conclusão dessa função.

function exists(options?: PathExistsOptions): Promise<boolean>

Parâmetros

options
PathExistsOptions

opções para a operação Exists.

Retornos

Promise<boolean>

Herdado deDataLakePathClient.exists

getAccessControl(PathGetAccessControlOptions)

Retorna os dados de controle de acesso para um caminho (diretório do arquivo).

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>

Parâmetros

options
PathGetAccessControlOptions

Opcional. Opções ao obter o controle de acesso ao arquivo.

Retornos

herdado de DataLakePathClient.getAccessControl

getDataLakeLeaseClient(string)

Obtenha um DataLakeLeaseClient que gerencia as concessões no caminho (diretório ou arquivo).

function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient

Parâmetros

proposeLeaseId

string

Opcional. ID de concessão proposta inicial.

Retornos

herdado deDataLakePathClient.getDataLakeLeaseClient

getProperties(PathGetPropertiesOptions)

Retorna todos os metadados definidos pelo usuário, as propriedades HTTP padrão e as propriedades do sistema para o caminho (diretório ou arquivo).

AVISO: O objeto metadata retornado na resposta terá suas chaves em letras minúsculas, mesmo que originalmente contivessem caracteres maiúsculos. Isso difere das chaves de metadados retornadas pelos métodos de DataLakeFileSystemClient que listam caminhos usando a opção includeMetadata, que manterá sua caixa original.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>

Parâmetros

options
PathGetPropertiesOptions

Opcional. Opções ao obter propriedades de caminho.

Retornos

herdado de DataLakePathClient.getProperties

move(string, PathMoveOptions)

Mover diretório ou arquivo no mesmo sistema de arquivos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parâmetros

destinationPath

string

Caminho do diretório de destino como "diretório" ou caminho de arquivo "diretório/arquivo". Se o destinationPath for autenticado com SAS, adicione a SAS ao caminho de destino como "diretório/arquivo?sasToken".

options
PathMoveOptions

Opcional. Opções ao mover o diretório ou arquivo.

Retornos

Promise<PathMoveResponse>

herdado deDataLakePathClient.move

move(string, string, PathMoveOptions)

Mova o diretório ou o arquivo para outro sistema de arquivos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parâmetros

destinationFileSystem

string

Sistema de arquivos de destino como "sistema de arquivos".

destinationPath

string

Caminho do diretório de destino como "diretório" ou caminho de arquivo "diretório/arquivo" Se o destinationPath for autenticado com SAS, adicione a SAS ao caminho de destino, como "diretório/arquivo?sasToken".

options
PathMoveOptions

Opcional. Opções ao mover o diretório ou arquivo.

Retornos

Promise<PathMoveResponse>

herdado deDataLakePathClient.move

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Remove o Controle de Acesso em um caminho e sub-caminhos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

RemovePathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Retornos

Herdado deDataLakePathClient.removeAccessControlRecursive

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Defina os dados de controle de acesso para um caminho (diretório do arquivo).

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathSetAccessControlOptions

Opcional. Opções ao definir o controle de acesso do caminho.

Retornos

Herdado deDataLakePathClient.setAccessControl

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Define o Controle de Acesso em um caminho e sub-caminhos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Retornos

Herdado deDataLakePathClient.setAccessControlRecursive

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Define as propriedades do sistema no caminho (diretório ou arquivo).

Se nenhum valor for fornecido ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, esses cabeçalhos HTTP de blob sem um valor serão limpos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>

Parâmetros

httpHeaders
PathHttpHeaders

Retornos

herdado deDataLakePathClient.setHttpHeaders

setMetadata(Metadata, PathSetMetadataOptions)

Define metadados definidos pelo usuário para o caminho especificado (diretório do arquivo) como um ou mais pares nome-valor.

Se nenhuma opção for fornecida ou nenhum metadados definido no parâmetro, os metadados do caminho serão removidos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>

Parâmetros

metadata
Metadata

Opcional. Substitua os metadados existentes por esse valor. Se nenhum valor fornecido, os metadados existentes serão removidos.

options
PathSetMetadataOptions

Opcional. Opções ao definir metadados de caminho.

Retornos

Herdado deDataLakePathClient.setMetadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Define as permissões de arquivo em um caminho.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>

Parâmetros

permissions
PathPermissions

As permissões de acesso POSIX para o proprietário do arquivo, o grupo proprietário do arquivo e outros.

options
PathSetPermissionsOptions

Opcional. Opções ao definir permissões de caminho.

Retornos

Herdado deDataLakePathClient.setPermissions

toDirectoryClient()

Converta DataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.

function toDirectoryClient(): DataLakeDirectoryClient

Retornos

herdado deDataLakePathClient.toDirectoryClient

toFileClient()

Converta DataLakePathClient atual em DataLakeFileClient se o caminho atual for um arquivo.

function toFileClient(): DataLakeFileClient

Retornos

herdado deDataLakePathClient.toFileClient

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica o Controle de Acesso em um caminho e sub-caminhos.

Confira https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Retornos

herdado deDataLakePathClient.updateAccessControlRecursive