Partilhar via


O que são volumes do Catálogo Unity?

Os volumes são objetos do Unity Catalog que permitem a governança sobre conjuntos de dados não tabulares. Os volumes representam um volume lógico de armazenamento em um local de armazenamento de objetos em nuvem. Os volumes fornecem recursos para acessar, armazenar, governar e organizar arquivos.

Enquanto as tabelas fornecem governança sobre conjuntos de dados tabulares, os volumes adicionam governança sobre conjuntos de dados não tabulares. Você pode usar volumes para armazenar e acessar arquivos em qualquer formato, incluindo dados estruturados, semiestruturados e não estruturados.

O Databricks recomenda o uso de volumes para controlar o acesso a todos os dados não tabulares. Como as tabelas, os volumes podem ser gerenciados ou externos.

Importante

Não é possível usar volumes como local para tabelas. Os volumes destinam-se apenas ao acesso a dados com base em caminhos. Use tabelas quando quiser trabalhar com dados tabulares no Unity Catalog.

Os seguintes artigos fornecem mais informações sobre como trabalhar com volumes:

Nota

Ao trabalhar com volumes, você deve usar um SQL warehouse ou um cluster que execute o Databricks Runtime 13.3 LTS ou superior, a menos que esteja usando as interfaces do usuário do Azure Databricks, como o Gerenciador de Catálogos.

O que é um volume gerenciado?

Um de volume gerenciado é um volume de armazenamento controlado pelo Unity Catalog, criado dentro do local de armazenamento gerenciado do esquema que contém. Consulte Especificar um local de armazenamento gerenciado no Unity Catalog.

Os volumes gerenciados permitem a criação de armazenamento controlado para trabalhar com arquivos sem a sobrecarga de locais externos e credenciais de armazenamento. Você não precisa especificar um local ao criar um volume gerenciado, e todo o acesso a arquivos para dados em volumes gerenciados é feito por meio de caminhos gerenciados pelo Unity Catalog.

O que é um volume externo?

Um de volume externo é um volume de armazenamento controlado pelo Unity Catalog, registrado em um diretório dentro de um local externo usando credenciais de armazenamento controladas pelo Unity Catalog.

O Unity Catalog não gerencia o ciclo de vida e o layout dos arquivos em volumes externos. Quando você solta um volume externo, o Unity Catalog não exclui os dados subjacentes.

Qual caminho é usado para acessar arquivos em um volume?

Os volumes ficam no terceiro nível do namespace de três níveis do Unity Catalog (catalog.schema.volume):

diagrama de modelo de objeto do Unity Catalog, focado no volume

O caminho para acessar volumes é o mesmo se você usar Apache Spark, SQL, Python ou outras linguagens e bibliotecas. Isso difere dos padrões de acesso herdados para arquivos no armazenamento de objetos vinculados a um espaço de trabalho do Azure Databricks.

O caminho para acessar arquivos em volumes usa o seguinte formato:

/Volumes/<catalog>/<schema>/<volume>/<path>/<file-name>

O Azure Databricks também dá suporte a um esquema opcional dbfs:/ ao trabalhar com o Apache Spark, portanto, o caminho a seguir também funciona:

dbfs:/Volumes/<catalog>/<schema>/<volume>/<path>/<file-name>

A sequência /<catalog>/<schema>/<volume> no caminho corresponde aos três nomes de objeto do Unity Catalog associados ao arquivo. Esses elementos de caminho são somente leitura e não podem ser gravados diretamente pelos usuários, o que significa que não é possível criar ou excluir esses diretórios usando operações do sistema de arquivos. Eles são gerenciados automaticamente e mantidos em sincronia com as entidades correspondentes do Catálogo Unity.

Nota

Você também pode acessar dados em volumes externos usando URIs de armazenamento em nuvem.

Caminhos reservados para volumes

Volumes apresenta os seguintes caminhos reservados usados para acessar volumes:

  • dbfs:/Volumes
  • /Volumes

Nota

Os caminhos também são reservados para possíveis erros de digitação para esses caminhos das APIs do Apache Spark e dbutils, incluindo /volumes, /Volume, /volume, independentemente de serem ou não precedidos por dbfs:/. O caminho /dbfs/Volumes também é reservado, mas não pode ser usado para acessar volumes.

Os volumes só são suportados no Databricks Runtime 13.3 LTS e superior. No Databricks Runtime 12.2 LTS e inferior, as operações em caminhos de /Volumes podem ser bem-sucedidas, mas elas só podem gravar dados em discos de armazenamento efémeros conectados a clusters de computação, em vez de persistirem dados em volumes do Unity Catalog como era de esperar.

Importante

Se você tiver dados pré-existentes armazenados em um caminho reservado na raiz DBFS, poderá arquivar um tíquete de suporte para obter acesso temporário a esses dados e movê-los para outro local.

Limitações

Você deve usar computação compatível com o Unity Catalog para interagir com os volumes do Unity Catalog. Os volumes não suportam todas as cargas de trabalho.

A tabela a seguir descreve as limitações de volume do Unity Catalog com base na versão do Databricks Runtime:

Versão do Databricks Runtime Limitações
14.3 LTS e versões posteriores - Em clusters de usuário único, você não pode acessar volumes de threads e subprocessos no Scala.
14.2 e inferior - Na computação configurada com o modo de acesso compartilhado, você não pode usar UDFs para acessar volumes.
- Python ou Scala têm acesso ao FUSE a partir do driver, mas não de executores.
- O código Scala que executa operações de E/S pode ser executado no driver, mas não nos executores.
- Na computação configurada com modo de acesso de usuário único, não há suporte para FUSE em Scala, código IO em Scala que acesse dados por meio de caminhos de volume ou UDFs em Scala. UDFs Python são suportados no modo de acesso de usuário único.
Todas as versões suportadas do Databricks Runtime - Os volumes não suportam comandos dbutils.fs distribuídos aos executores.
- UDFs do Unity Catalog não suportam o acesso a caminhos de arquivos de volume.
- Não é possível acessar volumes de RDDs.
- Não é possível usar o spark-submit com JARs armazenados em um volume.
- Não é possível definir dependências para outras bibliotecas acessadas através de caminhos de volume dentro de uma roda ou arquivo JAR.
- Não é possível listar objetos do Unity Catalog usando os padrões /Volumes/<catalog-name> ou /Volumes/<catalog-name>/<schema-name>. Você deve usar um caminho totalmente qualificado que inclua um nome de volume, no formato Volumes/<catalog-name>/<schema-name>/<volume-name>. Por exemplo, dbutils.fs.ls("/Volumes/MyCatalog/MySchema/MyVolume")
- O ponto de extremidade DBFS para a API REST não suporta caminhos de volumes.
- Não é possível especificar volumes como o destino para a entrega do log de cluster.
- %sh mv não é suportado para mover ficheiros entre volumes. Use dbutils.fs.mv ou %sh cp em vez disso.
- Não é possível criar um sistema de arquivos Hadoop personalizado com volumes. Por exemplo, usar new Path("dbfs:/Volumes/main/default/test-volume/file.txt") para criar um objeto org.apache.hadoop.fs.path não funcionará.
- Os volumes não estão disponíveis em regiões do Azure Government ou em espaços de trabalho em conformidade com o FedRAMP.
- Você deve usar o formato de caminho com o esquema dbfs:/ no painel de configuração da biblioteca do Azure Data Factory, por exemplo, dbfs:/Volumes/<catalog-name>/<schema-name>/<volume-name>/file.