Partilhar via


Utilitários Databricks com Databricks Connect para Scala

Observação

Este artigo aborda o Databricks Connect para o Databricks Runtime 13.3 LTS e versões posteriores.

Este artigo descreve como usar de utilitários Databricks com o Databricks Connect for Scala. O Databricks Connect permite conectar IDEs populares, servidores de notebook e aplicativos personalizados a clusters do Azure Databricks. Consulte O que é Databricks Connect?. Para obter a versão Python deste artigo, consulte Databricks Utilities with Databricks Connect for Python.

Observação

Antes de começar a usar o Databricks Connect, você deve configurar o cliente Databricks Connect.

Você usa o Databricks Connect para acessar os utilitários Databricks da seguinte maneira:

  • Use o/a DBUtils.getDBUtils para aceder o Sistema de Ficheiros do Databricks (DBFS) e os segredos através do Databricks Utilities. DBUtils.getDBUtils pertence à biblioteca Databricks Utilities for Scala.
  • Nenhuma funcionalidade de utilitários Databricks além dos utilitários anteriores está disponível para projetos Scala.
  • O Databricks Connect for Scala já declara uma dependência na biblioteca Databricks Utilities for Scala, portanto, você não precisa declarar explicitamente essa dependência no arquivo de compilação do seu projeto Scala, como build.sbt para sbt, pom.xml para Maven ou build.gradle para Gradle.
  • A autenticação para a biblioteca Databricks Utilities for Scala é determinada através da inicialização da classe DatabricksSession em seu projeto Databricks Connect para Scala.

Dica

Você também pode usar o SDK do Databricks para Java do Scala para acessar qualquer API REST do Databricks disponível, não apenas as APIs de utilitários Databricks anteriores. Consulte o repositório databricks/databricks-sdk-java no GitHub e também Usar o Scala com o Databricks SDK for Java.

O exemplo a seguir mostra como usar a biblioteca Databricks Utilities for Scala para automatizar um volume do Catálogo Unity. Este exemplo cria um arquivo chamado zzz_hello.txt no caminho do volume dentro do espaço de trabalho, lê os dados do arquivo e exclui o arquivo.

import com.databricks.sdk.scala.dbutils.DBUtils

object Main {
  def main(args: Array[String]): Unit = {

    val filePath = "/Volumes/main/default/my-volume/zzz_hello.txt"
    val fileData = "Hello, Databricks!"
    val dbutils = DBUtils.getDBUtils()

    dbutils.fs.put(
      file = filePath,
      contents = fileData,
      overwrite = true
    )

    println(dbutils.fs.head(filePath))

    dbutils.fs.rm(filePath)
  }
}