Delen via


Databricks Utilities met Databricks Connect voor Scala

Notitie

Dit artikel bevat informatie over Databricks Connect voor Databricks Runtime 13.3 LTS en hoger.

In dit artikel wordt beschreven hoe u Databricks Utilities gebruikt met Databricks Connect voor Scala. Met Databricks Connect kunt u populaire IDE's, notebookservers en aangepaste toepassingen verbinden met Azure Databricks-clusters. Zie Wat is Databricks Connect?. Zie Databricks Utilities met Databricks Connect voor Pythonvoor de Python-versie van dit artikel.

Notitie

Voordat u Databricks Connect gaat gebruiken, moet u de Databricks Connect-client instellen.

U gebruikt Databricks Connect als volgt om toegang te krijgen tot Databricks Utilities:

  • Gebruik DBUtils.getDBUtils om via Databricks Utilities toegang te krijgen tot de Databricks File System (DBFS) en geheimen . DBUtils.getDBUtils behoort tot de Databricks Utilities voor Scala-bibliotheek.
  • Er zijn geen databricks-hulpprogramma's beschikbaar voor Scala-projecten, behalve de voorgaande hulpprogramma's.
  • Databricks Connect voor Scala declareert al een afhankelijkheid van de Databricks Utilities for Scala-bibliotheek. U hoeft deze afhankelijkheid dus niet expliciet te declareren in het buildbestand van uw Scala-project, zoals build.sbt voor sbt, pom.xml voor Maven of build.gradle voor Gradle.
  • Verificatie voor de Databricks Utilities for Scala-bibliotheek wordt bepaald door het initialiseren van de DatabricksSession-klasse in uw Databricks Connect-project voor Scala.

Tip

U kunt ook de Databricks SDK voor Java van Scala gebruiken voor toegang tot alle beschikbare Databricks REST API's, niet alleen de voorgaande Databricks Utilities-API's. Zie de opslagplaats databricks/databricks-sdk-java in GitHub en ook Gebruik Scala met de Databricks SDK voor Java.

In het volgende voorbeeld ziet u hoe u de Databricks Utilities voor Scala-bibliotheek gebruikt om een Unity Catalog-volume te automatiseren. In dit voorbeeld wordt een bestand gemaakt met de naam zzz_hello.txt in het pad van het volume in de werkruimte, worden de gegevens uit het bestand gelezen en vervolgens het bestand verwijderd.

import com.databricks.sdk.scala.dbutils.DBUtils

object Main {
  def main(args: Array[String]): Unit = {

    val filePath = "/Volumes/main/default/my-volume/zzz_hello.txt"
    val fileData = "Hello, Databricks!"
    val dbutils = DBUtils.getDBUtils()

    dbutils.fs.put(
      file = filePath,
      contents = fileData,
      overwrite = true
    )

    println(dbutils.fs.head(filePath))

    dbutils.fs.rm(filePath)
  }
}