Delen via


Databricks Utilities met Databricks-Verbinding maken voor Scala

Notitie

Dit artikel bevat informatie over Databricks Verbinding maken voor Databricks Runtime 13.3 LTS en hoger.

In dit artikel wordt beschreven hoe u Databricks Utilities gebruikt met Databricks Verbinding maken voor Scala. Met Databricks Verbinding maken kunt u populaire IDE's, notebookservers en aangepaste toepassingen verbinden met Azure Databricks-clusters. Zie Wat is Databricks Verbinding maken? Zie Databricks Utilities met Databricks Verbinding maken voor Python voor de Python-versie van dit artikel.

Notitie

Voordat u Databricks Verbinding maken gaat gebruiken, moet u de Databricks Verbinding maken-client instellen.

U gebruikt Databricks Verbinding maken als volgt om toegang te krijgen tot Databricks Utilities:

  • Gebruik DBUtils.getDBUtils deze functie om toegang te krijgen tot het Databricks File System (DBFS) en geheimen via Databricks Utilities. DBUtils.getDBUtils behoort tot de Databricks Utilities voor Scala-bibliotheek .
  • Er zijn geen databricks-hulpprogramma's beschikbaar voor Scala-projecten, behalve de voorgaande hulpprogramma's.
  • Databricks Verbinding maken voor Scala declareert al een afhankelijkheid van de Databricks Utilities for Scala-bibliotheek, dus u hoeft deze afhankelijkheid niet expliciet te declareren in het buildbestand van uw Scala-project, zoals build.sbt voorsbt, pom.xml voor Maven of build.gradle voor Gradle.
  • Verificatie voor de Databricks Utilities voor Scala-bibliotheek wordt bepaald door de DatabricksSession klasse in uw Databricks-Verbinding maken-project voor Scala te initialiseren.

Tip

U kunt ook de Databricks SDK voor Java van Scala gebruiken voor toegang tot alle beschikbare Databricks REST API's, niet alleen de voorgaande Databricks Utilities-API's. Zie de databricks/databricks-sdk-java-opslagplaats in GitHub en gebruik scala met de Databricks SDK voor Java.

In het volgende voorbeeld ziet u hoe u de Databricks Utilities voor Scala-bibliotheek gebruikt om een Unity Catalog-volume te automatiseren. In dit voorbeeld wordt een bestand gemaakt met de naam zzz_hello.txt in het pad van het volume in de werkruimte, worden de gegevens uit het bestand gelezen en vervolgens het bestand verwijderd.

import com.databricks.sdk.scala.dbutils.DBUtils

object Main {
  def main(args: Array[String]): Unit = {

    val filePath = "/Volumes/main/default/my-volume/zzz_hello.txt"
    val fileData = "Hello, Databricks!"
    val dbutils = DBUtils.getDBUtils()

    dbutils.fs.put(
      file = filePath,
      contents = fileData,
      overwrite = true
    )

    println(dbutils.fs.head(filePath))

    dbutils.fs.rm(filePath)
  }
}