在 Google BigQuery 上运行联合查询

重要

此功能目前以公共预览版提供。

本文介绍如何设置 Lakehouse Federation,以便对不受 Azure Databricks 管理的 BigQuery 数据运行联合查询。 若要详细了解 Lakehouse Federation,请参阅什么是 Lakehouse Federation?

若要使用 Lakehouse Federation 连接到 BigQuery 数据库,必须在 Azure Databricks Unity Catalog 元存储中创建以下内容:

  • 与 BigQuery 数据库的连接
  • 一个外部目录,它镜像 Unity Catalog 中的 BigQuery 数据库,以便你可使用 Unity Catalog 查询语法和数据治理工具来管理 Azure Databricks 用户对数据库的访问。

开始之前

工作区要求:

  • 已为 Unity Catalog 启用工作区。

计算要求:

  • 从 Databricks Runtime 群集或 SQL 仓库到目标数据库系统的网络连接。 请参阅 Lakehouse Federation 网络建议
  • Azure Databricks 群集必须使用 Databricks Runtime 13.3 LTS(或更高版本)和共享或单用户访问模式。
  • SQL 仓库必须是 Pro 或无服务器仓库。

所需的权限:

  • 若要创建连接,你必须是元存储管理员或对附加到工作区的 Unity Catalog 元存储具有 CREATE CONNECTION 权限的用户。
  • 若要创建外部目录,必须对元存储具有 CREATE CATALOG 权限,并且是连接的所有者或对连接具有 CREATE FOREIGN CATALOG 特权。

后面的每个基于任务的部分中都指定了其他权限要求。

创建连接

连接指定用于访问外部数据库系统的路径和凭据。 若要创建连接,可以使用目录资源管理器,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE CONNECTION SQL 命令。

注意

你还可以使用 Databricks REST API 或 Databricks CLI 来创建连接。 请参阅 POST /api/2.1/unity-catalog/connectionsUnity Catalog 命令

所需的权限:具有 CREATE CONNECTION 特权的元存储管理员或用户。

目录资源管理器

  1. 在 Azure Databricks 工作区中,单击 “目录”图标目录”。

  2. 在“目录”窗格顶部,单击 添加或加号图标“添加”图标,然后从菜单中选择“添加连接”

    也可在“快速访问”页中单击“外部数据 >”按钮,转到“连接”选项卡,然后单击“创建连接”

  3. 输入用户友好的连接名称

  4. 选择 BigQuery 的连接类型。

  5. 输入 BigQuery 实例的以下连接属性。

    GoogleServiceAccountKeyJson:用于指定 BigQuery 项目并提供身份验证的原始 JSON 对象。 可以在 Google Cloud 的“KEYS”下的服务帐户详细信息页中生成此 JSON 对象并下载。 该服务帐户必须具有 BigQuery 中授予的适当权限,包括 BigQuery 用户和 BigQuery 数据查看者。 下面是一个示例。

    {
      "type": "service_account",
      "project_id": "PROJECT_ID",
      "private_key_id": "KEY_ID",
      "private_key": "-----BEGIN PRIVATE KEY-----\nPRIVATE_KEY\n-----END PRIVATE KEY-----\n",
      "client_email": "SERVICE_ACCOUNT_EMAIL",
      "client_id": "CLIENT_ID",
      "auth_uri": "https://accounts.google.com/o/oauth2/auth",
      "token_uri": "https://accounts.google.com/o/oauth2/token",
      "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
      "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/SERVICE_ACCOUNT_EMAIL",
      "universe_domain": "googleapis.com"
    }
    
  6. (可选)输入 BigQuery 实例的以下连接属性:

    项目 ID:用于对此连接下运行的所有查询进行计费的 BigQuery 项目的名称。 默认为服务帐户的项目 ID。

  7. (可选)单击“测试连接”以确认网络连接。 此操作不会测试身份验证。

  8. (可选)添加注释。

  9. 单击“创建”。

SQL

在笔记本或 Databricks SQL 查询编辑器中运行以下命令。 将 <GoogleServiceAccountKeyJson> 替换为指定 BigQuery 项目并提供身份验证的原始 JSON 对象。 可以在 Google Cloud 的“KEYS”下的服务帐户详细信息页中生成此 JSON 对象并下载。 该服务帐户需要具有 BigQuery 中授予的适当权限,包括 BigQuery 用户和 BigQuery 数据查看者。 有关示例 JSON 对象,请查看此页面上的 Catalog Explorer 选项卡。

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson '<GoogleServiceAccountKeyJson>'
);

建议对凭据等敏感值使用 Azure Databricks 机密而不是纯文本字符串。 例如:

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson secret ('<secret-scope>','<secret-key-user>')
)

有关设置机密的详细信息,请参阅机密管理

创建外部目录

外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。 若要创建外部目录,请使用与已定义的数据源的连接。

若要创建外部目录,可以使用 Catalog Explorer,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE FOREIGN CATALOG

注意

你还可以使用 Databricks REST API 或 Databricks CLI 来创建目录。 请参阅 POST /api/2.1/unity-catalog/catalogsUnity Catalog 命令

所需的权限:对元存储具有 CREATE CATALOG 权限,并且具有连接的所有权或对连接具有 CREATE FOREIGN CATALOG 权限。

目录资源管理器

  1. 在 Azure Databricks 工作区中,单击 “目录”图标“目录”以打开目录资源管理器。

  2. 在“目录”窗格顶部,单击 添加或加号图标“添加”图标,然后从菜单中选择“添加目录”

    也可在“快速访问”页中单击“目录”按钮,然后单击“创建目录”按钮。

  3. (可选)输入下面的目录属性:

    数据项目 ID:包含将映射到此目录的数据的 BigQuery 项目的名称。 默认为连接级别设置的计费项目 ID。

  4. 按照创建目录中的说明创建外部目录。

SQL

在笔记本或 Databricks SQL 编辑器中运行以下 SQL 命令。 括号中的项是可选的。 替换占位符值。

  • <catalog-name>:Azure Databricks 中目录的名称。
  • <connection-name>:指定数据源、路径和访问凭据的连接对象
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>;

支持的下推

支持以下下推:

  • 筛选器
  • 投影
  • 限制
  • 函数:部分,仅适用于筛选器表达式。 (字符串函数、数学函数、数据、时间和时间戳函数以及其他杂项函数,例如 Alias、Cast、SortOrder)
  • 聚合
  • 排序,与限制一起使用时

不支持以下下推:

  • 联接
  • Windows 函数

数据类型映射

下表显示了 BigQuery 到 Spark 数据类型的映射。

BigQuery 类型 Spark 类型
bignumeric, numeric DecimalType
int64 LongType
float64 DoubleType
array, geography, interval, json, string, struct VarcharType
bytes BinaryType
bool BooleanType
date DateType
datetime, time, timestamp TimestampType/TimestampNTZType

从 BigQuery 读取时,如果 preferTimestampNTZ = false,则 BigQuery Timestamp 将映射到 Spark TimestampType(默认)。 如果 preferTimestampNTZ = true,则 BigQuery Timestamp 将映射到 TimestampNTZType