在 Google BigQuery 上运行联合查询
重要
此功能目前以公共预览版提供。
本文介绍如何设置 Lakehouse Federation,以便对不受 Azure Databricks 管理的 BigQuery 数据运行联合查询。 若要详细了解 Lakehouse Federation,请参阅什么是 Lakehouse Federation?。
若要使用 Lakehouse Federation 连接到 BigQuery 数据库,必须在 Azure Databricks Unity Catalog 元存储中创建以下内容:
- 与 BigQuery 数据库的连接。
- 一个外部目录,它镜像 Unity Catalog 中的 BigQuery 数据库,以便你可使用 Unity Catalog 查询语法和数据治理工具来管理 Azure Databricks 用户对数据库的访问。
开始之前
工作区要求:
- 已为 Unity Catalog 启用工作区。
计算要求:
- 从 Databricks Runtime 群集或 SQL 仓库到目标数据库系统的网络连接。 请参阅 Lakehouse Federation 网络建议。
- Azure Databricks 群集必须使用 Databricks Runtime 13.3 LTS(或更高版本)和共享或单用户访问模式。
- SQL 仓库必须是 Pro 或无服务器仓库。
所需的权限:
- 若要创建连接,你必须是元存储管理员或对附加到工作区的 Unity Catalog 元存储具有
CREATE CONNECTION
权限的用户。 - 若要创建外部目录,必须对元存储具有
CREATE CATALOG
权限,并且是连接的所有者或对连接具有CREATE FOREIGN CATALOG
特权。
后面的每个基于任务的部分中都指定了其他权限要求。
创建连接
连接指定用于访问外部数据库系统的路径和凭据。 若要创建连接,可以使用目录资源管理器,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE CONNECTION
SQL 命令。
注意
你还可以使用 Databricks REST API 或 Databricks CLI 来创建连接。 请参阅 POST /api/2.1/unity-catalog/connections 和 Unity Catalog 命令。
所需的权限:具有 CREATE CONNECTION
特权的元存储管理员或用户。
目录资源管理器
在 Azure Databricks 工作区中,单击 “目录”。
在“目录”窗格顶部,单击 “添加”图标,然后从菜单中选择“添加连接”。
也可在“快速访问”页中单击“外部数据 >”按钮,转到“连接”选项卡,然后单击“创建连接”。
输入用户友好的连接名称。
选择 BigQuery 的连接类型。
输入 BigQuery 实例的以下连接属性。
GoogleServiceAccountKeyJson:用于指定 BigQuery 项目并提供身份验证的原始 JSON 对象。 可以在 Google Cloud 的“KEYS”下的服务帐户详细信息页中生成此 JSON 对象并下载。 该服务帐户必须具有 BigQuery 中授予的适当权限,包括 BigQuery 用户和 BigQuery 数据查看者。 下面是一个示例。
{ "type": "service_account", "project_id": "PROJECT_ID", "private_key_id": "KEY_ID", "private_key": "-----BEGIN PRIVATE KEY-----\nPRIVATE_KEY\n-----END PRIVATE KEY-----\n", "client_email": "SERVICE_ACCOUNT_EMAIL", "client_id": "CLIENT_ID", "auth_uri": "https://accounts.google.com/o/oauth2/auth", "token_uri": "https://accounts.google.com/o/oauth2/token", "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs", "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/SERVICE_ACCOUNT_EMAIL", "universe_domain": "googleapis.com" }
(可选)输入 BigQuery 实例的以下连接属性:
项目 ID:用于对此连接下运行的所有查询进行计费的 BigQuery 项目的名称。 默认为服务帐户的项目 ID。
(可选)单击“测试连接”以确认网络连接。 此操作不会测试身份验证。
(可选)添加注释。
单击“创建”。
SQL
在笔记本或 Databricks SQL 查询编辑器中运行以下命令。 将 <GoogleServiceAccountKeyJson>
替换为指定 BigQuery 项目并提供身份验证的原始 JSON 对象。 可以在 Google Cloud 的“KEYS”下的服务帐户详细信息页中生成此 JSON 对象并下载。 该服务帐户需要具有 BigQuery 中授予的适当权限,包括 BigQuery 用户和 BigQuery 数据查看者。 有关示例 JSON 对象,请查看此页面上的 Catalog Explorer 选项卡。
CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
GoogleServiceAccountKeyJson '<GoogleServiceAccountKeyJson>'
);
建议对凭据等敏感值使用 Azure Databricks 机密而不是纯文本字符串。 例如:
CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
GoogleServiceAccountKeyJson secret ('<secret-scope>','<secret-key-user>')
)
有关设置机密的详细信息,请参阅机密管理。
创建外部目录
外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。 若要创建外部目录,请使用与已定义的数据源的连接。
若要创建外部目录,可以使用 Catalog Explorer,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE FOREIGN CATALOG
。
注意
你还可以使用 Databricks REST API 或 Databricks CLI 来创建目录。 请参阅 POST /api/2.1/unity-catalog/catalogs 或 Unity Catalog 命令。
所需的权限:对元存储具有 CREATE CATALOG
权限,并且具有连接的所有权或对连接具有 CREATE FOREIGN CATALOG
权限。
目录资源管理器
在 Azure Databricks 工作区中,单击 “目录”以打开目录资源管理器。
在“目录”窗格顶部,单击 “添加”图标,然后从菜单中选择“添加目录”。
也可在“快速访问”页中单击“目录”按钮,然后单击“创建目录”按钮。
(可选)输入下面的目录属性:
数据项目 ID:包含将映射到此目录的数据的 BigQuery 项目的名称。 默认为连接级别设置的计费项目 ID。
按照创建目录中的说明创建外部目录。
SQL
在笔记本或 Databricks SQL 编辑器中运行以下 SQL 命令。 括号中的项是可选的。 替换占位符值。
<catalog-name>
:Azure Databricks 中目录的名称。<connection-name>
:指定数据源、路径和访问凭据的连接对象。
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>;
支持的下推
支持以下下推:
- 筛选器
- 投影
- 限制
- 函数:部分,仅适用于筛选器表达式。 (字符串函数、数学函数、数据、时间和时间戳函数以及其他杂项函数,例如 Alias、Cast、SortOrder)
- 聚合
- 排序,与限制一起使用时
不支持以下下推:
- 联接
- Windows 函数
数据类型映射
下表显示了 BigQuery 到 Spark 数据类型的映射。
BigQuery 类型 | Spark 类型 |
---|---|
bignumeric, numeric | DecimalType |
int64 | LongType |
float64 | DoubleType |
array, geography, interval, json, string, struct | VarcharType |
bytes | BinaryType |
bool | BooleanType |
date | DateType |
datetime, time, timestamp | TimestampType/TimestampNTZType |
从 BigQuery 读取时,如果 preferTimestampNTZ = false
,则 BigQuery Timestamp
将映射到 Spark TimestampType
(默认)。 如果 preferTimestampNTZ = true
,则 BigQuery Timestamp
将映射到 TimestampNTZType
。