Executar consultas federadas no Microsoft SQL Server
Este artigo descreve como set a Lakehouse Federation para executar consultas federadas em dados do SQL Server que não são gerenciados pelo Azure Databricks. Para saber mais sobre a Lakehouse Federation, consulte O que é Lakehouse Federation?.
Para se conectar ao banco de dados do SQL Server usando a Lakehouse Federation, você deve criar o seguinte no metastore do Azure Databricks Unity Catalog:
- Uma conexão com seu banco de dados do SQL Server.
- Um estrangeiro catalog que espelha o banco de dados do SQL Server no Unity Catalog, permitindo que utilizes a sintaxe de consulta do Unity Catalog e as ferramentas de governança de dados para gerir o acesso dos utilizadores do Azure Databricks ao banco de dados.
A Lakehouse Federation dá suporte ao SQL Server, ao Banco de Dados SQL do Azure e à Instância Gerenciada SQL do Azure.
Antes de começar
Requisitos do espaço de trabalho:
- Espaço de trabalho ativado para Unity Catalog.
Requisitos de computação:
- Conectividade de rede do seu recurso de computação para os sistemas de banco de dados de destino. Consulte Recomendações de rede para a Lakehouse Federation.
- A computação do Azure Databricks deve usar o Databricks Runtime 13.3 LTS ou superior e o modo de acesso Compartilhado ou de utilizador único.
- Os armazéns SQL devem ser profissionais ou sem servidor e devem usar 2023.40 ou superior.
Permissões necessárias:
- Para criar uma conexão, você deve ser um administrador de metastore ou um usuário com o privilégio de
CREATE CONNECTION
no metastore Unity Catalog anexado ao espaço de trabalho. - Para criar um catalogestrangeiro, você deve ter a permissão
CREATE CATALOG
no metastore e ser o proprietário da conexão ou ter o privilégio deCREATE FOREIGN CATALOG
na conexão.
Os requisitos de permissão adicionais são especificados em cada seção baseada em tarefas a seguir.
- Se você planeja autenticar usando OAuth, registre um aplicativo no Microsoft Entra ID para Azure Databricks. Consulte a seção a seguir para obter detalhes.
(Opcional) Registrar um aplicativo no Microsoft Entra ID para Azure Databricks
Se você quiser autenticar usando OAuth, siga esta etapa antes de criar uma conexão do SQL Server. Para autenticar usando um nome de usuário e senha, ignore esta seção.
- Inicie sessão no portal do Azure.
- Na navegação à esquerda, clique em Microsoft Entra ID.
- Clique em Registos de aplicações.
- Clique em Novo registo. Insira um nome para o novo aplicativo e set o URI de redirecionamento para
https://<workspace-url>/login/oauth/azure.html
. - Clique em Registar.
- Na caixa Essenciais, copie e armazene a ID do aplicativo (cliente). Você usará esse valor para configurar o aplicativo.
- Clique em Certificados & segredos.
- Na guia Segredos do cliente, clique em Novo segredo do cliente.
- Insira uma descrição para o segredo e uma expiração (a configuração padrão é de 180 dias).
- Clique em Adicionar.
- Copie o valor gerado para o segredo do cliente.
- Clique em Permissões de API.
- Clique em Adicionar uma permissão.
- Select Banco de Dados SQL do Azure e clique em user_impersonation em Permissões delegadas.
- Clique em Adicionar permissões.
Criar uma conexão
Uma conexão especifica um caminho e credentials para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION
SQL em um bloco de anotações do Azure Databricks ou no editor de consultas Databricks SQL.
Nota
Você também pode usar a API REST do Databricks ou a CLI do Databricks para criar uma conexão. Consulte comandos POST /api/2.1/unity-catalog/connections e Unity Catalog.
Permissões necessárias: administrador do Metastore ou usuário com o CREATE CONNECTION
privilégio.
Catalog Explorer
No seu espaço de trabalho do Azure Databricks, clique Catalog.
Na parte superior do painel Catalog, clique no ícone ícone Adicionar e selectAdicionar uma conexão no menu.
Como alternativa, na página Acesso rápido, clique no botão dados externos, vá para a guia Connections e clique em Criarde conexão .
Na página Noções básicas de conexão
do assistente de de conexão -up, insira um nome de conexão amigável .um de tipo de Conexão do SQL Server .Select um tipo de Auth de OAuth ou nome de utilizador e senha (autenticação básica).
(Opcional) Adicione um comentário.
Clique Avançar.
Na página de Autenticação
, insira as seguintes propriedades de conexão para sua instância do SQL Server. As propriedades específicas do método de autenticação selecionado são precedidas pelo Auth type
entre parênteses.- Host: Seu servidor SQL.
- (Autenticação básica) Porto
- (Autenticação básica) trustServerCertificate: o padrão é
false
. Quando set paratrue
, a camada de transporte usa SSL para criptografar o canal e ignora a cadeia de certificados para validar a confiança. Deixe esse set para o padrão, a menos que você tenha uma necessidade específica de ignorar a validação de confiança. - (Autenticação básica) Utilizador
- (Autenticação básica) Palavra-passe
- (OAuth) Ponto de extremidade de autorização: seu ponto de extremidade de autorização do Azure Entra no formato
https://login.microsoftonline.com/<tenant-id>/oauth2/v2.0/authorize
. - (OAuth) ID do cliente do aplicativo que você criou.
- (OAuth) Segredo do cliente do segredo do cliente que você criou.
- (OAuth) escopo OAuth: Insira o seguinte valor sem modificações:
https://database.windows.net/.default offline_access
. - (OAuth) Clique Iniciar sessão com o Azure Entra ID. Introduza o seu nome de utilizador e palavra-passe do Azure. Depois de ser redirecionado para a página de Autenticação
, o código de autorização é preenchido na interface do usuário.
Clique em Criar conexão.
(Autenticação básica) Na página Detalhes da conexão, especifique o seguinte:
- Certificado do servidor confiável: Esta opção é desmarcada por padrão. Quando selecionada, a camada de transporte usa SSL para criptografar o canal e ignora a cadeia de certificados para validar a confiança. Deixe esse set para o padrão, a menos que você tenha uma necessidade específica de ignorar a validação de confiança.
- Intenção do aplicativo: O tipo de carga de trabalho do aplicativo ao se conectar a um servidor.
Clique Avançar.
Na página noções básicas do
, insira um nome para o estrangeiro. Um catalog estrangeiro espelha uma base de dados em um sistema externo de dados para que tu possas consultar e gerir o acesso aos dados nessa base de dados usando o Azure Databricks e o Unity Catalog. (Opcional) Clique em Testar conexão para confirmar se ela funciona.
Clique Criar catalog.
Na página do
Access, os espaços de trabalho nos quais os usuários podem acessar o que você criou. Você pode selectTodos os espaços de trabalho têm acessoou clicar em Atribuir a espaços de trabalho, select os espaços de trabalho e, em seguida, clique em Atribuir. Altere o Proprietário que poderá gerenciar o acesso a todos os objetos no catalog. Comece a digitar um principal na caixa de texto e, em seguida, clique no principal nos resultados.
Grant Privilégios no catalog. Clique Grant:
- Especifique as Entidades que terão acesso aos objetos no catalog. Comece a digitar um principal na caixa de texto e, em seguida, clique no principal nos resultados.
-
Select as predefinições de Privilégio para grant a cada entidade de segurança. Todos os utilizadores da conta recebem
BROWSE
por predefinição.-
Select
Leitor de Dados a partir do menu suspenso para atribuir grant
read
privilégios aos objetos no catalog. -
Select
Editor de Dados a partir do menu suspenso para grant
read
emodify
privilégios em objetos no catalog. - Manualmente select os privilégios para grant.
-
Select
Leitor de Dados a partir do menu suspenso para atribuir grant
- Clique em Grant.
Clique Avançar.
Na página de Metadados , especifique os pares de chave-valor das etiquetas. Para obter mais informações, consulte Aplicar tags em objetos de segurança do Unity Catalog.
(Opcional) Adicione um comentário.
Clique Salvar.
Nota
(OAuth) O ponto de extremidade OAuth do Azure Entra ID deve estar acessível a partir dos IPs do plano de controle do Azure Databricks. Consulte Regiões do Azure Databricks.
SQL
Execute o seguinte comando em um bloco de anotações ou no editor de consultas Databricks SQL.
CREATE CONNECTION <connection-name> TYPE sqlserver
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
Recomendamos que você use o Azure Databricks segredos em vez de cadeias de caracteres de texto sem formatação para values confidenciais como credentials. Por exemplo:
CREATE CONNECTION <connection-name> TYPE sqlserver
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Para obter informações sobre como configurar segredos, consulte Gerenciamento de segredos.
Criar uma catalog estrangeira
Nota
Se você usar a interface do usuário para criar uma conexão com a fonte de dados, a criação de catalog estrangeira será incluída e você poderá ignorar esta etapa.
Um catalog externo espelha uma base de dados num sistema de dados externo para poderes consultar e gerir o acesso aos dados nessa base de dados utilizando o Azure Databricks e o Unity Catalog. Para criar um catalogexterno, utilize uma conexão com a fonte de dados previamente definida.
Para criar um catalogexterno, você pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG
SQL em um bloco de anotações do Azure Databricks ou no editor de consultas SQL.
Você também pode usar a API REST do Databricks ou a CLI do Databricks para criar um catalog. Consulte comandos POST /api/2.1/unity-catalog/catalogs e Unity Catalog.
Permissões necessárias:CREATE CATALOG
permissão no metastore e propriedade da conexão ou o CREATE FOREIGN CATALOG
privilégio na conexão.
Catalog Explorer
No seu espaço de trabalho do Azure Databricks, clique Catalog para abrir o Catalog Explorer.
Na parte superior do painel Catalog, clique no ícone Adicionar ícone Adicionar e selectAdicionar um catalog no menu.
Como alternativa, na página Acesso rápido, clique no botão Catalogs e, em seguida, clique no botão Criar catalog.
Siga as instruções para criar catalogs estrangeiro no Criar catalogs.
SQL
Execute o seguinte comando SQL em um bloco de anotações ou editor de consultas SQL. Os itens entre parênteses são opcionais. Substitua o espaço reservado values:
-
<catalog-name>
: Nome do catalog no Azure Databricks. -
<connection-name>
: O objeto de conexão que especifica a fonte de dados, o caminho e o acesso credentials. -
<database-name>
: Nome do banco de dados que você deseja espelhar como um catalog no Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
Pushdowns suportados
Os seguintes pushdowns são suportados em todos os cálculos:
- Filtros
- Projeções
- Limit
- Funções: parcial, apenas para expressões de filtro. (Funções de cadeia de caracteres, funções matemáticas, dados, funções de carimbo de data/hora e carimbo de data/hora e outras funções diversas, como Alias, Cast, SortOrder)
Os seguintes pushdowns são suportados no Databricks Runtime 13.3 LTS e superior e na computação do SQL warehouse:
- Agregados
- Os seguintes operadores booleanos: =, <, <=, >, >=, <=>
- As seguintes funções matemáticas (não suportadas se o ANSI estiver desativado): +, -, *, %, /
- Os seguintes operadores diversos: ^, |, ~
- Classificação, quando utilizada com limit
As seguintes flexões não são suportadas:
- Associações
- Funções do Windows
Mapeamentos de tipo de dados
Quando você lê do SQL Server para o Spark, os tipos de dados são mapeados da seguinte maneira:
Tipo de SQL Server | Tipo de faísca |
---|---|
bigint (não assinado), decimal, dinheiro, numérico, smallmoney | Tipo decimal |
pequeno, minúsculo | Tipo curto |
número inteiro | Tipo inteiro |
bigint (se assinado) | Tipo Longo |
real | Tipo de flutuação |
flutuante | Tipo Duplo |
char, nchar, uniqueidentifier | CharType |
Nvarchar, Varchar | VarcharType |
texto, xml | StringType |
binário, geografia, geometria, imagem, timestamp, udt, varbinary | BinaryType |
bit | BooleanType |
data | Tipo de Data |
datetime, datetime, smalldatetime, hora | TimestampType/TimestampNTZTipe |
*Quando você lê a partir do SQL Server, o SQL Server datetimes
é mapeado para o Spark TimestampType
if preferTimestampNTZ = false
(padrão). SQL Server datetimes
são mapeados para TimestampNTZType
if preferTimestampNTZ = true
.