Partilhar via


Executar consultas federadas no Microsoft SQL Server

Este artigo descreve como set a Lakehouse Federation para executar consultas federadas em dados do SQL Server que não são gerenciados pelo Azure Databricks. Para saber mais sobre a Lakehouse Federation, consulte O que é Lakehouse Federation?.

Para se conectar ao banco de dados do SQL Server usando a Lakehouse Federation, você deve criar o seguinte no metastore do Azure Databricks Unity Catalog:

  • Uma conexão com seu banco de dados do SQL Server.
  • Um externo que espelha seu banco de dados do SQL Server no Unity para que você possa usar a sintaxe de consulta do Unity e as ferramentas de governança de dados para gerenciar o acesso do usuário do Azure Databricks ao banco de dados.

A Lakehouse Federation dá suporte ao SQL Server, ao Banco de Dados SQL do Azure e à Instância Gerenciada SQL do Azure.

Antes de começar

Requisitos do espaço de trabalho:

  • Espaço de trabalho habilitado para Unity Catalog.

Requisitos de computação:

  • Conectividade de rede do seu recurso de computação para os sistemas de banco de dados de destino. Consulte Recomendações de rede para a Lakehouse Federation.
  • A computação do Azure Databricks deve usar o Databricks Runtime 13.3 LTS ou superior e o modo de acesso Compartilhado ou de utilizador único.
  • Os armazéns SQL devem ser profissionais ou sem servidor e devem usar 2023.40 ou superior.

Permissões necessárias:

  • Para criar uma conexão, você deve ser um administrador de metastore ou um usuário com o privilégio de CREATE CONNECTION no metastore Unity Catalog anexado ao espaço de trabalho.
  • Para criar um catalogestrangeiro, é necessário ter a permissão CREATE CATALOG no metastore e ser proprietário da conexão ou ter o privilégio CREATE FOREIGN CATALOG na conexão.

Os requisitos de permissão adicionais são especificados em cada seção baseada em tarefas a seguir.

  • Se você planeja autenticar usando OAuth, registre um aplicativo no Microsoft Entra ID para Azure Databricks. Consulte a seção a seguir para obter detalhes.

(Opcional) Registrar um aplicativo no Microsoft Entra ID para Azure Databricks

Se você quiser autenticar usando OAuth, siga esta etapa antes de criar uma conexão do SQL Server. Para autenticar usando um nome de usuário e senha, ignore esta seção.

  1. Inicie sessão no portal do Azure.
  2. Na navegação à esquerda, clique em Microsoft Entra ID.
  3. Clique em Registos de aplicações.
  4. Clique em Novo registo. Insira um nome para a nova aplicação e set o URI de redirecionamento para https://<workspace-url>/login/oauth/azure.html.
  5. Clique em Registar.
  6. Na caixa Essenciais, copie e armazene a ID do aplicativo (cliente). Você usará esse valor para configurar o aplicativo.
  7. Clique em Certificados & segredos.
  8. Na guia Segredos do cliente, clique em Novo segredo do cliente.
  9. Insira uma descrição para o segredo e uma expiração (a configuração padrão é de 180 dias).
  10. Clique em Adicionar.
  11. Copie o valor gerado para o segredo do cliente.
  12. Clique em Permissões de API.
  13. Clique em Adicionar uma permissão.
  14. Select Base de Dados SQL do Azure e clique em user_impersonation em Permissões delegadas.
  15. Clique em Adicionar permissões.

Criar uma conexão

Uma conexão especifica um caminho e credentials para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando CREATE CONNECTION SQL em um bloco de anotações do Azure Databricks ou no editor de consultas Databricks SQL.

Nota

Você também pode usar a API REST do Databricks ou a CLI do Databricks para criar uma conexão. Consulte comandos POST /api/2.1/unity-catalog/connections e Unity Catalog.

Permissões necessárias: administrador do Metastore ou usuário com o CREATE CONNECTION privilégio.

Catalog Explorer

  1. No seu espaço de trabalho do Azure Databricks, clique Catalog íconeCatalog.

  2. Na parte superior do painel Catalog, clique no ícone Adicionar ou mais,ícone Adicionar e selectAdicionar uma conexão no menu.

    Como alternativa, na página Acesso rápido, clique no botão Dados externos, vá para a Connections guia e clique em Criar ligação.

  3. Insira um nome de conexão amigável.

  4. um de tipo de Conexão do SQL Server.

  5. Select um Auth do tipo de OAuth ou Nome de utilizador e senha.

  6. Insira as seguintes propriedades de conexão para sua instância do SQL Server, dependendo do seu método de autenticação:

    • Host: Seu servidor SQL.
    • (Autenticação básica) Porto
    • (Autenticação básica) trustServerCertificate: o padrão é false. Quando set para true, a camada de transporte usa SSL para criptografar o canal e ignora a cadeia de certificados para validar a confiança. Deixe esse set para o padrão, a menos que você tenha uma necessidade específica de ignorar a validação de confiança.
    • (Autenticação básica) Utilizador
    • (Autenticação básica) Palavra-passe
    • (OAuth) Ponto de extremidade de autorização: seu ponto de extremidade de autorização do Azure Entra no formato https://login.microsoftonline.com/<tenant-id>/oauth2/v2.0/authorize.
    • (OAuth) ID do cliente do aplicativo que você criou.
    • (OAuth) Segredo do cliente do segredo do cliente que você criou.
    • (OAuth) Escopo do cliente: insira o seguinte valor sem modificações: https://database.windows.net/.default offline_access.
    • (OAuth) Você será solicitado a entrar no Logon com a ID do Azure Entra. Introduza o seu nome de utilizador e palavra-passe do Azure. Depois que você for redirecionado para a página de criação de conexão, o código de autorização será preenchido na interface do usuário.
  7. (Opcional) Select uma opção no menu suspenso Intenção do aplicativo (Padrão: Read write).

  8. (Opcional) Clique em Testar conexão para confirmar se ela funciona.

  9. (Opcional) Adicione um comentário.

  10. Clique em Criar.

Nota

(OAuth) O ponto de extremidade OAuth do Azure Entra ID deve estar acessível a partir dos IPs do plano de controle do Azure Databricks. Consulte Regiões do Azure Databricks.

SQL

Execute o seguinte comando em um bloco de anotações ou no editor de consultas Databricks SQL.

CREATE CONNECTION <connection-name> TYPE sqlserver
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>'
);

Recomendamos que você use o Azure Databricks segredos em vez de cadeias de caracteres de texto sem formatação para values confidenciais como credentials. Por exemplo:

CREATE CONNECTION <connection-name> TYPE sqlserver
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>')
)

Para obter informações sobre como configurar segredos, consulte Gerenciamento de segredos.

Criar uma catalog estrangeira

Um catalog externo espelha uma base de dados num sistema de dados externo para permitir que se consulte e gere o acesso aos dados nessa base de dados usando o Azure Databricks e o Unity Catalog. Para criar um catalogexterno, utiliza-se uma conexão com a fonte de dados que já foi previamente definida.

Para criar um catalogexterno, você pode usar o Catalog Explorer ou o comando CREATE FOREIGN CATALOG SQL em um bloco de anotações do Azure Databricks ou no editor de consultas SQL.

Nota

Você também pode usar a API REST do Databricks ou a CLI do Databricks para criar um catalog. Consulte POST comandos /api/2.1/unity-catalog/catalogs e Unity Catalog.

Permissões necessárias:CREATE CATALOG permissão no metastore e propriedade da conexão ou o CREATE FOREIGN CATALOG privilégio na conexão.

Catalog Explorer

  1. No seu espaço de trabalho do Azure Databricks, clique Catalog íconeCatalog para abrir o Catalog Explorer.

  2. Na parte superior do painel Catalog, clique no ícone Adicionar ou maisícone Adicionar e selectAdicionar um catalog no menu.

    Como alternativa, na página Acesso rápido, clique no botão Catalogs e, em seguida, clique no botão Criar catalog.

  3. Siga as instruções para criar catalogs estrangeiros no Criar catalogs.

SQL

Execute o seguinte comando SQL em um bloco de anotações ou editor de consultas SQL. Os itens entre parênteses são opcionais. Substitua o marcador values:

  • <catalog-name>: Nome do catalog no Azure Databricks.
  • <connection-name>: O objeto de conexão que especifica a fonte de dados, o caminho e o credentialsde acesso.
  • <database-name>: Nome do banco de dados que você deseja espelhar como um catalog no Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');

Pushdowns suportados

Os seguintes pushdowns são suportados em todos os cálculos:

  • Filtros
  • Projeções
  • Limit
  • Funções: parcial, apenas para expressões de filtro. (Funções de cadeia de caracteres, funções matemáticas, dados, funções de carimbo de data/hora e carimbo de data/hora e outras funções diversas, como Alias, Cast, SortOrder)

Os seguintes pushdowns são suportados no Databricks Runtime 13.3 LTS e superior e na computação do SQL warehouse:

  • Agregados
  • Os seguintes operadores booleanos: =, <, <=, >, >=, <=>
  • As seguintes funções matemáticas (não suportadas se o ANSI estiver desativado): +, -, *, %, /
  • Os seguintes operadores diversos: ^, |, ~
  • Classificação, quando usada com limit

As seguintes flexões não são suportadas:

  • Associações
  • Funções do Windows

Mapeamentos de tipo de dados

Quando você lê do SQL Server para o Spark, os tipos de dados são mapeados da seguinte maneira:

Tipo de SQL Server Tipo de faísca
bigint (não assinado), decimal, dinheiro, numérico, smallmoney Tipo decimal
pequeno, minúsculo Tipo curto
número inteiro Tipo inteiro
bigint (se assinado) Tipo Longo
real Tipo de flutuação
flutuante Tipo Duplo
char, nchar, uniqueidentifier CharType
Nvarchar, Varchar VarcharType
texto, xml StringType
binário, geografia, geometria, imagem, timestamp, udt, varbinary BinaryType
bit BooleanType
data Tipo de Data
datetime, datetime, smalldatetime, hora TimestampType/TimestampNTZTipe

*Quando você lê a partir do SQL Server, o SQL Server datetimes é mapeado para o Spark TimestampType if preferTimestampNTZ = false (padrão). SQL Server datetimes são mapeados para TimestampNTZType if preferTimestampNTZ = true.