Eseguire query federate in MySQL
Questo articolo descrive come configurare La federazione lakehouse per eseguire query federate sui dati MySQL non gestiti da Azure Databricks. Per altre informazioni sulla federazione di lakehouse, si veda Che cos'è Lakehouse Federation?.
Per connettersi al database MySQL usando la federazione lakehouse, è necessario creare quanto segue nel metastore del catalogo Unity di Azure Databricks:
- Connessione al database MySQL.
- Catalogo esterno che rispecchia il database MySQL in Unity Catalog in modo che sia possibile usare la sintassi delle query di Unity Catalog e gli strumenti di governance dei dati per gestire l'accesso degli utenti di Azure Databricks al database.
Operazioni preliminari
Requisiti dell'area di lavoro:
- Area di lavoro abilitata per il catalogo Unity
Requisiti dell’ambiente di calcolo:
- Connettività di rete dal cluster Databricks Runtime o dal warehouse SQL ai sistemi di database di destinazione. Si veda Raccomandazioni di rete per Lakehouse Federation.
- I cluster di Azure Databricks devono usare Databricks Runtime 13.3 LTS o versione successiva e la modalità di accesso condiviso o utente singolo.
- I warehouse SQL devono essere Pro o Serverless e devono usare la versione 2023.40 o successiva.
Autorizzazioni necessarie:
- Per creare una connessione, è necessario essere un amministratore del metastore o un utente con il privilegio
CREATE CONNECTION
per il metastore del catalogo Unity collegato all'area di lavoro. - Per creare un catalogo esterno, è necessario disporre dell'autorizzazione
CREATE CATALOG
per il metastore e essere il proprietario della connessione o avere il privilegioCREATE FOREIGN CATALOG
per la connessione.
In ogni sezione basata su attività che segue vengono specificati requisiti di autorizzazione aggiuntivi.
Crea una connessione
Una connessione specifica un percorso e le credenziali per accedere a un sistema di database esterno. Per creare una connessione, è possibile usare Esplora cataloghi o il comando SQL CREATE CONNECTION
in un notebook di Azure Databricks o nell'editor di query SQL di Databricks.
Nota
È anche possibile usare l'API REST di Databricks o l'interfaccia della riga di comando di Databricks per creare una connessione. Vedere Comandi POST /api/2.1/unity-catalog/connections e catalogo Unity.
Autorizzazioni necessarie: amministratore o utente metastore con il privilegio CREATE CONNECTION
.
Esplora cataloghi
Nell'area di lavoro di Azure Databricks fare clic su Catalogo.
Nella parte superiore del riquadro Catalogo fare clic sull'icona Aggiungi e selezionare Aggiungi una connessione dal menu.
In alternativa, nella pagina Accesso rapido fare clic sul pulsante > Dati esterni, passare alla scheda Connessioni e fare clic su Crea connessione.
Immettere un nome di connessione semplice.
Selezionare un tipo di connessione di MySQL.
Immettere le proprietà di connessione seguenti per l'istanza di MySQL.
- Host: ad esempio,
mysql-demo.lb123.us-west-2.rds.amazonaws.com
- Porta: ad esempio
3306
- Utente: ad esempio
mysql_user
- Password: ad esempio,
password123
- Host: ad esempio,
(Facoltativo) Fare clic su Test connessione per verificare che funzioni.
(Facoltativo) Aggiungere un commento.
Cliccare su Crea.
SQL
Eseguire il seguente comando in un notebook o nell'editor di query SQL di Databricks.
CREATE CONNECTION <connection-name> TYPE mysql
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
Consigliamo di usare segreti di Azure Databricks anziché stringhe di testo non crittografato per valori sensibili come le credenziali. Ad esempio:
CREATE CONNECTION <connection-name> TYPE mysql
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Se è necessario usare stringhe di testo non crittografato nei comandi SQL del notebook, evitare di troncare la stringa eliminando caratteri speciali come $
con \
. Ad esempio: \$
.
Per informazioni sulla configurazione dei segreti, vedere Gestione dei segreti.
Creare un catalogo esterno
Un catalogo esterno esegue il mirroring di un database in un sistema di dati esterno in modo da poter eseguire query e gestire l'accesso ai dati in tale database usando Azure Databricks e catalogo Unity. Per creare un catalogo esterno, usare una connessione all'origine dati già definita.
Per creare un catalogo esterno, è possibile usare Esplora cataloghi o il CREATE FOREIGN CATALOG
comando SQL in un notebook di Azure Databricks o nell'editor di query SQL di Databricks.
Nota
È anche possibile usare l'API REST di Databricks o l'interfaccia della riga di comando di Databricks per creare un catalogo. Vedere Comandi POST /api/2.1/unity-catalog/catalogs e catalogo Unity.
Autorizzazioni necessarie: autorizzazione CREATE CATALOG
per il metastore e la proprietà della connessione o il privilegio CREATE FOREIGN CATALOG
per la connessione.
Esplora cataloghi
Nell'area di lavoro di Azure Databricks fare clic su Catalogo per aprire Esplora cataloghi.
Nella parte superiore del riquadro Catalogo fare clic sull'icona Aggiungi e selezionare Aggiungi un catalogo dal menu.
In alternativa, nella pagina Accesso rapido fare clic sul pulsante Cataloghi e quindi sul pulsante Crea catalogo.
Seguire le istruzioni per la creazione di cataloghi stranieri in Creare cataloghi.
SQL
Eseguire il comando SQL seguente in un notebook o in un editor SQL di Databricks. Gli elementi tra parentesi sono facoltativi. Sostituire i valori segnaposto;
<catalog-name>
: nome del catalogo in Azure Databricks.<connection-name>
: oggetto connessione che specifica l'origine dati, il percorso e le credenziali di accesso.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>;
Pushdown supportati
I pushdown seguenti sono supportati in tutte le risorse di calcolo:
- Filtri
- Proiezioni
- Limite
- Funzioni: parziale, solo per le espressioni di filtro. (Funzioni stringa, Funzioni matematiche, Funzioni matematiche, Data, Ora e Timestamp e altre funzioni varie, ad esempio Alias, Cast, SortOrder)
I pushdown seguenti sono supportati in Databricks Runtime 13.3 LTS e versioni successive e in SQL Warehouse:
- Aggregazioni
- Operatori booleani
- Le funzioni matematiche seguenti (non supportate se ANSI è disabilitato): +, -, *, %, /
- Ordinamento, se usato con limite
Non sono supportati i seguenti pushdown:
- Join
- Funzioni finestra
Mapping di tipi di dati
Quando si legge da MySQL a Spark, i tipi di dati vengono mappati nel modo seguente:
Tipo MySQL | Tipo Spark |
---|---|
bigint (se non firmato), decimale | DecimalType |
tinyint*, int, integer, mediumint, smallint | IntegerType |
bigint (se firmato) | LongType |
float | FloatType |
double | DoubleType |
char, enum, set | CharType |
varchar | VarcharType |
json, longtext, mediumtext, text, tinytext | StringType |
binary, blob, varbinary, varchar binary | BinaryType |
bit, booleano | BooleanType |
date, year | DateType |
datetime, time, timestamp** | TimestampType/TimestampNTZType |
*tinyint(1) signed
e tinyint(1) unsigned
vengono considerati booleani e convertiti in BooleanType
. Vedere Le informazioni di riferimento sul connettore/J sono disponibili nella documentazione di MySQL.
** Quando si legge da MySQL, MySQL Timestamp
viene mappato a Spark TimestampType
se preferTimestampNTZ = false
(impostazione predefinita). Viene eseguito il mapping di MySQL Timestamp
a TimestampNTZType
se preferTimestampNTZ = true
.