Udostępnij za pośrednictwem


Uruchamianie zapytań federacyjnych w usłudze Google BigQuery

W tym artykule opisano sposób konfigurowania federacji lakehouse w celu uruchamiania zapytań federacyjnych na danych BigQuery, które nie są zarządzane przez usługę Azure Databricks. Aby dowiedzieć się więcej o federacji Lakehouse, zobacz Co to jest Federacja Lakehouse?.

Aby nawiązać połączenie z bazą danych BigQuery przy użyciu usługi Lakehouse Federation, należy utworzyć następujące elementy w magazynie metadanych Unity Catalog w Azure Databricks:

  • Połączenie z bazą danych BigQuery.
  • zagraniczny katalog, który dubluje bazę danych BigQuery w Unity Catalog, dzięki czemu można użyć składni zapytań Unity Catalog i narzędzi zarządzania ładem danych w celu zarządzania dostępem użytkowników do bazy danych Azure Databricks.

Zanim rozpoczniesz

Wymagania dotyczące obszaru roboczego:

  • Obszar roboczy z włączonym Katalogiem Unity.

Wymagania dotyczące obliczeń:

  • Łączność sieciowa z klastra środowiska Databricks Runtime lub usługi SQL Warehouse z docelowymi systemami baz danych. Zobacz Zalecenia dotyczące sieci dla usługi Lakehouse Federation.
  • Klastry usługi Azure Databricks muszą używać środowiska Databricks Runtime 16.1 lub nowszego oraz trybu dostępu współużytkowanego lub pojedynczego użytkownika.
  • Magazyny SQL muszą mieć wartość Pro lub Bezserwerową.

Wymagane uprawnienia:

  • Aby utworzyć połączenie, musisz być administratorem metastore lub użytkownikiem z uprawnieniami CREATE CONNECTION w metastore Unity Catalog dołączonym do obszaru roboczego.
  • Aby utworzyć katalog obcy, musisz mieć uprawnienie CREATE CATALOG w metastore i być właścicielem połączenia lub mieć uprawnienie CREATE FOREIGN CATALOG do połączenia.

Dodatkowe wymagania dotyczące uprawnień są określone w każdej sekcji opartej na zadaniach.

Tworzenie połączenia

Połączenie wskazuje ścieżkę i poświadczenia potrzebne do uzyskania dostępu do zewnętrznego systemu bazy danych. Aby utworzyć połączenie, możesz użyć Eksploratora wykazu lub polecenia CREATE CONNECTION SQL w notesie usługi Azure Databricks lub edytorze zapytań SQL usługi Databricks.

Uwaga

Do utworzenia połączenia można również użyć interfejsu API REST usługi Databricks lub interfejsu wiersza polecenia usługi Databricks. Zobacz POST /api/2.1/unity-catalog/connections i polecenia katalogu Unity.

Wymagane uprawnienia: administrator magazynu metadanych lub użytkownik z uprawnieniami CREATE CONNECTION .

Eksplorator wykazu

  1. W obszarze roboczym usługi Azure Databricks kliknij ikonę katalogu Catalog.

  2. W górnej części okienka katalogu kliknij ikonę Dodaj lub plus,Ikona Dodaj i wybierz pozycję Dodaj połączenie z menu.

    Alternatywnie, na stronie Szybki dostęp kliknij przycisk Zewnętrzne dane >, przejdź do karty Połączenia i kliknij przycisk Utwórz połączenie.

  3. Na stronie Podstawy połączenia kreatora Konfigurowanie połączenia wprowadź przyjazną dla użytkownika nazwę połączenia .

  4. Wybierz typ połączenia Google BigQuery, a następnie kliknij przycisk Dalej.

  5. Na stronie Uwierzytelniania wprowadź plik json klucza konta usługi Google dla instancji usługi BigQuery.

    Jest to surowy obiekt JSON, który służy do określenia projektu BigQuery i zapewnienia uwierzytelniania. Możesz wygenerować ten obiekt JSON i pobrać go ze strony szczegółów konta usługi w usłudze Google Cloud w obszarze "KLUCZE". Konto usługi musi mieć odpowiednie uprawnienia przyznane w trybie BigQuery, w tym użytkownika BigQuery i podglądu danych BigQuery. Poniżej przedstawiono przykład.

    {
      "type": "service_account",
      "project_id": "PROJECT_ID",
      "private_key_id": "KEY_ID",
      "private_key": "PRIVATE_KEY",
      "client_email": "SERVICE_ACCOUNT_EMAIL",
      "client_id": "CLIENT_ID",
      "auth_uri": "https://accounts.google.com/o/oauth2/auth",
      "token_uri": "https://accounts.google.com/o/oauth2/token",
      "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
      "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/SERVICE_ACCOUNT_EMAIL",
      "universe_domain": "googleapis.com"
    }
    
  6. (Opcjonalnie) Wprowadź identyfikator projektu dla wystąpienia BigQuery:

    Jest to nazwa projektu BigQuery używanego do rozliczeń dla wszystkich zapytań uruchamianych w ramach tego połączenia. Domyślnie jest to identyfikator projektu konta usługi.

  7. (Opcjonalnie) Dodaj komentarz.

  8. Kliknij Utwórz połączenie.

  9. Na stronie Catalog basics (Podstawy wykazu) wprowadź nazwę katalogu zagranicznego. Wykaz obcy odzwierciedla bazę danych w zewnętrznym systemie danych, dzięki czemu można wykonywać zapytania o dostęp do danych w tej bazie danych i zarządzać nimi przy użyciu usług Azure Databricks i Unity Catalog.

  10. (Opcjonalnie) Kliknij pozycję Testuj połączenie, aby potwierdzić, że działa.

  11. Kliknij Utwórz katalog.

  12. Na stronie Access wybierz obszary robocze, w których użytkownicy mogą uzyskiwać dostęp do utworzonego katalogu. Możesz wybrać Wszystkie obszary robocze mają dostęplub kliknij Przypisz do obszarów roboczych, wybierz obszary robocze, a następnie kliknij Przypisz.

  13. Zmień właściciela , który będzie mógł zarządzać dostępem do wszystkich obiektów w wykazie. Zacznij wpisywać nazwę lub podmiot w polu tekstowym, a następnie kliknij tę nazwę lub podmiot w zwróconych wynikach.

  14. Udziel przywilejów w katalogu. Kliknij przycisk Udziel:

    1. Określ podmioty główne, które będą miały dostęp do obiektów w katalogu. Zacznij wpisywać nazwę lub podmiot w polu tekstowym, a następnie kliknij tę nazwę lub podmiot w zwróconych wynikach.
    2. Wybierz ustawienia wstępne uprawnień , aby przyznać każdemu użytkownikowi. Wszyscy użytkownicy konta otrzymują domyślnie BROWSE.
      • Wybierz Czytnik danych z menu rozwijanego, aby przyznać read uprawnienia do obiektów w katalogu.
      • Wybierz pozycję Edytor danych z menu rozwijanego, aby przyznać read i modify uprawnienia do obiektów w wykazie.
      • Ręcznie wybierz uprawnienia do udzielenia.
    3. Kliknij i udziel.
  15. Kliknij przycisk Dalej.

  16. Na stronie Metadane określ pary tagów klucz-wartość. Aby uzyskać więcej informacji, zobacz Zastosuj tagi do obiektów z zabezpieczeniami w katalogu Unity.

  17. (Opcjonalnie) Dodaj komentarz.

  18. Kliknij Zapisz.

SQL

Uruchom następujące polecenie w notesie lub edytorze zapytań SQL usługi Databricks. Zastąp <GoogleServiceAccountKeyJson> element nieprzetworzonym obiektem JSON, który określa projekt BigQuery i zapewnia uwierzytelnianie. Możesz wygenerować ten obiekt JSON i pobrać go ze strony szczegółów konta usługi w usłudze Google Cloud w obszarze "KLUCZE". Konto usługi musi mieć odpowiednie uprawnienia przyznane w trybie BigQuery, w tym użytkownika bigquery i podglądu danych BigQuery. Aby zapoznać się z przykładowym obiektem JSON, spójrz na kartę Catalog Explorer na tej stronie.

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson '<GoogleServiceAccountKeyJson>'
);

Zalecamy używanie tajnych wpisów w Azure Databricks zamiast ciągów w postaci zwykłego tekstu dla wartości poufnych, takich jak poświadczenia. Na przykład:

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson secret ('<secret-scope>','<secret-key-user>')
)

Aby uzyskać informacje na temat konfigurowania wpisów tajnych, zobacz Zarządzanie wpisami tajnymi.

Tworzenie wykazu obcego

Uwaga

Jeśli używasz interfejsu użytkownika do utworzenia połączenia ze źródłem danych, tworzenie zewnętrznego katalogu zostanie uwzględnione i możesz pominąć ten krok.

Wykaz obcy odzwierciedla bazę danych w zewnętrznym systemie danych, dzięki czemu można wykonywać zapytania o dostęp do danych w tej bazie danych i zarządzać nimi przy użyciu usług Azure Databricks i Unity Catalog. Aby utworzyć wykaz obcy, użyj połączenia ze źródłem danych, które zostało już zdefiniowane.

Aby utworzyć wykaz obcy, możesz użyć Eksploratora wykazu lub CREATE FOREIGN CATALOG w notesie usługi Azure Databricks lub edytorze zapytań SQL usługi Databricks. Do utworzenia katalogu można również użyć interfejsu API REST usługi Databricks lub interfejsu wiersza polecenia usługi Databricks. Zobacz POST /api/2.1/unity-catalog/catalogs lub polecenia Unity Catalog .

Wymagane uprawnienia:CREATE CATALOG uprawnienie do magazynu metadanych i własność połączenia lub CREATE FOREIGN CATALOG uprawnienia do połączenia.

Eksplorator wykazu

  1. W obszarze roboczym usługi Azure Databricks kliknij ikonę katalogu Katalog, aby otworzyć Eksploratora katalogu.

  2. W górnej części okienka katalogu kliknij ikonę Dodaj lub plusIkona Dodaj i wybierz Dodaj wykaz z menu.

    Alternatywnie, na stronie Strona szybkiego dostępu, kliknij przycisk Katalogi, a następnie kliknij przycisk Utwórz katalog.

  3. (Opcjonalnie) Wprowadź następującą właściwość wykazu:

    Identyfikator projektu danych: nazwa projektu BigQuery zawierającego dane, które zostaną przypisane do tego wykazu. Domyślnie używany jest identyfikator projektu rozliczeniowego ustawiony na poziomie połączenia.

  4. Postępuj zgodnie z instrukcjami dotyczącymi tworzenia katalogów obcych w Tworzenie katalogów.

SQL

Uruchom następujące polecenie SQL w notesie lub edytorze SQL usługi Databricks. Elementy w nawiasach kwadratowych są opcjonalne. Zastąp wartości zastępcze.

  • <catalog-name>: nazwa wykazu w usłudze Azure Databricks.
  • <connection-name>: obiekt połączenia określający źródło danych, ścieżkę i poświadczenia dostępu.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>;

Obsługiwane wypychania

Obsługiwane są następujące wypychania:

  • Filtry
  • Projekcje
  • Limit
  • Funkcje: częściowe, tylko dla wyrażeń filtru. (Funkcje ciągów, Funkcje matematyczne, Dane, Czas i Sygnatura czasowa oraz inne różne funkcje, takie jak Alias, Cast, SortOrder)
  • Agregacje
  • Sortowanie z użyciem limitu
  • Łączenia (środowisko Databricks Runtime w wersji 16.1 lub nowszej)

Następujące wypychania nie są obsługiwane:

  • Funkcje systemu Windows

Mapowanie typu danych

W poniższej tabeli przedstawiono mapowanie typu danych BigQuery na Spark.

Typ BigQuery Typ platformy Spark
bignumeryczne, liczbowe Typ dziesiętny
int64 LongType
float64 DoubleType
array, geography, interval, json, string, struct VarcharType
B BinaryType
bool Typ logiczny
data Typ daty
datetime, time, timestamp TimestampType/TimestampNTZType

Podczas odczytywania z trybu BigQuery bigquery Timestamp jest mapowany na platformę Spark TimestampType , jeśli preferTimestampNTZ = false (wartość domyślna). Funkcja BigQuery Timestamp jest mapowana na TimestampNTZType wartość if preferTimestampNTZ = true.