Dokumentacja tabeli systemu historii zapytań
Ważne
Ta tabela systemowa jest dostępna w publicznej wersji zapoznawczej. Aby uzyskać dostęp do tabeli, schemat musi być włączony w system
katalogu. Aby uzyskać więcej informacji, zobacz Włączanie schematów tabel systemowych.
Ten artykuł zawiera informacje dotyczące tabeli systemu historii zapytań, w tym konspektu schematu tabeli.
Ważne
Aby uzyskać dostęp do tabeli systemu historii zapytań, należy włączyć query
schemat. Aby uzyskać instrukcje dotyczące włączania schematów systemowych, zobacz Włączanie schematów tabel systemowych.
Ścieżka tabeli: ta tabela systemowa znajduje się w lokalizacji system.query.history
.
Korzystanie z tabeli historii zapytań
Tabela historii zapytań zawiera rekordy dla każdego uruchomienia instrukcji SQL przy użyciu usługi SQL Warehouse. Tabela zawiera rekordy obejmujące całe konto ze wszystkich obszarów roboczych w tym samym regionie, z którego uzyskujesz dostęp do tabeli.
Domyślnie tylko administratorzy mają dostęp do tabeli systemowej. Jeśli chcesz udostępnić dane tabeli użytkownikowi lub grupie, usługa Databricks zaleca utworzenie dynamicznego widoku dla każdego użytkownika lub grupy. Zobacz Tworzenie widoku dynamicznego.
Schemat tabeli systemu historii zapytań
Tabela historii zapytań używa następującego schematu:
Nazwa kolumny | Typ danych | opis | Przykład |
---|---|---|---|
account_id |
string | Identyfikator konta. | 11e22ba4-87b9-4cc2 -9770-d10b894b7118 |
workspace_id |
string | Identyfikator obszaru roboczego, w którym uruchomiono zapytanie. | 1234567890123456 |
statement_id |
string | Identyfikator, który jednoznacznie identyfikuje wykonywanie instrukcji. Tego identyfikatora można użyć do znalezienia wykonania instrukcji w interfejsie użytkownika historii zapytań. | 7a99b43c-b46c-432b -b0a7-814217701909 |
session_id |
string | Identyfikator sesji platformy Spark. | 01234567-cr06-a2mp -t0nd-a14ecfb5a9c2 |
execution_status |
string | Stan zakończenia instrukcji. Dopuszczalne wartości: - FINISHED : wykonanie zakończyło się pomyślnie- FAILED : wykonanie nie powiodło się z powodu błędu opisanego w towarzyszącym komunikacie o błędzie- CANCELED : wykonanie zostało anulowane |
FINISHED |
compute |
struktura | Struktura reprezentująca typ zasobu obliczeniowego używanego do uruchamiania instrukcji i identyfikator zasobu, jeśli ma to zastosowanie. Wartość type będzie mieć wartość WAREHOUSE lub SERVERLESS_COMPUTE . |
{ type: WAREHOUSE, cluster_id: NULL, warehouse_id: ec58ee3772e8d305 } |
executed_by_user_id |
string | Identyfikator użytkownika, który uruchomił instrukcję . | 2967555311742259 |
executed_by |
string | Adres e-mail lub nazwa użytkownika użytkownika, który uruchomił instrukcję . | example@databricks.com |
statement_text |
string | Tekst instrukcji SQL. Jeśli skonfigurowano klucze zarządzane przez klienta, statement_text jest puste. |
SELECT 1 |
statement_type |
string | Typ instrukcji. Na przykład: ALTER , COPY iINSERT . |
SELECT |
error_message |
string | Komunikat opisujący warunek błędu. Jeśli skonfigurowano klucze zarządzane przez klienta, error_message jest puste. |
[INSUFFICIENT_PERMISSIONS] Insufficient privileges: User does not have permission SELECT on table 'default.nyctaxi_trips'. |
client_application |
string | Aplikacja kliencka, która uruchomiła instrukcję . Na przykład: Edytor SQL usługi Databricks, Tableau i Power BI. To pole pochodzi z informacji dostarczanych przez aplikacje klienckie. Chociaż oczekuje się, że wartości pozostaną statyczne w czasie, nie można tego zagwarantować. | Databricks SQL Editor |
client_driver |
string | Łącznik używany do nawiązywania połączenia z usługą Azure Databricks w celu uruchomienia instrukcji . Na przykład: Sterownik SQL usługi Databricks dla języka Go, sterownik ODBC usługi Databricks, sterownik JDBC usługi Databricks. | Databricks JDBC Driver |
total_duration_ms |
bigint | Całkowity czas wykonywania instrukcji w milisekundach (z wyłączeniem czasu pobierania wyniku). | 1 |
waiting_for_compute_duration_ms |
bigint | Czas spędzony na oczekiwaniu na aprowizację zasobów obliczeniowych w milisekundach. | 1 |
waiting_at_capacity_duration_ms |
bigint | Czas spędzony w kolejce na dostępną pojemność obliczeniową w milisekundach. | 1 |
execution_duration_ms |
bigint | Czas spędzony na wykonywaniu instrukcji w milisekundach. | 1 |
compilation_duration_ms |
bigint | Czas poświęcony na ładowanie metadanych i optymalizowanie instrukcji w milisekundach. | 1 |
total_task_duration_ms |
bigint | Suma wszystkich czasów trwania zadań w milisekundach. Tym razem reprezentuje łączny czas, jaki zajęło uruchomienie zapytania we wszystkich rdzeniach wszystkich węzłów. Może to być znacznie dłuższe niż czas trwania zegara ściany, jeśli wiele zadań jest wykonywanych równolegle. Może być krótszy niż czas trwania zegara ściany, jeśli zadania oczekują na dostępne węzły. | 1 |
result_fetch_duration_ms |
bigint | Czas spędzony w milisekundach, pobierając wyniki instrukcji po zakończeniu wykonywania. | 1 |
start_time |
timestamp | Czas odebrania żądania przez usługi Databricks. Informacje o strefie czasowej są rejestrowane na końcu wartości reprezentującej +00:00 czas UTC. |
2022-12-05T00:00:00.000+0000 |
end_time |
timestamp | Godzina zakończenia wykonywania instrukcji z wyłączeniem czasu pobierania wyniku. Informacje o strefie czasowej są rejestrowane na końcu wartości reprezentującej +00:00 czas UTC. |
2022-12-05T00:00:00.000+00:00 |
update_time |
timestamp | Godzina ostatniego otrzymania aktualizacji postępu instrukcji. Informacje o strefie czasowej są rejestrowane na końcu wartości reprezentującej +00:00 czas UTC. |
2022-12-05T00:00:00.000+00:00 |
read_partitions |
bigint | Liczba partycji odczytanych po oczyszczeniu. | 1 |
pruned_files |
bigint | Liczba przycinanych plików. | 1 |
read_files |
bigint | Liczba plików odczytanych po oczyszczeniu. | 1 |
read_rows |
bigint | Łączna liczba wierszy odczytanych przez instrukcję . | 1 |
produced_rows |
bigint | Łączna liczba wierszy zwracanych przez instrukcję . | 1 |
read_bytes |
bigint | Całkowity rozmiar danych odczytanych przez instrukcję w bajtach. | 1 |
read_io_cache_percent |
int | Procent bajtów trwałych danych odczytanych z pamięci podręcznej operacji we/wy. | 50 |
from_result_cache |
boolean | TRUE wskazuje, że wynik instrukcji został pobrany z pamięci podręcznej. |
TRUE |
spilled_local_bytes |
bigint | Rozmiar danych w bajtach tymczasowo zapisywany na dysku podczas wykonywania instrukcji . | 1 |
written_bytes |
bigint | Rozmiar w bajtach trwałych danych zapisywanych w magazynie obiektów w chmurze. | 1 |
shuffle_read_bytes |
bigint | Łączna ilość danych w bajtach wysyłanych przez sieć. | 1 |
query_source |
struktura | Struktura zawierająca pary klucz-wartość reprezentująca co najmniej jedną jednostkę usługi Databricks, która była zaangażowana w wykonywanie tej instrukcji, takich jak zadania, notesy lub pulpity nawigacyjne. To pole rejestruje tylko jednostki usługi Databricks. | { job_info: { job_id: 64361233243479 job_run_id: 887406461287882 job_task_key: “job_task_1” job_task_run_id: 110378410199121 } |
executed_as |
string | Nazwa użytkownika lub jednostki usługi, której uprawnienie zostało użyte do uruchomienia instrukcji . | example@databricks.com |
executed_as_user_id |
string | Identyfikator użytkownika lub jednostki usługi, którego uprawnienie zostało użyte do uruchomienia instrukcji . | 2967555311742259 |
Wyświetlanie profilu zapytania dla rekordu
Aby przejść do profilu zapytania zapytania na podstawie rekordu w tabeli historii zapytań, wykonaj następujące czynności:
- Zidentyfikuj interesujący rekord, a następnie skopiuj rekord .
statement_id
- Odwołaj się do rekordu,
workspace_id
aby upewnić się, że zalogowano się do tego samego obszaru roboczego co rekord. - Kliknij pozycję Historia zapytań na pasku bocznym obszaru roboczego.
- W polu Identyfikator instrukcji wklej
statement_id
wartość w rekordzie. - Kliknij nazwę zapytania. Pojawi się przegląd metryk zapytań.
- Kliknij pozycję Zobacz profil zapytania.