Freigeben über


Referenz zur Systemtabelle für abrechnungsfähigen Verbrauch

Dieser Artikel bietet eine Übersicht über die Systemtabelle für den abrechenbaren Verbrauch, einschließlich des Schemas und Beispielabfragen. Mit Systemtabellen werden die Daten zum abrechenbaren Verbrauch Ihres Kontos zentralisiert und an alle Regionen weitergeleitet, sodass Sie den globalen Verbrauch Ihres Kontos in jeder Region, in der sich Ihr Arbeitsbereich befindet, anzeigen können.

Informationen zur Verwendung dieser Tabelle zur Überwachung von Kosten und Beispielabfragen finden Sie unter Überwachen von Kosten mithilfe von Systemtabellen.

Tabellenpfad: Diese Systemtabelle befindet sich unter system.billing.usage.

Schema der Tabelle für den abrechenbaren Verbrauch

Die Systemtabelle für den abrechenbaren Verbrauch verwendet das folgende Schema:

Spaltenname Datentyp Beschreibung Beispiel
record_id Zeichenfolge Eindeutige ID für diesen Verwendungsdatensatz 11e22ba4-87b9-4cc2
-9770-d10b894b7118
account_id Zeichenfolge ID des Kontos, für das dieser Bericht generiert wurde 23e22ba4-87b9-4cc2
-9770-d10b894b7118
workspace_id Zeichenfolge ID des Arbeitsbereichs, dem dieser Verbrauch zugeordnet war 1234567890123456
sku_name Zeichenfolge Name der SKU STANDARD_ALL_PURPOSE_COMPUTE
cloud Zeichenfolge Cloud, für die dieser Verbrauch relevant ist. Mögliche Werte sind AWS, AZURE und GCP. AWS, AZUREoder GCP
usage_start_time Zeitstempel Die Startzeit, die für diesen Verbrauchsdatensatz relevant ist Zeitzoneninformationen werden am Ende des Werts aufgezeichnet, wobei +00:00 die Zeitzone „UTC“ darstellt. 2023-01-09 10:00:00.000+00:00
usage_end_time Zeitstempel Die Endzeit, die für diesen Verbrauchsdatensatz relevant ist Zeitzoneninformationen werden am Ende des Werts aufgezeichnet, wobei +00:00 die Zeitzone „UTC“ darstellt. 2023-01-09 11:00:00.000+00:00
usage_date date Datum des Verbrauchsdatensatzes, dieses Feld kann für eine schnellere Aggregation nach Datum verwendet werden 2023-01-01
custom_tags Karte Tags, die auf diese Verwendung angewendet werden. Umfasst Computeressourcentags, Auftragstags, benutzerdefinierte Arbeitsbereichstags und Budgetrichtlinientags. { “env”: “production” }
usage_unit Zeichenfolge Einheit, in der dieser Verbrauch gemessen wird. Zu den möglichen Werten gehören Databricks-Einheiten (DBU). DBU
usage_quantity Decimal Anzahl der für diesen Datensatz verbrauchten Einheiten. 259.2958
usage_metadata struct Vom System bereitgestellte Metadaten zum Verbrauch, einschließlich IDs für Computeressourcen und Aufträge (falls zutreffend). Weitere Informationen enthält die Referenz zu Verbrauchsmetadaten. {cluster_id: null;
instance_pool_id: null;
notebook_id: null;
job_id: null;
node_type: null}
identity_metadata struct Vom System bereitgestellte Metadaten zu den Identitäten, die an der Verwendung beteiligt sind. Weitere Informationen enthält die Referenz zu Identitätsmetadaten. {"run_as": example@email.com,"created_by":null}
record_type Zeichenfolge Ob der Datensatz das Original, eine Rücknahme oder eine Neudarstellung ist. Der Wert ist ORIGINAL, es sei denn, der Datensatz bezieht sich auf eine Korrektur. Weitere Informationen enthält die Datensatztypreferenz. ORIGINAL
ingestion_date date Datum, an dem der Datensatz in der Tabelle usage erfasst wurde 2024-01-01
billing_origin_product Zeichenfolge Das Produkt, das den Verbrauch ausgelöst hat. Einige Produkte können als unterschiedliche SKUs in Rechnung gestellt werden. Mögliche Werte finden Sie unter Produktreferenz für Abrechnungsursprung. JOBS
product_features struct Details zu den spezifischen verwendeten Produktfeatures. Mögliche Werte finden Sie unter Produktfeatures.
usage_type Zeichenfolge Der Verbrauchstyp, der dem Produkt oder der Workload für Abrechnungszwecke zugeordnet ist. Mögliche Werte sind COMPUTE_TIME, STORAGE_SPACE, NETWORK_BYTES, API_OPERATION, TOKEN oder GPU_TIME. STORAGE_SPACE

Referenz zu Verbrauchsmetadaten

Die Werte in usage_metadata informieren Sie über die Objekte und Ressourcen, die am Verwendungsdatensatz beteiligt sind.

Wert Datentyp Beschreibung
cluster_id Zeichenfolge ID des Clusters, der dem Verwendungsdatensatz zugeordnet ist
warehouse_id Zeichenfolge ID des SQL-Warehouses, das dem Nutzungsdatensatz zugeordnet ist
instance_pool_id Zeichenfolge ID des Instanzpools, der dem Verwendungsdatensatz zugeordnet ist
node_type Zeichenfolge Der Instanztyp der Computeressource
job_id Zeichenfolge ID des Auftrags, der dem Nutzungsdatensatz zugeordnet ist Gibt nur für serverloses Computing für die Jobs Compute-Nutzung einen Wert zurück. Andernfalls wird null zurückgegeben.
job_run_id Zeichenfolge ID der Auftragsausführung, die dem Nutzungsdatensatz zugeordnet ist Gibt nur für serverloses Computing für die Jobs Compute-Nutzung einen Wert zurück. Andernfalls wird null zurückgegeben.
job_name Zeichenfolge Benutzerdefinierter Name des Auftrags, der dem Nutzungsdatensatz zugeordnet ist. Gibt nur bei Aufträgen, die auf serverloses Computing ausgeführt werden, null zurück, ansonsten wird .
notebook_id Zeichenfolge ID des Notebooks, das dem Verbrauch zugeordnet ist. Gibt nur für serverloses Computing für die Notebooknutzung einen Wert zurück. Andernfalls wird null zurückgegeben.
notebook_path Zeichenfolge Arbeitsbereichsspeicherpfad des Notebooks, das der Verwendung zugeordnet ist. Gibt nur für serverloses Computing für die Notebooknutzung einen Wert zurück. Andernfalls wird null zurückgegeben.
dlt_pipeline_id Zeichenfolge ID der Delta Live Tables-Pipeline, die dem Verwendungsdatensatz zugeordnet ist
dlt_update_id Zeichenfolge ID des Delta Live Tables-Pipeline-Updates, das dem Nutzungsdatensatz zugeordnet ist
dlt_maintenance_id Zeichenfolge ID der Delta Live Tables-Pipeline-Wartungsaufgabe, die dem Nutzungsdatensatz zugeordnet ist
run_name Zeichenfolge Eindeutiger benutzerdefinierter Bezeichner des Foundation Model Fine-Tuning, der dem Verwendungsdatensatz zugeordnet ist
endpoint_name Zeichenfolge Der Name des Modellbereitstellungsendpunkts oder Vektorsuchendpunkts, der dem Nutzungsdatensatz zugeordnet ist
endpoint_id Zeichenfolge ID des Modellbereitstellungsendpunkts oder Vektorsuchendpunkts, der dem Nutzungsdatensatz zugeordnet ist
central_clean_room_id Zeichenfolge ID des zentralen Reinraums, der dem Verwendungsdatensatz zugeordnet ist
metastore_id Zeichenfolge ID des Metastores, der dem Verwendungsdatensatz zugeordnet ist.
app_id Zeichenfolge ID der App, die dem Verwendungsdatensatz zugeordnet ist.
app_name Zeichenfolge Benutzername der App, die dem Verwendungsdatensatz zugeordnet ist.

Referenz zu Identitätsmetadaten

In der identity_metadata Spalte können Sie ermitteln, wer für einen serverlosen Abrechnungsdatensatz verantwortlich ist. Die Spalte enthält einen run_as Wert, der die Verwendung einer Identität zuordnet.

Darüber hinaus wird für den Verbrauch, der Databricks Apps zugeordnet ist, einen Wert im Feld identity_metadata.created_by protokolliert. Dieser Wert wird mit der E-Mail des Benutzers ausgefüllt, der die App erstellt hat.

Die in identity_metadata.run_as aufgezeichnete Identität hängt von dem Produkt ab, das der Verwendung zugeordnet ist. Verweisen Sie auf die folgende Tabelle für das identity_metadata.run_as Verhalten:

Workloadtyp Identität von run_as
Jobs Compute Der in der run_as-Einstellung definierte Benutzer- oder Dienstprinzipal. Standardmäßig werden Aufträge als Identität des Auftragsbesitzers ausgeführt, Administratoren können dies jedoch als einen anderen Benutzer oder Dienstprinzipal ändern.
Serverloses Computing für Aufträge Der in der run_as-Einstellung definierte Benutzer- oder Dienstprinzipal. Standardmäßig werden Aufträge als Identität des Auftragsbesitzers ausgeführt, Administratoren können dies jedoch als einen anderen Benutzer oder Dienstprinzipal ändern.
Serverlose Berechnung für Notebooks Der Benutzer, der die Notebookbefehle ausgeführt hat (insbesondere der Benutzer, der die Notebooksitzung erstellt hat). Bei freigegebenen Notebooks umfasst dies die Verwendung anderer Benutzer, die dieselbe Notebooksitzung nutzen.
Delta Live Tables-Pipelines Der Benutzer, dessen Berechtigungen zum Ausführen der Delta Live Tables-Pipeline verwendet werden. Dies kann durch Übertragung des Besitzes der Pipeline geändert werden.
Foundation Model Fine-tuning Der Benutzer oder Dienstprinzipal, der die Trainingsausführung für die Optimierung initiiert hat.
Prädiktive Optimierung Der Im Besitz von Databricks befindliche Dienstprinzipal, der Vorhersageoptimierungsvorgänge ausführt.
Lakehouse Monitoring Der Benutzer, der den Monitor erstellt hat.

Datensatztypreferenz

Die billing.usage-Tabelle unterstützt Korrekturen. Korrekturen kommen vor, wenn ein Feld des Nutzungsdatensatzes falsch ist und korrigiert werden muss.

Im Fall einer Korrektur fügt Azure Databricks zwei neue Datensätze zur Tabelle hinzu. Ein Rücknahmedatensatz negiert den falschen Originaldatensatz, und dann nimmt ein Neudarstellungsdatensatz die korrigierten Informationen auf. Korrekturdatensätze werden über das record_type-Feld gekennzeichnet:

  • RETRACTION: Dient zum Negieren der ursprünglich falschen Nutzung. Alle Felder sind mit dem ORIGINAL-Datensatz identisch, mit Ausnahme von usage_quantity, einem negativen Wert, der die ursprüngliche Nutzungsmenge aufhebt. Wenn z. B. die Nutzungsmenge des Originaldatensatzes 259.4356 war, hätte der Rücknahmedatensatz eine Nutzungsmenge von -259.4356.
  • RESTATEMENT: Der Datensatz, der die richtigen Felder und Nutzungsmengen enthält.

Die folgende Abfrage gibt z. B. die richtige stündliche Nutzungsmenge in Bezug auf job_id zurück, auch wenn Korrekturen vorgenommen wurden. Durch das Aggregieren der Nutzungsmenge wird der Originaldatensatz vom Rücknahmedatensatz negiert, und nur die Werte der Neudarstellung werden zurückgegeben.

SELECT
  usage_metadata.job_id, usage_start_time, usage_end_time,
  SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0

Hinweis

Bei Korrekturen, bei denen der Original-Nutzungsdatensatz nicht hätte geschrieben werden sollen, kann durch eine Korrektur nur ein Rücknahmedatensatz und kein Neudarstellungsdatensatz hinzugefügt werden.

Produktreferenz für Abrechnungsursprung

Einige Databricks-Produkte werden unter einer gemeinsamen SKU in Rechnung gestellt. Um einen Verbrauch zu unterscheiden, bieten die Spalten billing_origin_product und product_features zusätzliche Erkenntnisse zum jeweiligen und den Features, die dem Verbrauch zugeordnet sind.

Die Spalte billing_origin_product enthält das Databricks-Produkt an, das dem Verbrauchsdatensatz zugeordnet ist. Hierzu gehören folgende Werte:

  • JOBS

  • DLT

  • SQL

  • ALL_PURPOSE

  • MODEL_SERVING

  • INTERACTIVE

  • DEFAULT_STORAGE

  • VECTOR_SEARCH

  • LAKEHOUSE_MONITORING

  • PREDICTIVE_OPTIMIZATION

  • ONLINE_TABLES

  • FOUNDATION_MODEL_TRAINING

  • AGENT_EVALUATION

  • FINE_GRAIN_ACCESS_CONTROL

  • APPS: Kosten für das Erstellen und Ausführen von Databricks Apps

Referenz zu Produktfeatures

Die Spalte product_features ist ein Objekt, das Informationen zu den verwendeten Produktfeatures und die folgenden Schlüssel-Wert-Paare enthält:

  • jobs_tier: zu den Werten gehören LIGHT, CLASSIC oder null
  • sql_tier: zu den Werten gehören CLASSIC, PRO oder null
  • dlt_tier: zu den Werten gehören CORE, PRO, ADVANCED oder null
  • is_serverless: zu den Werten gehören true oder false oder null
  • is_photon: zu den Werten gehören true oder false oder null
  • serving_type: zu den Werten gehören MODEL, GPU_MODEL, FOUNDATION_MODEL, FEATURE oder null