Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: Azure Synapse Analytics
Analytics Platform System (PDW)
Azure Synapse Analytics-Systemansicht, die Informationen zu allen DMS-Schritten (Data Movement Service) für externe Vorgänge enthält.
Hinweis
Diese Syntax wird vom serverlosen SQL-Pool in Azure Synapse Analytics nicht unterstützt.
Spaltenname | Datentyp | BESCHREIBUNG | Range |
---|---|---|---|
request_id | nvarchar(32) | Abfrage, die diesen DMS-Worker verwendet. request_id, step_index und dms_step_index bilden den Schlüssel für diese Ansicht. |
Identisch mit request_id in sys.dm_pdw_exec_requests (Transact-SQL). |
step_index | int | Abfrageschritt, der diesen DMS-Worker aufruft. request_id, step_index und dms_step_index bilden den Schlüssel für diese Ansicht. |
Identisch mit step_index in sys.dm_pdw_request_steps (Transact-SQL). |
dms_step_index | int | Aktueller Schritt im DMS-Plan. request_id, step_index und dms_step_index bilden den Schlüssel für diese Ansicht. |
Identisch mit dms___step_index in sys.dm_pdw_dms_workers (Transact-SQL). |
pdw_node_id | int | Knoten, der den DMS-Worker ausführt. | Identisch mit node_id in sys.dm_pdw_nodes (Transact-SQL). |
Typ | nvarchar(60) | Der Typ des externen Vorgangs, den dieser Knoten ausführt. FILE SPLIT ist ein Vorgang für eine externe Hadoop-Datei, die in mehrere kleinere Fälle aufgeteilt wurde. |
'FILE SPLIT' |
work_id | int | Die Geteilte ID der Datei. | Größer oder gleich 0. Eindeutig pro Computeknoten. |
input_name | nvarchar(60) | Zeichenfolgenname für die zu lesende Eingabe. | Für eine Hadoop-Datei ist dies der Hadoop-Dateiname. |
read_location | bigint | Offset der Leseposition. | |
bytes_processed | bigint | Anzahl der von diesem Worker verarbeiteten Bytes. | Größer oder gleich 0. |
length | bigint | Anzahl der Bytes in der Dateiteilung. Für Hadoop ist dies die Größe des HDFS-Blocks. |
Benutzerdefiniert. Der Standardwert ist 64 MB. |
status | nvarchar(32) | Der Staat des Arbeitnehmers. | Ausstehend, Verarbeitung, Fertig, fehlgeschlagen, abgebrochen |
start_time | datetime | Zeitpunkt, zu dem die Ausführung dieses Workers gestartet wurde. | Größer oder gleich der Startzeit des Abfrageschritts, zu dem dieser Worker gehört. Siehe sys.dm_pdw_request_steps (Transact-SQL). |
end_time | datetime | Zeitpunkt, zu dem die Ausführung beendet, fehlgeschlagen oder abgebrochen wurde. | NULL für fortlaufende oder in die Warteschlange eingereihte Mitarbeiter. Andernfalls größer als start_time. |
total_elapsed_time | int | Gesamtzeit für die Ausführung in Millisekunden. | Größer oder gleich 0. Wenn total_elapsed_time den Maximalwert für eine ganze Zahl überschreitet, wird total_elapsed_time weiterhin der Maximalwert sein. Diese Bedingung generiert die Warnung "Der Maximalwert wurde überschritten." Der Maximalwert in Millisekunden entspricht 24,8 Tagen. |
Informationen zu den maximalen Zeilen, die in dieser Ansicht aufbewahrt werden, finden Sie im Abschnitt "Metadaten" im Thema "Kapazitätsbeschränkungen ".