Condividi tramite


HDInsightSparkSQLExecutionEvents

Eventi di esecuzione di Spark SQL.

Attributi di tabella

Attributo Valore
Tipi di risorse microsoft.hdinsight/clusters
Categorie Risorse di Azure
Soluzioni LogManagement
Log di base No
Trasformazione in fase di inserimento
Query di esempio -

Colonne

Column Type Descrizione
ApplicationId string ID applicazione dell'applicazione che produce il record.
_BilledSize real Dimensioni del record in byte
ClusterDnsName string Nome DNS del cluster che esegue l'esecuzione di Spark SQL.
ClusterTenantId string ID tenant del cluster che esegue l'esecuzione di Spark SQL.
EndTime datetime Ora (UTC) terminata l'esecuzione di Spark SQL.
ExecutionId string ID dell'esecuzione di Spark SQL.
Host string FQDN dell'host.
IpAddress string Indirizzo IP del nodo che esegue l'esecuzione di Spark SQL.
_IsBillable string Specifica se l'inserimento dei dati è fatturabile. Quando _IsBillable è false, l'inserimento dati non viene fatturato all'account Azure
PhysicalPlanDescription string Descrizione del piano fisico/logico dell'esecuzione di Spark SQL.
Paese string Area del cluster che esegue l'esecuzione di Spark SQL.
_ResourceId string Identificatore univoco della risorsa a cui è associato il record.
Ruolo string Tipo di nodo che esegue l'esecuzione di Spark SQL.
SourceSystem string Tipo di agente da cui è stato raccolto l'evento. Ad esempio, OpsManager per l'agente Windows, la connessione diretta o Operations Manager, Linux per tutti gli agenti Linux o Azure per Diagnostica di Azure
SparkPlanInfo string Oggetto JSON contenente informazioni sull'esecuzione di Spark SQL.
StartTime datetime Ora (UTC) avviata l'esecuzione di Spark SQL.
_SubscriptionId string Identificatore univoco della sottoscrizione a cui è associato il record
TenantId string L'ID dell'area di lavoro Log Analytics
TimeGenerated datetime Il timestamp (UTC) relativo alla data e all'ora in cui è stato generato il log.
Type string Nome della tabella
UserSubscriptionId string ID sottoscrizione del cluster che esegue l'esecuzione di Spark SQL.