Partager via


HDInsightSparkSQLExecutionEvents

Événements d’exécution Spark SQL.

Attributs de table

Attribut Valeur
Types de ressources microsoft.hdinsight/clusters
Catégories Ressources Azure
Solutions LogManagement
Journal de base Non
Transformation au moment de l’ingestion Oui
Exemples de requêtes -

Colonnes

Colonne Type Description
ApplicationId string ID d’application de l’application produisant l’enregistrement.
_BilledSize real Taille de l’enregistrement en octets
ClusterDnsName string Nom DNS du cluster exécutant l’exécution de Spark SQL.
ClusterTenantId string ID de locataire du cluster exécutant l’exécution de Spark SQL.
EndTime DATETIME Heure (UTC) de l’exécution spark SQL terminée.
ExecutionId string ID de l’exécution de Spark SQL.
Host string Nom de domaine complet de l’hôte.
IpAddress string Adresse IP du nœud exécutant l’exécution de Spark SQL.
_IsBillable string Spécifie si l’ingestion des données est facturable. Quand _IsBillable est false, l’ingestion n’est pas facturée sur votre compte Azure.
PhysicalPlanDescription string Description du plan physique/logique de l’exécution de Spark SQL.
Région string Région du cluster exécutant l’exécution de Spark SQL.
_ResourceId string Un identificateur unique de la ressource à laquelle l’enregistrement est associé
Rôle string Type de nœud exécutant l’exécution de Spark SQL.
SourceSystem string Type d’agent ayant collecté l’événement. Par exemple, OpsManager pour l’agent Windows (connexion directe ou Operations Manager), Linux pour tous les agents Linux, ou Azure pour Diagnostics Azure.
SparkPlanInfo string Objet Json contenant des informations sur l’exécution de Spark SQL.
StartTime DATETIME Heure (UTC) de démarrage de l’exécution Spark SQL.
_SubscriptionId string Un identificateur unique de l’abonnement auquel l’enregistrement est associé
TenantId string ID de l’espace de travail Log Analytics
TimeGenerated DATETIME Horodatage (UTC) de la génération du journal.
Type string Le nom de la table
UserSubscriptionId string ID d’abonnement du cluster exécutant l’exécution de Spark SQL.