Partage via


Parcourir les applications Apache Spark dans Fabric Monitor

Le volet Moniteur sert de portail centralisé pour parcourir les activités Apache Spark entre les éléments. Lorsque vous êtes dans l’ingénierie des données ou la science des données, vous pouvez afficher les applications Apache Spark en cours déclenchées à partir de notebooks, de définitions de travaux Apache Spark et de pipelines. Vous pouvez également rechercher et filtrer des applications Apache Spark en fonction de différents critères. En outre, vous pouvez annuler vos applications Apache Spark en cours et explorer pour afficher plus de détails d’exécution d’une application Apache Spark.

Accéder au volet Moniteur

Vous pouvez accéder au volet Moniteur pour afficher différentes activités Apache Spark en sélectionnant Surveiller dans la barre de navigation.

Capture d’écran montrant l’option moniteur dans la barre de navigation.

Trier, rechercher, filtrer et afficher des options de colonne pour les applications Apache Spark

Pour améliorer la facilité d’utilisation et la détectabilité, vous pouvez trier les applications Apache Spark en sélectionnant différentes colonnes dans l’interface utilisateur. Vous pouvez également filtrer les applications en fonction de différentes colonnes et rechercher des applications spécifiques. Vous pouvez également ajuster l’affichage et l’ordre de tri des colonnes indépendamment par le biais des options de colonne.

Trier les applications Apache Spark

Pour trier les applications Apache Spark, vous pouvez sélectionner sur chaque en-tête de colonne, par exemple Nom, État, Type d’élément, Heure de début, Emplacement, etc.

Capture d’écran montrant le tri pour l’application Spark.

Filtrer les applications Apache Spark

Vous pouvez filtrer les applications Apache Spark par État, type d’élément, heure de début, d’envoi et emplacement à l’aide du volet Filtre dans le coin supérieur droit.

Capture d’écran montrant le filtre pour l’application Spark.

Rechercher des applications Apache Spark

Pour rechercher des applications Apache Spark spécifiques, vous pouvez entrer certains mots clés dans la zone de recherche située dans le coin supérieur droit.

Capture d’écran montrant l’application spark de recherche.

Options de colonne Applications Apache Spark

Vous pouvez modifier l’ordre dans lequel les listes sont affichées en sélectionnant la liste à afficher, puis en faisant glisser les options de liste.

Capture d’écran montrant les options de colonne pouvant être glissables.

Si vous avez planifié des définitions de bloc-notes et de travaux Spark à exécuter dans des pipelines, vous pouvez afficher les activités Spark à partir de ces blocs-notes et définitions de travaux Spark dans le volet Moniteur. De plus, vous pouvez voir le pipeline parent correspondant et toutes ses activités dans le panneau Surveillance.

  1. Sélectionnez l’option de colonne Exécuter en amont.

    Capture d’écran montrant les options de colonne d’exécution en amont.

  2. Affichez l’exécution du pipeline parent associé dans la colonne Exécuter en amont, puis cliquez sur l’exécution du pipeline pour afficher toutes ses activités.

    Capture d’écran montrant le bouton d’exécution en amont dans la liste.

Gérer une application Apache Spark

Lorsque vous pointez sur une ligne d’application Apache Spark, vous pouvez voir différentes actions au niveau des lignes qui vous permettent de gérer une application Apache Spark particulière.

Afficher le volet détaillé de l’application Apache Spark

Vous pouvez pointer sur une ligne d’application Apache Spark, puis cliquer sur l’icône Afficher les détails pour ouvrir le volet Détails et afficher plus de détails sur une application Apache Spark.

Capture d’écran montrant le volet de détails de l’application Spark.

Annuler une application Apache Spark

Si vous devez annuler une application Apache Spark en cours, pointez sur sa ligne, puis cliquez sur l’icône Annuler.

Capture d’écran montrant l’annulation d’une application Spark.

Si vous avez besoin d’informations supplémentaires sur les statistiques d’exécution d’Apache Spark, accédez aux journaux Apache Spark ou vérifiez les données d’entrée et de sortie, vous pouvez cliquer sur le nom d’une application Apache Spark pour accéder à sa page de détails d’application Apache Spark correspondante.