Partager via


Échec du débogage du travail Spark avec le kit de ressources Azure pour IntelliJ (préversion)

Cet article fournit des instructions pas à pas sur l’utilisation des outils HDInsight dans le kit de ressources Azure pour IntelliJ pour exécuter des applications de débogage d’échec Spark.

Prérequis

Créez un projet avec le modèle de débogage

Créer un projet Spark 2.3.2 pour continuer le débogage, prenez l’exemple de fichier de débogage d’échec de travail dans ce document.

  1. Ouvrez IntelliJ IDEA. Ouvrez la fenêtre Nouveau projet.

    a. Sélectionnez Azure Spark/HDInsight dans le volet gauche.

    b. Dans la fenêtre principale, sélectionnez Projet Spark avec échec de débogage de travail (préversion) (Scala) .

    Créer un projet de débogage Intellij.

    c. Sélectionnez Suivant.

  2. Dans la boîte de dialogue New Project (Nouveau projet), effectuez les étapes suivantes :

    Nouveau projet Intellij : sélection de la version Spark.

    a. Entrez un nom de projet et un emplacement de projet.

    b. Dans la liste déroulante Kit de développement logiciel de projet, sélectionnez Java 1.8 pour le cluster Spark 2.3.2.

    c. Dans la liste déroulante Version Spark, sélectionnez Spark 2.3.2 (Scala 2.11.8) .

    d. Sélectionnez Terminer.

  3. Sélectionnez src>principal>scala pour ouvrir votre code dans le projet. Cet exemple utilise le script AgeMean_Div() .

Exécutez une application Spark Scala/Java sur un cluster HDInsight

Créez une application Spark Scala/Java, puis exécutez l’application sur un cluster Spark en procédant comme suit :

  1. Cliquez sur Ajouter une configuration pour ouvrir la fenêtre Configurations d’exécution/de débogage.

    HDI Intellij : ajouter une configuration.

  2. Dans la boîte de dialogue Exécuter le débogage des configurations, sélectionnez le signe plus (+). Sélectionnez ensuite l’option Apache Spark on HDInsight.

    Intellij : ajouter une configuration.

  3. Basculez vers l’onglet Remotely Run in Cluster (Exécuter à distance dans le cluster) . Entrez les informations sur le Nom, le Cluster Spark et le Nom principal de la classe. Nos outils prennent en charge le débogage avec Exécuteurs. Pour numExecutors, la valeur par défaut est 5, et vous ne pouvez pas définir une valeur supérieure à 3. Pour réduire le temps d’exécution, vous pouvez ajouter spark.yarn.maxAppAttempts dans les configurations de travail et définir la valeur sur 1. Cliquez sur le bouton OK pour enregistrer la configuration.

    Exécuter le débogage des configurations dans Intellij.

  4. La configuration est maintenant enregistrée avec le nom fourni. Pour afficher les détails de configuration, sélectionnez le nom de configuration. Pour apporter des modifications, sélectionnez Modifier les configurations.

  5. Une fois le paramétrage des configurations terminé, vous pouvez exécuter le projet sur le cluster à distance.

    Intellij : bouton d’exécution du débogage à distance des travaux Spark.

  6. Vous pouvez vérifier l’ID de l’application dans la fenêtre de sortie.

    Intellij : résultat de l’exécution du débogage à distance des travaux Spark.

Téléchargez le profil de travail ayant échoué

En cas d’échec de l’envoi du travail, vous pouvez télécharger le profil du travail ayant échoué sur la machine locale pour poursuivre le débogage.

  1. Ouvrez Explorateur Stockage Microsoft Azure, recherchez le compte HDInsight du cluster pour le travail ayant échoué, téléchargez les ressources de travail ayant échoué à partir de l’emplacement correspondant :\hdp\spark2-events\.spark-failures<ID d’application> dans un dossier local. La fenêtre des activités affiche la progression du téléchargement.

    Échec du téléchargement dans l’Explorateur Stockage Azure.

    Réussite du téléchargement dans l’Explorateur Stockage Azure.

Configurez l’environnement de débogage local et déboguer en cas d’échec

  1. Ouvrez le projet d’origine ou créez un nouveau projet et associez-le au code source d’origine. Seule la version de Spark 2.3.2 est prise en charge pour le débogage d’échec actuellement.

  2. Dans IntelliJ IDEA, créez un fichier de configuration de débogage d’échec Spark, puis sélectionnez le fichier DFT dans les ressources de travail ayant échoué précédemment téléchargées pour le champ Emplacement du contexte de l’échec du travail Spark.

    créer une configuration d’échec.

  3. Cliquez sur le bouton d’exécution local dans la barre d’outils, l’erreur s’affiche dans la fenêtre Exécuter.

    run-failure-configuration1.

    run-failure-configuration2.

  4. Définissez le point d’arrêt comme le journal l’indique, puis cliquez sur le bouton de débogage local pour effectuer le débogage local tout comme vos projets Scala/Java normaux dans IntelliJ.

  5. Après le débogage, si le projet se termine correctement, vous pouvez renvoyer le travail ayant échoué à votre cluster Spark sur HDInsight.

Étapes suivantes

Scénarios

Création et exécution d’applications

Outils et extensions

Gestion des ressources