Dela via


Fel vid felsökning av Spark-jobb med Azure Toolkit for IntelliJ (förhandsversion)

Den här artikeln innehåller stegvis vägledning om hur du använder HDInsight-verktyg i Azure Toolkit för IntelliJ för att köra Spark-felsökprogram .

Förutsättningar

Skapa ett projekt med felsökningsmall

Skapa ett spark2.3.2-projekt för att fortsätta felsöka och felsöka exempelfilen i det här dokumentet.

  1. Öppna IntelliJ IDEA. Öppna fönstret Nytt projekt .

    a. Välj Azure Spark/HDInsight i den vänstra rutan.

    b. Välj Spark Project with Failure Task Debugging Sample(Preview)(Scala) från huvudfönstret.

    IntelliJ Skapa ett felsökningsprojekt.

    c. Välj Nästa.

  2. Gör följande i fönstret Nytt projekt:

    IntelliJ Nytt projekt väljer Spark-version.

    a. Ange ett projektnamn och en projektplats.

    b. I listrutan Project SDK väljer du Java 1.8 för Spark 2.3.2-kluster.

    c. I listrutan Spark-version väljer du Spark 2.3.2(Scala 2.11.8)..

    d. Välj Slutför.

  3. Välj src>main>scala för att öppna koden i projektet. I det här exemplet används skriptet AgeMean_Div().

Köra ett Spark Scala/Java-program i ett HDInsight-kluster

Skapa ett Spark Scala/Java-program och kör sedan programmet på ett Spark-kluster genom att utföra följande steg:

  1. Klicka på Lägg till konfiguration för att öppna fönstret Kör/felsöka konfigurationer .

    HDI IntelliJ Lägg till konfiguration.

  2. I dialogrutan Kör/felsöka konfigurationer väljer du plustecknet (+). Välj sedan alternativet Apache Spark på HDInsight .

    IntelliJ Lägg till ny konfiguration.

  3. Växla till fliken Fjärrkörning i kluster . Ange information för Namn, Spark-kluster och Huvudklassnamn. Våra verktyg stöder felsökning med körverktyg. NumExecutors, standardvärdet är 5 och du bör inte ange högre än 3. För att minska körningstiden kan du lägga till spark.yarn.maxAppAttempts i jobbkonfigurationer och ange värdet till 1. Spara konfigurationen genom att klicka på OK .

    IntelliJ Kör felsökningskonfigurationer nya.

  4. Konfigurationen sparas nu med det namn som du angav. Om du vill visa konfigurationsinformationen väljer du konfigurationsnamnet. Om du vill göra ändringar väljer du Redigera konfigurationer.

  5. När du har slutfört konfigurationsinställningarna kan du köra projektet mot fjärrklustret.

    IntelliJ Felsöka fjärrkörningsknappen fjärrkörning för Spark-jobb.

  6. Du kan kontrollera program-ID:t från utdatafönstret.

    IntelliJ Felsöka fjärrkörningsresultat för Spark-jobb.

Ladda ned misslyckad jobbprofil

Om jobböverföringen misslyckas kan du ladda ned den misslyckade jobbprofilen till den lokala datorn för ytterligare felsökning.

  1. Öppna Microsoft Azure Storage Explorer, leta upp HDInsight-kontot för klustret för det misslyckade jobbet, ladda ned de misslyckade jobbresurserna från motsvarande plats: \hdp\spark2-events\.spark-failures\<application ID> till en lokal mapp. I aktivitetsfönstret visas nedladdningsstatusen.

    Nedladdningsfel för Azure Storage Explorer.

    Nedladdningen av Azure Storage Explorer lyckades.

Konfigurera lokal felsökningsmiljö och felsök vid fel

  1. Öppna det ursprungliga projektet eller skapa ett nytt projekt och associera det med den ursprungliga källkoden. För närvarande stöds endast spark2.3.2-versionen för felsökning av fel.

  2. I IntelliJ IDEA skapar du en Spark Failure Debug-konfigurationsfil , väljer FTD-filen från de tidigare nedladdade misslyckade jobbresurserna för fältet Plats för Spark-jobbfelkontext.

    crete failure configuration.

  3. Klicka på den lokala körningsknappen i verktygsfältet. Felet visas i fönstret Kör.

    run-failure-configuration1.

    run-failure-configuration2.

  4. Ange brytpunkt som loggen anger och klicka sedan på den lokala felsökningsknappen för att utföra lokal felsökning precis som dina vanliga Scala-/Java-projekt i IntelliJ.

  5. Om projektet har slutförts efter felsökningen kan du skicka det misslyckade jobbet på nytt till din spark i HDInsight-klustret.

Nästa steg

Scenarier

Skapa och köra program

Verktyg och tillägg

Hantera resurser