Compartilhar via


Usar o Azure Toolkit for IntelliJ para depurar aplicativos Apache Spark remotamente no HDInsight por meio de VPN

Recomendamos a depuração remota do aplicativo Apache Spark por meio do SSH. Para obter instruções, consulte Depurar aplicativos Apache Spark remotamente em um cluster HDInsight com o Azure Toolkit for IntelliJ por meio do SSH.

Este artigo oferece diretrizes passo a passo sobre como usar as Ferramentas do HDInsight no Kit de Ferramentas do Azure para IntelliJ para enviar um trabalho do Spark no cluster do HDInsight Spark e depurá-lo remotamente do seu computador desktop. Para concluir essas tarefas, você deve executar as seguintes etapas de alto nível:

  1. Crie uma rede virtual do Azure site a site ou ponto a site. As etapas neste documento pressupõem que você esteja usando uma rede site a site.
  2. Crie um cluster do Spark no HDInsight que faça parte da rede virtual site a site.
  3. Verifique a conectividade entre o nó de cabeçalho do cluster e sua área de trabalho.
  4. Crie um aplicativo Scala no IntelliJ IDEA e configure-o para a depuração remota.
  5. Execute e depure o aplicativo.

Pré-requisitos

Etapa 1: Criar uma rede virtual do Azure

Siga as instruções dos links a seguir para criar uma rede virtual do Azure e então verifique a conectividade entre a área de trabalho e a rede virtual:

Etapa 2: Criar um cluster HDInsight Spark

Você também deve criar um cluster Apache Spark no Azure HDInsight que faça parte da rede virtual do Azure criada. Use as informações disponíveis em Criar clusters baseados em Linux no HDInsight. Como parte da configuração opcional, selecione a rede virtual do Azure que você criou na etapa anterior.

Etapa 3: Verificar a conectividade entre o nó de cabeçalho do cluster e sua área de trabalho

  1. Obter endereço IP do nó de cabeçalho. Abra a IU do Ambari para o cluster. Na folha do cluster, selecione Painel.

    Select Dashboard in Apache Ambari.

  2. Na interface do usuário do Ambari, selecione Hosts.

    Select Hosts in Apache Ambari.

  3. Você deve ver uma lista de nós de cabeçalho, nós de trabalho e nós do zookeeper. Os nós de cabeçalho têm um prefixo hn\*. Selecione o primeiro nó de cabeçalho.

    Find the head node in Apache Ambari.

  4. No painel Resumo na parte inferior da página que abre, copie o endereço IP do nó de cabeçalho e o nome do host.

    Find the IP address in Apache Ambari.

  5. Adicione o endereço IP e o nome do host do nó de cabeçalho no arquivo hosts no computador do qual você deseja executar e depurar os trabalhos do Spark remotamente. Isso permitirá que você se comunique com o nó de cabeçalho usando o endereço IP, bem como o nome do host.

    a. Abra um arquivo do Bloco de notas com permissões elevadas. No menu Arquivo, selecione Abrir e navegue até o local do arquivo hosts. Em um computador com Windows, o local é C:\Windows\System32\Drivers\etc\hosts.

    b. Adicione as seguintes informações ao arquivo hosts:

    # For headnode0
    192.xxx.xx.xx nitinp
    192.xxx.xx.xx nitinp.lhwwghjkpqejawpqbwcdyp3.gx.internal.cloudapp.net
    
    # For headnode1
    192.xxx.xx.xx nitinp
    192.xxx.xx.xx nitinp.lhwwghjkpqejawpqbwcdyp3.gx.internal.cloudapp.net
    
  6. No computador conectado à rede virtual do Azure usada pelo cluster do HDInsight, verifique se você pode executar ping nos nós de cabeçalho usando o endereço IP, bem como o nome do host.

  7. Use o SSH para conexão ao nó de cabeçalho do cluster usando as instruções em Conectar-se a um cluster do HDInsight usando SSH. Do nó de cabeçalho do cluster, execute ping no endereço IP do computador desktop. Teste a conectividade com os dois endereços IP atribuídos ao computador:

    • Um para a conexão de rede
    • Um para a rede virtual do Azure
  8. Repita estas etapas no outro nó de cabeçalho.

Etapa 4: Criar um aplicativo Apache Spark usando as Ferramentas do Azure Toolkit for IntelliJ e configurá-lo para a depuração remota

  1. Abra o IntelliJ IDEA e crie um novo projeto. Na caixa de diálogo Novo Projeto , faça o seguinte:

    Select the new project template in IntelliJ IDEA.

    a. Selecione HDInsight>Spark no HDInsight (Scala) .

    b. Selecione Avançar.

  2. Na caixa de diálogo Novo Projeto a seguir, faça o seguinte e, depois, selecione Concluir:

    • Insira um nome e uma localização para o projeto.

    • Na lista suspensa SDK do Projeto, selecione Java 1.8 para o cluster do Spark 2.x ou selecione Java 1.7 para o cluster do Spark 1.x.

    • Na lista suspensa Versão do Spark, o assistente de criação de projeto Scala integra a versão apropriada do SDK do Spark e do SDK do Scala. Se a versão do cluster do Spark for anterior à 2.0, selecione Spark 1.x. Caso contrário, selecione Spark2.x. Este exemplo usa o Spark 2.0.2 (Scala 2.11.8) .

    Select the project SDK and Spark version.

  3. O projeto do Spark cria automaticamente um artefato para você. Para exibir o artefato, faça o seguinte:

    a. No menu Arquivo, escolha Estrutura do Projeto.

    b. Na caixa de diálogo Estrutura do Projeto, selecione Artefatos para exibir o artefato padrão que é criado. Você também pode criar seu próprio artefato selecionando o sinal de adição ( + ).

    IntelliJ IDEA artifacts create jar.

  4. Adicione bibliotecas ao seu projeto. Para adicionar uma biblioteca, faça o seguinte:

    a. Clique com o botão direito do mouse no nome do projeto na árvore do projeto e selecione Abrir Configurações do Módulo.

    b. Na caixa de diálogo Estrutura do Projeto, selecione Bibliotecas, selecione o símbolo (+) e, em seguida, selecione Do Maven.

    IntelliJ IDEA download library.

    c. Na caixa de diálogo Baixar a Biblioteca do Repositório Maven, pesquise e adicione as bibliotecas a seguir:

    • org.scalatest:scalatest_2.10:2.2.1
    • org.apache.hadoop:hadoop-azure:2.7.1
  5. Copie yarn-site.xml e core-site.xml do nó de cabeçalho do cluster e os adicione ao projeto. Use os comandos a seguir para copiar os arquivos. Você pode usar Cygwin para executar os seguintes comandos scp para copiar os arquivos dos nós de cabeçalho do cluster:

    scp <ssh user name>@<headnode IP address or host name>://etc/hadoop/conf/core-site.xml .
    

    Como nós já adicionamos o endereço IP e os nomes do host do nó de cabeçalho do cluster para o arquivo hosts na área de trabalho, podemos usar os comandos scp da seguinte maneira:

    scp sshuser@nitinp:/etc/hadoop/conf/core-site.xml .
    scp sshuser@nitinp:/etc/hadoop/conf/yarn-site.xml .
    

    Adicione esses arquivos ao seu projeto copiando-os na pasta /src na sua árvore de projeto, por exemplo, <your project directory>\src.

  6. Atualize o arquivo core-site.xml para fazer as alterações a seguir:

    a. Substitua a chave criptografada. O arquivo core-site.xml inclui a chave criptografada para a conta de armazenamento associada ao cluster. No arquivo core-site.xml que você adicionou ao projeto, substitua a chave criptografada pela chave de armazenamento real associada à conta de armazenamento padrão. Para obter mais informações, confira Gerenciar chaves de acesso da conta de armazenamento.

    <property>
            <name>fs.azure.account.key.hdistoragecentral.blob.core.windows.net</name>
            <value>access-key-associated-with-the-account</value>
    </property>
    

    b. Remova as entradas a seguir do core-site.xml:

    <property>
            <name>fs.azure.account.keyprovider.hdistoragecentral.blob.core.windows.net</name>
            <value>org.apache.hadoop.fs.azure.ShellDecryptionKeyProvider</value>
    </property>
    
    <property>
            <name>fs.azure.shellkeyprovider.script</name>
            <value>/usr/lib/python2.7/dist-packages/hdinsight_common/decrypt.sh</value>
    </property>
    
    <property>
            <name>net.topology.script.file.name</name>
            <value>/etc/hadoop/conf/topology_script.py</value>
    </property>
    

    c. Salve o arquivo.

  7. Adicione a classe principal ao seu aplicativo. No Gerenciador de Projetos, clique com o botão direito do mouse em src, aponte para Novo e escolha Classe do Scala.

    IntelliJ IDEA Select the main class.

  8. Na caixa de diálogo Criar Nova Classe do Scala, forneça um nome, selecione Objeto na caixa Tipo e selecione OK.

    IntelliJ IDEA Create new Scala class.

  9. No arquivo MyClusterAppMain.scala , cole o código a seguir. Esse código cria o contexto do Spark e abre um método executeJob do objeto SparkSample.

    import org.apache.spark.{SparkConf, SparkContext}
    
    object SparkSampleMain {
        def main (arg: Array[String]): Unit = {
        val conf = new SparkConf().setAppName("SparkSample")
                                    .set("spark.hadoop.validateOutputSpecs", "false")
        val sc = new SparkContext(conf)
    
        SparkSample.executeJob(sc,
                            "wasb:///HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv",
                            "wasb:///HVACOut")
        }
    }
    
  10. Repita as etapas 8 e 9 para adicionar um novo objeto Scala chamado *SparkSample. Adicione o código a seguir a essa classe. Esse código lê os dados do HVAC.csv (disponível em todos os clusters do HDInsight Spark). Ele recupera as linhas com apenas um dígito na sétima coluna no arquivo CSV e grava a saída em /HVACOut no contêiner padrão de armazenamento do cluster.

    import org.apache.spark.SparkContext
    
    object SparkSample {
        def executeJob (sc: SparkContext, input: String, output: String): Unit = {
        val rdd = sc.textFile(input)
    
        //find the rows which have only one digit in the 7th column in the CSV
        val rdd1 =  rdd.filter(s => s.split(",")(6).length() == 1)
    
        val s = sc.parallelize(rdd.take(5)).cartesian(rdd).count()
        println(s)
    
        rdd1.saveAsTextFile(output)
        //rdd1.collect().foreach(println)
         }
    }
    
  11. Repita as etapas 8 e 9 para adicionar uma nova classe chamada RemoteClusterDebugging. Essa classe implementa a estrutura de teste Spark usada para depuração de aplicativos. Adicione o código a seguir à classe RemoteClusterDebugging:

        import org.apache.spark.{SparkConf, SparkContext}
        import org.scalatest.FunSuite
    
        class RemoteClusterDebugging extends FunSuite {
    
         test("Remote run") {
           val conf = new SparkConf().setAppName("SparkSample")
                                     .setMaster("yarn-client")
                                     .set("spark.yarn.am.extraJavaOptions", "-Dhdp.version=2.4")
                                     .set("spark.yarn.jar", "wasb:///hdp/apps/2.4.2.0-258/spark-assembly-1.6.1.2.4.2.0-258-hadoop2.7.1.2.4.2.0-258.jar")
                                     .setJars(Seq("""C:\workspace\IdeaProjects\MyClusterApp\out\artifacts\MyClusterApp_DefaultArtifact\default_artifact.jar"""))
                                     .set("spark.hadoop.validateOutputSpecs", "false")
           val sc = new SparkContext(conf)
    
           SparkSample.executeJob(sc,
             "wasb:///HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv",
             "wasb:///HVACOut")
         }
        }
    

    Há dois aspectos importantes a serem observados:

    • Para .set("spark.yarn.jar", "wasb:///hdp/apps/2.4.2.0-258/spark-assembly-1.6.1.2.4.2.0-258-hadoop2.7.1.2.4.2.0-258.jar"), verifique se o assembly JAR do Spark está disponível no armazenamento de cluster no caminho especificado.
    • Para setJars, especifique o local em que o artefato JAR será criado. Geralmente, é <Your IntelliJ project directory>\out\<project name>_DefaultArtifact\default_artifact.jar.
  12. Na classe *RemoteClusterDebugging, clique com botão direito do mouse na palavra-chave test e selecione Criar Configuração de RemoteClusterDebugging.

    IntelliJ IDEA Create a remote configuration.

  13. Na caixa de diálogo Criar Configuração de RemoteClusterDebugging, forneça um nome para a configuração e, em seguida, selecione Tipo de teste como o Nome do teste. Deixe todos os outros valores como configurações padrão. Selecione Aplicar e, depois, OK.

    Create RemoteClusterDebugging Configuration.

  14. Agora você deve ver uma lista suspensa de configuração Execução Remota na barra de menus.

    IntelliJ The Remote run drop-down list.

Etapa 5: Executar o aplicativo no modo de depuração

  1. No projeto IntelliJ IDEA, abra SparkSample.scala e crie um ponto de interrupção ao lado de val rdd1. No menu pop-up Criar ponto de interrupção para, selecione linha na função executeJob.

    IntelliJ IDEA Add a breakpoint.

  2. Para executar o aplicativo, selecione o botão Execução de Depuração ao lado da lista suspensa de configuração de Execução Remota.

    IntelliJ IDEA Select the Debug Run button.

  3. Quando a execução do programa atingir o ponto de interrupção, você verá uma guia Depurador no painel inferior.

    IntelliJ IDEA View the Debugger tab.

  4. Para adicionar uma inspeção, selecione o ícone ( + ).

    IntelliJ debug-add-watch-variable.

    Neste exemplo, o aplicativo rompeu antes de a variável rdd1 ter sido criada. Usando essa inspeção, podemos ver as primeiras cinco linhas na variável rdd. Selecione Enter.

    IntelliJ Run the program in debug mode.

    O que você vê na imagem anterior é que, em runtime, você poderia consultar terabytes de dados e de depuração à medida que o aplicativo progride. Por exemplo, na saída mostrada na imagem anterior, você pode ver que a primeira linha da saída é um cabeçalho. Com base nessa saída, você pode modificar seu código do aplicativo para ignorar a linha de cabeçalho, se necessário.

  5. Agora você pode selecionar o ícone Retomar Programa para prosseguir com a execução do aplicativo.

    IntelliJ IDEA Select Resume Program.

  6. Se o aplicativo for concluído com êxito, você verá uma saída semelhante à seguinte:

    IntelliJ IDEA debugger console output.

Próximas etapas

Cenários

Criar e executar aplicativos

Ferramentas e extensões

Gerenciar recursos