Partilhar via


Navegue pelos aplicativos Apache Spark no hub de monitoramento do Fabric

O hub de monitoramento serve como um portal centralizado para navegar pelas atividades do Apache Spark entre os itens. Quando você estiver em Engenharia de Dados ou Ciência de Dados, poderá visualizar aplicativos Apache Spark em andamento acionados a partir de notebooks, definições de trabalho do Apache Spark e pipelines. Você também pode pesquisar e filtrar aplicativos Apache Spark com base em diferentes critérios. Além disso, você pode cancelar seus aplicativos Apache Spark em andamento e fazer drill down para ver mais detalhes de execução de um aplicativo Apache Spark.

Acesse o hub de monitoramento

Você pode acessar o hub de monitoramento para visualizar várias atividades do Apache Spark selecionando Hub de monitoramento nos links de navegação do lado esquerdo.

Captura de tela mostrando o hub de monitoramento na barra de navegação do lado esquerdo.

Opções de classificação, pesquisa, filtro e coluna Aplicações Apache Spark

Para melhor usabilidade e descoberta, você pode classificar os aplicativos Apache Spark selecionando colunas diferentes na interface do usuário. Você também pode filtrar os aplicativos com base em diferentes colunas e pesquisar aplicativos específicos. Você também pode ajustar a exibição e a ordem de classificação das colunas independentemente através das opções de coluna.

Classificar aplicativos Apache Spark

Para classificar aplicativos Apache Spark, você pode selecionar em cada cabeçalho de coluna, como Nome, Status, Tipo de Item, Hora de Início, Local e assim por diante.

Captura de tela mostrando o aplicativo de faísca de classificação.

Filtrar aplicações Apache Spark

Você pode filtrar aplicativos Apache Spark por Status, Tipo de Item, Hora de Início, Transmitente e Localização usando o painel Filtro no canto superior direito.

Captura de tela mostrando os aplicativos de faísca de filtro.

Pesquisar aplicativos Apache Spark

Para pesquisar aplicativos Apache Spark específicos, você pode inserir determinadas palavras-chave na caixa de pesquisa localizada no canto superior direito.

Captura de ecrã a mostrar a aplicação de faísca de pesquisa.

Opções de coluna Aplicações Apache Spark

Você pode alterar a ordem em que as listas são exibidas selecionando a lista que deseja exibir e arrastando as opções da lista.

Captura de ecrã a mostrar as opções de coluna arrastáveis.

Se você tiver definições de trabalho agendadas de bloco de anotações e Spark para execução em pipelines, poderá exibir as atividades do Spark nesses blocos de anotações e definições de trabalho do Spark no hub de monitoramento. Além disso, você também pode ver o pipeline pai correspondente e todas as suas atividades no Hub de monitoramento.

  1. Selecione a opção Coluna de execução upstream.

Captura de tela mostrando as opções de coluna de execução upstream.

  1. Exiba a execução do pipeline pai relacionada na coluna Execução upstream e clique na execução do pipeline para exibir todas as suas atividades.

Captura de tela mostrando o botão de execução upstream na lista.

Gerenciar um aplicativo Apache Spark

Quando você passa o mouse sobre uma linha de aplicativo Apache Spark, você pode ver várias ações de nível de linha que permitem gerenciar um aplicativo Apache Spark específico.

Veja o painel de detalhes do aplicativo Apache Spark

Você pode passar o mouse sobre uma linha de aplicativo Apache Spark e clicar no ícone Exibir detalhes para abrir o painel Detalhes e visualizar mais detalhes sobre um aplicativo Apache Spark.

Captura de tela mostrando o painel de detalhes do aplicativo Spark.

Cancelar um aplicativo Apache Spark

Se você precisar cancelar um aplicativo Apache Spark em andamento, passe o mouse sobre sua linha e clique no ícone Cancelar .

Captura de tela mostrando o cancelamento de um aplicativo Spark.

Se você precisar de mais informações sobre estatísticas de execução do Apache Spark, acessar logs do Apache Spark ou verificar dados de entrada e saída, você pode clicar no nome de um aplicativo Apache Spark para navegar até a página de detalhes do aplicativo Apache Spark correspondente.