Compartilhar via


Desenvolver e depurar pipelines de Tabelas Dinâmicas Delta em notebooks

Importante

A experiência do Notebook para o desenvolvimento do Delta Live Tables está em Visualização Pública.

Este artigo descreve os recursos nos notebooks do Azure Databricks que auxiliam no desenvolvimento e na depuração do código do Delta Live Tables.

Visão geral de recursos

Ao trabalhar em um notebook Python ou SQL que está configurado como código-fonte para um pipeline existente de Tabelas Dinâmicas Delta, você pode conectar o notebook diretamente ao pipeline. Quando o notebook estiver conectado ao pipeline, os seguintes recursos estarão disponíveis:

  • Inicie e valide o pipeline do notebook.
  • Veja o grafo do fluxo de dados do pipeline e o log de eventos da atualização mais recente no notebook.
  • Veja o diagnóstico do pipeline diretamente no editor do notebook.
  • Veja o status do cluster do pipeline no notebook.
  • Como acessar a interface do usuário do Delta Live Tables do notebook.

Pré-requisitos

  • Você precisa ter um pipeline do Delta Live Tables existente com um notebook Python ou SQL configurado como código-fonte.
  • Você deve ser o proprietário do pipeline ou ter o privilégio CAN_MANAGE.

Limitações

  • Os recursos abordados neste artigo só estão disponíveis nos notebooks do Azure Databricks. Não há suporte para arquivos de workspace.
  • O terminal da Web não está disponível quando anexado a um pipeline. Como resultado, ele não é visível como uma guia no painel inferior.

Conectar um notebook a um pipeline do Delta Live Tables

No notebook, clique no menu suspenso usado para selecionar a computação. O menu suspenso mostra todos os pipelines do Delta Live Tables com este notebook como código-fonte. Para conectar o notebook a um pipeline, selecione-o na lista.

Ver o status do cluster do pipeline

Para entender facilmente o estado do cluster do pipeline, seu status é mostrado no menu suspenso de computação com uma cor verde para indicar que o cluster está em execução.

Validar o código do pipeline

Você pode validar o pipeline para verificar se há erros de sintaxe no código-fonte sem processar dados.

Para validar um pipeline, siga um destes procedimentos:

  • No canto superior direito do notebook, clique em Validar.
  • Pressione Shift+Enter em qualquer célula do notebook.
  • No menu suspenso de uma célula, clique em Validar Pipeline.

Observação

Se você tentar validar o pipeline enquanto uma atualização existente já estiver em execução, uma caixa de diálogo será exibida perguntando se você quer encerrar a atualização existente. Se você clicar em Sim, a atualização existente será interrompida e uma atualização de validação será iniciada automaticamente.

Iniciar uma atualização de pipeline

Para iniciar uma atualização do pipeline, clique no botão Iniciar no canto superior direito do notebook. Confira Executar uma atualização em um pipeline do Delta Live Tables.

Exibir o status de uma atualização

O painel superior do notebook mostra se uma atualização do pipeline está:

  • Iniciando
  • Validando
  • Parando

Ver erros e diagnóstico

Depois que você iniciar uma atualização ou uma validação de pipeline, todos os erros serão exibidos em linha com um sublinhado vermelho. Passe o mouse sobre um erro para ver mais informações.

Ver eventos de pipeline

Quando anexado a um pipeline, haverá uma guia de log de eventos do Delta Live Tables na parte inferior do notebook.

Log de eventos

Ver o grafo do fluxo de dados do pipeline

Para exibir um grafo de fluxo de dados do pipeline, use a guia de grafo do Delta Live Tables na parte inferior do notebook. Selecionar um nó no grafo exibe seu esquema no painel direito.

Grafo do Fluxo de Dados

Como acessar a interface do usuário do Delta Live Tables no notebook

Para ir facilmente para a interface do usuário do Delta Live Tables, use o menu no canto superior direito do notebook.

Abrir na interface do usuário do DLT no notebook

Acessar logs de driver e a interface do usuário do Spark no notebook

Os logs de driver e a interface do usuário do Spark associados ao pipeline que está sendo desenvolvido podem ser facilmente acessados no menu Exibir do notebook.

Logs de driver de acesso e interface do usuário do Spark