Compartilhar via


Computação

A computação do Azure Databricks refere-se à seleção de recursos de computação disponíveis no workspace do Azure Databricks. Os usuários precisam de acesso à computação para executar cargas de trabalho de engenharia de dados, ciência de dados e análise de dados, como pipelines de ETL de produção, análise de streaming, análise ad hoc e aprendizado de máquina.

Os usuários podem se conectar à computação existente ou criar uma nova computação se tiverem as permissões adequadas.

Você pode exibir a computação à qual tem acesso usando a seção Computação do workspace:

Página da computação para todas as finalidades no workspace do Databricks

Tipos de computação

Estes são os tipos de computação disponíveis no Azure Databricks:

  • Computação sem servidor para notebooks: computação sob demanda e escalável usada para executar código SQL e Python em notebooks.

  • Computação sem servidor para trabalhos: computação escalonável sob demanda usada para executar seus trabalhos do Databricks sem configurar e implantar a infraestrutura.

  • Computação para Todas as Finalidades: computação provisionada usada para analisar dados em notebooks. Você pode criar, encerrar e reiniciar essa computação usando a interface do usuário, a CLI ou a API REST.

  • Computação de trabalhos: computação provisionada usada para executar trabalhos automatizados. O agendador de trabalhos do Azure Databricks cria automaticamente uma computação de trabalho sempre que um trabalho é configurado para ser executado em uma nova computação. A computação termina quando o trabalho é concluído. Não é possível reiniciar uma computação de trabalho. Confira Configurar computação para trabalhos.

  • Pools de instâncias: computação com instâncias ociosas e prontas para uso, usadas para reduzir os tempos de início e dimensionamento automático. Você pode criar essa computação usando a interface do usuário, a CLI ou a API REST.

  • SQL warehouses sem servidor: computação elástica sob demanda usada para executar comandos SQL em objetos de dados no editor do SQL ou em notebooks interativos. Você pode criar SQL warehouses usando a interface do usuário, a CLI ou a API REST.

  • SQL warehouses clássicos: usados para executar comandos SQL em objetos de dados no editor do SQL ou notebooks interativos. Você pode criar SQL warehouses usando a interface do usuário, a CLI ou a API REST.

Os artigos desta seção descrevem como trabalhar com recursos de computação usando a interface do usuário do Azure Databricks. Para outros métodos, consulte O que é a CLI do Databricks? e a referência da API REST do Databricks.

Databricks Runtime

O Databricks Runtime é o conjunto de componentes principais executados em sua computação. O Databricks Runtime é uma opção configurável em todos os tipos de computação para trabalhos, mas é selecionada automaticamente em SQL warehouses.

Cada versão do Databricks Runtime inclui atualizações que melhoram a usabilidade, o desempenho e a segurança da análise de Big Data. O Databricks Runtime em sua computação adiciona muitos recursos, incluindo:

  • Delta Lake, uma camada de armazenamento de última geração criada com base no Apache Spark que fornece transações ACID, layouts e índices otimizados e melhorias do mecanismo de execução para a criação de pipelines de dados. Veja O que é o Delta Lake?.
  • Bibliotecas Java, Scala, Python e R instaladas.
  • Ubuntu e as bibliotecas de sistema que o acompanham.
  • Bibliotecas de GPU para clusters habilitados para GPU.
  • Serviços do Azure Databricks que se integram a outros componentes da plataforma, como notebooks, trabalhos e gerenciamento de cluster.

Para obter informações sobre o conteúdo de cada versão de tempo de execução, consulte as notas de versão.

Controle de versão do runtime

As versões do Databricks Runtime são lançadas regularmente:

  • As versões de Suporte de Longo Prazo são representadas por um qualificador LTS (por exemplo, 3.5 LTS). Para cada versão principal, declaramos uma versão de recurso "canônica", para a qual fornecemos três anos de suporte. Confira Ciclos de vida de suporte do Databricks para obter mais informações.
  • As versões principais são representadas por um incremento para o número de versão que precede o ponto decimal (o salto de 3,5 para 4,0, por exemplo). Elas são liberadas quando há alterações importantes, algumas das quais podem não ser compatíveis com versões anteriores.
  • As versões de recursos são representadas por um incremento para o número de versão que precede o ponto decimal (o salto de 3,4 para 3,5, por exemplo). Cada versão principal inclui várias versões de recursos. As versões de recursos são sempre compatíveis com as versões anteriores em sua versão principal.