Compartilhar via


Migrar pools do Spark do Azure Synapse Analytics para o Fabric

Enquanto o Azure Synapse fornece pools do Spark, o Fabric oferece Pools iniciais e Pools personalizados. O pool inicial pode ser uma boa opção se você tiver um único pool sem configurações ou bibliotecas personalizadas no Azure Synapse e se o tamanho do nó médio atender às suas necessidades. No entanto, se você busca mais flexibilidade nas configurações do pool do Spark, recomendamos usar pools personalizados. Há duas opções:

  • Opção 1: mover o pool do Spark para o pool padrão de um workspace.
  • Opção 2: mover o pool do Spark para um ambiente personalizado no Fabric.

Se você tiver mais de um pool do Spark e planeja movê-los para o mesmo workspace do Fabric, recomendamos usar a opção 2, criando vários ambientes e pools personalizados.

Para considerações sobre pool do Spark, confira diferenças entre o Spark do Azure Synapse e o Fabric.

Pré-requisitos

Se você ainda não tiver um, crie um workspace do Fabric em seu locatário.

Opção 1: do pool do Spark para o pool padrão do workspace

Você pode criar um pool do Spark personalizado do workspace do Fabric e usá-lo como o pool padrão no workspace. O pool padrão é usado por todos os notebooks e definições de trabalho do Spark no mesmo workspace.

Para mover de um pool do Spark existente no Azure Synapse para um pool padrão do workspace:

  1. Acesse o workspace do Azure Synapse: entre no Azure. Navegue até o workspace do Azure Synapse, acesse Pools de Análise e selecione Pools do Apache Spark.
  2. Localize o pool do Spark: em Pools do Apache Spark, localize o pool do Spark que você deseja mover para o Fabric e verifique as Propriedades do pool.
  3. Obtenha propriedades: obtenha as propriedades do pool do Spark, como a versão do Apache Spark, a família de tamanho do nó, o tamanho do nó ou o dimensionamento automático. Confira Considerações do pool do Spark para ver as diferenças.
  4. Crie um pool personalizado do Spark no Fabric:
    • Acesse seu workspace do Fabric e selecione Configurações do workspace.
    • Acesse Engenharia/Ciência de Dados e selecione Configurações do Spark.
    • Na guia Pool e na seção Pool padrão do workspace, expanda o menu suspenso e selecione Novo pool.
    • Crie seu pool personalizado com os valores de destino correspondentes. Preencha o nome, a família de nós, o tamanho do nó, o dimensionamento automático e as opções de alocação de executor dinâmico.
  5. Selecione a versão do runtime:
    • Acesse a guia Ambiente e selecione a Versão do Runtime necessária. Confira os runtimes disponíveis aqui.
    • Desabilite a opção Definir ambiente padrão.

Captura de tela mostrando o pool padrão.

Observação

Nessa opção, não há suporte para bibliotecas ou configurações no nível de pool. No entanto, você pode ajustar a configuração de computação de itens individuais, como notebooks e definições de trabalho do Spark, e adicionar bibliotecas embutidas. Se você precisar adicionar bibliotecas e configurações personalizadas a um ambiente, considere um ambiente personalizado.

Opção 2: do pool do Spark ao ambiente personalizado

Com ambientes personalizados, você pode configurar propriedades e bibliotecas personalizadas do Spark. Para criar um ambiente personalizado:

  1. Acesse o workspace do Azure Synapse: entre no Azure. Navegue até o workspace do Azure Synapse, acesse Pools de Análise e selecione Pools do Apache Spark.
  2. Localize o pool do Spark: em Pools do Apache Spark, localize o pool do Spark que você deseja mover para o Fabric e verifique as Propriedades do pool.
  3. Obtenha propriedades: obtenha as propriedades do pool do Spark, como a versão do Apache Spark, a família de tamanho do nó, o tamanho do nó ou o dimensionamento automático. Confira Considerações do pool do Spark para ver as diferenças.
  4. Crie um pool personalizado do Spark:
    • Acesse seu workspace do Fabric e selecione Configurações do workspace.
    • Acesse Engenharia/Ciência de Dados e selecione Configurações do Spark.
    • Na guia Pool e na seção Pool padrão do workspace, expanda o menu suspenso e selecione Novo pool.
    • Crie seu pool personalizado com os valores de destino correspondentes. Preencha o nome, a família de nós, o tamanho do nó, o dimensionamento automático e as opções de alocação de executor dinâmico.
  5. Crie um item de ambiente se não tiver um.
  6. Configure a computação do Spark:
    • No Ambiente, acesse Computação do Spark>Computação.
    • Selecione o pool recém-criado para o novo ambiente.
    • Você pode configurar núcleos e memória de driver e executores.
  7. Selecione uma versão de runtime para o ambiente. Confira os runtimes disponíveis aqui.
  8. Clique em Salvar e Publicar alterações.

Saiba mais sobre como criar e usar um ambiente.

Captura de tela mostrando um ambiente personalizado.