Compartilhar via


Adicionar uma fonte do Kafka para Confluent a um eventstream

Este artigo mostra como adicionar uma fonte do Kafka para Confluent a um eventstream.

O Kafka para Confluent Cloud é uma plataforma de streaming que oferece recursos avançados de transmissão e processamento de dados usando o Apache Kafka. Ao integrar o Kafka para Confluent Cloud como uma origem no eventstream, você pode processar facilmente fluxos de dados em tempo real antes de encaminhá-los a vários destinos no Fabric.

Observação

Não há suporte para esta origem nas seguintes regiões de capacidade do espaço de trabalho: Oeste dos EUA 3 e Oeste da Suíça.

Pré-requisitos

  • Acesso a um espaço de trabalho no modo de licença de capacidade do Fabric (ou) no modo de licença de Avaliação com permissões de Colaborador ou superior.
  • Um cluster do Kafka para Confluent Cloud e uma chave de API.
  • Seu cluster do Kafka para Confluent Cloud deve ser acessível publicamente e não estar por trás de um firewall ou protegido em uma rede virtual.
  • Se você não tiver um Eventstream, crie um Eventstream.

Iniciar o assistente Selecionar uma fonte de dados

Se você ainda não adicionou nenhuma fonte ao Eventstream, selecione o bloco Usar fonte externa.

Captura de tela que mostra a seleção do bloco Usar fonte externa.

Caso esteja adicionando a fonte a um Eventstream já publicado, alterne para o modo Editar, selecione Adicionar fonte na faixa de opções e selecione Fontes externas.

Captura de tela que mostra a seleção de Adicionar fonte para o menu Fontes externas.

Configurar e conectar-se ao Kafka para Confluent

  1. Na página Selecionar uma fonte de dados, escolha Confluent.

    Captura de tela mostrando a escolha do Confluent como o tipo de origem no assistente Obter eventos.

  2. Para criar uma conexão com a origem do Kafka para Confluent Cloud, selecione Nova conexão.

    Captura de tela mostrando a escolha do link Nova conexão na página Conectar do assistente Obter eventos.

  3. Na seção Configurações de conexão, insira Servidor de Inicialização do Confluent. Navegue até a home page do Confluent Cloud, selecione Configurações de Cluster e copie o endereço para o servidor de inicialização.

  4. Na seção Credenciais de conexão, se você tiver uma conexão existente com o cluster do Confluent, selecione-a na lista suspensa de Conexão. Caso contrário, siga estas etapas:

    1. Em Nome da conexão, insira um nome para a conexão.
    2. Em Variante de autenticação, confirme se a Chave do Confluent Cloud está selecionada.
    3. Em Chave de API e Segredo da Chave de API:
      1. Navegue até o Confluent Cloud.

      2. Selecione Chaves de API no menu lateral.

      3. Selecione o botão Adicionar chave para criar uma chave de API.

      4. Copie a Chave de API e o Segredo.

      5. Cole esses valores nos campos Chave de API e Segredo da Chave de API.

      6. Selecione Conectar

        Captura de tela que mostra a primeira página das configurações de conexão do Confluent.

  5. Role para ver a seção Configurar fonte de dados do Confluent na página. Insira as informações para concluir a configuração da fonte de dados do Confluent.

    1. Em Tópico, insira um nome de tópico do Confluent Cloud. Você pode criar ou gerenciar o tópico no console do Confluent Cloud.
    2. Em Grupo de consumidores, insira um grupo de consumidores do Confluent Cloud. Ele fornece o grupo de consumidores dedicado para obter os eventos do cluster do Confluent Cloud.
    3. Na configuração Restaurar deslocamento automático, selecione um dos seguintes valores:
      • Mais antigos – os primeiros dados disponíveis do cluster do Confluent

      • Mais recentes – os dados mais recentes disponíveis

      • Nenhum – não defina o deslocamento automaticamente.

        Captura de tela que mostra a segunda página – Configurar a página de fonte de dados do Confluent, das configurações de conexão do Confluent.

  6. Selecione Avançar. Na tela Revisar e criar, revise o resumo e selecione Adicionar.

Você verá que a fonte do Kafka para Confluent Cloud é adicionada ao eventstream na tela no Modo de edição. Para implementar essa fonte recém-adicionada do Kafka para Confluent Cloud, escolha Publicar na faixa.

Captura de tela mostrando a fonte do Kafka para Confluent no Modo de exibição de edição.

Depois de concluir essas etapas, a fonte do Kafka para Confluent Cloud estará disponível para visualização na Exibição ao vivo.

Captura de tela mostrando a fonte do Kafka para Confluent na Exibição ao vivo.

Limitações

  • Atualmente, não há suporte para o Confluent Kafka com formatos JSON e Avro, usando o registro de esquema.
  • Atualmente, não há suporte para a decodificação de dados do Confluent Kafka usando o registro de esquema do Confluent.

Observação

O número máximo de origens e destinos para um fluxo de eventos é 11.

Outros conectores: