Partilhar via


Adicionar fonte Apache Kafka a um fluxo de eventos (visualização)

Este artigo mostra como adicionar a fonte Apache Kafka a um fluxo de eventos.

O Apache Kafka é uma plataforma distribuída de código aberto para a construção de sistemas de dados escaláveis e em tempo real. Ao integrar o Apache Kafka como uma fonte em seu fluxo de eventos, você pode facilmente trazer eventos em tempo real do seu Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric.

Nota

Esta origem não é suportada nas seguintes regiões da capacidade do seu espaço de trabalho: Oeste US3, Suíça Oeste.

Pré-requisitos

  • Acesso ao espaço de trabalho Malha com permissões de Colaborador ou superior.
  • Um cluster Apache Kafka em execução.
  • Seu Apache Kafka deve ser acessível publicamente e não estar protegido por um firewall ou protegido em uma rede virtual. 

Nota

O número máximo de fontes e destinos para um eventstream é 11.

Adicionar Apache Kafka como fonte

  1. Em Fabric Real-Time Intelligence, selecione Eventstream para criar um novo eventstream.

    Uma captura de tela da criação de um novo fluxo de eventos.

  2. Na tela seguinte, selecione Adicionar fonte externa.

    Uma captura de tela mostrando a seleção Adicionar fonte externa.

Configurar e conectar-se ao Apache Kafka

  1. Na página Selecione uma fonte de dados, selecione Apache Kafka.

    Captura de tela que mostra a seleção do Apache Kafka como o tipo de origem no assistente Obter eventos.

  2. Na página Conectar, selecione Nova conexão.

    Captura de tela que mostra a seleção do link Nova conexão na página Conectar do assistente Obter eventos.

  3. Na seção Configurações de conexão, para Bootstrap Server, insira o endereço do servidor Apache Kafka.

    Captura de tela que mostra a seleção do campo Servidor de inicialização na página Conectar do assistente Obter eventos.

  4. Na seção Credenciais de conexão, Se você tiver uma conexão existente com o cluster Apache Kafka, selecione-a na lista suspensa para Conexão. Caso contrário, siga estes passos:

    1. Em Nome da conexão, insira um nome para a conexão.
    2. Para Tipo de autenticação, confirme se a opção Chave de API está selecionada.
    3. Em Chave e Segredo, insira Chave da API e Segredo da chave.
  5. Selecione Ligar. 

  6. Agora, na página Conectar, siga estas etapas.

    1. Em Tópico, insira o tópico Kafka.

    2. Em Grupo de consumidores, insira o grupo de consumidores do seu cluster Apache Kafka. Este campo fornece um grupo de consumidores dedicado para obter eventos.

    3. Selecione Redefinir deslocamento automático para especificar por onde começar a ler deslocamentos se não houver confirmação.

    4. Para o protocolo de segurança, o valor padrão é SASL_PLAINTEXT.

      Nota

      A fonte Apache Kafka atualmente suporta apenas transmissão de dados não criptografados (SASL_PLAINTEXT e PLAINTEXT) entre seu cluster Apache Kafka e Eventstream. Suporte para transmissão de dados criptografados via SSL estará disponível em breve.

    5. O mecanismo SASL padrão é normalmente PLAIN, a menos que configurado de outra forma. Você pode selecionar o mecanismo SCRAM-SHA-256 ou SCRAM-SHA-512 que atenda aos seus requisitos de segurança.

      Captura de tela que mostra a primeira página das configurações de conexão do Apache Kafka.

  7. Selecione Seguinte. No ecrã Rever e criar, reveja o resumo e, em seguida, selecione Adicionar.

Ver fluxo de eventos atualizado

Você pode ver a fonte Apache Kafka adicionada ao seu fluxo de eventos no modo de edição. 

Captura de tela que mostra a fonte Apache Kafka no modo de exibição Editar.

Depois de concluir essas etapas, a fonte Apache Kafka estará disponível para visualização na Visualização dinâmica.

Captura de tela que mostra a fonte do Apache Kafka na Visualização dinâmica.

Outros conectores: