Compartilhar via


Adicionar origem do Apache Kafka a um Eventstream (versão prévia)

Este artigo mostra como adicionar a origem do Apache Kafka a um Eventstream.

O Apache Kafka é uma plataforma distribuída de software livre para a criação de sistemas de dados escalonáveis e em tempo real. Ao integrar o Apache Kafka como uma origem no eventstream, você pode facilmente trazer eventos em tempo real do Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric.

Observação

Não há suporte para esta origem nas seguintes regiões de capacidade do espaço de trabalho: Oeste dos EUA 3 e Oeste da Suíça.

Pré-requisitos

  • Acesso ao workspace do Fabric com permissões de Colaborador ou acima.
  • Um cluster do Apache Kafka em execução.
  • O Apache Kafka deve ser acessível publicamente e não estar atrás de um firewall ou protegido em uma rede virtual. 

Observação

O número máximo de origens e destinos para um fluxo de eventos é 11.

Adicionar o Apache Kafka como origem

  1. Na Inteligência em Tempo Real do Fabric, selecione Eventstream para criar um eventstream.

    Captura de tela mostrando a criação de um Eventstream.

  2. Na tela seguinte, selecione Adicionar origem externa.

    Captura de tela da seleção Adicionar origem externa.

Configurar e conectar-se ao Apache Kafka

  1. Na página Selecionar uma fonte de dados, selecione apache Kafka.

    Captura de tela que mostra a seleção do Apache Kafka como o tipo de origem no assistente Obter eventos.

  2. Na página Conectar, selecione Nova conexão.

    Captura de tela mostrando a escolha do link Nova conexão na página Conectar do assistente Obter eventos.

  3. Na seção Configurações de conexão, em Servidor Bootstrap, insira o endereço do servidor Apache Kafka.

    Captura de tela que mostra a seleção do campo Servidor Bootstrap na página Conectar do assistente Obter eventos.

  4. Na seção Credenciais de conexão, se você tiver uma conexão existente com o cluster do Apache Kafka, selecione-a na lista suspensa para Conexão. Caso contrário, siga estas etapas:

    1. Em Nome da conexão, insira um nome para a conexão.
    2. Em Tipo de autenticação, confirme se a Chave de API está selecionada.
    3. Em Chave e Segredo, insira a chave de API e o segredo da chave.
  5. Selecione Conectar. 

  6. Agora, na página Conectar, siga estas etapas.

    1. Em Tópico, insira o tópico Kafka.

    2. Em Grupo de consumidores, insira o grupo de consumidores do cluster do Apache Kafka. Esse campo fornece um grupo de consumidores dedicado para obter eventos.

    3. Selecione Redefinir deslocamento automático para especificar onde começar a ler os deslocamentos, se não houver confirmação.

    4. Em Protocolo de segurança, o valor padrão é SASL_PLAINTEXT.

      Observação

      No momento, a origem do Apache Kafka dá suporte apenas à transmissão de dados não criptografada (SASL_PLAINTEXT e PLAINTEXT) entre o cluster do Apache Kafka e o Eventstream. O suporte para transmissão de dados criptografados via SSL estará disponível em breve.

    5. O mecanismo SASL padrão normalmente é PLAIN, a menos que configurado de outra forma. Você pode selecionar o mecanismo SCRAM-SHA-256 ou SCRAM-SHA-512 que atende aos seus requisitos de segurança.

      Captura de tela que mostra a primeira página das configurações de conexão do Apache Kafka.

  7. Selecione Avançar. Na tela Revisar e criar, revise o resumo e selecione Adicionar.

Exibir o Eventstream atualizado

Você pode ver a origem do Apache Kafka adicionada ao Eventstream no modo Editar. 

Captura de tela que mostra a origem do Apache Kafka no modo de exibição Editar.

Depois de concluir essas etapas, a origem do Apache Kafka estará disponível para visualização no Modo de exibição ao vivo.

Captura de tela que mostra a origem do Apache Kafka no Modo de exibição ao vivo.

Outros conectores: