Adicionar fonte Apache Kafka a um fluxo de eventos (visualização)
Este artigo mostra como adicionar a fonte Apache Kafka a um fluxo de eventos.
O Apache Kafka é uma plataforma distribuída de código aberto para a construção de sistemas de dados escaláveis e em tempo real. Ao integrar o Apache Kafka como uma fonte em seu fluxo de eventos, você pode facilmente trazer eventos em tempo real do seu Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric.
Nota
Esta origem não é suportada nas seguintes regiões da capacidade do seu espaço de trabalho: Oeste US3, Suíça Oeste.
Pré-requisitos
- Acesso ao espaço de trabalho Malha com permissões de Colaborador ou superior.
- Um cluster Apache Kafka em execução.
- Seu Apache Kafka deve ser acessível publicamente e não estar protegido por um firewall ou protegido em uma rede virtual.
Nota
O número máximo de fontes e destinos para um eventstream é 11.
Adicionar Apache Kafka como fonte
Em Fabric Real-Time Intelligence, selecione Eventstream para criar um novo eventstream.
Na tela seguinte, selecione Adicionar fonte externa.
Configurar e conectar-se ao Apache Kafka
Na página Selecione uma fonte de dados, selecione Apache Kafka.
Na página Conectar, selecione Nova conexão.
Na seção Configurações de conexão, para Bootstrap Server, insira o endereço do servidor Apache Kafka.
Na seção Credenciais de conexão, Se você tiver uma conexão existente com o cluster Apache Kafka, selecione-a na lista suspensa para Conexão. Caso contrário, siga estes passos:
- Em Nome da conexão, insira um nome para a conexão.
- Para Tipo de autenticação, confirme se a opção Chave de API está selecionada.
- Em Chave e Segredo, insira Chave da API e Segredo da chave.
Selecione Ligar.
Agora, na página Conectar, siga estas etapas.
Em Tópico, insira o tópico Kafka.
Em Grupo de consumidores, insira o grupo de consumidores do seu cluster Apache Kafka. Este campo fornece um grupo de consumidores dedicado para obter eventos.
Selecione Redefinir deslocamento automático para especificar por onde começar a ler deslocamentos se não houver confirmação.
Para o protocolo de segurança, o valor padrão é SASL_PLAINTEXT.
Nota
A fonte Apache Kafka atualmente suporta apenas transmissão de dados não criptografados (SASL_PLAINTEXT e PLAINTEXT) entre seu cluster Apache Kafka e Eventstream. Suporte para transmissão de dados criptografados via SSL estará disponível em breve.
O mecanismo SASL padrão é normalmente PLAIN, a menos que configurado de outra forma. Você pode selecionar o mecanismo SCRAM-SHA-256 ou SCRAM-SHA-512 que atenda aos seus requisitos de segurança.
Selecione Seguinte. No ecrã Rever e criar, reveja o resumo e, em seguida, selecione Adicionar.
Ver fluxo de eventos atualizado
Você pode ver a fonte Apache Kafka adicionada ao seu fluxo de eventos no modo de edição.
Depois de concluir essas etapas, a fonte Apache Kafka estará disponível para visualização na Visualização dinâmica.
Conteúdos relacionados
Outros conectores:
- Amazon Kinesis Data Streams
- BD do Cosmos para o Azure
- Azure Event Hubs
- Hub IoT do Azure
- Captura de Dados de Alteração do Banco de Dados SQL do Azure (CDC)
- Ponto de extremidade personalizado
- Google Cloud Pub/Sub
- Banco de dados MySQL CDC
- Banco de Dados PostgreSQL CDC
- Dados de exemplo
- Eventos do Armazenamento de Blobs do Azure
- Evento do espaço de trabalho de malha