Adicionar e gerenciar uma origem do evento em um fluxo de eventos
Depois de criar um Eventstream, você pode conectá-lo a várias fontes de dados e destinos.
Observação
Agora, os recursos aprimorados estão habilitados por padrão ao criar os Eventstreams. Caso tenha os Eventstreams que foram criados usando recursos padrão, esses Eventstreams continuarão a funcionar. Você ainda pode editá-los e usá-los como de costume. É recomendado criar um novo Eventstream para substituir os Eventstreams padrão para que você possa usufruir de recursos adicionais e benefícios de Eventstreams aprimorados.
Depois de criar um eventstream, você pode conectá-lo a várias fontes de dados e destinos.
O Eventstream não só permite transmitir dados de origens da Microsoft, mas também oferece suporte à ingestão de plataformas de terceiros, como Google Cloud e Amazon Kinesis, com novos conectores de mensagens. Esse recurso expandido oferece integração uma perfeita dos fluxos de dados externos ao Fabric, fornecendo maior flexibilidade e permitindo que você obtenha insights em tempo real de várias fontes.
Neste artigo, você aprenderá sobre as origens de evento que podem ser adicionadas a um Eventstream.
Pré-requisitos
- Acesso a um workspace no modo de licença de capacidade do Fabric (ou) no modo de licença de Avaliação com permissões de Colaborador ou superior.
- Pré-requisitos específicos para cada origem que estão documentados nos artigos a seguir específicos da origem.
Origens compatíveis
Os fluxos de eventos do Fabric com recursos aprimorados oferecem suporte às origens a seguir. Cada artigo fornece detalhes e instruções para adicionar origens específicas.
Origens | Descrição |
---|---|
Hubs de eventos do Azure | Se você tiver um hub de eventos do Azure, poderá ingerir dados do hub de eventos no Microsoft Fabric usando o Eventstream. |
Hub IoT do Azure | Se você tiver um hub IoT do Azure, poderá ingerir dados de IoT no Microsoft Fabric usando o Eventstream. |
Captura de dados de alterações (CDA) com o Banco de Dados SQL do Azure | O conector de origem da CDA do Banco de Dados SQL do Azure permite capturar um instantâneo dos dados atuais em um banco de dados SQL do Azure. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
CDA do Banco de dados PostgreSQL | O conector de origem da captura de dados de alterações (CDA) do Banco de Dados PostgreSQL permite capturar um instantâneo dos dados atuais em um Banco de Dados PostgreSQL. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
CDA do Banco de Dados MySQL | O conector de fonte da captura de dados de alterações (CDA) do Banco de Dados MySQL do Azure permite a captura de um instantâneo dos dados atuais em um Banco de Dados do Azure para MySQL. Você pode especificar as tabelas a serem monitoradas. O eventstream registrará quaisquer alterações futuras nas tabelas no nível de linha. |
CDA do Azure Cosmos DB | O conector de origem da captura de dados de alterações (CDA) do Azure Cosmos DB para fluxos de eventos do Microsoft Fabric permite capturar um instantâneo dos dados atuais em um banco de dados do Azure Cosmos DB. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
SQL Server CDA CDC do DB (banco de dados) da VM (máquina virtual) | O conector de origem do SQL Server na VM DB (CDC) para fluxos de eventos do Fabric permite capturar um instantâneo dos dados atuais em um banco de dados do SQL Server na VM. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível de linha nos dados. |
CDC da Instância Gerenciada de SQL do Azure | O conector de origem CDC da Instância Gerenciada de SQL do Azure para fluxos de eventos do Microsoft Fabric permite capturar um instantâneo dos dados atuais em um banco de dados da Instância Gerenciada de SQL. Em seguida, o conector monitora e registra quaisquer alterações futuras no nível da linha nesses dados. |
Pub/Sub do Google Cloud | O Pub/Sub do Google é um serviço de mensagens que permite publicar e assinar fluxos de eventos. Você pode adicionar o Pub/Sub do Google como origem para o eventstream para capturar, transformar e encaminhar eventos em tempo real a vários destinos no Fabric. |
Amazon Kinesis Data Streams | O Amazon Kinesis Data Streams é um serviço de processamento e ingestão de dados altamente escalonável e durável, otimizado para fluxo de dados. Ao integrar o Amazon Kinesis Data Streams como uma origem no eventstream, você pode processar facilmente fluxos de dados em tempo real antes de encaminhá-los a vários destinos no Fabric. |
Kafka para Confluent Cloud | O Kafka para Confluent Cloud é uma plataforma de streaming que oferece recursos avançados de transmissão e processamento de dados usando o Apache Kafka. Ao integrar o Kafka para Confluent Cloud como uma origem no eventstream, você pode processar facilmente fluxos de dados em tempo real antes de encaminhá-los a vários destinos no Fabric. |
Amazon MSK Kafka | O Amazon MSK Kafka é um serviço Kafka totalmente gerenciado que simplifica a instalação, o dimensionamento e o gerenciamento. Ao integrar o Amazon MSK Kafka como uma fonte no eventstream, você pode facilmente trazer os eventos em tempo real do MSK Kafka e processá-los antes de roteá-los para vários destinos dentro do Fabric. |
Dados de amostra | Você pode escolher eventos de Bicicletas, Táxi Amarelo ou de Mercado de Ações como um exemplo de fonte de dados para testar a ingestão de dados ao configurar um eventstream. |
Ponto de extremidade personalizado (ou seja, Aplicativo personalizado em recurso padrão) | O recurso de ponto de extremidade personalizado permite que seus aplicativos ou clientes Kafka se conectem ao Eventstream usando uma cadeia de conexão, permitindo a ingestão suave de dados de streaming no Eventstream. |
Barramento de Serviço do Azure (versão prévia) | Você poderá ingerir dados de uma fila do Barramento de Serviço do Azure ou de uma assinatura de tópico no Microsoft Fabric usando o Eventstream. |
Apache Kafka (versão prévia) | O Apache Kafka é uma plataforma distribuída de software livre para a criação de sistemas de dados escalonáveis e em tempo real. Ao integrar o Apache Kafka como uma origem no eventstream, você pode facilmente trazer eventos em tempo real do Apache Kafka e processá-los antes de roteá-los para vários destinos no Fabric. |
Eventos do Armazenamento de Blobs do Azure (versão prévia) | Os eventos do Armazenamento de Blobs do Azure são acionados quando um cliente cria, substitui ou exclui um Blob. O conector permite vincular eventos do Armazenamento de Blobs a eventos do Fabric no hub em tempo real. Você pode converter esses eventos em fluxos de dados contínuos e transformá-los antes de encaminhá-los a vários destinos no Fabric. |
Eventos de item do espaço de trabalho do Fabric (versão prévia) | Os eventos de itens do espaço de trabalho do Fabric são eventos discretos do Fabric que ocorrem quando são feitas alterações no espaço de trabalho do Fabric. Essas alterações incluem a criação, a atualização ou a exclusão de um item do Fabric. Com os fluxos de eventos do Fabric, você pode capturar esses eventos do espaço de trabalho do Fabric, transformá-los e encaminhá-los a vários destinos no Fabric para análise adicional. |
Observação
O número máximo de origens e destinos para um fluxo de eventos é 11.
Conteúdo relacionado
Pré-requisitos
Antes de começar, você deve concluir os seguintes pré-requisitos:
- Acesso a um workspace no modo de licença de capacidade do Fabric (ou) no modo de licença de Avaliação com permissões de Colaborador ou superior.
- Para adicionar um Hubs de Eventos do Azure ou Hub IoT do Azure como origem do eventstream, você precisará ter a permissão apropriada para acessar suas chaves de política. Elas deve ser publicamente acessíveis e não por trás de um firewall ou protegida em uma rede virtual.
Origens compatíveis
Os fluxos de eventos do Fabric dão suporte às fontes a seguir. Use os links na tabela para navegar até artigos que forneçam mais detalhes sobre como adicionar origens específicas.
Origens | Descrição |
---|---|
Hubs de eventos do Azure | Se você tiver um hub de eventos do Azure, poderá ingerir dados do hub de eventos no Microsoft Fabric usando o Eventstream. |
Hub IoT do Azure | Se você tiver um hub IoT do Azure, poderá ingerir dados de IoT no Microsoft Fabric usando o Eventstream. |
Dados de amostra | Você pode escolher eventos de Bicicletas, Táxi Amarelo ou de Mercado de Ações como um exemplo de fonte de dados para testar a ingestão de dados ao configurar um eventstream. |
Aplicativo personalizado | O recurso de aplicativo personalizado permite que seus aplicativos ou clientes Kafka se conectem ao Eventstream usando uma cadeia de conexão, permitindo a ingestão suave de dados de streaming no Eventstream. |
Observação
O número máximo de origens e destinos para um fluxo de eventos é 11.
Gerenciar uma origem
Editar/remover: você pode selecionar uma origem de fluxo de eventos por meio do painel de navegação ou da tela. Ao selecionar Editar, o painel de edição é aberto à direita do editor principal.
Regenerar chave para um aplicativo personalizado: se você quiser regenerar uma nova chave de conexão para seu aplicativo, selecione uma das fontes de aplicativo personalizadas na tela e selecione Regenerar para obter uma nova chave de conexão.