Compartir a través de


Adición y administración de un origen de eventos en un eventstream

Una vez creada una secuencia de eventos, puede conectarla a varios orígenes de datos y destinos.

Nota:

Las funcionalidades mejoradas se habilitan de manera predeterminada al crear flujos de eventos ahora. Si tienes flujos de eventos creados con funcionalidades estándar, esos flujos de eventos seguirán funcionando. Todavía puedes editarlos y usarlos como de costumbre. Se recomienda crear una nueva secuencia de eventos para reemplazar las secuencias de eventos estándar para que pueda aprovechar las funcionalidades adicionales y las ventajas de las secuencias de eventos mejoradas.

Una vez creado un eventstream, puede conectarlo a varios orígenes y destinos de datos.

Eventstream no solo permite transmitir datos de orígenes de Microsoft, sino que también admite la ingesta desde plataformas de terceros como Google Cloud y Amazon Kinesis con nuevos conectores de mensajería. Esta funcionalidad ampliada ofrece una integración perfecta de secuencias de datos externos en Fabric, lo que proporciona mayor flexibilidad y le permite obtener información en tiempo real de varios orígenes.

En este artículo, obtendrá información sobre los orígenes de eventos que puede agregar a una secuencia de eventos.

Requisitos previos

  • Acceso a un área de trabajo en el modo de licencia de capacidad de Fabric (o) el modo de licencia de prueba con los permisos Colaborador o superior.
  • Requisitos previos específicos de cada origen que se documentan en los siguientes artículos específicos del origen.

Orígenes compatibles

Las secuencias de eventos de Fabric con funcionalidades mejoradas admiten los siguientes orígenes. En cada artículo se proporcionan detalles e instrucciones para agregar orígenes específicos.

Orígenes Descripción
Azure Event Hubs Si tiene un centro de eventos de Azure, puede ingerir datos del centro de eventos en Microsoft Fabric mediante Eventstream.
Azure IoT Hub Si tiene un centro de IoT de Azure, puede ingerir datos de IoT en Microsoft Fabric mediante Eventstream.
Captura de datos modificados de la base de datos Azure SQL El conector de origen de CDC de Azure SQL Database permite capturar una instantánea de los datos actuales en una base de datos de Azure SQL. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
CDC de base de datos de PostgreSQL El conector de origen de captura de datos modificados (CDC) de la base de datos de PostgreSQL permite capturar una instantánea de los datos actuales en una base de datos de PostgreSQL. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
CDC de base de datos de MySQL El conector de origen de captura de datos modificados (CDC) de Azure MySQL Database permite capturar una instantánea de los datos actuales en una base de datos de Azure Database for MySQL. Puede especificar las tablas que se van a supervisar y Eventstream registra los cambios futuros de nivel de fila en las tablas.
CDC de Azure Cosmos DB El conector de origen de captura de datos modificados (CDC) de Azure Cosmos DB para flujos de eventos de Microsoft Fabric permite capturar una instantánea de los datos actuales en una base de datos de Azure Cosmos DB. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
SQL Server en CDC de base de datos (DB) de máquina virtual (VM) El conector de origen de la base de datos de SQL Server en la máquina virtual (CDC) para flujos de eventos de Fabric permite capturar una instantánea de los datos actuales de una base de datos de SQL Server en la máquina virtual. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
Azure SQL Managed Instance CDC El conector de origen de Azure SQL Managed Instance CDC para flujos de eventos de Microsoft Fabric permite capturar una instantánea de los datos actuales en una base de datos de SQL Managed Instance. A continuación, el conector supervisa y registra los cambios futuros a nivel de fila en estos datos.
Google Cloud Pub/Sub Google Pub/Sub es un servicio de mensajería que permite publicar y suscribirse a secuencias de eventos. Puede agregar Google Pub/Sub como origen a su secuencia de eventos para capturar, transformar y enrutar eventos en tiempo real a varios destinos de Fabric.
Flujos de datos de Amazon Kinesis Amazon Kinesis Data Streams es un servicio de procesamiento y ingesta de datos muy duradero y escalable de forma masiva optimizado para datos de streaming. Al integrar Amazon Kinesis Data Streams como origen dentro de la secuencia de eventos, puede procesar sin problemas flujos de datos en tiempo real antes de enrutarlos a varios destinos dentro de Fabric.
Confluent Cloud Kafka Confluent Cloud Kafka es una plataforma de streaming que ofrece eficaces funcionalidades de procesamiento y streaming de datos mediante Apache Kafka. Al integrar Confluent Cloud Kafka como origen dentro de la secuencia de eventos, puede procesar sin problemas flujos de datos en tiempo real antes de enrutarlos a varios destinos dentro de Fabric.
Amazon MSK Kafka Amazon MSK Kafka es un servicio Kafka totalmente administrado que simplifica la configuración, el escalado y la administración. Al integrar Amazon MSK Kafka como origen dentro del flujo de eventos, puede traer sin problemas los eventos en tiempo real de su MSK Kafka y procesarlos antes de enrutarlos a varios destinos dentro de Fabric. 
Datos de ejemplo Puede elegir Bicicletas, Taxi amarillo, o Eventos de mercado de valores como un origen de datos de ejemplo para probar la ingesta de datos al configurar un eventstream.
Punto de conexión personalizado (es decir, aplicación personalizada en la funcionalidad estándar) La característica de punto de conexión personalizado permite que las aplicaciones o los clientes de Kafka se conecten a Eventstream mediante una cadena de conexión, lo que permite la ingesta fluida de datos de streaming en Eventstream.
Azure Service Bus (versión preliminar) Puede ingerir datos de una cola de Azure Service Bus o la suscripción de un tema a Microsoft Fabric mediante Eventstream.
Apache Kafka (versión preliminar) Apache Kafka es una plataforma distribuida de código abierto para crear sistemas de datos escalables y en tiempo real. Al integrar Apache Kafka como origen dentro del flujo de eventos, puede traer sin problemas eventos en tiempo real de Apache Kafka y procesarlos antes de enrutarlos a varios destinos dentro de Fabric.
Eventos de Azure Blob Storage (versión preliminar) Los eventos de Azure Blob Storage se desencadenan cuando un cliente crea, reemplaza o elimina un blob. El conector permite vincular eventos de Blob Storage a eventos de Fabric en el centro en tiempo real. Puede convertir estos eventos en flujos de datos continuos y transformarlos antes de enrutarlos a varios destinos de Fabric.
Eventos de elementos del área de trabajo de Fabric (versión preliminar) Los eventos de elementos del área de trabajo de Fabric son eventos discretos de Fabric que se producen cuando se realizan cambios en el área de trabajo de Fabric. Estos cambios incluyen la creación, actualización o eliminación de un elemento de Fabric. Con flujos de eventos de Fabric, puede capturar estos eventos del área de trabajo de Fabric, transformarlos y enrutarlos a varios destinos de Fabric para su posterior análisis.

Nota:

El número máximo de orígenes y destinos para una secuencia de eventos es 11.

Requisitos previos

Para empezar, debe completar los siguientes requisitos previos:

  • Acceso a un área de trabajo en el modo de licencia de capacidad de Fabric (o) el modo de licencia de prueba con los permisos Colaborador o superior.
  • Para agregar Azure Event Hubs o Azure IoT Hub como origen de eventstream, debe tener el permiso adecuado para acceder a sus claves de directiva. Deben ser accesibles públicamente y no estar detrás de un firewall o protegidos en una red virtual.

Orígenes compatibles

Los flujos de eventos de Fabric admiten los siguientes orígenes. Usa los vínculos de la tabla para ir a artículos que proporcionan más detalles sobre cómo agregar orígenes específicos.

Orígenes Descripción
Azure Event Hubs Si tiene un centro de eventos de Azure, puede ingerir datos del centro de eventos en Microsoft Fabric mediante Eventstream.
Azure IoT Hub Si tiene un centro de IoT de Azure, puede ingerir datos de IoT en Microsoft Fabric mediante Eventstream.
Datos de ejemplo Puede elegir Bicicletas, Taxi amarillo, o Eventos de mercado de valores como un origen de datos de ejemplo para probar la ingesta de datos al configurar un eventstream.
Aplicación personalizada La característica de aplicación personalizada permite que las aplicaciones o los clientes de Kafka se conecten a Eventstream mediante una cadena de conexión, lo que permite la ingesta fluida de datos de streaming en Eventstream.

Nota:

El número máximo de orígenes y destinos para una secuencia de eventos es 11.

Administración de un origen

  • Editar o quitar: puede seleccionar un origen de eventstream para editar o quitar a través del panel de navegación o el lienzo. Al seleccionar Editar, el panel de edición se abre a la derecha del editor principal.

    Captura de pantalla que muestra la modificación y eliminación del origen.

  • Regenerar clave para una aplicación personalizada: si quiere volver a generar una nueva clave de conexión para la aplicación, seleccione uno de los orígenes de la aplicación personalizados en el lienzo y seleccione Regenerar para obtener una nueva clave de conexión.

    Captura de pantalla que muestra cómo regenerar una clave.