Orígenes y destinos de Eventstream

Completado

En su forma más simple, los flujos de eventos capturan datos en tiempo real de una fuente y cargan los datos capturados en un destino.

Orígenes de eventstream

Los orígenes de eventos de Fabric Real-Time Hub pueden incluir (entre otros):

  • Azure Event Hub: Azure Event Hubs es un origen que permite obtener datos de eventos de un centro de eventos de Azure. Puede especificar el formato de datos y el grupo de consumidores del centro de eventos de Azure. También puede crear una conexión en la nube al centro de eventos de Azure con el nivel de autenticación y privacidad adecuados.
  • Azure IoT Hub: Un servicio SaaS que se usa para conectar, supervisar y administrar millones de recursos de IoT con una experiencia sin código.
  • Captura de datos modificados (CDC) de Azure SQL Database: Proceso de software que identifica y supervisa los cambios en los datos de una base de datos, habilitando el movimiento de datos en tiempo real o casi real.
  • CDC de base de datos PostgreSQL: El conector CDC de base de datos postgreSQL (captura de datos modificados) para flujos de eventos de Microsoft Fabric captura una instantánea actual y realiza un seguimiento de los cambios futuros en una base de datos postgreSQL, lo que permite el procesamiento y el análisis en tiempo real de estos datos dentro de Fabric.
  • CDC de base de datos MySQL: El conector de origen CDC de Azure MySQL Database para los flujos de eventos de Microsoft Fabric captura una instantánea de su base de datos MySQL y supervisa los cambios en las tablas, habilitando el procesamiento y análisis en tiempo real de estos datos en Fabric.
  • CDC de Azure Cosmos DB: El conector CDC de Azure Cosmos DB para flujos de eventos de Microsoft Fabric captura y realiza un seguimiento de los cambios de datos en tiempo real en Cosmos DB para el análisis y el procesamiento dentro de Fabric.
  • Google Cloud Pub/Sub: Un servicio de mensajería para intercambiar datos de eventos entre aplicaciones y servicios.
  • Amazon Kinesis Data Streams: Recopile, procese y analice datos de streaming en tiempo real.
  • Confluent Cloud Kafka: Un servicio totalmente administrado basado en Apache Kafka para el procesamiento de flujos.
  • Eventos de áreas de trabajo de Fabric: Los eventos de áreas de trabajo de Fabric son eventos desencadenados por cambios en su área de trabajo de Fabric, como crear, actualizar o eliminar elementos. Con los flujos de eventos de Fabric, puede capturar, transformar y enrutar estos eventos para un análisis y supervisión en profundidad dentro de Fabric. Esta integración ofrece una mayor flexibilidad a la hora de supervisar y comprender las actividades de las áreas de trabajo.
  • Eventos de Azure Blob Storage: Los eventos de Azure Blob Storage son desencadenadores del sistema para acciones como crear, reemplazar o eliminar un blob. Los flujos de eventos de Microsoft Fabric vinculan estas acciones a eventos de Fabric, lo que le permite procesar eventos de Blob Storage como flujos de datos continuos para el enrutamiento y el análisis dentro de Fabric. Una característica única de los eventos de Azure Blob Storage es su compatibilidad con eventos transmitidos o no transmitidos.
  • Punto de conexión personalizado: Puede usar la API de REST o los kits de desarrollo de software (SDK) proporcionados por Microsoft Fabric para enviar datos de eventos desde la aplicación personalizada al flujo de eventos. También puede especificar el formato de datos y el grupo de consumidores de la aplicación personalizada.
  • Datos de ejemplo: los datos de ejemplo son un origen que permite usar los datos de ejemplo preestablecidos proporcionados por Microsoft Fabric. Puede elegir entre diferentes conjuntos de datos de ejemplo, como IoT, Comercio minorista o Finanzas. También puede ajustar la frecuencia y la duración de la generación de datos de ejemplo.

Sugerencia

Para obtener más información sobre los orígenes admitidos, consulte Orígenes admitidos para el centro en tiempo real de Fabric.

Destinos de EventStream

Los flujos de eventos de Microsoft Fabric también admiten la capacidad de enviar datos a los siguientes destinos en el modo mejorado.

  • Eventhouse: Este destino ofrece la capacidad de canalizar sus datos de eventos en tiempo real a una base de datos KQL, lo que le permite usar el Lenguaje de consulta Kusto (KQL) para la interrogación y análisis de datos. Almacenar los datos dentro de la base de datos KQL permite mejorar la comprensión de los datos del evento y la creación de informes y paneles completos.
  • Almacén de lago: Este destino le permite preprocesar los eventos en tiempo real antes de su ingesta en el almacén de lago. Los eventos se transforman en formato Delta Lake y posteriormente se almacenan en tablas específicas de almacén de lago, facilitando así sus necesidades de almacenamiento de datos.
  • Punto de conexión personalizado: Con esta característica, puede dirigir sin problemas el tráfico de eventos en tiempo real a una aplicación a medida. Permite la integración de las aplicaciones propietarias con el flujo de eventos, lo que permite el consumo inmediato de datos de eventos. Esta característica es ventajosa cuando se pretende transferir datos en tiempo real a un sistema independiente no hospedado en Microsoft Fabric.
  • Flujo derivado: El flujo derivado es un destino especializado creado tras la aplicación de operaciones de flujo como Filtrar o Administrar campos a un flujo de eventos. Representa el flujo predeterminado alterado después del procesamiento, que se puede enrutar a varios destinos dentro de Fabric y supervisar en el centro de tiempo real.
  • Fabric Activator: Este destino permite usar Fabric Activator para desencadenar acciones automatizadas en función de los valores de los datos de streaming.

Sugerencia

Para obtener más información sobre los orígenes admitidos, consulte Incorporación y administración de un destino en una secuencia de eventos.

Ahora puede adjuntar a varios destinos dentro de un flujo de eventos al mismo tiempo sin que se produzcan impactos o colisiones entre ellos.