Partager via


Fabric Eventstream - Vue d’ensemble

La fonctionnalité eventstreams de l’expérience Microsoft Fabric Real-Time Intelligence vous permet d’intégrer des événements en temps réel dans Fabric, de les transformer, puis de les acheminer vers différentes destinations sans écrire de code (sans code). Créez un Eventstream, qui est une instance de l’élément Eventstream dans Fabric, ajoutez des sources de données d’événement au flux, ajoutez éventuellement des transformations pour transformer les données d’événement, puis routez les données vers des destinations prises en charge. En outre, avec les points de terminaison Apache Kafka disponibles sur l’élément Eventstream, vous pouvez envoyer ou consommer des événements en temps réel à l’aide du protocole Kafka.

Intégrer des événements dans Fabric

La fonctionnalité eventstreams vous fournit différents connecteurs sources pour extraire des données d’événement à partir des différentes sources. Il existe davantage de sources lorsque vous activez les Fonctionnalités améliorées au moment de la création d’un Eventstream.

Sources Description
Azure Event Hubs Si vous disposez d’un Event Hub Azure, vous pouvez ingérer des données Event Hub dans Microsoft Fabric à l’aide d’Eventstream.
Azure IoT Hub Si vous disposez d’un Hub Azure IoT, vous pouvez ingérer des données IoT dans Microsoft Fabric à l’aide d’Eventstream.
Capture des changements de données (CDC) de la base de données Azure SQL Le connecteur source Azure SQL Database CDC vous permet de capturer une instantané des données actuelles dans une base de données Azure SQL. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
CDC de la base de données PostgreSQL Le connecteur source de capture des changements de données (CDC) PostgreSQL Database vous permet de capturer un instantané des données actuelles dans une base de données PostgreSQL. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
CDC de la base de données MySQL Le connecteur source de capture des changements de données (CDC) Azure MySQL Database vous permet de capturer un instantané des données actuelles dans une base de données Azure Database pour MySQL. Vous pouvez spécifier les tables à surveiller, et le Eventstreams enregistre toutes les futures modifications au niveau des lignes apportées aux tables.
CDC d’Azure Cosmos DB Le connecteur source de la capture des changements de données (CDC) d’Azure Cosmos DB pour les Eventstreams Microsoft Fabric vous permet de capturer un instantané des données actuelles dans une base de données Azure Cosmos DB. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
SQL Server sur capture des changements de données d’une base de données de machine virtuelle (DB) Le connecteur source SQL Server on VM DB (CDC) pour les flux d'événements Fabric vous permet de capturer un instantané des données actuelles d'une base de données SQL Server on VM. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées aux données.
Azure SQL Managed Instance CDC Le connecteur source CDC Azure SQL Managed Instance pour les Eventstreams Microsoft Fabric vous permet de capturer une instantané des données actuelles dans une base de données Azure SQL. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
Google Cloud Pub/Sub Google Pub/Sub est un service de messagerie qui vous permet de publier et de vous abonner aux Eventstreams. Vous pouvez ajouter Google Pub/Sub en tant que source à votre Eventstreams pour capturer, transformer et acheminer des événements en temps réel vers différentes destinations dans Fabric.
Flux de données Amazon Kinesis Le flux de données Amazon Kinesis est une ingestion des données hautement durable et évolutive massivement évolutive et optimisée pour les données de streaming. Grâce à l’intégration des Flux de données Amazon Kinesis en tant que source au sein de votre Eventstreams, vous pouvez traiter en toute transparence les flux de données en temps réel avant de les router vers plusieurs destinations au sein de Fabric.
Confluent Cloud Kafka Confluent Cloud Kafka est une plateforme de diffusion en continu offrant de puissantes fonctionnalités de diffusion en continu et de traitement des données à l’aide d’Apache Kafka. Grâce à l’intégration de Confluent Cloud Kafka en tant que source au sein de votre Eventstreams, vous pouvez traiter en toute transparence les flux de données en temps réel avant de les router vers plusieurs destinations au sein de Fabric.
Amazon MSK Kafka Amazon MSK Kafka est un service Kafka entièrement managé qui simplifie l’installation, la mise à l’échelle et la gestion. En intégrant Amazon MSK Kafka en tant que source dans votre flux d’événements, vous pouvez apporter de manière transparente les événements en temps réel depuis votre MSK Kafka et les traiter avant de les acheminer vers plusieurs destinations au sein de Fabric. 
Exemples de données Vous pouvez choisir les événements Vélos, Taxi jaune ou Marché boursier comme exemple de source de données pour tester l’ingestion des données lors de la configuration d’un Eventstream.
Point de terminaison personnalisé (c’est-à-dire une application personnalisée dans la capacité standard) La fonctionnalité d’un point de terminaison personnalisé permet à vos applications ou clients Kafka de se connecter à Eventstream à l’aide d’une chaîne de connexion, ce qui permet une ingestion fluide des données de streaming dans Eventstream.
Azure Service Bus (préversion) Vous pouvez ingérer des données à partir d’une file d’attente Azure Service Bus ou d’un abonnement d’une rubrique dans Microsoft Fabric à l’aide d’Eventstream.
Apache Kafka (préversion) Apache Kafka est une plateforme distribuée open source permettant de créer des systèmes de données évolutifs et en temps réel. En intégrant Apache Kafka en tant que source dans votre flux d’événements, vous pouvez apporter de manière transparente des événements en temps réel depuis votre Apache Kafka et les traiter avant de les acheminer vers plusieurs destinations au sein de Fabric.
Événements de stockage Blob Azure (préversion) Les événements de Stockage Blob Azure sont déclenchés quand un client crée, remplace ou supprime un objet blob. Le connecteur vous permet de lier des événements de stockage blob à des événements Fabric dans le hub en temps réel. Vous pouvez convertir ces événements en flux de données continus et les transformer avant de les router vers différentes destinations dans Fabric.
Événements d’élément d’espace de travail Fabric (préversion) Les événements d’élément d’espace de travail Fabric sont des événements Fabric discrets qui se produisent lorsque des modifications sont apportées à votre espace de travail Fabric. Ces modifications incluent la création, la mise à jour ou la suppression d’un élément Fabric. Avec les Eventstreams Fabric, vous pouvez capturer ces événements d’espace de travail Fabric, les transformer et les router vers différentes destinations dans Fabric pour une analyse plus approfondie.
Événements Fabric OneLake (préversion) Les événements OneLake vous permettent de vous abonner aux modifications des fichiers et des dossiers dans OneLake, puis de réagir à ces modifications en temps réel. Avec les flux d’événements Fabric, vous pouvez capturer ces événements OneLake, les transformer et les acheminer vers diverses destinations dans Fabric pour une analyse plus approfondie. Cette intégration transparente des événements OneLake dans les flux d’événements Fabric vous offre une plus grande flexibilité pour le suivi et l’analyse des activités dans votre OneLake.
Événements Fabric Job (préversion) Les événements de travail vous permettent de vous abonner aux modifications produites lors de l’exécution d’un travail par Fabric. Par exemple, vous pouvez réagir aux modifications lors de l’actualisation d’un modèle sémantique, de l’exécution d’un pipeline planifié ou de l’exécution d’un notebook. Chacune de ces activités peut générer un travail correspondant, qui génère à son tour un ensemble d’événements de travail correspondants. Avec les flux d’événements Fabric, vous pouvez capturer ces événements de travail, les transformer et les acheminer vers diverses destinations dans Fabric en vue d’une analyse plus poussée. Cette intégration transparente des événements du travail dans les flux d’événements Fabric vous offre une plus grande flexibilité pour le contrôle et l’analyse des activités de votre travail.

Traiter des événements à l’aide d’une expérience sans code

L'expérience de glisser-déposer vous offre un moyen intuitif et simple de créer votre traitement de données, de transformation et de routage des données d'événement sans écrire de code. Un diagramme de flux de données de bout en bout dans un flux d'événements peut vous fournir une compréhension complète du flux et de l'organisation des données. L'éditeur de processeur d'événements est une expérience sans code qui vous permet d'effectuer un glisser-déposer pour concevoir la logique de traitement des données d'événement.

Transformation Description
Filter Utilisez la transformation Filtrer pour filtrer les événements en fonction de la valeur d’un champ dans l’entrée. Selon le type de données (nombre ou texte), la transformation conserve les valeurs qui correspondent à la condition sélectionnée, comme is null ou is not null.
Gérer les champs La transformation Gérer les champs permet d’ajouter, de supprimer, de changer le type de données et de renommer des champs provenant d’une entrée ou d’une autre transformation.
Agrégat Utilisez la transformation Aggregate pour calculer une agrégation (Sum, Minimum, Maximum ou Average) chaque fois qu'un nouvel événement se produit sur une période donnée. Cette opération permet également de renommer ces colonnes calculées et de filtrer ou de découper l’agrégation en fonction d’autres dimensions de vos données. Il peut y avoir plusieurs agrégations dans la même transformation.
Regrouper par Utilisez la transformation Regrouper par pour calculer les agrégations sur tous les événements d’une fenêtre de temps donnée. Vous pouvez regrouper par les valeurs d’un ou plusieurs champs. Il s'agit d'une transformation similaire à la transformation Aggregate qui permet de renommer les colonnes, mais qui offre davantage d'options d'agrégation et des options plus complexes pour les fenêtres temporelles. Comme Aggregate, vous pouvez ajouter plusieurs agrégations par transformation.
Union Utilisez la transformation Union pour connecter deux nœuds ou plus et ajouter des événements qui ont des champs partagés (avec le même nom et le même type de données) dans une table. Les champs qui ne correspondent pas ne sont pas inclus dans la sortie.
Développer Utilisez la transformation Développer le tableau pour créer une ligne pour chaque valeur dans un tableau.
Participer Utilisez la transformation Join pour combiner des données à partir de deux flux en fonction d’une condition de correspondance entre les deux.

Si vous avez activé Fonctions améliorées lors de la création d’un flux d’événements, les opérations de transformation sont prises en charge pour toutes les destinations (avec un flux dérivé agissant comme pont intermédiaire pour certaines destinations, comme le point de terminaison personnalisé, l’activateur Fabric). Si ce n’est pas le cas, les opérations de transformation sont disponibles uniquement pour les destinations Lakehouse et Eventhouse (traitement des événements avant l’ingestion).

Router des événements vers des destinations

La fonctionnalité Eventstream Fabric prend en charge l’envoi de données aux destinations prises en charge suivantes.

Destination Description
Point de terminaison personnalisé (par exemple, application personnalisée en fonctionnalité standard) Avec cette destination, vous pouvez facilement acheminer vos événements en temps réel vers un point de terminaison personnalisé. Vous pouvez connecter vos propres applications au flux d'événements et consommer les données d'événements en temps réel. Cette destination est utile lorsque vous souhaitez faire sortir des données en temps réel vers un système externe à Microsoft Fabric.
Eventhouse Cette destination vous permet d’ingérer vos données d’événements en temps réel dans un Eventhouse, où vous pouvez utiliser le puissant Kusto Query Language (KQL) pour interroger et analyser les données. Grâce aux données contenues dans Eventhouse, vous pouvez obtenir des informations plus approfondies sur vos données d’événements et créer des rapports et des tableaux de bord détaillés. Vous pouvez choisir entre deux modes d’ingestion : l’ingestion directe et le traitement des événements avant l’ingestion.
Lakehouse Cette destination vous permet de transformer vos événements en temps réel avant de les intégrer dans votre lakehouse. Les événements en temps réel sont convertis au format Delta Lake, puis stockés dans les tables lakehouse désignées. Cette destination prend en charge les scénarios d’entrepôt de données.
Flux dérivé Le flux dérivé est un type spécialisé de destination que vous pouvez créer après l’ajout d’opérations de flux, telles que Filtrer ou Gérer les champs, à un Eventstream. Le flux dérivé représente le flux par défaut transformé suivant le traitement de flux. Vous pouvez router le flux dérivé vers plusieurs destinations dans Fabric et afficher le flux dérivé dans le hub en temps réel.
Fabric Activator (préversion) Cette destination vous permet de connecter directement vos données d’événements en temps réel à un Fabric Activator. Activator est un type d’agent intelligent qui contient toutes les informations nécessaires pour se connecter aux données, surveiller les conditions et effectuer des actions. Lorsque les données atteignent certains seuils ou correspondent à d’autres modèles, Activator effectue automatiquement des actions appropriées, comme l’alerte des utilisateurs ou le lancement de flux de travail Power Automate.

Vous pouvez joindre plusieurs destinations dans un flux d'événements pour recevoir simultanément des données de vos flux d'événements sans interférer les uns avec les autres.

Capture d'écran montrant un aperçu de l'élément Eventstream.

Remarque

Nous vous recommandons d’utiliser la fonctionnalité de flux d’événements Microsoft Fabric avec au moins quatre unités de capacité (référence SKU: F4)

Flux d’événements Apache Kafka sur Fabric

La fonctionnalité flux d’événements Fabric offre un point de terminaison Apache Kafka sur l’élément Eventstream, ce qui permet aux utilisateurs de se connecter et de consommer des événements de streaming en continu via le protocole Kafka. Si votre application utilise déjà le protocole Apache Kafka pour envoyer ou recevoir des événements de streaming avec des rubriques spécifiques, vous pouvez facilement le connecter à votre Eventstream. Mettez simplement à jour vos paramètres de connexion pour utiliser le point de terminaison Kafka fourni dans votre Eventstream.

La fonctionnalité flux d’événements Fabric est alimentée par Azure Event Hubs, un service natif cloud entièrement managé. Lorsqu’un flux d’événements est créé, un espace de noms Event Hub est automatiquement approvisionné et un hub d’événements est alloué au flux par défaut sans nécessiter de configurations d’approvisionnement. Pour en savoir plus sur les fonctionnalités compatibles Kafka dans le service Azure Event Hubs, consultez Azure Event Hubs pour Apache Kafka.

Pour en savoir plus sur l’obtention des détails du point de terminaison Kafka pour l’envoi d’événements à Eventstream, consultez Ajouter une source de point de terminaison personnalisée à un eventstream et pour consommer des événements à partir d’un eventstream, consultez Ajouter une destination de point de terminaison personnalisée à un eventstream.

Limitations

Fabric Eventstream présente les limitations générales suivantes. Avant d’utiliser Eventstream, passez en revue ces limitations pour vous assurer qu’elles s’alignent sur vos besoins.

Limite Taille
Taille maximale des messages 1 Mo
Durée maximale de la rétention des données des événements 90 jours