Eventstream-Quellen und -Ziele
In der einfachsten Version erfassen Eventstreams Echtzeitdaten aus einer Quelle und laden die erfassten Daten in ein Ziel.
Eventstreamquellen
Ereignisquellen im Fabric-Echtzeit-Hub können (unter anderem) Folgendes umfassen:
- Azure Event Hub: Azure Event Hubs ist eine Quelle, mit der Sie Ereignisdaten aus einem Azure Event Hub abrufen können. Sie können das Datenformat und die Consumergruppe Ihres Azure Event Hubs angeben. Sie können auch eine Cloudverbindung mit Ihrem Azure Event Hub mit der entsprechenden Authentifizierungs- und Datenschutzebene erstellen.
- Azure IoT Hub: Ein SaaS-Dienst, der verwendet wird, um Millionen von IoT-Ressourcen ohne Code zu verbinden, zu überwachen und zu verwalten.
- Azure SQL-Datenbank Change Data Capture (CDC): Softwareprozess, der Änderungen an Daten in einer Datenbank identifiziert und nachverfolgt, was eine Echtzeit- oder Nahezu-Echtzeit-Datenverschiebung ermöglicht.
- PostgreSQL-Datenbank CDC: Der PostgreSQL-Datenbank-CDC-Connector (Change Data Capture) für Microsoft Fabric-Eventstreams erfasst eine aktuelle Momentaufnahme und verfolgt zukünftige Änderungen in einer PostgreSQL-Datenbank und ermöglicht die Echtzeitverarbeitung und Analyse dieser Daten in Fabric.
- MySQL-Datenbank CDC: Der Azure MySQL-Datenbank-CDC-Quellconnector für Microsoft Fabric-Eventstreams erfasst eine Momentaufnahme Ihrer MySQL-Datenbank und verfolgt Tabellenänderungen nach, wodurch die Echtzeitverarbeitung und Analyse dieser Daten in Fabric ermöglicht wird.
- Azure Cosmos DB CDC: Der Azure Cosmos DB-CDC-Connector für Microsoft Fabric-Eventstreams erfasst und verfolgt Echtzeitdatenänderungen in Cosmos DB zur Analyse und Verarbeitung in Fabric nach.
- Google Cloud Pub/Sub: Ein Messagingdienst zum Austauschen von Ereignisdaten zwischen Anwendungen und Diensten.
- Amazon Kinesis Data Streams: Sammeln, Verarbeiten und Analysieren von Echtzeit-Streamingdaten.
- Confluent Cloud Kafka: Ein vollständig verwalteter Dienst für die Datenstromverarbeitung, der auf Apache Kafka basiert.
- Fabric-Arbeitsbereichsereignisse: Fabric-Arbeitsbereichsereignisse sind Ereignisse, die durch Änderungen in Ihrem Fabric-Arbeitsbereich ausgelöst werden, z. B. das Erstellen, Aktualisieren oder Löschen von Elementen. Mit Fabric-Ereignisdatenströmen können Sie diese Ereignisse erfassen, transformieren und weiterleiten, um diese Ereignisse für eine eingehende Analyse und Überwachung in Fabric zu erfassen, zu transformieren und umzuleiten. Diese Integration bietet eine verbesserte Flexibilität beim Nachverfolgen und Verständnis von Arbeitsbereichsaktivitäten.
- Azure Blob Storage-Ereignisse: Azure Blob Storage-Ereignisse sind Systemtrigger für Aktionen wie das Erstellen, Ersetzen oder Löschen eines Blobs. Microsoft Fabric-Eventstreams verknüpfen diese Aktionen mit Fabric-Ereignissen, sodass Sie Blob Storage-Ereignisse als fortlaufende Datenströme für die Weiterleitung und Analyse in Fabric verarbeiten können. Eine einzigartige Eigenschaft der Azure Blob Storage-Ereignisse ist ihre Unterstützung für gestreamte oder nicht gestreamte Ereignisse.
- Benutzerdefinierter Endpunkt: Sie können die von Microsoft Fabric bereitgestellte REST-API oder die Software Development Kits (SDKs) verwenden, um Ereignisdaten aus Ihrer benutzerdefinierten App an Ihren Eventstream zu senden. Sie können auch das Datenformat und die Consumergruppe Ihrer benutzerdefinierten App angeben.
- Beispieldaten: Beispieldaten sind eine Quelle, mit der Sie die von Microsoft Fabric bereitgestellten vordefinierten Beispieldaten verwenden können. Sie können aus verschiedenen Beispieldatensätzen wählen, z. B. IoT, Einzelhandel oder Finanzen. Sie können auch die Häufigkeit und Dauer der Beispieldatengenerierung anpassen.
Tipp
Weitere Informationen zu unterstützten Quellen finden Sie unter Unterstützte Quellen für den Fabric-Echtzeit-Hub.
Eventstreamziele
Microsoft Fabric-Ereignisdatenströme unterstützen im erweiterten Modus auch die Möglichkeit, Daten an die folgenden Ziele zu senden.
- Eventhouse: Dieses Ziel bietet die Möglichkeit, Ihre Echtzeit-Ereignisdaten in eine KQL-Datenbank zu leiten, sodass Sie Kusto Query Language (KQL) zur Datenabfrage und -analyse verwenden können. Wenn Sie Ihre Daten in einer KQL-Datenbank speichern, können Sie das gesamte Potenzial zum besseren Verständnis Ihrer Ereignisdaten und zur Erstellung umfassender Berichte und Dashboards nutzen.
- Lakehouse: Mithilfe dieses Ziels können Sie Ihre Echtzeitereignisse vor der Erfassung in Ihr Lakehouse vorverarbeiten. Die Ereignisse werden in das Delta Lake-Format transformiert und später in bestimmten Lakehouse-Tabellen gespeichert, wodurch Ihre Data Warehouse-Anforderungen leichter erfüllt werden.
- Benutzerdefinierter Endpunkt: Mithilfe dieser Funktion können Sie Ihren Echtzeit-Ereignisdatenverkehr nahtlos zu einer maßgeschneiderten Anwendung weiterleiten. Sie ermöglicht die Integration Ihrer proprietären Anwendungen in den Ereignisdatenstrom, wodurch Ereignisdaten umgehend verarbeitet werden können. Diese Funktion ist vorteilhaft, wenn es Ihr Ziel ist, Echtzeitdaten an ein unabhängiges System zu übertragen, das nicht in Microsoft Fabric gehostet wird.
- Abgeleiteter Datenstrom: Der abgeleitete Datenstrom ist ein spezielles Ziel, das in einem Ereignisdatenstrom nach der Anwendung von Datenstromvorgängen wie „Filtern“ oder „Felder verwalten“ erstellt wird. Es stellt den veränderten Standarddatenstrom nach der Verarbeitung dar, der an verschiedene Ziele innerhalb von Fabric weitergeleitet und im Echtzeit-Hub überwacht werden kann.
- Fabric Activator: Mit diesem Ziel können Sie Fabric Activator verwenden, um automatisierte Aktionen basierend auf Werten in Ihren Streamingdaten auszulösen.
Tipp
Weitere Informationen zu unterstützten Quellen finden Sie unter Hinzufügen und Verwalten eines Ziels in einem Eventstream.
Sie können jetzt gleichzeitig mehrere Ziele innerhalb eines Eventstreams anfügen, die sich nicht gegenseitig beeinträchtigen oder miteinander kollidieren.