Origini e destinazioni Eventstream

Completato

Nella loro forma più semplice, gli eventstream acquisiscono i dati in tempo reale da un'origine e caricano i dati acquisiti in una destinazione.

Origini degli eventstream

Le origini eventi nell'hub in tempo reale di Fabric possono includere (tra le altre cose):

  • Hub eventi di Azure: Hub eventi di Azure è un'origine che consente di ottenere i dati degli eventi da un hub eventi di Azure. Puoi specificare il formato dati e il gruppo di consumer dell'hub eventi Azure. Puoi anche creare una connessione cloud all'hub eventi di Azure con il livello di autenticazione e privacy appropriato.
  • Hub IoT di Azure: Un servizio SaaS usato per connettere, monitorare e gestire milioni di asset IoT con un'esperienza senza codice.
  • Database SQL di Azure Change Data Capture (CDC): Processo software che identifica e tiene traccia delle modifiche apportate ai dati in un database, consentendo lo spostamento dati in tempo reale o quasi.
  • Database PostgreSQL CDC: Il connettore del database PostgreSQL CDC (Change Data Capture) per gli eventstream di Microsoft Fabric acquisisce uno snapshot corrente e tiene traccia delle modifiche future in un database PostgreSQL, consentendo l'elaborazione e l'analisi in tempo reale di questi dati all'interno di Fabric.
  • Database MySQL CDC: Il connettore di origine del database di Azure per MySQL CDC per gli eventstream di Microsoft Fabric acquisisce uno snapshot del database MySQL e tiene traccia delle modifiche alle tabelle, consentendo l'elaborazione e l'analisi in tempo reale di questi dati in Fabric.
  • Azure Cosmos DB CDC: Il connettore CDC di Azure Cosmos DB per gli eventstream di Microsoft Fabric acquisisce e tiene traccia delle modifiche dei dati in tempo reale in Cosmos DB per l'analisi e l'elaborazione all'interno di Fabric.
  • Google Cloud Pub/Sub: Un servizio di messaggistica per lo scambio di dati di eventi tra applicazioni e servizi.
  • Flussi di dati Amazon Kinesis: Raccogliere, elaborare e analizzare dati in streaming in tempo reale.
  • Confluent Cloud Kafka: Un servizio completamente gestito basato su Apache Kafka per l'elaborazione del flusso.
  • Eventi dell'area di lavoro di Fabric: Gli eventi dell'area di lavoro Fabric sono eventi generati da modifiche nell'area di lavoro Fabric, ad esempio la creazione, l'aggiornamento o l'eliminazione di elementi. Con i flussi di eventi di Fabric è possibile acquisire, trasformare e instradare questi eventi per l'analisi approfondita e il monitoraggio all'interno di Fabric. Questa integrazione offre una maggiore flessibilità nel rilevamento e nella comprensione delle attività dell'area di lavoro.
  • Eventi di archiviazione BLOB di Azure: Gli eventi di Archiviazione BLOB di Azure sono trigger di sistema per azioni come la creazione, la sostituzione o l'eliminazione di un BLOB. Gli eventstream di Microsoft Fabric collegano queste azioni a eventi Fabric, consentendo di elaborare gli eventi di archiviazione BLOB come flussi di dati continui per il routing e l'analisi all'interno di Fabric. Una caratteristica unica degli eventi di Archiviazione BLOB di Azure è il supporto per gli eventi trasmessi o non trasmessi.
  • Endpoint personalizzato: È possibile usare l'API REST o i kit di sviluppo software (SDK) forniti da Microsoft Fabric per inviare i dati degli eventi dall'app personalizzata all'eventstream. Puoi anche specificare il formato dati e il gruppo consumer dell'app personalizzata.
  • Dati di esempio: i dati di esempio sono un'origine che ti consente di usare i dati di esempio predefiniti forniti da Microsoft Fabric. Puoi scegliere tra set di dati di esempio diversi, ad esempio IoT, Vendita al dettaglio o Finanze. Puoi anche modificare la frequenza e la durata della generazione dei dati di esempio.

Suggerimento

Per altre informazioni sulle origini supportate, vedere Origini supportate per l'hub in tempo reale di Fabric.

Destinazioni degli eventstream

I flussi di eventi di Microsoft Fabric supportano anche la possibilità di inviare dati alle destinazioni seguenti in modalità avanzata.

  • Eventhouse: Questa destinazione offre la possibilità di incanalare i dati degli eventi in tempo reale in un database KQL, consentendo di usare il Linguaggio di query Kusto (KQL) per l'interrogazione e l'analisi dei dati. L'archiviazione dei dati all'interno di un database KQL consente di sfruttare al meglio i dati degli eventi e la creazione di report e dashboard completi.
  • Lakehouse: Questa destinazione consente di pre-elaborare gli eventi in tempo reale prima di inserirli nel lakehouse. Gli eventi vengono trasformati in formato Delta Lake e successivamente archiviati in tabelle Lakehouse specifiche, semplificando le esigenze di data warehousing.
  • Endpoint personalizzato: Con questa funzionalità, è possibile indirizzare facilmente il traffico degli eventi in tempo reale a un'applicazione personalizzata. Consente l'integrazione delle applicazioni proprietarie con il flusso di eventi, consentendo l'uso immediato dei dati degli eventi. Questa funzione è vantaggiosa quando si vogliono trasferire dati in tempo reale a un sistema indipendente non ospitato su Microsoft Fabric.
  • Flusso derivato: Il flusso derivato è una destinazione specializzata creata dopo l'applicazione di operazioni di flusso come Filtro o Gestisci campi in un flusso di eventi. Rappresenta il flusso predefinito modificato dopo l'elaborazione, che può essere instradato a varie destinazioni all'interno di Fabric e monitorato nell'hub in tempo reale.
  • Fabric Activator: Questa destinazione consente di usare Fabric Activator per avviare azioni automatizzate in base ai valori nei dati di streaming.

Suggerimento

Per altre informazioni sulle origini supportate, vedere Aggiungere e gestire una destinazione in un eventstream.

È possibile connettersi a più destinazioni all'interno di un flusso di eventi contemporaneamente senza influire o collidere tra loro.