Fabric Eventstream - 概觀
Microsoft Fabric 即時智慧 體驗中的 eventstreams 功能可讓您將即時事件帶入 Fabric、轉換事件,然後將事件路由傳送至各種目的地,而不需要撰寫任何程式代碼(無程式代碼)。 您可以建立 Eventstream,這是 Fabric 中 Eventstream 項目的實例,新增事件資料來源至串流,選擇性新增轉換以轉換事件資料,然後將資料路由至支援的目的地。 此外,透過 Eventstream 專案上提供的 Apache Kafka 端點,您可以使用 Kafka 通訊協定來傳送或取用即時事件。
將事件帶入Fabric
eventstreams 功能提供各種來源連接器,以從各種來源擷取事件數據。 當您在建立Eventstream時啟用 增強功能 時,有更多可用的來源。
來源 | 描述 |
---|---|
Azure 事件中樞 | 如果您有 Azure 事件中樞,您可以使用 Eventstream 將事件中樞資料擷取至 Microsoft Fabric。 |
Azure IoT 中樞 | 如果您有 Azure IoT 中樞,您可以使用 Eventstream 將 IoT 資料擷取至 Microsoft Fabric。 |
Azure SQL 資料庫異動資料擷取 (CDC) | Azure SQL 資料庫 CDC 來源連接器可讓您擷取 Azure SQL 資料庫中目前資料的快照集。 接著,連接器會監視並記錄此資料的任何未來資料列層級變更。 |
PostgreSQL 資料庫 CDC | Postgre SQL 資料庫 異動資料擷取 (CDC) 來源連接器可讓您擷取 PostgreSQL 資料庫中目前資料的快照集。 接著,連接器會監視並記錄此資料的任何未來資料列層級變更。 |
MySQL 資料庫 CDC | Azure MySQL 資料庫的資料變更擷取 (CDC) 來源連接器可讓您擷取目前 Azure Database for MySQL 資料庫中資料的快照集。 您可以指定要監視的資料表,而 eventstream 會記錄資料表的任何未來資料列層級變更。 |
Azure Cosmos DB CDC | Microsoft Fabric 事件串流的 Azure Cosmos DB 異動資料擷取 (CDC) 來源連接器,讓您擷取 Azure Cosmos DB 資料庫中目前資料的快照集。 接著,連接器會監視並記錄此資料的任何未來資料列層級變更。 |
虛擬機上的 SQL Server (VM) 資料庫 (DB) CDC | 適用於 Fabric 事件數據流的 VM DB 上的 SQL Server (CDC) 來源連接器可讓您擷取 VM 上 SQL Server 資料庫中目前數據的快照集。 連接器接著會監視並記錄數據的任何未來數據列層級變更。 |
Azure SQL 受控執行個體 CDC | Microsoft Fabric 事件流的 Azure SQL 受控執行個體 CDC 來源連接器允許您擷取 SQL 受控執行個體資料庫中當前數據的快照。 接著,連接器會監視並記錄此資料的任何未來資料列層級變更。 |
Google Cloud Pub/Sub | Google Pub/Sub 是一項傳訊服務,可讓您發佈和訂閱事件的串流。 您可以將 Google Pub/Sub 新增為 Eventstream 的來源,以擷取、轉換和路由即時事件至 Fabric 中的不同目的地。 |
Amazon Kinesis 資料流 | Amazon Kinesis 資料流是一項具大規模延展性和高度持久性的資料擷取與處理服務,專為串流資料優化。 藉由整合 Amazon Kinesis 資料流為 Eventstream 內的來源,您就可以順暢地處理即時資料流,再將它們路由至 Fabric 內的多個目的地。 |
Confluent Cloud Kafka | Confluent Cloud Kafka 是一個串流平台,使用 Apache Kafka 提供功能強大的資料流和處理功能。 藉由整合 Confluent Cloud Kafka 為 Eventstream 中的來源,您就可以順暢地處理即時資料流,再將它們路由至 Fabric 內的多個目的地。 |
Amazon MSK Kafka | Amazon MSK Kafka 是完全受控的 Kafka 服務,可簡化設定、調整和管理。 藉由將 Amazon MSK Kafka 整合為事件串流中的來源,您可以順暢地將 MSK Kafka 的即時事件引入,並在路由至 Fabric 內的多個目的地之前進行處理。 |
範例資料 | 您可以選擇自行車、黃色計程車或股票市場事件作為範例資料來源,藉此在設定 Eventstream 時測試資料擷取。 |
自訂端點(即標準功能中的自訂應用程式) | 自訂端點功能可讓應用程式或 Kafka 用戶端使用 連接字串 連線到 Eventstream,讓串流資料順利擷取到 Eventstream。 |
Azure 服務匯流排 (預覽) | 您可以將數據從 Azure Service Bus 佇列或主題的訂閱匯入至 Microsoft Fabric,使用 Eventstream。 |
Apache Kafka (預覽) | Apache Kafka 是開放原始碼分散式平臺,可用於建置可調整的即時數據系統。 藉由將 Apache Kafka 整合為事件串流中的來源,您可以順暢地從 Apache Kafka 引進即時事件,並加以處理,再將它們路由傳送至 Fabric 內的多個目的地。 |
Azure Blob 儲存體 事件 (預覽) | 當用戶端建立、取代或刪除 Blob 時,就會觸發 Azure Blob 儲存體事件。 連接器可讓您將 Blob 儲存體事件實時連結到中心中的 Fabric 事件。 您可以將這些事件轉換成連續資料流,並轉換資料流再將事件路由至 Fabric 中的不同目的地。 |
Fabric 工作區專案事件 (預覽) | 當您的 Fabric 工作區發生變更時,工作區項目事件是一種獨立的 Fabric 事件。 這些變更包括建立、更新或刪除 Fabric 項目。 使用 Fabric 事件串流時,您可以擷取及轉換這些 Fabric 工作區事件,並將其路由至 Fabric 中的不同目的地,以執行進一步分析。 |
Fabric OneLake 事件(預覽) | OneLake 事件可讓您訂閱 OneLake 中檔案和資料夾的變更,然後即時回應這些變更。 使用 Fabric 事件數據流,您可以擷取這些 OneLake 事件、轉換事件,並將其路由傳送至 Fabric 中的各種目的地,以進行進一步分析。 Fabric 事件串流中 OneLake 事件的無縫整合,可讓您更彈性地監視和分析 OneLake 中的活動。 |
Fabric 作業事件 (預覽) | 作業事件可讓您訂閱 Fabric 執行作業時所產生的變更。 例如,在重新整理語意模型、執行排程管線或執行筆記本時,您可以回應變更。 每項活動都可以產生對應的作業,進而產生一組對應的作業事件。 使用 Fabric 事件串流,您可以擷取這些作業事件、轉換事件,並將其路由傳送至 Fabric 中的各種目的地,以進行進一步分析。 在 Fabric 事件串流中順暢地整合作業事件,可讓您更彈性地監視和分析作業中的活動。 |
使用無程式碼體驗處理事件
拖放體驗可讓您直覺且輕鬆地建立事件資料處理、轉換和路由邏輯,而不需要撰寫任何程序代碼。 Eventstream 中的端對端資料流流程圖可讓您全面瞭解資料流和組織。 事件處理器編輯器是一種無程式碼體驗,可讓您拖放以設計事件資料處理邏輯。
轉換 | 描述 |
---|---|
濾器 | 使用篩選轉換,根據輸入中的欄位值篩選事件。 根據資料型態 (數字或文字),轉換會保留符合所選取條件的值,例如 is null 或 is not null 。 |
管理欄位 | 管理欄位:此轉換可讓您新增、移除、變更資料類型,或重新命名來自輸入或其他轉換的欄位。 |
彙總 | 每當在一段時間內有新事件發生時,您可以使用彙總轉換來計算彙總值(加總、最小值、最大值或平均值)。 這項作業也可讓您重新命名這些計算結果欄,並根據資料中的其他維度來篩選或切割彙總。 相同的轉換中,您可以擁有一個或多個聚合。 |
分組依據 | 使用群組依據轉換來計算特定時間範圍內所有事件的彙總。 您可以依一或多個欄位中的值進行分組。 其和彙總轉換一樣可讓您重新命名計算結果欄,但提供更多彙總選項,且包含更複雜的時間範圍選項。 和彙總一樣,您可以在每次轉換中新增多個彙總。 |
聯合 | 使用聯合轉換可連接兩個以上的節點,並將具有共用欄位 (名稱與資料類型相同) 的事件新增到某個資料表中。 不相符的欄位將會卸除,且不會包含在輸出中。 |
展開 | 使用「展開陣列轉換」功能來為陣列中的每個值建立一列新的資料。 |
加入 | 使用聯結轉換可根據兩個串流之間的比對條件來合併資料。 |
如果您在建立事件串流時啟用 增強功能 ,則所有目的地都支援轉換作業(衍生數據流做為某些目的地的中繼網橋,例如自定義端點、網狀架構啟動器)。 如果您沒有這樣做,則轉換操作僅適用於 Lakehouse 和 Eventhouse(在資料獲取之前的事件處理)目的地。
將事件路由傳送至目的地
Fabric 事件串流功能支援傳送資料至下列支援的目的地。
目的地 | 描述 |
---|---|
自訂端點 (亦即在標準功能中的自訂應用程式) | 透過此目的地,您可以輕鬆地將即時事件路由傳送至自訂端點。 您可以將自己的應用程式連線到 Eventstream,並即時取用事件資料。 當您想要將即時資料輸出至 Microsoft Fabric 之外的外部系統時,此目的地很有用。 |
Eventhouse | 此目的地可讓您將即時事件數據內嵌至 Eventhouse,您可以在其中使用功能強大的 Kusto 查詢語言 (KQL) 來查詢和分析數據。 透過 Eventhouse 中的數據,您可以深入瞭解事件數據,並建立豐富的報表和儀錶板。 您可以選擇兩種擷取模式: 直接擷取 和 事件處理,再擷取。 |
Lakehouse | 此功能可讓您在將即時事件擷取到資料湖倉之前具備轉換即時事件的能力。 即時事件轉換為 Delta Lake 格式,然後儲存在指定的 Lakehouse 資料表中。 此目標支持資料倉儲場景。 |
衍生串流 | 衍生的串流是特殊化的目的地類型,您可以在將篩選或管理欄位等串流作業新增至 Eventstream 後建立。 衍生串流代表串流處理之後轉換的預設串流。 您可以將衍生資料流路由至 Fabric 中的多個目的地,並在即時中樞檢視衍生資料流。 |
網狀架構啟動器 (預覽) | 此目的地可讓您將即時事件數據直接連線到網狀架構啟動器。 啟動器是一種智慧型手機代理程式,其中包含連線到數據、監視條件及採取行動所需的所有資訊。當數據達到特定閾值或符合其他模式時,啟動器會自動採取適當的動作,例如警示使用者或啟動Power Automate工作流程。 |
您可以在 Eventstream 中附加多個目的地,以同時接收來自 Eventstream 的資料,而不會相互干擾。
注意
我們建議您使用至少四個容量單位的 Microsoft Fabric 事件串流功能(SKU: F4)
Fabric 事件數據流上的 Apache Kafka
Fabric 事件串流功能會在 Eventstream 專案上提供 Apache Kafka 端點,讓使用者能夠透過 Kafka 通訊協定連線及取用串流事件。 如果您的應用程式已經使用 Apache Kafka 通訊協定來傳送或接收具有特定主題的串流事件,您可以輕鬆地將其連線到您的 Eventstream。 只要更新連線設定,即可使用 Eventstream 中提供的 Kafka 端點。
網狀架構事件串流功能由 Azure 事件中樞 提供,這是完全受控的雲端原生服務。 建立事件串流時,系統會自動布建事件中樞命名空間,並將事件中樞配置至默認數據流,而不需要任何布建組態。 若要深入瞭解 Azure 事件中樞 服務中的 Kafka 相容功能,請參閱適用於 Apache Kafka 的 Azure 事件中樞。
若要深入瞭解如何取得將事件傳送至 Eventstream 的 Kafka 端點詳細數據,請參閱 將自定義端點來源新增至事件串流;如需從 eventstream 取用事件的詳細資訊,請參閱 將自定義端點目的地新增至事件串流。
局限性
Fabric Eventstream 具有下列一般限制。 使用 Eventstream 之前,請先檢閱這些限制,以確保它們符合您的需求。
限制 | 價值 |
---|---|
郵件大小上限 | 1 MB |
事件資料的最大保留期間 | 90 天 |
事件傳遞保證 | 至少一次 |