次の方法で共有


イベントストリーム のイベント ソースを追加および管理する

イベントストリームを作成したら、それをさまざまなデータ ソースと宛先に接続することができます。

Note

現在、イベントストリームを作成すると、拡張機能が既定で有効になります。 標準機能を使用して作成されたイベントストリームがある場合、それらのイベントストリームは引き続き機能します。 通常どおりに編集や使用を続けられます。 新しいイベントストリームを作成して標準のイベントストリームを置き換えることをお勧めします。そうすることで、強化されたイベントストリームの追加機能と利点を利用できます。

イベントストリーム を作成したら、それをさまざまなデータ ソースと宛先に接続することができます。

Eventstream を使用すると、Microsoft ソースからデータをストリーミングできるだけでなく、Google Cloud や Amazon Kinesis などのサードパーティプラットフォームからのインジェストと新しいメッセージング コネクタをサポートします。 この拡張された機能により、外部データ ストリームを Fabric にシームレスに統合できるため、柔軟性が向上し、複数のソースからリアルタイムの分析情報を得ることができます。

この記事では、イベントストリームに追加できるイベント ソースについて説明します。

前提条件

  • 共同作成者以上のアクセス許可を使用した Fabric 容量ライセンス モード (または試用版ライセンス モード) でのワークスペースへのアクセス。
  • 次のソース固有の記事に記載されている各ソースに固有の前提条件。

サポートされているソース

強化された機能を備えたファブリック イベント ストリームでは、次のソースがサポートされます。 各記事では、特定のソースを追加するための詳細と手順について説明します。

ソース 説明
Azure Event Hubs Azure イベント ハブがある場合は、イベントストリーム を使用してイベント ハブ データを Microsoft Fabric に取り込むことができます。
Azure IoT Hub Azure IoT ハブがある場合は、イベントストリーム を使用して IoT データを Microsoft Fabric に取り込むことができます。
Azure SQL データベースの変更データ キャプチャ (CDC) Azure SQL データベース CDC ソース コネクタを使用すると、Azure SQL データベース内の現在のデータのスナップショットをキャプチャできます。 コネクタは、このデータに対する将来の行レベルの変更を監視し、記録します。
PostgreSQL データベースの CDC PostgreSQL データベース変更データ キャプチャ (CDC) ソース コネクタを使用すると、PostgreSQL データベース内の現在のデータのスナップショットをキャプチャできます。 コネクタは、このデータに対する将来の行レベルの変更を監視し、記録します。
MySQL Database CDC Azure MySQL データベース変更データ キャプチャ (CDC) ソース コネクタを使用すると、Azure Database for MySQL データベース内の現在のデータのスナップショットをキャプチャできます。 監視するテーブルを指定でき、eventstream はテーブルに対する将来の行レベルの変更を記録します。
Azure Cosmos DB の CDC Microsoft Fabric イベントストリーム用の Azure Cosmos DB Change Data Capture (CDC) ソースコネクタを使用すると、Azure Cosmos DB データベース内の現在のデータのスナップショットを取得できます。 コネクタは、このデータに対する将来の行レベルの変更を監視し、記録します。
SQL Server on Virtual Machine (VM) データベース (DB) CDC Fabric イベント ストリーム用の SQL Server on VM DB (CDC) ソース コネクタを使うと、VM 上の SQL Server データベース内の現在のデータのスナップショットをキャプチャできます。 その後、このコネクタは、以降のデータに対する行レベルの変更を監視して記録します。
Azure SQL Managed Instance CDC Microsoft Fabric イベント ストリーム用の Azure SQL Managed Instance CDC ソース コネクタを使うと、SQL Managed Instance データベース内の現在のデータのスナップショットをキャプチャできます。 コネクタは、このデータに対する将来の行レベルの変更を監視し、記録します。
Google Cloud Pub/Sub Google Pub/Sub は、イベントのストリームを公開してサブスクライブできるメッセージング サービスです。 Google Pub/Sub をソースとしてイベントストリームに追加して、リアルタイムイベントをキャプチャ、変換し、ファブリック内のさまざまな宛先にルーティングできます。
Amazon Kinesis Data ストリーム Amazon Kinesis Data ストリーム は、ストリーミング データ用に最適化された、非常にスケーラブルで耐久性の高いデータ インジェストおよび処理サービスです。 Amazon Kinesis Data ストリームをイベントストリーム内のソースとして統合することで、リアルタイムデータストリームをファブリック内の複数の宛先にルーティングする前にシームレスに処理できます。
Confluent Cloud Kafka Confluent Cloud Kafka は、Apache Kafka を使用した強力なデータ ストリーミングと処理機能を提供するストリーミング プラットフォームです。 Confluent Cloud Kafka をイベントストリーム内のソースとして統合することで、リアルタイム データ ストリームをシームレスに処理してから、Fabric 内の複数の宛先にルーティングできます。
Amazon MSK Kafka Amazon MSK Kafka は、セットアップ、スケーリング、管理を簡素化するフル マネージドの Kafka サービスです。 Amazon MSK Kafka をイベント ストリーム内のソースとして統合すると、MSK Kafka からリアルタイム イベントをシームレスに取り込み、Fabric 内の複数の宛先にルーティングする前にそれを処理できます。 
サンプル データ サンプル データ ソースとして BicyclesYellow Taxi、または Stock Market イベントを選択して、イベントストリームの設定中にデータ インジェストをテストできます。
カスタム エンドポイント (すなわち、標準機能のカスタム アプリ) カスタム エンドポイント機能を使用すると、アプリケーションまたは Kafka クライアントは接続文字列を使用して イベントストリーム に接続できるため、イベントストリーム へのストリーミング データのスムーズな取り込みを可能にします。
Azure Service Bus (プレビュー) Eventstream を使用して、Azure Service Bus キューまたはトピックのサブスクリプションから Microsoft Fabric にデータを取り込むことができます。
Apache Kafka (プレビュー) Apache Kafka は、スケーラブルでリアルタイムのデータ システムを構築するためのオープンソースの分散プラットフォームです。 Apache Kafka をイベント ストリーム内のソースとして統合すると、Apache Kafka からリアルタイム イベントをシームレスに取り込み、Fabric 内の複数の宛先にルーティングする前にそれを処理できます。
Azure Blob Storage のイベント (プレビュー) これらのイベントは、クライアントが BLOB REST API を呼び出して BLOB を作成、置換、または削除するときにトリガーされます。 コネクタを使用すると、Blob Storage イベントをリアルタイム ハブの Fabric イベントにリンクできます。 これらのイベントを連続データ ストリームに変換し、それらを変換してから、Fabric のさまざまな宛先にルーティングできます。
Fabric ワークスペース項目イベント (プレビュー) Fabric ワークスペース項目イベントは、Fabric ワークスペースに変更が加えられたときに発生する個別の Fabric イベントです。 これらの変更には、Fabric アイテムの作成、更新、または削除が含まれます。 Fabric イベント ストリームを使用すると、これらの Fabric ワークスペース イベントをキャプチャし、それらを変換し、さらに分析するために Fabric のさまざまな宛先にルーティングできます。

Note

1 つのイベントストリームでのソースと宛先の合計数は 11 個までです。

前提条件

開始する前に、次の前提条件を満たしている必要があります。

  • 共同作成者以上のアクセス許可を使用した Fabric 容量ライセンス モード (または試用版ライセンス モード) でのワークスペースへのアクセス。
  • Azure Event Hubs または Azure IoT Hub を イベントストリーム ソースとして追加するには、そのポリシー キーにアクセスするための適切なアクセス許可が必要です。 これは、パブリックにアクセス可能であり、ファイアウォールの内側や、仮想ネットワークで保護されいない必要があります。

サポートされているソース

Fabric イベント ストリームでは、次のソースがサポートされています。 テーブルのリンクを使用して、特定のソースの追加に関する詳細を提供する記事に移動します。

ソース 説明
Azure Event Hubs Azure イベント ハブがある場合は、イベントストリーム を使用してイベント ハブ データを Microsoft Fabric に取り込むことができます。
Azure IoT Hub Azure IoT ハブがある場合は、イベントストリーム を使用して IoT データを Microsoft Fabric に取り込むことができます。
サンプル データ サンプル データ ソースとして BicyclesYellow Taxi、または Stock Market イベントを選択して、イベントストリームの設定中にデータ インジェストをテストできます。
カスタム アプリ カスタム アプリ機能を使用すると、アプリケーションまたは Kafka クライアントは接続文字列を使用して イベントストリーム に接続できるため、イベントストリーム へのストリーミング データのスムーズな取り込みを可能にします。

Note

1 つのイベントストリームでのソースと宛先の合計数は 11 個までです。

ソースを管理する

  • 編集/削除: ナビゲーション ウィンドウまたはキャンバスで イベントストリーム ソースを選択して、編集または削除することができます。 [編集] を選択すると、メイン エディターの右側に編集ペインが開きます。

    ソースの変更と削除を示すスクリーンショット。

  • カスタム アプリのキーの再生成: アプリケーションの新しい接続キーを再生成する必要がある場合は、キャンバスでいずれかのカスタム アプリ ソースを選択し、[再生成] を選択して、新しい接続キーを取得します。

    キーを再生成する方法を示すスクリーンショット。