次の方法で共有


データフロー エンドポイントを構成する

重要

Azure Arc によって実現されている Azure IoT Operations プレビューは、現在プレビュー段階です。 運用環境ではこのプレビュー ソフトウェアを使わないでください。

Azure IoT Operations の一般公開リリースが提供されたときには、新規インストールをデプロイすることが必要になります。 プレビュー インストールからのアップグレードはできません。

ベータ版、プレビュー版、または一般提供としてまだリリースされていない Azure の機能に適用される法律条項については、「Microsoft Azure プレビューの追加使用条件」を参照してください。

データフローの使用を開始するには、まず、データフロー エンドポイントを作成します。 データ フロー エンドポイントは、データフローの接続ポイントです。 エンドポイントは、データフローのソースまたは宛先として使用できます。 エンドポイントの種類には、ソースと宛先の両方として使用できるものもあれば、宛先のみのものもあります。 データフローには、少なくとも 1 つのソース エンドポイントと 1 つの宛先エンドポイントが必要です。

次の表を使用して、構成するエンドポイントの種類を選択します。

[エンドポイントの種類] 説明 ソースとして使用可能 宛先として使用可能
MQTT MQTT ブローカー (Azure IoT Operations および Event Grid に組み込まれているものを含む) を使用した双方向メッセージングの場合。 はい はい
Kafka Kafka ブローカー (Azure Event Hubs を含む) を使用した双方向メッセージングの場合。 はい はい
Data Lake データを Azure Data Lake Gen2 ストレージ アカウントにアップロードする場合。 いいえ はい
Microsoft Fabric OneLake データを Microsoft Fabric OneLake レイクハウスにアップロードする場合。 いいえ はい
ローカル ストレージ ローカルで利用可能な永続ボリュームにデータを送信する場合向け。これにより、Azure Arc エッジ ボリュームで有効になっている Azure コンテナー ストレージ経由でデータをアップロードできます。 いいえ はい

データフローではローカル MQTT ブローカー エンドポイントの使用が必須

データフローを作成する場合、ソースと宛先のエンドポイントを指定します。 データフローは、ソース エンドポイントから宛先エンドポイントにデータを移動します。 複数のデータフローに同じエンドポイントを使用できます。また、データフロー内でソースと宛先の両方に同じエンドポイントを使用できます。

ただし、データフロー内でソースと宛先の両方としてカスタム エンドポイントを使用することはサポートされていません。 この制限は、Azure IoT Operations の組み込み MQTT ブローカーは、すべてのデータフローのソースまたは宛先のいずれか一方である必要があることを意味します。 データフローのデプロイ エラーを回避するには、既定の MQTT データフロー エンドポイントをすべてのデータフローのソースまたは宛先のいずれかとして使用します。

具体的な要件としては、各データフローに、ホスト名が aio-broker である MQTT エンドポイントで構成されたソースまたは宛先のいずれかが必要です。 そのため、既定のエンドポイントの使用は厳密に必要ではありません。ホスト名が aio-broker である限り、ローカル MQTT ブローカーを指す追加のデータフロー エンドポイントを作成できます。 ただし、混乱や管理の容易性の問題を回避するには、既定のエンドポイントが推奨される方法です。

次の表は、サポートされるシナリオを示しています。

シナリオ サポートされています
ソースとしての既定のエンドポイント はい
宛先としての既定のエンドポイント はい
ソースとしてのカスタム エンドポイント はい (宛先が既定のエンドポイントまたはホスト名が aio-broker の MQTT エンドポイントの場合)
宛先としてのカスタム エンドポイント はい (ソースが既定のエンドポイントまたはホスト名が aio-broker の MQTT エンドポイントの場合)
ソースと宛先としてのカスタム エンドポイント いいえ (どちらか一方が、ホスト名が aio-broker の MQTT エンドポイントである場合を除く)

エンドポイントを再利用する

各データフロー エンドポイントは、データの送信元または送信先 (host 値)、エンドポイントでの認証方法、TLS 構成やバッチ処理の設定などのその他の設定を含む構成設定のバンドルと考えてください。 そのため、1 回作成するだけで、これらの設定が同じである複数のデータフローで再利用できます。

エンドポイントをより簡単に再利用するために、MQTT または Kafka トピック フィルターは、エンドポイント構成に含まれません。 代わりに、データフロー構成でトピック フィルターを指定します。 つまり、異なるトピック フィルターを使用する複数のデータフローに同じエンドポイントを使用できます。

たとえば、既定の MQTT ブローカー データフロー エンドポイントを使用できます。 これは、異なるトピック フィルターを使用してソースと宛先の両方に使用できます。

操作エクスペリエンスを使用して MQTT から MQTT へのデータフローを作成する様子のスクリーンショット。

同様に、他のエンドポイントやトピックに同じ MQTT エンドポイントを使用する複数のデータフローを作成できます。 たとえば、データを Event Hub エンドポイントに送信するデータフローに同じ MQTT エンドポイントを使用できます。

操作エクスペリエンスを使用して MQTT から Kafka へのデータフローを作成する様子のスクリーンショット。

MQTT の例と同様に、異なるトピックに同じ Kafka エンドポイントを使用するか、または異なるテーブルに同じ Data Lake エンドポイントを使用する複数のデータフローを作成できます。

次のステップ

データフロー エンドポイントの作成: