次の方法で共有


Azure Stream Analytics から Confluent Cloud にデータをストリーミングする

この記事では、ご利用の Azure Stream Analytics ジョブを出力として Confluent Cloud Kafka に直接接続する方法について説明します。

前提条件

  • Confluent Cloud Kafka クラスターがあります。
  • ご利用の Kafka クラスター用に API キー ファイルがあり、ユーザー名として使用する API キー、パスワードとして使用する API シークレット、ブートストラップ サーバー アドレスが含まれています。
  • Azure Stream Analytics ジョブがあります。 「クイック スタート: Azure portal を使用して Stream Analytics ジョブを作成する」のドキュメントに従って、Azure Stream Analytics ジョブを作成できます
  • ご利用の Confluent Cloud Kafka クラスターはパブリックにアクセス可能であり、ファイアウォールの内側には置かれておらず、仮想ネットワーク内で保護されていない必要があります。
  • 既存のキー コンテナーが必要です。 「クイック スタート: Azure portal を使用してキー コンテナーを作成する」のドキュメントに従って、キー コンテナー リソースを作成できます

マネージド ID を使用するように Azure Stream Analytics を構成する

Azure Stream Analytics では、キー コンテナーにアクセスするマネージド ID を構成する必要があります。 マネージド ID を使うように ASA ジョブを構成するには、左側の [構成] の下にある [マネージド ID] タブに移動します。

ASA ジョブのマネージド ID を構成する方法を示すスクリーンショット。

  1. [構成][マネージド ID] タブをクリックします。
  2. [ID の切り替え] を選択し、ジョブで使用する ID (システム割り当て ID またはユーザー割り当て ID) を選択します。
  3. ユーザー割り当て ID の場合は、ユーザー割り当て ID があるサブスクリプションを選択し、ID の名前を選択します。
  4. 確認して保存します。

LetsEncrypt から証明書をダウンロードする

Stream Analytics Kafka 出力は、librdkafka ベースのクライアントです。 出力を Confluent Cloud に接続する場合は、Confluent Cloud がサーバー認証に使用する TLS 証明書が必要です。 Confluent Cloud では、オープン証明機関 (CA) である Let's Encrypt の TLS 証明書が使用されます。

LetsEncrypt のサイトで、PEM 形式の ISRG Root X1 証明書をダウンロードしてください。

Let's Encrypt の Web サイトからダウンロードする証明書を示すスクリーンショット。

アクセス許可を使ってキー コンテナーを構成する

Azure Stream Analytics は、Azure Key Vault とシームレスに統合され、mTLS または SASL_SSL セキュリティ プロトコルを使用する場合の認証と暗号化に必要な格納済みシークレットにアクセスできます。 Azure Stream Analytics ジョブは、マネージド ID を使ってユーザーの Azure キー コンテナーに接続し、セキュリティで保護された接続を確保して、シークレットの流出を防ぎます。 ダウンロードした証明書を使用するには、まずキー コンテナーにアップロードする必要があります。

証明書をアップロードするには、キー コンテナーに対する "Key Vault Administrator" アクセス権が必要です。 次の手順に従って、管理者アクセス権を付与してください。

Note

他のキー コンテナーのアクセス許可を付与するには、"所有者" アクセス許可が必要です。

  1. ご利用のキーコンテナー内で、[アクセス制御 (IAM)] を選択します。

  2. [追加]>[ロールの割り当ての追加] を選択して、[ロールの割り当ての追加] ページを開きます。

  3. 次の構成を使ってロールを割り当てます。

設定
Role Key Vault Administrator
アクセスの割り当て先 ユーザー、グループ、またはサービス プリンシパル
メンバー <アカウント情報またはメール アドレス>

Azure CLI を使用して、証明書をシークレットとしてキー コンテナーにアップロードします

重要

このコマンドを正常に機能させるには、Key Vault に対する "Key Vault Administrator" アクセス許可を持っている必要があります。証明書はシークレットとしてアップロードする必要があります。 Azure CLI を使って、証明書をシークレットとしてキー コンテナーにアップロードする必要があります。 認証に使用される証明書の有効期限が切れると、Azure Stream Analytics ジョブは失敗します。 これを解決するには、キー コンテナー内の証明書を更新または置換し、Azure Stream Analytics ジョブを再起動する必要があります。

PowerShell を使用して Azure CLI が構成され、ローカルにインストールされていることを確認します。 Azure CLI の設定方法に関するガイダンスについては、次のページを参照してください: Azure CLI の概要

Azure CLI にログインする:

az login

キー コンテナーを含むサブスクリプションに接続する:

az account set --subscription <subscription name>

次に例を示します。

az account set --subscription mymicrosoftsubscription

次のコマンドを実行すると、証明書をシークレットとしてキー コンテナーにアップロードできる:

<your key vault> は、証明書をアップロードするキー コンテナーの名前です。 <name of the secret> は、ご利用のシークレットに付ける任意の名前であり、キー コンテナー内で表示されます。 <file path to certificate> は、ダウンロードした証明書の場所へのパスです。 証明書を右クリックし、証明書へのパスをコピーすることができます。

az keyvault secret set --vault-name <your key vault> --name <name of the secret> --file <file path to certificate>

次に例を示します。

az keyvault secret set --vault-name mykeyvault --name confluentsecret --file C:\Users\Downloads\isrgrootx1.pem

キー コンテナー内の証明書にアクセスするためのアクセス許可を Stream Analytics ジョブに付与する

Azure Stream Analytics ジョブでキー コンテナー内のシークレットを読み取る場合、ジョブにはキー コンテナーにアクセスするためのアクセス許可が必要です。 Stream Analytics ジョブに特別なアクセス許可を付与するには、次の手順に従います。

  1. キー コンテナーで、[アクセス制御 (IAM)] を選択します。

  2. [追加]>[ロールの割り当ての追加] を選択して、[ロールの割り当ての追加] ページを開きます。

  3. 次の構成を使ってロールを割り当てます。

設定
Role キー コンテナー シークレット ユーザー
マネージド ID システム割り当てマネージド ID またはユーザー割り当てマネージド ID の Stream Analytics ジョブ
メンバー <Stream Analytics ジョブの名前> または <ユーザー割り当て ID の名前>

Stream Analytics ジョブ内で Kafka 出力を構成する

  1. ご利用の Stream Analytics ジョブ内で、[ジョブ トポロジ] の下にある [出力] を選択します

  2. [出力の追加]>[Kafka] を選択して、[Kafka の新しい出力] 構成ブレードを開きます。

  3. 次の構成を使用します。

Note

SASL_SSL と SASL_PLAINTEXT の場合、Azure Stream Analytics では PLAIN SASL メカニズムのみがサポートされます。

プロパティ名 説明
出力のエイリアス ご利用の入力を参照するためにクエリ内で使用されるフレンドリ名
ブートストラップ サーバー アドレス Confluent Cloud Kafka クラスターへの接続を確立するホストとポートのペアのリスト。 例: pkc-56d1g.eastus.azure.confluent.cloud:9092
Kafka トピック Confluent Cloud Kafka クラスター内の Kafka トピックの名前。
セキュリティ プロトコル [SASL_SSL] を選択します。 サポートされるメカニズムは PLAIN です。
イベント シリアル化形式 受信データ ストリームのシリアル化形式 (JSON、CSV、Parquet、Protobuf)。
パーティション キー Azure Stream Analytics は、ラウンド パーティション分割を使用してパーティションを割り当てます。 キーがご利用の入力をパーティション分割しない場合は、空白のままにします
Kafka イベントの圧縮の種類 Gzip、Snappy、Lz4、Zstd、None などの、送信データ ストリームに使用される圧縮の種類。

重要

Confluent Cloud は、API キー、OAuth、または SAML シングル サインオン (SSO) を使用した認証をサポートしています。 Azure Stream Analytics は、OAuth または SAML シングル サインオン (SSO) を使用した認証をサポートしていません。 トピック レベルのアクセス権を持つ API キーを使い、SASL_SSL セキュリティ プロトコルを介して、Confluent Cloud に接続できます。 Confluent Cloud を認証するには、SASL_SSL を使用し、ご利用の API キーを使用して Confluent Cloud を認証するように、ご利用のジョブを構成する必要があります。

次の構成を使用します。

設定
ユーザー名 Confluent Cloud API キー
Password Confluent Cloud API シークレット
キー コンテナー名 アップロードされた証明書を含む Azure Key Vault の名前
トラストストアの証明書 ISRG Root X1 証明書を保持するキー コンテナー シークレットの名前

Stream Analytics ジョブの kafka 出力を構成する方法を示すスクリーンショット。

構成を保存して接続をテストする

構成を保存します。 ご利用の Azure Stream Analytics ジョブは、指定された構成を使用して検証されます。 ご利用の Stream Analytics ジョブがご利用の Kafka クラスターに接続できる場合、成功したテスト接続がポータル内に表示されます。

confluent kafka への正常なテスト接続の出力を示すスクリーンショット。

制限事項

  • キー コンテナーにアップロードする証明書は、PEM 形式である必要があります。
  • Kafka のバージョンは、Kafka バージョン 0.10 以上である必要があります。
  • Azure Stream Analytics は、OAuth または SAML シングル サインオン (SSO) を使用した Confluent Cloud の認証をサポートしていません。 SASL_SSL プロトコルを介して API キーを使用する必要があります。
  • Azure CLI を使用して、証明書をシークレットとしてキー コンテナーにアップロードする必要があります。 Azure portal を使用して、複数行のシークレットを含む証明書をキー コンテナーにアップロードすることはできません。

Note

Azure Stream Analytics Kafka 出力の使用に関して直接のサポートが必要な場合は、askasa@microsoft.com までお問い合わせください。

次のステップ