Apache Kafka をソースとしてリアルタイム ハブに追加する (プレビュー)
この記事では、Apache Kafka を Fabric リアルタイム ハブのイベント ソースとして追加する方法について説明します。
Note
リアルタイム ハブは現在プレビュー段階です。
前提条件
- 寄稿者以上のアクセス許可を使用して、Premiumワークスペースにアクセスします。
- 実行されている Apache Kafka クラスター。
- Apache Kafka はパブリックにアクセスでき、ファイアウォールの内側に存在しないか、仮想ネットワークでセキュリティで保護されていない必要があります。
起動ソース エクスペリエンスの追加
Microsoft Fabric にサインインします。
左側のナビゲーション バーで[リアルタイム ハブ]を選択します。
[リアルタイム ハブ] ページで、ページの右上隅にある [+ ソースの追加] を選択します。
Apache Kafka をソースとして追加する
[データ ソースの選択] ページで、[Apache Kafka] を選択します。
接続ページで、新しい接続 を選択します。
[接続設定] セクションの [ブートストラップ サーバー] に、Apache Kafka サーバーアドレスを入力します。
[接続資格情報] セクションで、Apache Kafka クラスターへの既存の接続がある場合は、[接続] のドロップダウン リストから選択します。 そうでない場合は、次の手順に従います。
- 接続名 には、接続の名前を入力します。
- [認証の種類] で、API キーが選択されていることを確認します。
- [キー] と [シークレット] に、API キーとキー シークレットを入力します。
[接続] を選択します。
次に、[接続] ページで、次の手順に従います。
[トピック] に Kafka トピックを入力します。
コンシューマー グループの場合は、Apache Kafka クラスターのコンシューマー グループを入力します。 このフィールドには、イベントを取得するための専用のコンシューマー グループが用意されています。
コミットがない場合にオフセットの読み取りを開始する場所を指定するには、[自動オフセットのリセット] を選択します。
セキュリティ プロトコルの場合、既定値は SASL_PLAINTEXT です。
Note
現在、Apache Kafka ソースでは、Apache Kafka クラスターと Eventstream の間の暗号化されていないデータ転送 (SASL_PLAINTEXTと PLAINTEXT) のみがサポートされています。 SSL による暗号化されたデータ転送のサポートは、近日中に提供される予定です。
既定 の SASL メカニズム は、特に構成されていない限り、通常 は PLAIN です。 セキュリティ要件に 合った SCRAM-SHA-256 または SCRAM-SHA-512 メカニズムを選択できます。
[次へ] を選択します。 [確認と作成] 画面で、概要を確認し、[追加] を選択します。
データ ストリームの詳細を表示する
[確認と作成] ページで[イベントストリームを開く]を選択すると、ウィザードによって、選択した Apache Kafka ソースで作成されたイベントストリームが開きます。 ページの下部の [閉じる] をクリックしてウィザードを終了します。
リアルタイム ハブで、リアルタイム ハブの [データ ストリーム] タブに切り替えます。 ページを最新の情報に更新します。 作成されたデータ ストリームが表示されます。
詳細な手順については、「Fabric リアルタイム ハブでのデータ ストリームの詳細の表示」を参照してください。
関連するコンテンツ
データ ストリームの使用について詳しくは、次の記事を参照してください。