Eventstream に Apache Kafka ソースを追加する (プレビュー)
この記事では、Eventstream に Apache Kafka ソースを追加する方法について説明します。
Apache Kafka は、スケーラブルでリアルタイムのデータ システムを構築するためのオープンソースの分散プラットフォームです。 Apache Kafka をイベント ストリーム内のソースとして統合すると、Apache Kafka からリアルタイム イベントをシームレスに取り込み、Fabric 内の複数の宛先にルーティングする前にそれを処理できます。
Note
このソースは、ワークスペース容量の次のリージョンではサポートされていません: 米国西部 3、スイス西部。
前提条件
- 共同作成者以上の権限を使用して、Fabric ワークスペースにアクセスします。
- 稼働中の Apache Kafka クラスター。
- Apache Kafka にはパブリックにアクセスできる必要があり、ファイアウォールの内側にあったり、仮想ネットワークで保護されていたりしてはなりません。
Note
1 つのイベントストリームでのソースと宛先の合計数は 11 個までです。
ソースとして Apache Kafka を追加する
Fabric Real-Time Intelligence で、[イベントストリーム] を選択して新しいイベントストリームを作成します。
次の画面で、外部ソースの追加を選択します。
Apache Kafka を構成して接続する
[データ ソースの選択] ページで [Apache Kafka] を選択します。
データ 接続ページで、新しい接続を選択します。
[接続設定] セクションの [ブートストラップ サーバー] に、Apache Kafka のサーバー アドレスを入力します。
Apache Kafka クラスターへの既存の接続がある場合は、[接続の資格情報] セクションで [接続] のドロップダウン リストからそれを選択します。 そうでない場合は、次の手順に従います。
- 接続名 には、接続の名前を入力します。
- [認証の種類] に [API キー] が選択されていることを確認します。
- [キー] と [シークレット] には、API キーとキーのシークレットを入力します。
[接続] を選択します。
次に、[接続] ページで次の手順に従います。
[トピック] に Kafka トピックを入力します。
[コンシューマー グループ] に Apache Kafka クラスターのコンシューマー グループを入力します。 このフィールドには、イベントを取得するための専用のコンシューマー グループが用意されています。
[自動オフセットのリセット] を選択して、コミットがない場合にオフセットの読み取りを開始する場所を指定します。
[セキュリティ プロトコル] の既定値は SASL_PLAINTEXT です。
Note
現在、Apache Kafka ソースでは、Apache Kafka クラスターと Eventstream の間で暗号化されないデータ転送 (SASL_PLAINTEXT と PLAINTEXT) のみがサポートされています。 SSL による暗号化されたデータ転送は、近日中にサポートされる予定です。
既定の [SASL メカニズム] は、特に構成されていない限り通常は PLAIN です。 セキュリティ要件に合わせて、SCRAM-SHA-256 または SCRAM-SHA-512 メカニズムを選択できます。
[次へ] を選択します。 [確認と作成] 画面で、概要を確認し、[追加] を選択します。
更新された Eventstream を表示する
編集モードで、Eventstream に追加された Apache Kafka ソースを確認できます。
これらの手順を完了すると、Apache Kafka ソースを [ライブ] ビューで視覚化できるようになります。
関連するコンテンツ
その他のコネクタ。