在实时中心将 Apache Kafka 添加为源(预览版)

本文介绍如何在 Fabric 实时中心中添加 Apache Kafka 作为事件源。

注意

实时中心目前处于预览阶段。

先决条件

  • 获取对拥有参与者或更高权限的 Fabric 高级工作区的访问权限。
  • 正在运行的 Apache Kafka 群集。
  • Apache Kafka 必须可公开访问,并且不能位于防火墙后面或在虚拟网络中受到保护。 

启动“添加源”体验

  1. 登录 Microsoft Fabric

  2. 选择左侧导航栏上的“实时中心”。

  3. “实时中心 ”页上,选择 页面右上角的“+ 添加源 ”。

    显示如何在 Microsoft Fabric 中启动实时中心的屏幕截图。

将 Apache Kafka 添加为源

  1. “选择数据源 ”页上,选择 Apache Kafka

    显示选择 Apache Kafka 作为“获取事件”向导中的源类型的屏幕截图。

  2. 在“连接”页上,选择“新建连接”。

    显示在“获取事件”向导的“连接”页上选择“新建连接”链接的屏幕截图。

  3. “连接设置” 部分的 Bootstrap 服务器中,输入 Apache Kafka 服务器地址。

    显示“获取事件”向导的“连接”页上的 Bootstrap 服务器字段选择的屏幕截图。

  4. “连接凭据”部分中,如果有与 Apache Kafka 群集的现有连接,请从“连接”下拉列表中选择它。 否则,请执行以下步骤:

    1. 对于“连接名称”,为连接输入名称。
    2. 对于 身份验证类型,请确认已 选择 API 密钥
    3. 对于 密钥机密,请输入 API 密钥和密钥机密。
  5. 选择“连接” 。 

  6. 现在,在“连接”页上,按照以下步骤操作。

    1. 对于 主题,请输入 Kafka 主题。

    2. 对于 使用者组,请输入 Apache Kafka 群集的使用者组。 此字段提供用于获取事件的专用使用者组。

    3. 选择“ 重置自动偏移 ”以指定在没有提交的情况下开始读取偏移的位置。

    4. 对于 安全协议,默认值为 SASL_PLAINTEXT

      注意

      Apache Kafka 源当前仅支持 Apache Kafka 群集和 Eventstream 之间的未加密数据传输(SASL_PLAINTEXT和 PLAINTEXT)。 即将推出对通过 SSL 进行加密数据传输的支持。

    5. 默认 SASL 机制 通常是 PLAIN,除非另有配置。 可以选择 符合安全要求的 SCRAM-SHA-256SCRAM-SHA-512 机制。

      显示 Apache Kafka 连接设置的第一页的屏幕截图。

  7. 选择下一步。 在“查看并创建”屏幕上,查看摘要,然后选择“添加”

查看数据流详细信息

  1. 在“查看和创建”页上,如果选择“打开事件流”,向导会打开它为你创建的事件流,其中包含所选的 Apache Kafka 源。 要关闭向导,请选择页面底部的“关闭”。

  2. 在“实时中心”中,切换到实时中心的“数据流”选项卡。 刷新该页面。 应会看到为你创建的数据流。

    有关详细步骤,请参阅在 Fabric 实时中心查看数据流的详细信息

若要了解有关使用数据流的信息,请参阅以下文章: