将 Apache Kafka 源添加到 Eventstream(预览)

本文介绍如何将 Apache Kafka 源添加到 Eventstream。

Apache Kafka 是一个开源分布式平台,用于构建可缩放的实时数据系统。 通过将 Apache Kafka 作为事件流中的源集成,可以从 Apache Kafka 无缝引入实时事件,并在路由到 Fabric 中的多个目标之前对其进行处理。

注意

工作区容量的以下区域不支持此源:美国西部 3瑞士西部

先决条件

  • 使用参与者或更高权限访问 Fabric 工作区。
  • 正在运行的 Apache Kafka 群集。
  • Apache Kafka 必须可供公开访问,并且不能位于防火墙后面或在虚拟网络中受到保护。 

注意

一个事件流的源和目标的最大数量为 11

将 Apache Kafka 添加为源

  1. 在“Fabric 实时智能”中,选择“Eventstream” 以创建新的事件流。

    创建新事件流的屏幕截图。

  2. 在下一个屏幕上,选择“添加外部源”

    选择“添加外部源”的屏幕快照。

配置并连接到 Apache Kafka

  1. 在“选择数据源”页面上,选择“Apache Kafka”

    屏幕截图显示在“获取事件”向导中选择 Apache Kafka 作为源类型。

  2. 在“连接”页上,选择“新建连接”。

    显示在“获取事件”向导的“连接”页上选择“新建连接”链接的屏幕截图。

  3. 在“连接设置”部分中,针对“启动服务器”输入你的 Apache Kafka 服务器地址

    屏幕截图显示在“获取事件”向导的“连接”页上选择“启动服务器”字段。

  4. 在“连接凭据”部分中,如果你已有到 Apache Kafka 群集的连接,请从“连接”的下拉列表中选择它。 否则,请执行以下步骤:

    1. 对于“连接名称”,为连接输入名称。
    2. 对于“身份验证类型”,请确认已选择“API 密钥”
    3. 对于“密钥”和“机密”,输入 API 密钥和密钥机密
  5. 选择“连接” 。 

  6. 现在,在“连接”页上,按照以下步骤操作。

    1. 对于“主题”,输入 Kafka 主题

    2. 对于“使用者组”,输入 Apache Kafka 群集的使用者组。 此字段提供用于获取事件的专用使用者组。

    3. 选择“重置自动偏移”以指定在没有提交的情况下从何处开始读取偏移

    4. 对于“安全协议”,默认值是“SASL_PLAINTEXT”

      注意

      Apache Kafka 源当前仅支持 Apache Kafka 群集与 Eventstream 之间进行未加密的数据传输(SASL_PLAINTEXT 和 PLAINTEXT)。 即将推出对通过 SSL 进行加密数据传输的支持。

    5. 默认的 SASL 机制通常是 PLAIN,除非另有配置。 可以选择符合你的安全要求的 SCRAM-SHA-256 或 SCRAM-SHA-512 机制

      显示 Apache Kafka 连接设置的第一页的屏幕截图。

  7. 选择下一步。 在“查看并创建”屏幕上,查看摘要,然后选择“添加”

查看更新的 Eventstream

可以在编辑模式中看到添加到 Eventstream 的 Apache Kafka 源。 

显示编辑视图中 Apache Kafka 源的屏幕截图。

完成这些步骤后,Apache Kafka 源可在“实时视图”中进行可视化。

显示实时视图中 Apache Kafka 源的屏幕截图。

其他连接器: