Поделиться через


Добавление Confluent Cloud Kafka в качестве источника в концентраторе реального времени

В этой статье описывается, как добавить Confluent Cloud Kafka в качестве источника событий в концентраторе Реального времени Fabric.

Необходимые компоненты

  • Доступ к рабочей области в режиме лицензии емкости Fabric (или) режим пробной лицензии с разрешениями участника или более высокого уровня.
  • Кластер Confluent Cloud Kafka и ключ API.

Страница «Источники данных»

  1. Войдите в Microsoft Fabric.

  2. Выберите режим реального времени на левой панели навигации.

  3. На странице центра реального времени выберите +Источники данных в разделе "Подключиться" в меню навигации слева. Вы также можете добраться до страницы источников данных из всех потоков данных или страниц "Мои потоки данных", нажав кнопку "+ Подключить источник данных" в правом верхнем углу.

    Снимок экрана, на котором показано, как запустить подключение к источнику данных.

Добавление Confluent Cloud Kafka в качестве источника

  1. На странице "Выбор источника данных" выберите Confluent.

    Снимок экрана: выбор Confluent в качестве исходного типа в мастере добавления источника.

  2. Чтобы создать подключение к источнику Confluent Cloud Kafka, нажмите кнопку "Создать подключение".

    Снимок экрана: выбор ссылки

  3. В разделе параметров подключения введите Confluent Bootstrap Server. Перейдите на домашнюю страницу Confluent Cloud, выберите "Параметры кластера" и скопируйте адрес на сервер начальной загрузки.

  4. В разделе учетных данных подключения, если у вас есть существующее подключение к кластеру Confluent, выберите его в раскрывающемся списке для подключения. В противном случае выполните следующие действия.

    1. В поле "Имя подключения" введите имя подключения.
    2. Для типа проверки подлинности убедитесь, что выбран облачный ключ Confluent.
    3. Для ключа API и секрета ключа API:
      1. Перейдите в облако Confluent Cloud.

      2. Выберите ключи API в боковом меню.

      3. Нажмите кнопку "Добавить ключ", чтобы создать новый ключ API.

      4. Скопируйте ключ и секрет API.

      5. Вставьте эти значения в поля "Ключ API" и "Секрет ключа API".

      6. Выберите Подключиться.

        Снимок экрана: первая страница параметров подключения Confluent.

  5. Прокрутите страницу, чтобы просмотреть раздел "Настройка источника данных Confluent". Введите сведения, чтобы завершить настройку источника данных Confluent.

    1. В поле "Раздел" введите имя раздела из confluent Cloud. Вы можете создать или управлять темой в Confluent Cloud Console.
    2. Для группы потребителей введите группу потребителей в облаке Confluent. Она предоставляет выделенную группу потребителей для получения событий из кластера Confluent Cloud.
    3. Для параметра автоматического смещения сброса выберите одно из следующих значений:
      • Самый ранний — самые ранние данные, доступные из кластера Confluent

      • Последние — последние доступные данные

      • Нет — не устанавливайте смещение автоматически.

        Снимок экрана, на котором показана вторая страница — страница

  6. В разделе "Сведения о потоке" правой панели выполните следующие действия:

    1. Выберите рабочую область , в которой нужно сохранить подключение.

    2. Введите имя создаваемого события.

    3. Имя потока для концентратора реального времени автоматически создается.

      Снимок экрана: справа панель с разделом

  7. Выберите Далее.

  8. На странице "Рецензирование и подключение" просмотрите сводку и нажмите кнопку "Подключить".

Просмотр сведений о потоке данных

  1. На странице "Проверка и подключение" при выборе "Открыть поток событий" мастер открывает поток событий, созданный для вас с выбранным источником Confluent Cloud Kafka. Чтобы закрыть мастер, нажмите кнопку Закрыть в нижней части страницы.

  2. В концентраторе реального времени выберите все потоки данных. Чтобы просмотреть новый поток данных, обновите страницу "Все потоки данных".

    Подробные инструкции см. в разделе "Просмотр сведений о потоках данных" в Концентраторе реального времени Fabric.

Дополнительные сведения об использовании потоков данных см. в следующих статьях: