Добавление источника Confluent Kafka в поток событий (предварительная версия)

В этой статье показано, как добавить источник Confluent Kafka в поток событий.

Confluent Cloud Kafka — это платформа потоковой передачи и обработки данных с помощью Apache Kafka. Интеграция Confluent Cloud Kafka в качестве источника в потоке событий позволяет легко обрабатывать потоки данных в режиме реального времени перед маршрутизацией их в несколько назначений в Fabric.

Внимание

Расширенные возможности потоков событий Fabric в настоящее время находятся в предварительной версии.

Примечание.

Этот источник не поддерживается в следующих регионах емкости рабочей области: западная часть США 3, Западная Швейцария.

Необходимые компоненты

  • Доступ к рабочей области Fabric premium с разрешениями участника или выше.
  • Кластер Confluent Cloud Kafka и ключ API.
  • Кластер Confluent Cloud Kafka должен быть общедоступным, а не за брандмауэром или защищенным в виртуальной сети.

Примечание.

Максимальное количество источников и назначений для одного потока событий — 11.

Добавление Confluent Cloud Kafka в качестве источника

  1. Создайте поток событий, выбрав переключатель предварительного просмотра.
  2. Выберите " Добавить внешний источник".

Настройка и подключение к Confluent Kafka

  1. На странице "Выбор источника данных" выберите Confluent.

    Снимок экрана: выбор Confluent в качестве исходного типа в мастере получения событий.

  2. Чтобы создать подключение к источнику Confluent Cloud Kafka, нажмите кнопку "Создать подключение".

    Снимок экрана: выбор ссылки

  3. В разделе параметров подключения введите Confluent Bootstrap Server. Перейдите на домашнюю страницу Confluent Cloud, выберите "Параметры кластера" и скопируйте адрес на сервер начальной загрузки.

  4. В разделе учетных данных подключения, если у вас есть существующее подключение к кластеру Confluent, выберите его в раскрывающемся списке для подключения. В противном случае выполните следующие действия.

    1. В поле "Имя подключения" введите имя подключения.
    2. Для типа проверки подлинности убедитесь, что выбран облачный ключ Confluent.
    3. Для ключа API и секрета ключа API:
      1. Перейдите в облако Confluent Cloud.

      2. Выберите ключи API в боковом меню.

      3. Нажмите кнопку "Добавить ключ", чтобы создать новый ключ API.

      4. Скопируйте ключ и секрет API.

      5. Вставьте эти значения в поля "Ключ API" и "Секрет ключа API".

      6. Выберите Подключиться.

        Снимок экрана: первая страница параметров подключения Confluent.

  5. Прокрутите страницу, чтобы просмотреть раздел "Настройка источника данных Confluent". Введите сведения, чтобы завершить настройку источника данных Confluent.

    1. В поле "Раздел" введите имя раздела из confluent Cloud. Вы можете создать или управлять темой в Confluent Cloud Console.
    2. Для группы потребителей введите группу потребителей в облаке Confluent. Она предоставляет выделенную группу потребителей для получения событий из кластера Confluent Cloud.
    3. Для параметра автоматического смещения сброса выберите одно из следующих значений:
      • Самый ранний — самые ранние данные, доступные из кластера Confluent

      • Последние — последние доступные данные

      • Нет — не устанавливайте смещение автоматически.

        Снимок экрана, на котором показана вторая страница — страница

  6. Выберите Далее. На экране "Рецензирование" и "Создать" просмотрите сводку и нажмите кнопку "Добавить".

Вы видите, что источник Confluent Cloud Kafka добавляется в поток событий на холсте в режиме редактирования. Чтобы реализовать этот недавно добавленный источник Confluent Cloud Kafka, выберите " Опубликовать " на ленте.

Снимок экрана: источник Confluent Kafka в режиме редактирования.

После выполнения этих действий источник Confluent Cloud Kafka доступен для визуализации в режиме реального времени.

Снимок экрана: источник Confluent Kafka в режиме реального времени.

Другие соединители: