Adicionar fonte Confluent Kafka a um fluxo de eventos (visualização)
Este artigo mostra como adicionar a fonte Confluent Kafka a um fluxo de eventos.
Confluent Cloud Kafka é uma plataforma de streaming que oferece poderosas funcionalidades de streaming e processamento de dados usando o Apache Kafka. Ao integrar o Confluent Cloud Kafka como uma fonte em seu fluxo de eventos, você pode processar perfeitamente fluxos de dados em tempo real antes de roteá-los para vários destinos no Fabric.
Importante
Os recursos aprimorados dos fluxos de eventos do Fabric estão atualmente em visualização.
Nota
Esta origem não é suportada nas seguintes regiões da capacidade do seu espaço de trabalho: Oeste US3, Suíça Oeste.
Pré-requisitos
- Acesso ao espaço de trabalho premium do Fabric com permissões de Colaborador ou superior.
- Um cluster Confluent Cloud Kafka e uma chave de API.
- Seu cluster Confluent Cloud Kafka deve ser acessível publicamente e não estar protegido em um firewall ou protegido em uma rede virtual.
Nota
O número máximo de fontes e destinos para um eventstream é 11.
Adicionar Confluent Cloud Kafka como fonte
- Crie um fluxo de eventos com a seleção da opção de visualização.
- Selecione Adicionar fonte externa.
Configurar e conectar-se ao Confluent Kafka
Na página Selecione uma fonte de dados, selecione Confluente.
Para criar uma conexão com a fonte Confluent Cloud Kafka, selecione Nova conexão.
Na seção Configurações de conexão , insira Confluent Bootstrap Server. Navegue até a página inicial do Confluent Cloud, selecione Configurações de Cluster e copie o endereço para o Servidor de Bootstrap.
Na seção Credenciais de conexão, se você tiver uma conexão existente com o cluster Confluent, selecione-a na lista suspensa de Conexão. Caso contrário, siga estes passos:
- Em Nome da conexão, insira um nome para a conexão.
- Para Tipo de autenticação, confirme se Confluent Cloud Key está selecionado.
- Para chave de API e segredo de chave de API:
Navegue até o Confluent Cloud.
Selecione API Keys no menu lateral.
Selecione o botão Adicionar chave para criar uma nova chave de API.
Copie a chave da API e o segredo.
Cole esses valores nos campos API Key e API Key Secret.
Selecione Ligar
Role para ver a seção Configurar fonte de dados Confluent na página. Insira as informações para concluir a configuração da fonte de dados Confluent.
- Em Tópico, insira um nome de tópico do seu Confluent Cloud. Você pode criar ou gerenciar seu tópico no Confluent Cloud Console.
- Para Grupo de consumidores, insira um grupo de consumidores do seu Confluent Cloud. Ele fornece o grupo de consumidores dedicado para obter os eventos do cluster Confluent Cloud.
- Para Redefinir configuração de deslocamento automático, selecione um dos seguintes valores:
Mais cedo – os primeiros dados disponíveis do seu cluster Confluent
Mais recentes – os últimos dados disponíveis
Nenhum – não defina automaticamente o deslocamento.
Selecione Seguinte. No ecrã Rever e criar, reveja o resumo e, em seguida, selecione Adicionar.
Você vê que a fonte Confluent Cloud Kafka é adicionada ao seu fluxo de eventos na tela no modo de edição. Para implementar essa fonte do Confluent Cloud Kafka recém-adicionada, selecione Publicar na faixa de opções.
Depois de concluir essas etapas, a fonte Confluent Cloud Kafka estará disponível para visualização na Visualização dinâmica.
Conteúdos relacionados
Outros conectores:
- Amazon Kinesis Data Streams
- BD do Cosmos para o Azure
- Azure Event Hubs
- Hub IoT do Azure
- Captura de Dados de Alteração do Banco de Dados SQL do Azure (CDC)
- Ponto de extremidade personalizado
- Google Cloud Pub/Sub
- Banco de dados MySQL CDC
- Banco de Dados PostgreSQL CDC
- Dados de exemplo
- Eventos do Armazenamento de Blobs do Azure
- Evento do espaço de trabalho de malha