Aggiungere Apache Kafka come origine nell'hub in tempo reale (anteprima)

Questo articolo descrive come aggiungere Apache Kafka come origine evento nell'hub in tempo reale di Fabric.

Nota

L'hub in tempo reale è attualmente in anteprima.

Prerequisiti

  • Ottenere l'accesso all'area di lavoro Premium di Fabric con autorizzazioni di Collaboratore o superiori.
  • Un cluster Apache Kafka in esecuzione.
  • Apache Kafka deve essere accessibile pubblicamente e non essere protetto da un firewall o protetto in una rete virtuale. 

Avviare Aggiungi esperienza di origine

  1. Accedere a Microsoft Fabric.

  2. Selezionare Hub in tempo reale sulla barra di spostamento a sinistra.

  3. Nella pagina Hub in tempo reale selezionare + Aggiungi origine nell'angolo superiore destro della pagina.

    Screenshot che mostra come avviare l'Hub in tempo reale in Microsoft Fabric.

Aggiungere Apache Kafka come origine

  1. Nella pagina Selezionare un'origine dati selezionare Apache Kafka.

    Screenshot che mostra la selezione di Apache Kafka come tipo di origine nella procedura guidata Recupera eventi.

  2. Nella pagina Connetti, seleziona Nuova connessione.

    Screenshot che mostra la selezione del collegamento Nuova connessione nella pagina Connetti della procedura guidata Ottieni eventi.

  3. Nella sezione Impostazioni di connessione immettere l'indirizzo del server Apache Kafka per Server Bootstrap.

    Screenshot che mostra la selezione del campo server Bootstrap nella pagina Connetti della procedura guidata Recupera eventi.

  4. Nella sezione Credenziali di connessione, se si dispone di una connessione esistente al cluster Apache Kafka, selezionarla nell'elenco a discesa Connessione. Altrimenti, eseguire le seguenti operazioni:

    1. Per Nome connessione, immetti un nome per la connessione.
    2. Per Tipo di autenticazione verificare che sia selezionata la chiave API.
    3. Per Chiave e segreto immettere chiave API e segreto della chiave.
  5. Selezionare Connetti. 

  6. Nella pagina Connetti seguire questa procedura.

    1. In Argomento immettere l'argomento Kafka.

    2. In Gruppo consumer immettere il gruppo di consumer del cluster Apache Kafka. Questo campo fornisce un gruppo di consumer dedicato per ottenere eventi.

    3. Selezionare Reimposta offset automatico per specificare dove iniziare a leggere gli offset se non è presente alcun commit.

    4. Per Protocollo di sicurezza, il valore predefinito è SASL_PLAINTEXT.

      Nota

      L'origine Apache Kafka supporta attualmente solo la trasmissione di dati non crittografati (SASL_PLAINTEXT e PLAINTEXT) tra il cluster Apache Kafka e Eventstream. Il supporto per la trasmissione di dati crittografati tramite SSL sarà presto disponibile.

    5. Il meccanismo SASL predefinito è in genere PLAIN, a meno che non sia configurato diversamente. È possibile selezionare il meccanismo SCRAM-SHA-256 o SCRAM-SHA-512 che soddisfa i requisiti di sicurezza.

      Screenshot che mostra la prima pagina delle impostazioni di connessione di Apache Kafka.

  7. Selezionare Avanti. Nella schermata Rivedi e crea esaminare il riepilogo e quindi selezionare Aggiungi.

Visualizzare i dettagli del flusso dei dati

  1. Nella pagina Rivedi e crea, se si seleziona Apri eventstream, la procedura guidata apre il flusso di eventi creato automaticamente con l'origine Apache Kafka selezionata. Fare clic su Chiudi nella parte inferiore della pagina per terminare la procedura guidata.

  2. Nell'Hub in tempo reale, passare alla scheda Flussi dei dati dell'Hub in tempo reale. Aggiorna la pagina. Verrà visualizzato automaticamente il flusso dei dati creato.

    Per i passaggi dettagliati, vedere Visualizzare i dettagli dei flussi dei dati nell'Hub in tempo reale di Fabric.

Per informazioni sull'utilizzo dei flussi dei dati, vedere gli articoli seguenti: