Übersicht über Integrationen

Es gibt viele Datenconnectors, Tools und Integrationen, die nahtlos mit der Plattform für Aufnahme, Orchestrierung, Ausgabe und Datenabfrage funktionieren. Dieses Dokument ist eine allgemeine Übersicht über die verfügbaren Connectors, Tools und Integrationen. Detaillierte Informationen werden für jeden Connector zusammen mit Links zu seiner vollständigen Dokumentation bereitgestellt.

Wenn Sie Übersichtsseiten für einen bestimmten Integrationstyp anzeigen möchten, wählen Sie eine der folgenden Schaltflächen aus.

Vergleichstabellen

In den folgenden Tabellen sind die Funktionen der einzelnen Elemente zusammengefasst. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Jeder Elementname ist mit seiner detaillierten Beschreibung verknüpft.

Die folgende Tabelle enthält eine Übersicht über die verfügbaren Konnektors und ihre Funktionen:

Name Erfassen Exportieren Orchestrieren Abfrage
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark für Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure-Funktionen ✔️ ✔️
Azure IoT Hubs ✔️
Azure Stream Analytics ✔️
Cribl Stream ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Open Telemetry ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf- ✔️

Detaillierte Beschreibungen

Im Folgenden finden Sie detaillierte Beschreibungen von Connectors und Tools und Integrationen. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Alle verfügbaren Elemente werden in den obigen Vergleichstabellen zusammengefasst.

Apache Kafka

Apache Kafka ist eine verteilte Streamingplattform zum Erstellen von Echzeitstreaming-Datenpipelines, mit denen Daten auf zuverlässige Weise zwischen Systemen oder Anwendungen verschoben werden. Kafka Connect ist ein Tool zum skalierbaren und zuverlässigen Streamen von Daten zwischen Apache Kafka und anderen Datensystemen. Die Kafka-Senke dient als Konnektor für Kafka und erfordert keine Verwendung von Code. Von Confluent als „Gold Certified“ ausgezeichnet – Qualität, Vollständigkeit der Features, Einhaltung von Standards und Leistung wurden umfassend geprüft und getestet.

Apache Flink ist ein Framework und verteiltes Verarbeitungsmodul für zustandsbehaftete Berechnungen über ungebundene und gebundene Datenströme. Der Konnektor implementiert Datensenken zum Verschieben von Daten zwischen Azure Data Explorer und Flink-Clustern. Mit Azure Data Explorer und Apache Flink können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics).

Apache Log4J 2

Log4J ist ein von der Apache Foundation unterstütztes beliebtes Protokollierungsframework für Java-Anwendungen. Mit Log4j können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Mit der Apache Log4J 2-Senke können Sie Ihre Protokolldaten in Ihre Datenbank streamen und sie dort in Echtzeit analysieren und visualisieren.

Apache Spark

Apache Spark ist eine vereinheitlichte Engine zur Verarbeitung von umfangreichen Daten. Der Spark-Konnektor ist ein Open-Source-Projekt, das auf jedem Spark-Cluster ausgeführt werden kann. Er implementiert Datenquellen und Datensenken zum Verschieben von Daten zu oder aus Spark-Clustern. Mit dem Apache Spark-Konnektor können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics). Durch den Konnektor wird Ihre Datenbank ein gültiger Datenspeicher für Spark-Standardvorgänge für Quellen und Senken wie „read“, „write“ und „writeStream“.

Apache Spark für Azure Synapse Analytics

Apache Spark ist ein Framework für die Parallelverarbeitung, das In-Memory-Verarbeitung unterstützt, um die Leistung von Big Data-Analyseanwendungen zu steigern. Apache Spark in Azure Synapse Analytics ist eine der cloudbasierten Apache Spark-Implementierungen von Microsoft. Sie können von Synapse Studio aus mit Apache Spark für Azure Synapse Analytics auf eine Datenbank zugreifen.

Azure Cosmos DB

Die Azure Cosmos DB-Änderungsfeed-Datenverbindung ist eine Erfassungspipeline, die Ihrem Cosmos DB-Änderungsfeed lauscht und die Daten in Ihrer Datenbank erfasst.

Azure Data Factory

Azure Data Factory (ADF) ist ein cloudbasierter Datenintegrationsdienst, der die Integration verschiedener Datenspeicher und die Durchführung von Aktivitäten für die Daten ermöglicht.

Azure Event Grid

Die Event Grid-Erfassung ist eine Pipeline, die auf Azure Storage lauscht und Ihre Datenbank aktualisiert, um Informationen zu pullen, wenn abonnierte Ereignisse auftreten. Sie können eine kontinuierliche Erfassung aus dem Azure-Speicher (Blobspeicher und ADLSv2) mit einem Azure-Event-Grid-Abonnement für Blob-generierte oder von einem Blob umbenannte Benachrichtigungen konfigurieren und die Benachrichtigungen über Azure Event Hubs streamen.

  • Funktionalität: Datenerfassung
  • Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
  • Anwendungsfälle: Ereignisverarbeitung
  • Dokumentation: Event Grid-Datenverbindung

Azure Event Hubs

Bei Azure Event Hubs handelt es sich um eine Big Data-Streamingplattform und einen Ereigniserfassungsdienst. Sie können die kontinuierliche Datenerfassung aus von vom Kunden verwalteten Event Hubs konfigurieren.

Azure-Funktionen

Mit Azure Functions können Sie serverlosen Code in der Cloud nach einem Zeitplan oder als Reaktion auf ein Ereignis ausführen. Mit Eingabe- und Ausgabebindungen für Azure Functions können Sie Ihre Datenbank in Ihre Workflows integrieren, um Daten zu erfassen und Abfragen für Ihre Datenbank auszuführen.

Azure IoT Hubs

Azure IoT Hub ist ein in der Cloud gehosteter, verwalteter Dienst, der als zentraler Nachrichtenhub für die bidirektionale Kommunikation zwischen Ihrer IoT-Anwendung und den von ihr verwalteten Geräten dient. Sie können die kontinuierliche Aufnahme von vom Kunden verwalteten IoT Hubs konfigurieren, indem Sie die Event Hubs verwenden, die in Endpunkt von Geräte-zu-Cloud-Nachrichten integriert sind.

  • Funktionalität: Datenerfassung
  • Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
  • Anwendungsfälle: IoT-Daten
  • Dokumentation: IoT Hub-Datenverbindung

Azure Stream Analytics

Azure Stream Analytics ist eine Engine für Echtzeitanalyse und die komplexe Ereignisverarbeitung, die entwickelt wurde, um große Mengen schneller Streamingdaten aus mehreren Quellen gleichzeitig zu verarbeiten.

Cribl Stream

Cribl Stream ist eine Verarbeitungs-Engine, die Computerereignisdaten aus jeder Quelle auf sichere Weise sammelt, verarbeitet und streamt. Sie können diese Daten für jedes Ziel analysieren und verarbeiten.

Fluent Bit

Fluent Bit ist ein Open Source-Agent, der Protokolle, Metriken und Ablaufverfolgungen aus verschiedenen Quellen sammelt. Es ermöglicht Ihnen, Ereignisdaten zu filtern, zu ändern und zu aggregieren, bevor Sie sie an den Speicher senden.

JDBC

Java Database Connectivity (JDBC) ist eine Java-API, die zum Herstellen einer Verbindung mit Datenbanken und zum Ausführen von Abfragen verwendet wird. Sie können JDBC verwenden, um eine Verbindung mit Azure Data Explorer herzustellen.

Logic Apps

Mit dem Microsoft Logic Apps-Connector können Sie Abfragen und Befehle automatisch als Teil einer geplanten oder ausgelösten Aufgabe ausführen.

Logstash

Mit dem Logstash-Plug-In können Sie Ereignisse von Logstash in einer Azure Data Explorer-Datenbank zur späteren Analyse verarbeiten.

Matlab

MATLAB ist eine Programmier- und Numerische Computerplattform, die verwendet wird, um Daten zu analysieren, Algorithmen zu entwickeln und Modelle zu erstellen. Sie können ein Autorisierungstoken in MATLAB zum Abfragen Ihrer Daten im Azure Data Explorer abrufen.

NLog

NLog ist eine flexible und kostenlose Protokollierungsplattform für verschiedene .NET-Plattformen wie z.B. .NET-Standard. Mit NLog können Sie in mehrere Ziele schreiben, z.B. in eine Datenbank, Datei oder Konsole. Mit NLog können Sie die Protokollierungskonfiguration spontan ändern. Die NLog-Senke ist ein Ziel für NLog, über das Sie Ihre Protokollnachrichten an Ihre Datenbank senden können. Mit dem Plug-In können Sie Ihre Protokolle effizient an Ihren Cluster weiterleiten.

ODBC

Die Open Database Connectivity (ODBC) ist eine weit verbreitete Anwendungsprogrammierschnittstelle (API) für Datenbankzugriff. Azure Data Explorer ist mit einer Teilmenge des SQL Server-Kommunikationsprotokolls (MS-TDS) kompatibel. Diese Kompatibilität ermöglicht die Verwendung des ODBC-Treibers für SQL Server mit Azure Data Explorer.

Open Telemetry

Der OpenTelemetry-Konnektor unterstützt die Erfassung von Daten von zahlreichen Empfängern in Ihre Datenbank. Er fungiert als Brücke für die Erfassung der von Open Telemetry generierten Daten in Ihrer Datenbank durch Anpassen des Formats der exportierten Daten entsprechend Ihren Anforderungen.

Power Apps

Bei Power Apps handelt es sich um eine Suite von Apps, Diensten, Connectors und Datenplattformen, die eine Umgebung für die schnelle Anwendungsentwicklung zum Erstellen benutzerdefinierter Apps bereitstellt, die Ihre Geschäftsdaten verbinden. Der Power Apps-Connector ist nützlich, wenn Sie über eine große und wachsende Sammlung von Streamingdaten in Azure Data Explorer verfügen und eine funktionsreiche App mit wenig Code erstellen möchten, um diese Daten nutzen zu können.

Power Automate

Power Automate ist ein Orchestrierungsdienst zum Automatisieren von Unternehmensabläufen. Der Konnektor für Power Automate (zuvor Microsoft Flow) ermöglicht es Ihnen, Abläufe zu orchestrieren und zu planen, Benachrichtigungen und Warnungen als Teil eines geplanten oder ausgelösten Vorgangs zu koordinieren und zu planen.

  • Funktionalität: Datenerfassung, Export
  • Unterstützter Erfassungstyp: Batchverarbeitung
  • Anwendungsfälle: Daten-Orchestrierung
  • Dokumentation: Microsoft Power Automate-Connector

Serilog

Serilog ist ein beliebtes Protokollierungsframework für .NET-Anwendungen. Mit Serilog können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Die Serilog-Senke, auch als Appender bekannt, streamt Ihre Protokolldaten in Ihre Datenbank, wo Sie Ihre Protokolle in Echtzeit analysieren und visualisieren können.

Splunk

Splunk Enterprise ist eine Softwareplattform, mit der Sie Daten aus vielen Quellen gleichzeitig erfassen können. Das Azure Data Explorer-Add-On sendet Daten von Splunk zu einer Tabelle in Ihrem Cluster.

Splunk Universal Forwarder

Telegraf-

Telegraf ist ein leicht, minimaler Open Source-Speicherfußdruck-Agent zum Sammeln, Verarbeiten und Schreiben von Telemetriedaten, einschließlich Protokollen, Metriken und IoT-Daten. Telegraf unterstützt Hunderte von Eingabe- und Ausgabe-Plugins. Es wird von der Open Source Community häufig verwendet und gut unterstützt. Das Ausgabe-Plug-In dient als Konnektor von Telegraf und unterstützt die Erfassung von Daten von vielen Arten von Eingabe-Plug-Ins in Ihre Datenbank.