Übersicht über Connectors

Data Factory in Microsoft Fabric bietet einen umfassenden Connectorsatz, mit dem Sie mit verschiedenen Arten von Datenspeichern eine Verbindung herstellen können. Sie können diese Connectors nutzen, um Daten in Dataflows umzuwandeln oder ein Dataset auf PB-Ebene mit hoher Skalierung in eine Datenpipeline zu verschieben.

Voraussetzungen

Bevor Sie eine Verbindung in Dataflow Gen2 oder einer Datenpipeline einrichten können, müssen die folgenden Voraussetzungen erfüllt sein:

Unterstützte Datenconnectors in Dataflows

Dataflow Gen2 bietet Funktionen zur Erfassung und Transformation von Daten aus einer Vielzahl von Datenquellen. Zu diesen Datenquellen gehören verschiedene Arten von Dateien, Datenbanken, Online-, Cloud- und lokale Datenquellen. Es gibt mehr als 145 verschiedene Datenconnectors, auf die Sie bei der Erstellung von Dataflows über die Funktion „Daten abrufen” zugreifen können.

Screenshot: Bildschirm „Datenquelle auswählen“

Eine umfassende Liste aller derzeit unterstützten Datenconnectors finden Sie unter Dataflow Gen2 Connectors in Microsoft Fabric.

Die folgenden Connectors sind derzeit für Ausgabeziele in Dataflow Gen2 verfügbar:

  • Azure-Daten-Explorer
  • Azure SQL
  • Data Warehouse
  • Lakehouse

Unterstützte Datenspeicher in der Datenpipeline

Data Factory in Microsoft Fabric unterstützt die folgenden Datenspeicher in einer Datenpipeline über die Aktivitäten „Kopieren”, „Suchen”, „Metadaten abrufen”, „Löschen”, „Skript” und „Gespeicherte Prozedur”. Eine umfassende Liste aller derzeit unterstützten Datenconnectors finden Sie unter Datenpipelineconnectors in Microsoft Fabric.

Hinweis

Derzeit wird eine Pipeline auf einem verwalteten VNet-Gateway in Data Factory für Microsoft Fabric nicht unterstützt.