Preisszenario mit Dataflow Gen2 zum Laden von 2 GB Parquet-Daten in eine Lakehouse-Tabelle

In diesem Szenario wurde Dataflow Gen2 verwendet, um 2 GB Parquet-Daten zu laden, die in Azure Data Lake Storage (ADLS) Gen2 in einer Lakehouse-Tabelle in Microsoft Fabric gespeichert sind. Wir haben die Beispieldaten „NYC Taxi – Green“ für die Parquet-Daten verwendet.

Die im folgenden Beispiel verwendeten Preise sind hypothetisch und stellen nicht die tatsächlichen genauen Preise dar. Diese Beispiele sollen nur zeigen, wie Sie die Kosten für Data Factory-Projekte in Microsoft Fabric schätzen, planen und verwalten können. Da die Preise für Fabric-Kapazitäten in jeder Region unterschiedlich sind, verwenden wir nutzungsbasierte Preise für eine Fabric-Kapazität in USA, Westen 2 (einer typischen Azure-Region) in Höhe von 0,18 $ pro CU und Stunde. Weitere Preisoptionen für Fabric-Kapazitäten finden Sie unter Microsoft Fabric – Preise.

Konfiguration

Um dieses Szenario zu realisieren, müssen Sie einen Dataflow mit den folgenden Schritten erstellen:

  1. Initialisieren von Dataflow: Abrufen von 2 GB Parquet-Daten aus ADLS Gen2-Speicherkonto.
  2. Konfigurieren der Power Query:
    1. Navigieren Sie zu Power Query.
    2. Stellen Sie sicher, dass die Option zum Staging der Abfrage aktiviert ist.
    3. Fahren Sie fort, um die Parquet-Dateien zu kombinieren.
  3. Datentransformation:
    1. Stufen Sie Kopfzeilen zur Übersichtlichkeit höher.
    2. Entfernen Sie überflüssige Spalten.
    3. Passen Sie die Spaltendatentypen nach Bedarf an.
  4. Definieren des Ausgabedatenziels:
    1. Konfigurieren Sie Lakehouse als Datenausgabeziel.
    2. In diesem Beispiel wurde ein Lakehouse in Fabric erstellt und verwendet.

Kostenschätzung mithilfe der Fabric-Metrik-App

Screenshot showing the duration and CU consumption of the job in the Fabric Metrics App.

Screenshot showing details of Dataflow Gen2 Refresh duration and CU consumption.

Screenshot showing details of SQL Endpoint Query duration and CU consumption used in the run.

Screenshot showing details of Warehouse Query and OneLake Compute duration and CU consumption used in the run.

Screenshot showing details of Query and Dataset On-Demand Refresh duration and CU consumption and SQL Endpoint Query used in the run.

Screenshot showing details of a second Query and Dataset On-Demand Refresh duration and CU consumption used in the run.

Screenshot showing details of OneLake Compute and 2 High Scale Dataflow Compute duration and CU consumption used in the run.

Für die Verbrauchseinheit vom Typ „Hohe Skalierung für Dataflow-Computeressourcen“ wurde eine vernachlässigbare Aktivität aufgezeichnet. Für die Verbrauchseinheit vom Typ „Standard-Compute“ für Dataflow Gen2-Aktualisierungsvorgänge verbraucht 112.098,540 Compute-Einheiten (Compute Units, CUs). Es ist wichtig zu beachten, dass andere Vorgänge, einschließlich Warehouse-Abfragen, SQL-Endpunktabfragen und bedarfsgesteuerte Dataset-Aktualisierungen, detaillierte Aspekte der Dataflow Gen2-Implementierung darstellen, die derzeit transparent und für ihre jeweiligen Vorgänge erforderlich sind. Diese Vorgänge werden jedoch in zukünftigen Updates verborgen und sollten bei der Schätzung der Kosten für Dataflow Gen2 ignoriert werden.

Hinweis

Obwohl die tatsächliche Ausführungsdauer als Metrik gemeldet wird, ist sie für die Berechnung der effektiven CU-Stunden mit der Fabric-Metrik-App nicht relevant, da die ebenfalls gemeldete CU-Sekunden-Metrik die Dauer bereits berücksichtigt.

Metrik Compute Standard High Scale Compute
CU-Sekunden insgesamt 112.098,54 CU-Sekunden 0 CU-Sekunden
Effektiv berechnete CU-Stunden 112.098,54 / (60 · 60) = 31,14 CU-Stunden 0 / (60*60) = 0 CU-Stunden

Gesamtlaufkosten bei 0,18 USD/CU-Stunde = (31,14 CU-Stunden) · (0,18 USD/CU-Stunde) ~= 5,60 USD