Überlegungen zur Verwaltung Ihres Lakehouse

Abgeschlossen

Es gibt eine Reihe von Überlegungen und Aspekten, die Sie bei der Verwaltung Ihres Data Lakehouse berücksichtigen sollten, z. B. wie Sie Ihr Lakehouse schützen und Continuous Integration und Continuous Delivery (CI/CD) behandeln.

Sichern Ihres Data Lakehouse

Schützen Sie Ihr Data Lakehouse, indem Sie sicherstellen, dass nur autorisierte Benutzer*innen auf Daten zugreifen können. In Fabric können Sie dazu Berechtigungen auf der Ebene eines Arbeitsbereichs oder Elements festlegen.

Arbeitsbereichsberechtigungen steuern den Zugriff auf alle Elemente innerhalb eines Arbeitsbereichs. Berechtigungen auf Elementebene steuern den Zugriff auf bestimmte Elemente in einem Arbeitsbereich und können verwendet werden, wenn Sie mit Kolleg*innen zusammenarbeiten, die sich nicht im selben Arbeitsbereich befinden oder nur Zugriff auf ein einzelnes, bestimmtes Element benötigen.

Sie können einen strategischen Ansatz wählen und verschiedene Ebenen Ihres Lakehouse in separaten Arbeitsbereichen speichern, um die Sicherheit zu verbessern und eine effiziente Kapazitätsverwaltung zu ermöglichen. Dieser Ansatz erhöht nicht nur die Sicherheit, sondern optimiert auch die Wirtschaftlichkeit.

  • Überlegungen zur Sicherheit und zum Zugriff: Definieren Sie, wer Zugriff auf die einzelnen Ebenen benötigt, und stellen Sie sicher, dass nur autorisierte Mitarbeitende mit vertraulichen Daten interagieren können.
  • Steuerung des Zugriffs auf die Goldebene: Beschränken Sie den Zugriff auf die Goldebene auf Leseberechtigungen, und stellen Sie die Wichtigkeit minimaler Berechtigungen in den Vordergrund.
  • Nutzung der Silberebene: Entscheiden Sie, ob es Benutzer*innen erlaubt sein soll, Daten auf der Silberebene zu nutzen, indem Sie zwischen Flexibilität und Sicherheit abwägen.
  • Steuerung des Zugriffs auf die Bronzeebene: Beschränken Sie den Zugriff auf die Bronzeebene auf Leseberechtigungen, und stellen Sie die Wichtigkeit minimaler Berechtigungen in den Vordergrund.

Besprechen Sie die Freigabe von Fabric-Inhalten mit dem Sicherheitsteam Ihrer Organisation, um sicherzustellen, dass diese den Sicherheitsrichtlinien Ihrer Organisation entspricht.

Überlegungen zu Continuous Integration und Continuous Delivery (CI/CD)

Beim Entwurf eines CI/CD-Prozesses (Continuous Integration und Continuous Delivery) für eine Lakehouse-Architektur müssen verschiedene Überlegungen bedacht werden, um einen reibungslosen und effizienten Bereitstellungsprozess sicherzustellen. Zu diesen Überlegungen zählen die Implementierung von Datenqualitätsprüfungen, die Versionskontrolle, automatisierte Bereitstellungen, die Überwachung und Sicherheitsmaßnahmen. Außerdem sollten die Skalierbarkeit, Notfallwiederherstellung, Zusammenarbeit, Compliance und kontinuierliche Verbesserung berücksichtigt werden, um zuverlässige und effiziente Datenpipelinebereitstellungen sicherzustellen. Während einige dieser Überlegungen mit Prozessen und Praktiken zusammenhängen, beziehen sich andere auf die Tools und Technologien, die zum Implementieren von CI/CD verwendet werden. Fabric bietet nativ mehrere Tools und Technologien zur Unterstützung von CI/CD-Prozessen.

Die Git-Integration in Microsoft Fabric ermöglicht es Ihnen, Entwicklungsprozesse, Tools und bewährte Methoden direkt in die Fabric-Plattform zu integrieren. Dank der Git-Integration von Fabric können Datenteams ihre Arbeit sichern, Versionen verwalten, bei Bedarf zu früheren Phasen zurückkehren, über Git-Branches mit anderen zusammen oder allein arbeiten und die Funktionen vertrauter Quellcodeverwaltungstools zum Verwalten von Fabric-Elementen nutzen.

Hinweis

Weitere Informationen zur Git-Integration in Fabric finden Sie in der Einführung in die Git-Integration.

CI/CD ist auf der Goldebene eines Lakehouse von entscheidender Bedeutung, da es sicherstellt, dass qualitativ hochwertige, validierte und zuverlässige Daten zur Nutzung verfügbar sind. Automatisierte Prozesse ermöglichen die kontinuierliche Integration von neuen Daten, Datentransformationen und Updates. Gleichzeitig reduzieren sie manuelle Fehler und bieten konsistente und aktuelle Erkenntnisse für spätere Benutzer*innen und Anwendungen. Dies verbessert die Datengenauigkeit, beschleunigt die Entscheidungsfindung und unterstützt datengesteuerte Initiativen effektiv.