Freigeben über


Datenqualität für Fabric Lakehouse-Datenbestand (Vorschau)

Fabric OneLake ist ein einzelner, einheitlicher, logischer Data Lake für Ihre gesamte organization. Ein Data Lake verarbeitet große Datenmengen aus verschiedenen Quellen. Wie OneDrive wird Auch OneLake automatisch mit jedem Microsoft Fabric-Mandanten bereitgestellt und ist so konzipiert, dass er der zentrale Ort für alle Ihre Analysedaten ist. OneLake bringt Kunden:

  • Ein Data Lake für die gesamte organization
  • Eine Kopie der Daten für die Verwendung mit mehreren Analyse-Engines

OneLake zielt darauf ab, Ihnen den größtmöglichen Nutzen aus einer einzelnen Kopie von Daten ohne Datenverschiebung oder Duplizierung zu bieten. Sie müssen daten nicht mehr kopieren, nur um sie mit einer anderen Engine zu verwenden oder Silos aufzuschlüsseln, damit Sie die Daten mit Daten aus anderen Quellen analysieren können. Sie können Microsoft Purview verwenden, um den Fabric-Datenbestand zu katalogisieren und die Datenqualität zu messen, um Verbesserungsmaßnahmen zu steuern und zu fördern.

Sie können die Verknüpfung verwenden, um auf Daten zu verweisen, die an anderen Dateispeicherorten gespeichert sind. Diese Dateispeicherorte können sich innerhalb desselben Arbeitsbereichs oder in verschiedenen Arbeitsbereichen, in OneLake oder außerhalb von OneLake in Azure Data Lake Storage (ADLS), AWS S3 oder Dataverse befinden, wobei weitere Zielspeicherorte in Kürze verfügbar sind. Der Speicherort der Datenquelle spielt keine so große Rolle, OneLake-Verknüpfungen lassen Dateien und Ordner so aussehen, als hätten Sie sie lokal gespeichert. Wenn Teams unabhängig in separaten Arbeitsbereichen arbeiten, können Sie mit Verknüpfungen Daten in verschiedenen Geschäftsgruppen und Domänen in einem virtuellen Datenprodukt kombinieren, um die spezifischen Anforderungen eines Benutzers zu erfüllen.

Mithilfe der Spiegelung können Sie Daten aus verschiedenen Quellen in Fabric Mirroring zusammenführen. Die Fabric-Spiegelung in Fabric ist eine kostengünstige Lösung mit geringer Latenz, um Daten aus verschiedenen Systemen in einer einzigen Analyseplattform zusammenzuführen. Sie können Ihren vorhandenen Datenbestand kontinuierlich direkt in OneLake von Fabric replizieren, einschließlich Daten aus Azure SQL Database, Azure Cosmos DB und Snowflake. Mit den aktuellsten Daten in einem abfragbaren Format in OneLake können Sie jetzt alle verschiedenen Dienste in Fabric verwenden. Beispiel: Ausführen von Analysen mit Spark, Ausführen von Notebooks, Datenentwicklung, Visualisieren über Power BI-Berichte und vieles mehr. Die Delta-Tabellen können dann überall in Fabric verwendet werden, sodass Benutzer ihre Journey zu Fabric beschleunigen können.

Konfigurieren der Data Map-Überprüfung

Zum Konfigurieren der Data Map-Überprüfung müssen Sie die Datenquelle registrieren, die Sie überprüfen möchten.

Registrieren von Fabric OneLake

Zum Überprüfen des Fabric-Arbeitsbereichs gibt es keine Änderungen an der vorhandenen Oberfläche zum Registrieren eines Fabric-Mandanten als Datenquelle. Führen Sie die folgenden Schritte aus, um eine neue Datenquelle in Microsoft Purview Unified Catalog zu registrieren:

  • Navigieren Sie im Microsoft Purview-Governanceportal zu Ihrem Microsoft Purview-Konto.
  • Wählen Sie im linken Navigationsbereich Data Map aus.
  • Wählen Sie Registrieren aus.
  • Wählen Sie unter Quellen registrieren die Option Fabric aus.

Anweisungen zur Einrichtung finden Sie unter Demselben Mandanten und mandantenübergreifend .

Einrichten der Data Map-Überprüfung

Für das Scannen von Lakehouse-Unterartikeln gibt es keine Änderungen an der vorhandenen Benutzeroberfläche in Purview, um eine Überprüfung einzurichten. Es gibt einen weiteren Schritt, um den Scananmeldeinformationen mindestens die Rolle Mitwirkender in den Fabric-Arbeitsbereichen zu gewähren, um die Schemainformationen aus unterstützten Dateiformaten zu extrahieren.

Derzeit wird nur der Dienstprinzipal als Authentifizierungsmethode unterstützt. Die MSI-Unterstützung befindet sich noch im Backlog.

Anweisungen zur Einrichtung finden Sie unter Demselben Mandanten und mandantenübergreifend .

Einrichten der Verbindung für die Fabric Lakehouse-Überprüfung

Nachdem Sie Fabric Lakehouse als Quelle registriert haben, können Sie fabric aus der Liste Ihrer registrierten Datenquellen auswählen und Neue Überprüfung auswählen. Fügen Sie Verbindungsdetails hinzu, wie in den folgenden Screenshots hervorgehoben.

Einrichten der Fabric-Überprüfung.

  1. Erstellen einer Sicherheitsgruppe und eines Dienstprinzipals
  2. Fügen Sie dieser Sicherheitsgruppe sowohl diesen Dienstprinzipal als auch die verwaltete Purview-Identität hinzu, und stellen Sie dann diese Sicherheitsgruppe bereit.
  3. Zuordnen der Sicherheitsgruppe zum Fabric-Mandanten
    1. Melden Sie sich beim Fabric-Verwaltungsportal an.
    2. Wählen Sie die Seite Mandanteneinstellungen aus. Sie müssen ein Fabric-Admin sein, um die Seite mit den Mandanteneinstellungen anzuzeigen.
    3. Wählen Sie Admin API-Einstellungen > Dienstprinzipale die Verwendung schreibgeschützter Administrator-APIs erlauben aus.
    4. Wählen Sie Bestimmte Sicherheitsgruppen aus.
    5. Wählen Sie Admin API-Einstellungen > Administrator-APIs-Antworten mit detaillierten Metadaten verbessern und Antworten von Administrator-APIs mit DAX- und Mashupausdrücken > verbessern Aktivieren Sie die Umschaltfläche, damit Microsoft Purview Data Map die detaillierten Metadaten von Fabric-Datasets im Rahmen der Überprüfungen automatisch ermitteln können. Nachdem Sie die Admin API-Einstellungen auf Ihrem Fabric-Mandanten aktualisiert haben, warten Sie etwa 15 Minuten, bevor Sie eine Überprüfungs- und Testverbindung registrieren.
  4. Stellen Sie Admin API-Einstellungen schreibgeschützte API-Berechtigung für diese Sicherheitsgruppe bereit.
  5. Fügen Sie den SPN zum Feld Anmeldeinformationen hinzu.
  6. Fügen Sie den Namen der Azure-Ressource hinzu.

Fabric-Datamap-Scanseite 1

  1. Fügen Sie die Mandanten-ID hinzu.
  2. Fügen Sie die Dienstprinzipal-ID hinzu.
  3. Fügen Sie Key Vault Verbindung hinzu.
  4. Hinzufügen des Geheimnisnamens.

Fabric-Datamap-Scanseite 2

Suchen Sie nach abschluss des Data Map-Scans in Unified Catalog nach einem Lakehouse-instance.

Screenshot: Durchsuchen von Fabric Lakehouse in Unified Catalog

Durchsuchen Sie Lakehouse-Tabellen über die Tabellenkategorie.

Screenshot: Durchsuchen von Fabric Lakehouse-Tabellen in Unified Catalog

Voraussetzungen für die Fabric Lakehouse-Datenqualitätsüberprüfung

  1. Verknüpfung, Spiegel oder Laden Ihrer Daten in Fabric Lakehouse im Delta-Format.

Screenshot: Fabric-Delta-Tabelle

Wichtig

Wenn Sie fabric lakehouse neue Tabellen, Dateien oder neue Daten per Morroring oder Verknüpfung hinzugefügt haben, müssen Sie eine Datamap-Bereichsüberprüfung ausführen, um diese neuen Daten zu katalogisieren, bevor Sie diese Datenressource dem Datenprodukt zur Bewertung der Datenqualität hinzufügen.

  1. Gewähren des Rechtes "Mitwirkender" für Ihren Arbeitsbereich für Purview MSI

Screenshot: Gewähren des Zugriffs auf Mitwirkender

  1. Fügen Sie die gescannte Datenressource aus Lakehouse den Datenprodukten der Governancedomäne hinzu. Datenprofilerstellung und DQ-Überprüfungen können nur für die Datenressourcen durchgeführt werden, die den Datenprodukten in der Governancedomäne zugeordnet sind.

Screenshot: Lakehouse-Datenressourcen, die dem Datenprodukt hinzugefügt wurden

Für die Datenprofilerstellung und die Überprüfung der Datenqualität müssen wir eine Datenquellenverbindung erstellen, da wir einen anderen Connector verwenden, um eine Datenquelle zu verbinden und Daten zu scannen, um Fakten und Dimensionen der Datenqualität zu erfassen. So richten Sie eine Verbindung ein:

  • Wählen Sie in Unified Catalog Die Option Integritätsverwaltung und dann Datenqualität aus.

  • Wählen Sie eine Governancedomäne und in der Dropdownliste Verwalten die Option Connections aus.

  • Wählen Sie Neu aus, um die Verbindungskonfigurationsseite zu öffnen.

  • Fügen Sie den Verbindungsanzeigenamen und eine Beschreibung hinzu.

  • Fügen Sie den Quelltyp Fabric hinzu.

  • Fügen Sie die Mandanten-ID hinzu.

  • Fügen SieDie Microsoft Purview-MSIfür Anmeldeinformationen - hinzu.

  • Testen Sie die Verbindung, um sicherzustellen, dass die konfigurierte Verbindung erfolgreich ist.

    Screenshot: Einrichten der Fabric-Verbindung

Wichtig

  • Für die DQ-Überprüfung muss purview MSI Mitwirkender Zugriff auf den Fabric-Arbeitsbereich haben, um eine Verbindung mit dem Fabric-Arbeitsbereich herzustellen. Um Mitwirkender Zugriff zu gewähren, öffnen Sie Ihren Fabric-Arbeitsbereich, wählen Sie drei Punkte (...) aus, wählen Sie Arbeitsbereichszugriff, dann Personen oder Gruppe hinzufügen aus, und fügen Sie dann Purview MSI als Mitwirkender hinzu.
  • Fabric-Tabellen müssen im Delta- oder Eisbergformat vorliegen.

Profilerstellung und Datenqualitätsüberprüfung (DQ) für Daten in Fabric Lakehouse

Nachdem die Verbindungseinrichtung erfolgreich abgeschlossen wurde, können Sie in Fabric Lakehouse Profile erstellen, Regeln erstellen und anwenden und eine Datenqualitätsüberprüfung (Data Quality, DQ) ihrer Daten ausführen. Befolgen Sie die unten beschriebene Schritt-für-Schritt-Anleitung:

  1. Zuordnen einer Lakehouse-Tabelle zu einem Datenprodukt für Zusammenstellung, Ermittlung und Abonnement. Weitere Informationen finden Sie im Dokument Erstellen und Verwalten von Datenprodukten.

Screenshot: Zuordnen einer Lakehouse-Tabelle zum Datenprodukt

  1. Profile Fabric Lakehouse-Tabelle. Weitere Informationen finden Sie im Dokument Konfigurieren und Ausführen der Datenprofilerstellung für Ihre Daten.

Screenshot: Profil einer Lakehouse-Tabelle

  1. Konfigurieren und Ausführen der Datenqualitätsüberprüfung, um die Datenqualität einer Fabric Lakehouse-Tabelle zu messen. Weitere Informationen finden Sie im Dokument Konfigurieren und Ausführen der Datenqualitätsüberprüfung.

Screenshot: Scannen einer Lakehouse-Tabelle

Wichtig

  • Stellen Sie sicher, dass Ihre Daten im Delta- oder Eisbergformat vorliegen.
  • Stellen Sie sicher, dass der Data Map-Scan erfolgreich ausgeführt wurde, andernfalls führen Sie die Datenzuordnungsüberprüfung erneut aus.

Einschränkung

Data Quality für Parquet-Dateien ist so konzipiert, dass Folgendes unterstützt wird:

  • Ein Verzeichnis mit Parquet-Part-Datei. Beispiel: ./Sales/{Parquet Part Files}. Der vollqualifizierte Name muss folgen https://(storage account).dfs.core.windows.net/(container)/path/path2/{SparkPartitions}. Stellen Sie sicher, dass keine {n}-Muster in der Verzeichnis-/Unterverzeichnisstruktur vorhanden sind, sondern ein direkter FQN sein muss, der zu {SparkPartitions} führt.
  • Ein Verzeichnis mit partitionierten Parquet-Dateien, partitioniert nach Spalten innerhalb des Datasets, z. B. Nach Jahr und Monat partitionierte Verkaufsdaten. Beispiel: ./Sales/{Year=2018}/{Month=Dec}/{Parquet Part Files}.

Beide wichtigen Szenarien, die ein konsistentes Parquet-Datasetschema aufweisen, werden unterstützt. Einschränkung: Es ist nicht für N beliebige Hierarchien von Verzeichnissen mit Parquet-Dateien konzipiert oder wird nicht unterstützt. Wir empfehlen dem Kunden, Daten in (1) oder (2) konstruierter Struktur darzustellen. Daher wird dem Kunden empfohlen, den unterstützten Parquet-Standard zu befolgen oder seine Daten in das ACID-kompatible Deltaformat zu migrieren.

Tipp

Für Data Map

  • Stellen Sie sicher, dass der SPN über Arbeitsbereichsberechtigungen verfügt.
  • Stellen Sie sicher, dass die Überprüfungsverbindung den SPN verwendet.
  • Ich würde vorschlagen, eine vollständige Überprüfung auszuführen, wenn Sie lakehouse-Überprüfung zum ersten Mal einrichten.
  • Überprüfen, ob die erfassten Ressourcen aktualisiert/aktualisiert wurden

Unified Catalog

  • Die DQ-Verbindung muss MSI-Anmeldeinformationen verwenden.
  • Erstellen Sie idealerweise ein neues Datenprodukt zum erstmaligen Testen des DQ-Scans für Lakehouse-Daten.
  • Fügen Sie die erfassten Datenressourcen hinzu, und überprüfen Sie, ob die Datenressource aktualisiert wurde.
  • Versuchen Sie das Ausführungsprofil. Führen Sie bei Erfolg die DQ-Regel aus. Wenn dies nicht erfolgreich ist, versuchen Sie, das Ressourcenschema zu aktualisieren (Schemaschemaverwaltungs-Importschema> ).
  • Einige Benutzer mussten auch ein neues Lakehouse und Beispieldaten erstellen, um zu überprüfen, ob alles von Grund auf funktioniert. In einigen Fällen ist das Arbeiten mit Ressourcen, die zuvor in der Data Map erfasst wurden, nicht konsistent.

Referenzdokumente