Partager via


Qualité des données pour le patrimoine de données Fabric Lakehouse (préversion)

Fabric OneLake est un lac de données unique, unifié et logique pour l’ensemble de votre organization. Un lac de données traite de grands volumes de données provenant de différentes sources. Comme OneDrive, OneLake est fourni automatiquement avec chaque locataire Microsoft Fabric et est conçu pour être l’emplacement unique pour toutes vos données d’analyse. OneLake apporte aux clients :

  • Un lac de données pour l’ensemble du organization
  • Une copie des données à utiliser avec plusieurs moteurs analytiques

OneLake vise à vous donner le plus de valeur possible à partir d’une seule copie de données sans déplacement ou duplication de données. Vous n’avez plus besoin de copier des données simplement pour les utiliser avec un autre moteur ou pour décomposer les silos afin de pouvoir analyser les données avec des données provenant d’autres sources. Vous pouvez utiliser Microsoft Purview pour cataloguer le patrimoine de données de l’infrastructure et mesurer la qualité des données afin de régir et de piloter l’action d’amélioration.

Vous pouvez utiliser le raccourci pour référencer des données stockées dans d’autres emplacements de fichiers. Ces emplacements de fichiers peuvent se trouver dans le même espace de travail ou dans différents espaces de travail, dans OneLake ou externes à OneLake dans Azure Data Lake Storage (ADLS), AWS S3 ou Dataverse, avec d’autres emplacements cibles bientôt disponibles. L’emplacement de la source de données n’a pas autant d’importance. Les raccourcis OneLake font en sorte que les fichiers et les dossiers ressemblent à ceux que vous avez stockés localement. Lorsque les équipes travaillent indépendamment dans des espaces de travail distincts, les raccourcis vous permettent de combiner des données dans différents groupes d’entreprise et domaines dans un produit de données virtuel pour répondre aux besoins spécifiques d’un utilisateur.

Vous pouvez utiliser la mise en miroir pour rassembler des données provenant de différentes sources dans Fabric La mise en miroir dans Fabric est une solution à faible coût et à faible latence pour regrouper les données de différents systèmes dans une plateforme d’analytique unique. Vous pouvez répliquer en continu votre patrimoine de données existant directement dans OneLake de Fabric, y compris les données de Azure SQL Database, Azure Cosmos DB et Snowflake. Avec les données les plus récentes dans un format interrogeable dans OneLake, vous pouvez désormais utiliser tous les différents services dans Fabric. Par exemple, l’exécution d’analyses avec Spark, l’exécution de notebooks, l’ingénierie des données, la visualisation via des rapports Power BI, etc. Les tables Delta peuvent ensuite être utilisées partout dans Fabric, ce qui permet aux utilisateurs d’accélérer leur parcours vers Fabric.

Configurer l’analyse data map

Pour configurer l’analyse data map, vous devez inscrire la source de données que vous souhaitez analyser.

Inscrire Fabric OneLake

Pour l’analyse de l’espace de travail Fabric, aucune modification n’est apportée à l’expérience existante pour inscrire un locataire Fabric en tant que source de données. Pour inscrire une nouvelle source de données dans Catalogue unifié Microsoft Purview, procédez comme suit :

  • Accédez à votre compte Microsoft Purview dans le portail de gouvernance Microsoft Purview.
  • Sélectionnez Data Map dans le volet de navigation gauche.
  • Sélectionnez Inscrire.
  • Dans Inscrire des sources, sélectionnez Infrastructure

Reportez-vous aux mêmes locataires et interlocataires pour obtenir des instructions d’installation.

Configurer l’analyse data map

Pour l’analyse des sous-objets Lakehouse, aucune modification n’est apportée à l’expérience existante dans Purview pour configurer une analyse. Il existe une autre étape pour accorder les informations d’identification d’analyse avec au moins le rôle Contributeur dans les espaces de travail Fabric pour extraire les informations de schéma des formats de fichiers pris en charge.

Actuellement, seul le principal de service est pris en charge comme méthode d’authentification. La prise en charge MSI est toujours en souffrance.

Reportez-vous aux mêmes locataires et interlocataires pour obtenir des instructions d’installation.

Configurer la connexion pour l’analyse Fabric Lakehouse

Après avoir inscrit Fabric Lakehouse en tant que source, vous pouvez sélectionner Fabric dans la liste de vos sources de données inscrites, puis sélectionner Nouvelle analyse. Ajoutez les détails de connexion, comme indiqué dans les captures d’écran ci-dessous.

configuration de l’analyse de fabric.

  1. Créer un groupe de sécurité et un principal de service
  2. Veillez à ajouter ce principal de service et l’identité managée Purview à ce groupe de sécurité, puis fournissez ce groupe de sécurité.
  3. Associer le groupe de sécurité au locataire Fabric
    1. Connectez-vous au portail d’administration Fabric.
    2. Sélectionnez la page Paramètres du locataire. Vous devez être un Administration Fabric pour afficher la page des paramètres du locataire.
    3. Sélectionnez Administration paramètres > de l’API Autoriser les principaux de service à utiliser les API d’administration en lecture seule.
    4. Sélectionnez Groupes de sécurité spécifiques.
    5. Sélectionnez Administration paramètres > de l’API Améliorer les réponses des API d’administration avec des métadonnées détaillées et Améliorer les réponses des API d’administration avec des expressions > DAX et mashup Activez le bouton bascule pour permettre aux Mappage de données Microsoft Purview de découvrir automatiquement les métadonnées détaillées des jeux de données Fabric dans le cadre de ses analyses. Après avoir mis à jour les paramètres de l’API Administration sur votre locataire Fabric, attendez environ 15 minutes avant d’inscrire une analyse et de tester la connexion.
  4. Fournissez Administration l’autorisation API en lecture seule des paramètres d’API à ce groupe de sécurité.
  5. Ajoutez spn dans le champ Informations d’identification .
  6. Ajoutez le nom de la ressource Azure.

Page 1 de l’analyse du datamap de structure

  1. Ajoutez l’ID de locataire.
  2. Ajouter l’ID de principe de service.
  3. Ajoutez Key Vault connexion.
  4. Ajouter le nom du secret.

Page 2 de l’analyse du datamap de structure

Une fois l’analyse data map terminée, localisez un instance Lakehouse à partir de Catalogue unifié.

Capture d’écran montrant l’infrastructure de navigation lakehouse dans Catalogue unifié

Parcourez les tables lakehouse via la catégorie tables .

Capture d’écran montrant la navigation dans les tables fabric lakehouse dans Catalogue unifié

Prérequis pour l’analyse de la qualité des données Fabric Lakehouse

  1. Raccourcissez, miroir ou chargez vos données dans Fabric lakehouse au format delta.

Capture d’écran montrant la table delta de l’infrastructure.

Importante

Si vous avez ajouté de nouvelles tables, fichiers ou nouvel ensemble de données à Fabric lakehouse par le biais d’un raccourci ou d’un morroring, vous devez exécuter l’analyse de l’étendue du datamap pour cataloguer ces nouveaux ensembles de données avant d’ajouter ces ressources de données au produit de données pour l’évaluation de la qualité des données.

  1. Accorder le droit contributeur à votre espace de travail pour Purview MSI

Capture d’écran montrant comment accorder contributeur accès.

  1. Ajoutez la ressource de données analysées de lakehouse aux produits de données du domaine de gouvernance. Le profilage des données et l’analyse DQ ne peuvent être effectués que pour les ressources de données associées aux produits de données sous le domaine de gouvernance.

Capture d’écran montrant les ressources de données lakehouse ajoutées au produit de données.

Pour le profilage des données et l’analyse de la qualité des données, nous devons créer une connexion à la source de données, car nous utilisons un connecteur différent pour connecter la source de données et pour analyser les données afin de capturer les faits et dimensions de la qualité des données. Pour configurer la connexion :

  • Dans Catalogue unifié, sélectionnez Gestion de l’intégrité, puis Qualité des données.

  • Sélectionnez un domaine de gouvernance, puis, dans la liste déroulante Gérer, sélectionnez Connections.

  • Sélectionnez Nouveau pour ouvrir la page de configuration de la connexion.

  • Ajoutez un nom d’affichage de connexion et une description.

  • Ajoutez le type de source Fabric.

  • Ajoutez l’ID de locataire.

  • Ajouter les informations d’identification - Microsoft Purview MSI.

  • Testez la connexion pour vous assurer que la connexion configurée est réussie.

    Capture d’écran montrant comment configurer la connexion à l’infrastructure.

Importante

  • Pour l’analyse DQ, Purview MSI doit avoir contributeur accès à l’espace de travail Fabric pour connecter l’espace de travail Fabric. Pour accorder contributeur accès, ouvrez votre espace de travail Fabric, sélectionnez trois points (...), sélectionnez Accès à l’espace de travail, puis Ajouter des personnes ou un groupe, puis ajoutez Purview MSI en tant que Contributeur.
  • Les tables fabric doivent être au format delta ou iceberg.

Profilage et analyse de la qualité des données (DQ) dans Fabric Lakehouse

Une fois la configuration de la connexion terminée, vous pouvez profiler, créer et appliquer des règles, et exécuter une analyse de la qualité des données (DQ) de vos données dans Fabric Lakehouse. Suivez les instructions pas à pas décrites ci-dessous :

  1. Associez une table Lakehouse à un produit de données pour la curation, la découverte et l’abonnement. Pour plus d’informations, suivez le document - Comment créer et gérer des produits de données

Capture d’écran montrant l’association d’une table lakehouse à un produit de données.

  1. Profiler la table lakehouse fabric. Pour plus d’informations, suivez le document - Comment configurer et exécuter le profilage des données de vos données

Capture d’écran montrant le profil d’une table lakehouse.

  1. Configurez et exécutez l’analyse de la qualité des données pour mesurer la qualité des données d’une table Fabric lakehouse. Pour plus d’informations, suivez le document sur la configuration et l’exécution de l’analyse de la qualité des données

Capture d’écran montrant l’analyse d’une table lakehouse.

Importante

  • Assurez-vous que vos données sont au format delta ou iceberg.
  • Vérifiez que l’analyse Data Map a été correctement exécutée, sinon réexécutez l’analyse de la carte de données.

Restriction

La qualité des données pour le fichier Parquet est conçue pour prendre en charge les points suivants :

  • Répertoire avec fichier de composant Parquet. Par exemple : ./Sales/{Parquet Part Files}. Le nom complet doit suivre https://(storage account).dfs.core.windows.net/(container)/path/path2/{SparkPartitions}. Assurez-vous que nous n’avons pas de modèles {n} dans la structure des répertoires/sous-répertoires. Il doit plutôt s’agir d’un nom de domaine complet direct menant à {SparkPartitions}.
  • Répertoire avec des fichiers Parquet partitionnés, partitionnés par colonnes dans le jeu de données, comme les données de ventes partitionnée par année et par mois. Par exemple : ./Sales/{Year=2018}/{Month=Dec}/{Parquet Part Files}.

Ces deux scénarios essentiels qui présentent un schéma de jeu de données Parquet cohérent sont pris en charge. Limitation : il n’est pas conçu pour ou ne prend pas en charge N hiérarchies arbitraires de répertoires avec des fichiers Parquet. Nous conseillons au client de présenter des données dans (1) ou (2) structure construite. Il est donc recommandé au client de suivre la norme Parquet prise en charge ou de migrer ses données vers le format delta conforme ACID .

Conseil

Pour Data Map

  • Vérifiez que le SPN dispose des autorisations d’espace de travail.
  • Vérifiez que la connexion d’analyse utilise le SPN.
  • Je vous suggère d’exécuter l’analyse complète si vous configurez l’analyse lakehouse pour la première fois.
  • Vérifier que les ressources ingérées ont été mises à jour/actualisées

Catalogue unifié

  • La connexion DQ doit utiliser des informations d’identification MSI.
  • Idéalement, créez un produit de données pour le premier test de l’analyse DQ des données lakehouse
  • Ajoutez les ressources de données ingérées, case activée que la ressource de données soit mise à jour.
  • Essayez d’exécuter le profil d’exécution, en cas de réussite, essayez d’exécuter la règle DQ. En cas d’erreur, essayez d’actualiser le schéma de ressource (schéma> d’importation de gestion des schémas)
  • Certains utilisateurs devaient également créer un lakehouse et échantillonner des données pour case activée tout fonctionne à partir de zéro. Dans certains cas, l’utilisation de ressources précédemment ingérées dans data map n’est pas cohérente.

Documents de référence