配置并运行数据资产的数据分析
数据分析是检查不同数据源中可用的数据并收集有关此数据的统计信息和信息的过程。 数据分析有助于根据定义的目标集评估数据的质量级别。 如果数据质量不佳,或者在无法集成以满足企业需求的结构中管理数据,则业务流程和决策会受到影响。 通过数据分析,你可以了解数据的可信度和质量,这是做出数据驱动型决策以增加收入和促进增长的先决条件。
先决条件
- 若要运行和计划数据质量评估扫描,用户必须具有 数据质量专员角色。
- 目前,可以将 Microsoft Purview 帐户设置为允许公共访问或托管 vNet 访问,以便可以运行数据质量扫描。
数据质量生命周期
数据分析是数据资产的数据质量生命周期的第五步。 前面的步骤包括:
- 在 统一目录 中分配用户 () 数据质量专员权限,以使用所有数据质量功能。
- 在Microsoft Purview 数据映射中注册和扫描数据源。
- 将数据资产添加到数据产品
- 设置数据源连接,以便为数据质量评估准备源。
支持的多云数据源
- Azure Data Lake Storage (ADLS Gen2)
- 文件类型:Delta Parquet 和 Parquet
- Azure SQL 数据库
- OneLake 中的 Fabric 数据资产包括快捷方式和镜像数据资产。 仅 Lakehouse 增量表和 parquet 文件支持数据分析。
- 镜像数据资产:Cosmos DB、Snowflake Azure SQL
- 快捷方式数据资产:AWS S3、GCS、AdlsG2 和 Dataverse
- Azure Synapse无服务器和数据仓库
- Azure Databricks Unity 目录
- Snowflake
- Google Big Query (个人预览版)
重要
Parquet 文件的数据质量旨在支持:
- 包含 Parquet 部件文件的目录。 例如: ./Sales/{Parquet Part Files}。 完全限定的名称必须跟在 后面
https://(storage account).dfs.core.windows.net/(container)/path/path2/{SparkPartitions}
。 请确保目录/子目录结构中没有 {n} 模式,而必须是指向 {SparkPartitions} 的直接 FQN。 - 包含已分区 Parquet 文件的目录,按数据集中的列分区,例如按年份和月份分区的销售数据。 例如: ./Sales/{Year=2018}/{Month=Dec}/{Parquet Part Files}。
这两个基本方案都支持提供一致的 parquet 数据集架构。
限度: 它不设计为或将不支持具有 Parquet 文件的目录的 N 个任意层次结构。
我们建议客户以 (1) 或 (2) 构造结构呈现数据。
支持的身份验证方法
目前,Microsoft Purview 只能使用 托管标识 作为身份验证选项运行数据质量扫描。 数据质量服务在 Apache Spark 3.4 和 Delta Lake 2.4 上运行。 有关受支持区域的详细信息,请参阅 数据质量概述。
重要
如果在数据源上更新了架构,则必须在运行数据分析之前重新运行数据映射扫描。
配置数据分析作业的步骤
从Microsoft Purview 统一目录,选择“运行状况管理”菜单和数据质量子菜单。
在数据质量子菜单中选择用于数据分析的 “治理域 ”。
选择 数据产品 以分析链接到该产品 的数据资产 。
选择数据资产以导航到用于分析的数据质量 “概述 ”页。
选择“ 配置文件” 按钮,为所选数据资产运行分析作业。
AI 建议引擎建议运行数据探查的潜在重要列。 可以取消选择建议的列和/或选择要分析的更多列。
选择相关列后,选择“ 运行配置文件”。
作业正在运行时, 可以从治理域中的数据质量监视页跟踪其进度。
作业完成后,从资产数据质量页的左侧菜单中选择“配置文件”选项卡,列出浏览分析结果和统计快照。 可能会有多个配置文件结果页,具体取决于数据资产包含的列数。
浏览每列的分析结果和统计度量值。
重要
如果格式在源系统中是标准且正确,则增量格式主要是自动检测的。 若要分析 Parquet 或 iceberg 文件格式,需要将数据资产类型更改为 Parquet 或 iceberg。 如以下屏幕截图所示,如果数据资产文件格式不是 delta,请更改默认数据资产类型 Parquet 或其他支持的格式。 在配置分析作业之前,必须完成此更改。
相关内容
- Fabric 数据资产的数据质量
- Fabric 镜像数据源的数据质量
- Fabric 快捷方式数据源的数据质量
- Azure Synapse无服务器和数据仓库的数据质量
- Azure Databricks Unity目录的数据质量
- Snowflake 数据源的数据质量
- Google Big Query 的数据质量
后续步骤
- 根据分析结果设置数据质量规则,并将其应用于数据资产。
- 在数据产品上配置并运行数据质量扫描 ,以评估数据产品中所有受支持资产的质量。
- 查看扫描结果 以评估数据产品的当前数据质量。