确定何时开发导入模型
导入模型包含存储模式属性设置为“导入”的表。 它还包含可以使用 DAX 公式定义的计算表。
导入模型的优势
导入模型是最常开发的模型框架,因为它们有许多优势。 导入模型:
- 支持所有 Power BI 数据源类型,包括数据库、文件、源、网页、数据流等。
- 可以集成源数据。 例如,一个表将关系数据库用作数据源,而相关的表将网页用作数据源。
- 支持所有 DAX 和 Power Query (M) 功能。
- 支持计算表。
- 提供最佳查询性能。 这是因为,模型中缓存的数据已针对分析查询(筛选、分组和汇总)进行优化,并且模型完全存储在内存中。
简而言之,导入模型提供最多的选项和最高的设计灵活性,同时提供优异的性能。 出于此原因,当你“获取数据”时,Power BI Desktop 默认将使用导入存储模式。
导入模型的限制
尽管导入模型有许多引人注目的优势,但也必须记住它的一些限制。 限制与模型大小和数据刷新有关。
模型大小
Power BI 施加数据集大小限制,以便限制模型的大小。 将模型发布到共享容量时,每个数据集的大小限制为 1-GB。 如果超过此大小限制,将无法刷新该数据集。 将模型发布到专用容量(也称为高级容量)时,如果为容量启用了大型数据集存储格式设置,该模型可以会增长到 10 GB 以上。
应始终努力减少表中存储的数据量。 此策略有助于减少模型刷新的持续时间并加快模型查询。 可以应用许多数据缩减技术,包括:
- 删除不必要的列
- 删除不必要的行
- 分组和汇总以提高事实数据表的粒度
- 优先使用数值数据,以优化列数据类型
- 优先使用 Power Query 中的自定义列,而不是模型中的计算列
- 禁用 Power Query 查询负载
- 禁用自动日期/时间
- 使用 DirectQuery 表存储,如本模块后面的单元中所述。
有关详细信息,请参阅用于导入建模的数据缩减技术。
注意
每个数据集不超过 1-GB 的限制是指 Power BI 模型的压缩大小,而不是从源系统收集的数据量。
数据刷新
导入的数据必须定期刷新。 数据集数据的新旧状态只与上次成功刷新数据时的状态一致。 若要使数据保持最新,可以设置计划数据刷新,或者报表使用者可以执行按需刷新。
Power BI 对计划刷新操作的执行频率施加限制。 在共享容量中每日最多可执行 8 次,在专用容量中每日最多可执行 48 次。
应该确定是否可以容忍这种延迟程度。 这种判定通常取决于数据的速度(或易变性),以及让用户知道当前数据状态的迫切性。 如果计划刷新限制不可接受,请考虑使用 DirectQuery 存储表或创建混合表。 也可以改用不同的方法,并创建实时数据集。
提示
第 4 单元介绍了混合表。 有关实时数据集的信息,请参阅使用 Power BI 实时监视数据模块。
还必须考虑刷新工作负载和持续时间。 默认情况下,若要刷新某个表,Power BI 会删除所有数据,然后重新加载该表。 这些操作可能会给源系统带来不可接受的负担,尤其是对于大型事实数据表而言。 若要减轻这种负担,可以设置增量刷新功能。 增量刷新将自动化时段分区的创建和管理,并智能化地仅更新那些需要刷新的分区。
如果数据源支持增量刷新,则它可以更快、更可靠地实现刷新,并减少 Power BI 和源系统的资源消耗。
高级数据建模师可以自定义自己的分区策略。 自动化脚本可以创建、管理和刷新表分区。 有关详细信息,请参阅 Power BI 使用方案:高级数据模型管理。 此使用方案介绍了如何使用 Power BI Premium 提供的 XMLA 终结点。