对于共享报告和PBI数据集大小/刷新限制的不同选项,我有些困惑。我必须基于压缩表格式的5-100 GB范围内的大型事实表来构建报告。我拥有Pro许可证并正在使用PBI Desktop。
答案 0 :(得分:2)
我对数据集大小/刷新限制(1GB专业版,10GB 高级)是否也适用于仪表板或.pbix共享?以来 仪表板或.pbix文件将包含所有数据。所以在导入模式下 将无法基于大于1 / 10GB的表格共享仪表板,对吧?
共享报表时,它不是数据集的副本,而只是报表前端。例如,对于具有1GB数据集的报告,如果有三个用户在使用该报告,则后端将仅为1GB,而不是总内存1GB * 3。如果通过将报表部署到新的工作区或在工作空间中再次处理它来共享报表,则它将占用另外1GB的空间。
如果问题1的答案是“是”,则使用DirectQuery模式是我们唯一的方法 可以绕过10 GB的限制,对吧?
是,克服数据集限制的唯一方法是使用直接查询,并可以选择聚合模式来存储数据的子集。
是否可以通过汇总表绕过数据集限制?也许 基于汇总表构建可视化,不包括 未汇总的庞大事实表。
这将取决于您将应用于粒度数据的聚合量。如果您可以使用汇总数据的查询来回答组织/业务问题,请使用该方法,否则,如果需要组合,请使用Power BI中的汇总模式。最佳实践是仅根据列,行和细化细节引入所需的数据。
是否可以通过自己的PBI Report Server绕过数据集限制?对于 例如,从仅支持导入模式的源中导入数据(即 ADLS)到PBI Desktop,生成大小为12 GB的.pbix文件,将其下载到 自定义报表服务器,然后在其中重新导入(刷新)报表8次 天。没有Premium订阅可以吗?
是的,在某种程度上。默认情况下,报表服务器的大小限制为1GB,因为它会将报表/数据集存储在报表服务器数据库中。您可以在配置中对此进行更新,但是当您打开大型报表时,会旋转一个隐藏的SSAS实例以将其转储到内存引擎中。如果有许多用户使用复杂的度量来加载大型报告,则将占用服务器上的RAM。 Power BI社区网站here
上有很好的答案直接查询/实时连接是为不适合Power BI的大型数据集设计的,我建议利用Azure Tabular / Azure SQL DB / DWH等数据端来进行繁重的数据汇总工作,例如您将按照大型数据集的刷新计划将时间加载,数据刻录到Power BI中。