Tableau数据限制

时间:2016-08-16 08:33:35

标签: datasource limit extract tableau

我一直听到关于记录/数据大小,tableau可以处理的相互矛盾的陈述。 在上周,有两个人告诉我他们有破折号,即100米和600米的记录。他们会进行渐进式刷新。

如果我有一个xxx万条记录。客户端是否仅接收聚合视图中的数据。

所以,如果我有一个拥有2亿条记录的来源。在短划线中,它显示了每个产品每周汇总的总数。假设这是400个单元格(在它下面是数百万条记录)。客户端是否只接收400个数据点。 如果我然后向子产品或用户级别数据添加过滤器,是否意味着由于过滤器导入了所有这些数据?如果是这种情况,这会如何影响速度?

1 个答案:

答案 0 :(得分:1)

最终,Tableau可以处理数据源可以处理的数据量。如果设置为Tableau会直接连接到数据源,则只会将查询的结果传输给用户。我在BigQuery中拥有十亿行数据源,可将合理快速的聚合数字返回给Tableau。

如果您的数据源不是,那么这将无法在Tableau中获得良好的结果。

如果您正在使用数据提取,实际上Tableau在本地提取所有数据,那么事情通常会更快,但您将对数据集的大小设置本地驱动器和内存限制。每个用户都需要一个提取。除非您使用Tableau服务器,否则提取可以在服务器上。

当有大量过滤器时,构建在大数据源上的仪表板有时会变慢,因为填充每个过滤器需要一个数据源查询(每次使用过滤器时都可能会触发)。通过使用生成用于过滤的所有值的部分提取(有时可以使用参数来获得类似的速度增益),有一些策略可以通过此问题加速仪表板。或者甚至只是智能地设计过滤器。但速度通常是限制因素,而不是源表的 size

Tableau可以处理的唯一真正限制是显示多少个点。这取决于RAM。根据我的经验,一台4GB的机器会在图表上窒息几百万点(例如,绘制英国每个邮政编码的地图)。但是在16GB的RAM机器上,除了绘制点的速度之外,我从未发现过限制。