表格的mean_partition_size显示错误的极高值

时间:2019-01-27 13:41:30

标签: scylla

我在scylla中有一个表,在键空间“ keyspacey”中将其称为“ tablex”,现在,我将表中的数据加载到Spark中,并且观察到很多分区,挖掘了我看到的代码它使用mean_partition_size,可以通过查询看到:

SELECT range_start, range_end, partitions_count, mean_partition_size FROM system.size_estimates WHERE keyspace_name = 'keyspacey' AND table_name = 'tablex';

tablex有586行,每行包括时间戳记,文本,文本,bigint。

运行上面的查询,我得到256行,所有行都具有partition_count = 1和nean_partition_size = 5960319812。

可能是问题的原因以及如何解决?

1 个答案:

答案 0 :(得分:5)

好像您遇到了以下错误:https://github.com/scylladb/scylla/issues/3916

已在Scylla 3.0中修复-我们建议您进行升级。升级指南位于https://docs.scylladb.com/upgrade/upgrade-opensource/upgrade-guide-from-2.3-to-3.0/