得到了一个DSC 2.1.15 14节点集群,它正在使用STCS,它似乎在我们插入越来越多的数据时徘徊在似乎稳定数量的sstables周围,因此目前开始看到sstables数据文件超过+ 1TB。见图:
阅读this我们担心文件太大,可能会推迟压缩墓碑以最终释放空间,因为我们必须等待至少4个类似大小的sstables被创建。
每个节点目前每个都有两个数据目录,我们希望cassandra能够使用空间相对平均地在这些目录上传播数据,但是随着sstables由于压缩而增长,我们担心以更大和更大的sstables结束,并且可能在一个数据目录中主要
如何更好地控制这个,LCS或......?
如何确定sstables数量与其大小的最佳位置?
什么影响sstables的数量与他们的尺寸相比,他们得到的数据目录是什么?
目前很少有节点开始出现偏差:
/dev/mapper/vg--blob1-lv--blob1 6.4T 3.3T 3.1T 52% /blob/1
/dev/mapper/vg--blob2-lv--blob2 6.6T 545G 6.1T 9% /blob/2
我们可以停止一个节点,将所有密钥空间的sstables(它们看起来唯一命名为id / seq。#,即使在两个数据目录中扩展)合并为一个数据目录并展开底层卷并重新启动节点再次,从而避免耗尽空间'什么时候只有一个数据目录FS被填满?