我有初始数据,当加载到Cassandra中时,显示的总大小为3.5GB
此后,我进行了每秒10k次读取的大量读取,并进行了每秒1k次更新的适度更新,但是在更新中,列大小之一被更新为较大的大小,使得行的总大小从1k增加到几乎5k / p>
存储的事情是,节点的大小一直不断增加,甚至达到300GB并且只能向上移动
压缩正在运行,读取性能不断下降。 Cassandra在将行从2k更新到5k时遇到麻烦吗?
这是一台AWS 30GB RAM计算机,具有16个处理器和1TB SSD(已激活32k IOPS)。压缩吞吐量设置为256,压缩程序设置为8,但读取的偏差仍在继续,SS表的大小不断增加
在1天的时间内,每秒读取从每秒22k下降到每秒5k。
请让我知道配置有什么问题
答案 0 :(得分:0)
基本上观察待处理的压缩,如果它们先增加,则开始使用nodetool增加压缩吞吐量。
如果您看到待处理的压缩已开始减少,请从该配置中将其进一步增加一些缓冲。
如果您在操作+压缩期间未使CPU过载,也可以少量增加并发压缩器。