我在测试环境中有一个11节点的Cassandra集群。出于某种原因,system.paxos
表不受控制地增长,并且没有在整个集群中分布。
nodetool cfstats
告诉我paxos
有~27G的数据。
Table: paxos
SSTable count: 2406
SSTables in each level: [2400/4, 6, 0, 0, 0, 0, 0, 0, 0]
Space used (live), bytes: 28981416094
Space used (total), bytes: 28981416094
du -sh /data/system/paxos
告诉我,一个特定节点几乎都有〜{27G system.paxos
。
我检查了cassandra.yaml
:群集正在使用RandomPartitioner,每个节点拥有大约9%的空间。其他表按预期分发。
答案 0 :(得分:1)
系统密钥空间中的内容主要供内部使用,并且特定于该节点。因此,密钥空间使用仅本地复制策略:
cqlsh:system> describe keyspace system;
CREATE KEYSPACE system WITH replication = {
'class': 'LocalStrategy'
};
2400/4表示那个应该处于该等级的4个人中有2.4k。肯定有一些东西已经破裂(或者远远落后于它)。您应检查日志中的异常,进行堆栈跟踪,检查压缩统计信息,并检查已设置的任何监视或趋势。收集诊断数据后,重新启动节点并查看它是否开始解析。