我在新加坡地区有一个由4个节点组成的cassandra集群,我必须将它迁移到孟买地区,所以我在孟买地区创建了一个新的数据中心,将它添加到新加坡集群并运行所有的重建命令新节点一个接一个。 先前节点上的数据= 150GB /节点约。 新节点上的数据=两个节点上的200GB /节点,一个节点上的100GB。
我无法弄清楚为什么会发生这种情况应该是200GB /节点。 我正在使用cassandra 3.9并在新数据中心使用vnodes并在旧数据中心使用单个令牌。
我想弄清楚这是什么原因。
我试图在几秒钟内完成重建,RF为3 nodetool status显示所有节点UP和正常
答案 0 :(得分:1)
尝试再次重建最后一个节点,这可能是由于未完成的重建过程,并查看日志以查看任何错误。
另外,您能否提供nodetool状态的输出?而且,每个直流中的复制因子是什么?
编辑:
1)尝试在100gb节点上运行修复。
2)停止有问题的节点,从数据文件夹中删除所有数据并再次重建(可能需要使用节点替换选项启动节点)。