使用复制卷的GlusterFS存储群集出现问题。
我已经在很多方面尝试了好几天。我希望有人可以帮助我。
首先,我通过命令使用一个砖创建一个分布式卷,如下所示:
gluster volume create my_vol transport tcp 192.168.100.80:/opt/my_brick force
然后,我通过GlusterFS FUSE客户端将大量数据(例如1 GB)写入此卷。
之后,我通过以下命令将此卷从分布式卷更改为复制卷:
gluster volume add-brick my_vol replica 2 192.168.100.81:/opt/my_brick force
很快GlusterFS告诉我“卷添砖:成功”。但是,我发现数据同步仍然在192.168.100.80和192.168.100.81之间的背景上进行。
现在,我尝试通过以下命令从该卷中删除第一块砖:
yes | gluster volume remove-brick my_vol replica 1 192.168.100.80:/opt/my_brick force
GlusterFS告诉我“删除砖块会导致数据丢失。你想继续吗?(是/否)卷删除砖提交力:成功”。
所以,我发现数据同步中止,一些数据永久丢失!
是否有一些命令检查GlusterFS是否正在同步数据背景?
我想知道如何安全地执行remove-brick操作,这意味着没有数据丢失。
非常感谢。
答案 0 :(得分:1)
在执行remove-brick之前,你必须等到gluster volume heal <volname> info
显示零条目被修复。