GlusterFS复制卷的remove-brick中止数据同步

时间:2018-06-05 05:50:44

标签: synchronization glusterfs

使用复制卷的GlusterFS存储群集出现问题。

我已经在很多方面尝试了好几天。我希望有人可以帮助我。

首先,我通过命令使用一个砖创建一个分布式卷,如下所示:

gluster volume create my_vol transport tcp 192.168.100.80:/opt/my_brick force

然后,我通过GlusterFS FUSE客户端将大量数据(例如1 GB)写入此卷。

之后,我通过以下命令将此卷从分布式卷更改为复制卷:

gluster volume add-brick my_vol replica 2 192.168.100.81:/opt/my_brick force

很快GlusterFS告诉我“卷添砖:成功”。但是,我发现数据同步仍然在192.168.100.80和192.168.100.81之间的背景上进行。

现在,我尝试通过以下命令从该卷中删除第一块砖:

yes | gluster volume remove-brick my_vol replica 1 192.168.100.80:/opt/my_brick force

GlusterFS告诉我“删除砖块会导致数据丢失。你想继续吗?(是/否)卷删除砖提交力:成功”。

所以,我发现数据同步中止,一些数据永久丢失

是否有一些命令检查GlusterFS是否正在同步数据背景

我想知道如何安全地执行remove-brick操作,这意味着没有数据丢失。

非常感谢。

1 个答案:

答案 0 :(得分:1)

在执行remove-brick之前,你必须等到gluster volume heal <volname> info显示零条目被修复。