我正在尝试按照glusterfs documentation中的步骤设置glusterfs地理复制。在我的设置中,主节点有两个节点,从节点有一个节点。一旦我发出命令 集群卷地理复制mastervolume slavenode :: slavevolume start 要启动地理复制,状态如下所示:
主节点2 gv0 / data / brick1 / gv0根ssh://从节点1 :: gv0不适用
如果我观看该命令(观看gluster卷的地理复制状态),则该状态将在“故障”到“活动”和“故障”之间切换。活动状态如下:
主节点2 gv0 / data / brick1 / gv0根ssh://从节点1 :: gv0从节点1主动混合爬网N / A
日志出现以下错误:
[2018-12-26 01:39:57.773381]我[gsyncdstatus(/ data / brick1 / gv0):245:set_worker_crawl_status] GeorepStatus:抓取状态:混合抓取 [2018-12-26 01:39:58.774770]我[master(/ data / brick1 / gv0):1368:crawl] _GMaster:处理xsync更改日志/ var / lib / misc / glusterfsd / gv0 / ssh%3A%2F% 2Froot%40192.168.115.215%3Agluster%3A%2F%2F127.0.0.1%3Agv0 / 430af6dc2d4f6e41e4786764428f83dd / xsync / XSYNC-CHANGELOG.1545788397 [2018-12-26 01:39:59.249290] E [资源(/ data / brick1 / gv0):234:errlog] Popen:命令“ rsync -aR0 --inplace --files-from =---super-- stats --numeric-ids --no-implied-dirs --xattrs --acls。-e ssh -oPasswordAuthentication = no -oStrictHostKeyChecking = no -i /var/lib/glusterd/geo-replication/secret.pem -p 22 -oControlMaster = auto -S /tmp/gsyncd-aux-ssh-cexLuj/722b9cf6c96014bed67371d01a23d439.sock --compress root @ Slave-node-1:/ proc / 6983 / cwd“,返回3 [2018-12-26 01:39:59.249869]我[syncdutils(/ data / brick1 / gv0):238:finalize]:正在退出。 [2018-12-26 01:39:59.251211]我[repce(/ data / brick1 / gv0):92:service_loop] RepceServer:在到达EOF时终止。 [2018-12-26 01:39:59.251513]我[syncdutils(/ data / brick1 / gv0):238:finalize]:正在退出。 [2018-12-26 01:39:59.685758]我[monitor(monitor):357:monitor] Monitor:worker(/ data / brick1 / gv0)在启动阶段死亡 [2018-12-26 01:39:59.688673]我[gsyncdstatus(monitor):241:set_worker_status] GeorepStatus:工作人员状态:错误
当我检查卷中的文件时,主服务器中的文件将复制到从属服务器。
此后,如果我创建一个新文件,则该文件将被保存到从属卷。但是,如果我删除文件或更改文件的内容,那将不会反映在从属服务器中。
任何指针都值得赞赏。