DRBD / sbin / drbdadm验证内核后的消息太多:block drbdX:不同步:

时间:2013-01-13 08:13:41

标签: high-availability drbd

在验证日志中有很多消息后,我在使用DRBD的所有系统中。

kernel: block drbd0: Out of sync: start=403446112, size=328 (sectors)

在某些系统中,可能会认为这是由工作量引起的,但有些团队几乎没有工作。

计算机连接的网络质量为1Gb

这些消息并没有给我足够多的信息,最终需要cron来检查时序,并重置故障块,当然,它会在异步系统中转换同步系统。

这是正常的吗? 有解决方案吗 怎么了?

common {
    protocol C;

handlers {
            pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
    pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
    local-io-error "/usr/lib/drbd/notify-io-error.sh; /usr/lib/drbd/notify-emergency-shutdown.sh; echo o > /proc/sysrq-trigger ; halt -f"                                                                                                                     
}
    syncer {
            # rate after al-extents use-rle cpu-mask verify-alg csums-alg                                                                                                                               
    verify-alg sha1;
       rate 40M;
}
}


resource r0 {
  protocol C;
   startup {
     wfc-timeout  15;     # non-zero wfc-timeout can be dangerous (http://forum.proxmox.com/threads/3465-Is-it-safe-to-use-wfc-timeout-in-DRBD-configuration)
     degr-wfc-timeout 60;
 }
 net {
    cram-hmac-alg sha1;
    shared-secret "XXXXXXXXXX";
    after-sb-0pri discard-zero-changes;
    after-sb-1pri discard-secondary;
    after-sb-2pri disconnect;
 }
 on pro01 {
   device /dev/drbd0;
   disk /dev/pve/vm-100-disk-1;
   address YYY.YYY.YYY.YYY:7788;
    meta-disk internal;
 }
 on pro02 {
   device /dev/drbd0;
    disk   /dev/pve/vm-100-disk-1;
    address YYY.YYY.YYY.YYY:7788;
    meta-disk internal;
  }
}

2 个答案:

答案 0 :(得分:0)

可能会不时发生,这是正常的 只需断开连接并再次连接 - 然后将同步不同步的块。

DRBD - online verify

答案 1 :(得分:0)

有一个与此相关的长篇故事(http://www.gossamer-threads.com/lists/drbd/users/25227),我仍然不确定这是否可以(或应该)由DRBD开发人员修复,或者我们需要修复上层行为(KVM)在我的情况下)。