我创建了一个ocf资源代理,并且希望将其作为主/从集运行。起初,我的监视功能在实际运行的正在运行的节点(无论是主机还是从机)上返回OCF_SUCCESS,但起搏器不知道哪个是当前主机(两个实例均报告为从机)。
这就是为什么我将监视功能更改为在主服务器上返回OCF_RUNNING_MASTER并在从属服务器上返回OCF_SUCCESS的原因(因为我在drdb的代码中看到了它)。不幸的是,起搏器似乎将其解释为错误,杀死了主控器,将第二个节点变成了主控器,依此类推。
有人知道我如何让起搏器将OCF_RUNNING_MASTER解释为成功吗?
crm配置:
node 3232286770: VStorage1 \
attributes standby=off
node 3232286771: VStorage2
primitive virtual_ip IPaddr2 \
params ip=192.168.100.230 cidr_netmask=32 nic=ens256 \
op monitor interval=10s \
meta migration-threshold=10
primitive filecluster ocf:msn:cluster \
op start timeout=120 interval=0 \
op stop timeout=120 interval=0 \
op promote timeout=120 interval=0 \
op demote timeout=120 interval=0 \
op monitor interval=20s role=Slave \
op monitor interval=10s role=Master \
meta migration-threshold=10
ms ms filecluster
property cib-bootstrap-options: \
have-watchdog=false \
dc-version=1.1.14-70404b0 \
cluster-infrastructure=corosync \
cluster-name=debian \
stonith-enabled=false \
no-quorum-policy=ignore
crm状态输出:
root@VStorage1:/usr/lib/ocf/resource.d# crm status
Last updated: Mon Nov 5 11:21:34 2018 Last change: Fri Nov 2 20:22:53 2018 by root via cibadmin on VStorage1
Stack: corosync
Current DC: VStorage1 (version 1.1.14-70404b0) - partition with quorum
2 nodes and 3 resources configured
Online: [ VStorage1 VStorage2 ]
Full list of resources:
virtual_ip (ocf::heartbeat:IPaddr2): Started VStorage1
Master/Slave Set: ms [filecluster]
Slaves: [ VStorage1 ]
Stopped: [ VStorage2 ]
Failed Actions:
* filecluster_monitor_20000 on VStorage1 'master' (8): call=153, status=complete, exitreason='none',
last-rc-change='Fri Nov 2 20:27:28 2018', queued=0ms, exec=0ms
* filecluster_monitor_20000 on VStorage2 'master' (8): call=135, status=complete, exitreason='none',
last-rc-change='Fri Nov 2 20:27:11 2018', queued=0ms, exec=0ms
答案 0 :(得分:0)
仅当提升为主节点失败时,主从资源代理才会报告两个从节点。 您的ocf_agent中晋升为掌握什么条件? 有关将资源提升为主资源的条件,请参阅drbd代理。