我正在关注http://jayatiatblogs.blogspot.com/2011/11/storm-installation.html& http://zookeeper.apache.org/doc/r3.3.3/zookeeperAdmin.html#sc_zkMulitServerSetup在AWS EC2上的Ubuntu 14.04 LTS中设置Apache Storm集群。
我的主节点是10.0.0.185。我的从节点是10.0.0.83,10.0.0.124& 10.0.0.84,其动物管理员数据中的myid分别为1,2和3。我建立了一个Apache Zookeeper集合,包含所有3个从节点。
以下是我的主节点&的zoo.cfg。从节点:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/ubuntu/zookeeper-data
clientPort=2181
server.1=10.0.0.83:2888:3888
server.2=10.0.0.124:2888:3888
server.3=10.0.0.84:2888:3888
autopurge.snapRetainCount=3
autopurge.purgeInterval=1
以下是我的storm.yaml for slave nodes:
########### These MUST be filled in for a storm configuration
storm.zookeeper.server:
- "10.0.0.83"
- "10.0.0.124"
- "10.0.0.84"
# - "localhost"
storm.zookeeper.port: 2181
# nimbus.host: "localhost"
nimbus.host: "10.0.0.185"
storm.local.dir: "/home/ubuntu/storm/data"
java.library.path: "/usr/lib/jvm/java-7-oracle"
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
# worker.childopts: "-Xmx768m"
# nimbus.childopts: "-Xmx512m"
# supervisor.childopts: "-Xmx256m"
主节点中的storm.yaml文件类似于从节点,除了supervisor.slots.ports用#评论。
以下是主节点和/或主节点中的/ etc / hosts文件。从节点:
127.0.0.1 localhost
10.0.0.185 ip-10-0-0-185.ap-southeast-1.compute.internal stormNimbus
10.0.0.124 ip-10-0-0-124.ap-southeast-1.compute.internal slaveRain
10.0.0.83 ip-10-0-0-83.ap-southeast-1.compute.internal slaveCloud
10.0.0.84 ip-10-0-0-84.ap-southeast-1.compute.internal slaveLightning
当我发出命令 回显状态|时从节点10.0.0.124上的nc 10.0.0.124 2181 :
Zookeeper version: 3.4.6-1569965, built on 02/20/2014 09:09 GMT
Clients:
/10.0.0.124:53790[0](queued=0,recved=1,sent=0)
我启动了zookeeper&所有3个从节点中的主管。另外2个从节点没有注册到zookeeper,尽管我以集群模式设置了zookeeper。
当我在Storm UI的拓扑摘要中发出风暴重新平衡时,新的从属节点将替换旧的从属节点以运行拓扑,而不是允许添加新的从属节点并与旧的从属节点同时运行。
每次只有一个从节点运行拓扑。
可能出现的问题是什么?我该如何解决?