我有3个节点用于分片和配置服务器(分片服务器在标准端口27017上运行,而configserver在端口27019上运行)
stage-mongo1-tmp, stage-mongo2-tmp, and stage-mongo3-tmp
和查询路由器
stage-query0-mongo
在我目前的设置中。
Sharding正如预期的那样完美。
--- Sharding Status ---
sharding version: {
"_id" : 1,
"version" : 3,
"minCompatibleVersion" : 3,
"currentVersion" : 4,
"clusterId" : ObjectId("5321a5cc8a18e5280f7c9d5a")
}
shards:
{ "_id" : "shard0000", "host" : "stage-mongo1-tmp:27017" }
{ "_id" : "shard0001", "host" : "stage-mongo2-tmp:27017" }
{ "_id" : "shard0002", "host" : "stage-mongo3-tmp:27017" }
databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "testdb", "partitioned" : true, "primary" : "shard0000" }
testdb.testcollection
shard key: { "_id" : "hashed" }
chunks:
shard0001 28
shard0002 31
shard0000 28
too many chunks to print, use verbose if you want to force print
现在,我正在这些节点上启用副本集。我登录stage-mongo1-tmp,然后运行
rs.initiate()
并添加stage-mongo2-tmp和stage-mongo3-tmp作为副本成员
rs.add("stage-mongo2-tmp")
日志文件表示已启用复制并选出一个主要文件。 rs.conf() 显示出良好的产出
[rsBackgroundSync] replSet syncing to: stage-mongo1-tmp:27017
[rsSync] oplog sync 2 of 3
[rsSyncNotifier] replset setting oplog notifier to stage-mongo1-tmp:27017
[rsSync] replSet initial sync building indexes
[rsSync] replSet initial sync cloning indexes for : ekl_omniscient
[rsSync] build index ekl_omniscient.serviceability { _id: "hashed" }
[rsSync] build index done. scanned 571242 total records. 3.894 secs
replSet RECOVERING
replSet initial sync done
replSet SECONDARY
但是,当我通过关闭一个节点测试高可用性时,查询节点上的mongos返回错误
mongos> show dbs;
Thu Mar 13 20:17:04.394 listDatabases failed:{
"code" : 11002,
"ok" : 0,
"errmsg" : "exception: socket exception [CONNECT_ERROR] for stage-mongo1-tmp:27017"} at src/mongo/shell/mongo.js:46
当我连接到另一个节点时,其中一个已自动选为主节点。但是,我的查询仍在返回错误。 我在副本集中做错了什么?为什么它不高?我是否需要添加更多服务器以使其具有高可用性?我正在寻找一套最低限度的服务器来实现这一目标。
答案 0 :(得分:1)
想通了。我们为副本集添加了分片。
sh.addShard(" RS0 /:端口,..)
完成此操作后,我们需要在数据库级别和集合级别启用分片。这将启用分片和复制。