2

我创建了一个 MongoDB Auto Sharding Cluster,它有 3 个 Shard 服务器(没有复制)、1 个 Config 服务器和 1 个 Mongos 实例。

这是 sh.status() 输出。

 mongos> sh.status()
--- Sharding Status ---
  sharding version: {
        "_id" : 1,
        "minCompatibleVersion" : 5,
        "currentVersion" : 6,
        "clusterId" : ObjectId("56ffa36ab327ae2bee8fe804")
}
  shards:
        {  "_id" : "shard0000",  "host" : "172.18.109.46:27018" }
        {  "_id" : "shard0001",  "host" : "172.18.109.60:27018" }
        {  "_id" : "shard0002",  "host" : "172.18.109.63:27018" }
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours:
                3 : Failed with error 'aborted', from shard0000 to shard0001
                749 : Failed with error 'data transfer error', from shard0000 to shard0001
  databases:
        {  "_id" : "admin",  "partitioned" : false,  "primary" : "config" }
        {  "_id" : "NLA_M",  "partitioned" : true,  "primary" : "shard0000" }
                NLA_M.Read
                        shard key: { "Status.StatusCode" : 1 }
                        chunks:
                                shard0000       18
                        { "Status.StatusCode" : { "$minKey" : 1 } } -->> { "Status.StatusCode" : 200
 } on : shard0000 Timestamp(1, 1)
                        { "Status.StatusCode" : 200 } -->> { "Status.StatusCode" : 202 } on : shard0
000 Timestamp(1, 14)
                        { "Status.StatusCode" : 202 } -->> { "Status.StatusCode" : 300 } on : shard0
000 Timestamp(1, 15)
                        { "Status.StatusCode" : 300 } -->> { "Status.StatusCode" : 301 } on : shard0
000 Timestamp(1, 16)
                        { "Status.StatusCode" : 301 } -->> { "Status.StatusCode" : 302 } on : shard0
000 Timestamp(1, 3)
                        { "Status.StatusCode" : 302 } -->> { "Status.StatusCode" : 303 } on : shard0
000 Timestamp(1, 4)
                        { "Status.StatusCode" : 303 } -->> { "Status.StatusCode" : 400 } on : shard0
000 Timestamp(1, 5)
                        { "Status.StatusCode" : 400 } -->> { "Status.StatusCode" : 401 } on : shard0
000 Timestamp(1, 17)
                        { "Status.StatusCode" : 401 } -->> { "Status.StatusCode" : 403 } on : shard0
000 Timestamp(1, 18)
                        { "Status.StatusCode" : 403 } -->> { "Status.StatusCode" : 404 } on : shard0
000 Timestamp(1, 19)
                        { "Status.StatusCode" : 404 } -->> { "Status.StatusCode" : 406 } on : shard0
000 Timestamp(1, 7)
                        { "Status.StatusCode" : 406 } -->> { "Status.StatusCode" : 498 } on : shard0
000 Timestamp(1, 8)
                        { "Status.StatusCode" : 498 } -->> { "Status.StatusCode" : 500 } on : shard0
000 Timestamp(1, 9)
                        { "Status.StatusCode" : 500 } -->> { "Status.StatusCode" : 501 } on : shard0
000 Timestamp(1, 11)
                        { "Status.StatusCode" : 501 } -->> { "Status.StatusCode" : 503 } on : shard0
000 Timestamp(1, 20)
                        { "Status.StatusCode" : 503 } -->> { "Status.StatusCode" : 504 } on : shard0
000 Timestamp(1, 21)
                        { "Status.StatusCode" : 504 } -->> { "Status.StatusCode" : 524 } on : shard0
000 Timestamp(1, 22)
                        { "Status.StatusCode" : 524 } -->> { "Status.StatusCode" : { "$maxKey" : 1 }
 } on : shard0000 Timestamp(1, 13)
                NLA_M.ReadTime
                        shard key: { "TimeElapsed" : 1 }
                        chunks:
                                shard0000       194
                        too many chunks to print, use verbose if you want to force print
        {  "_id" : "test",  "partitioned" : false,  "primary" : "shard0001" }

mongos>

尽管这里的块数量很大,但所有数据都只存储在一个分片中。平衡器状态为“活动”,但并非一直在运行。一旦它只运行了 5-10 秒。它显示以下错误,

Failed balancer rounds in last 5 attempts:  0
Migration Results for the last 24 hours:
        3 : Failed with error 'aborted', from shard0000 to shard0001
        749 : Failed with error 'data transfer error', from shard0000 to shard0001

谁能帮我解决它?我是 MongoDB 的新手,想通过创建分片集群来学习和测试 MongoDB 的可扩展性。

如果有助于解决问题,这里有一些更多信息:

在创建集群时,我按照以下步骤操作。

  1. 在所有机器上安装 MongoDB。
  2. 授予对分片服务器的“/data/db/”文件夹和配置服务器的“/data/configdb/”文件夹的所有权限。
  3. 启动配置服务器。[mongod --configsvr]
    (这里,配置服务器ip:172.18.109.81:27019)
  4. 启动 Mongos。[mongos --configdb 172.18.109.81:27019 --port 27020]
    (这里,mongos服务器ip:172.18.109.250:27020)
  5. 启动所有 Shard 服务器。[mongod --shardsvr]
    注意:分片服务器 => 172.18.109.46:27018 (shard0000) , 172.18.109.60:27018 (shard0001), 172.18.109.63:27018 (shard0002)
  6. 在 Mongos 机器中,打开另一个终端并运行 mongo 172.18.109.250:27020/admin
  7. 添加所有分片 [sh.addShard("172.18.109.46:27018")...]
  8. Enable Sharding for Database,使用 shardKey 定义 Shard 集合

我也尝试过使用不同的分片键(我认为,选择分片键是问题),但结果也相同。“NLA_M.Read”有一个分片键,其值介于 100 和 600 之间。我也尝试过选择散列分片键,但没有变化。

如果我遗漏了什么,请告诉我。

谢谢 :)

4

1 回答 1

1

以前所有的 PC 都有不同版本的 MongoDB,比如,

Mongos server - 3.0.11
Config server - 3.2.4
Shard server 0 - 3.2.4
Shard server 1 - 2.6.12
Shard server 2 - 2.6.12

我认为不同版本的 MongoDB 可能是问题所在,因此我在所有 3.2.4 版本的 PC 上重新安装了 MongoDB。

现在它工作正常。

感谢您。:)

于 2016-04-14T19:49:44.727 回答