ceph cleanup pgs active + remapped

时间:2015-07-27 21:00:55

标签: ubuntu resource-cleanup ceph

我使用基于Ubuntu Server 14.04的3节点Ceph集群。 实际上我的问题是192个放置组(pgs)处于活动状态+重映射状态。 所有节点都在线,所有osds都在线。

我如何清理pgs?

root@node1:~# ceph status
    cluster 776020a6-5c44-49c8-93e4-4a83703d4315
     health HEALTH_WARN 192 pgs stuck unclean
     monmap e1: 3 mons at     {node1=192.168.178.101:6789/0,node2=192.168.178.102:6789/0,node3=192.168.178.103:6789/0}, election epoch 14, quorum 0,1,2 node1,node2,node3
 osdmap e235: 12 osds: 12 up, 12 in
  pgmap v341719: 392 pgs, 5 pools, 225 GB data, 70891 objects
        597 GB used, 6604 GB / 7201 GB avail
             200 active+clean
             192 active+remapped

root@node1:~# ceph osd tree
# id    weight  type name       up/down reweight
-9      7.02    root erasure
-3      2.34            host node2-erasure
7       0.9                     osd.7   up      1
6       0.9                     osd.6   up      1
-5      2.34            host node3-erasure
11      0.9                     osd.11  up      1
10      0.9                     osd.10  up      1
-7      2.34            host node1-erasure
2       0.9                     osd.2   up      1
3       0.9                     osd.3   up      1
-8      7.02    root cache
-2      2.34            host node2-cache
5       0.27                    osd.5   up      1
4       0.27                    osd.4   up      1
-4      2.34            host node3-cache
9       0.27                    osd.9   up      1
8       0.27                    osd.8   up      1
-6      2.34            host node1-cache
0       0.27                    osd.0   up      1
1       0.27                    osd.1   up      1
-1      0       root default

有人有想法吗?

祝你好运 schlussbilanz

1 个答案:

答案 0 :(得分:0)

我的解决方案是将所有osd。{num}重新加权到相同的