我使用基于Ubuntu Server 14.04的3节点Ceph集群。 实际上我的问题是192个放置组(pgs)处于活动状态+重映射状态。 所有节点都在线,所有osds都在线。
我如何清理pgs?
root@node1:~# ceph status
cluster 776020a6-5c44-49c8-93e4-4a83703d4315
health HEALTH_WARN 192 pgs stuck unclean
monmap e1: 3 mons at {node1=192.168.178.101:6789/0,node2=192.168.178.102:6789/0,node3=192.168.178.103:6789/0}, election epoch 14, quorum 0,1,2 node1,node2,node3
osdmap e235: 12 osds: 12 up, 12 in
pgmap v341719: 392 pgs, 5 pools, 225 GB data, 70891 objects
597 GB used, 6604 GB / 7201 GB avail
200 active+clean
192 active+remapped
root@node1:~# ceph osd tree
# id weight type name up/down reweight
-9 7.02 root erasure
-3 2.34 host node2-erasure
7 0.9 osd.7 up 1
6 0.9 osd.6 up 1
-5 2.34 host node3-erasure
11 0.9 osd.11 up 1
10 0.9 osd.10 up 1
-7 2.34 host node1-erasure
2 0.9 osd.2 up 1
3 0.9 osd.3 up 1
-8 7.02 root cache
-2 2.34 host node2-cache
5 0.27 osd.5 up 1
4 0.27 osd.4 up 1
-4 2.34 host node3-cache
9 0.27 osd.9 up 1
8 0.27 osd.8 up 1
-6 2.34 host node1-cache
0 0.27 osd.0 up 1
1 0.27 osd.1 up 1
-1 0 root default
有人有想法吗?
祝你好运 schlussbilanz
答案 0 :(得分:0)
我的解决方案是将所有osd。{num}重新加权到相同的