重新启动所有服务器不完整的pgs时的ceph擦除编码

时间:2018-08-15 07:30:18

标签: linux cloud storage hosting ceph

我有7台服务器

Server1:mon,mgr,mds

服务器2:mon,mgr,mds

Server3:mon,mgr,mds

Server4:osd.0,osd.1

Server5:osd.2,osd.3

Server6osd.4,osd.5

Server7:mon,mgr,mds

每个osd大小为4T

和:

ceph osd树

ID类别权重类型名称状态权重PRI-AFF

-1 21.83098根默认值

-3 7.27699主机cephnode01

0硬盘3.63899 osd.0向上1.00000 1.00000

1硬盘3.63899 osd.1向上1.00000 1.00000

-5 7.27699主机cephnode02

2硬盘3.63899 osd.2向上1.00000 1.00000

3硬盘3.63899 osd.3上1.00000 1.00000

-7 7.27699主机cephnode03

4硬盘3.63899 osd.4向上1.00000 1.00000

5硬盘3.63899 osd.5向上1.00000 1.00000

每2.0秒:ceph -s

2018年8月14日星期二09:52:47

集群:

@user.route('/delete', methods=['POST'])
@login_required
def delete_account():
    current_user.delete()

    flash('Your account has been successfully deleted.', 'success')
    return redirect(url_for('core.home'))

服务:

id:     6b28cabd-b94a-4a74-8d9e-00b8c9a61de4

health: HEALTH_WARN

        Reduced data availability: 128 pgs inactive, 128 pgs incomplete

cephnode01,cephmon01,cephnode02,cephnode03,cephmon03

mon: 5 daemons, quorum 

数据:

mgr: cephmds01(active), standbys: cephmon03, cephmon02, cephmon01

mds: cephfs-1/1/1 up  {0=cephmon03=up:active}, 3 up:standby

osd: 6 osds: 6 up, 6 in

断电期间

健康:HEALTH_WARN

pools:   2 pools, 256 pgs

objects: 279  objects, 1.0 GiB

usage:   8.1 GiB used, 22 TiB / 22 TiB avail

pgs:     50.000% pgs not active

         128 incomplete

         128 active+clean

当我重新启动所有服务器时,所有数据丢失,并且我必须删除池并 重新创建池

在erorr下面显示

健康:HEALTH_WARN

        Reduced data availability: 128 pgs inactive, 128 pgs incomplete

当我将暗恋地图#rule从主机更改为osd,然后运行正常时。

但是我需要主持人。

我使用blow命令创建池。

我使用了纠删码。

ceph osd池创建ECtemppool 128128擦除默认值

ceph osd擦除代码配置文件设置了默认的crusf-failure-domain = osd crust-

root =默认k = 4 m = 2 --force

rados -p ECtemppool ls

ceph osd池创建cephfs_metadata 128

ceph osd池设置ECtemppool allow_ec_overwrites true

ceph fs新的cephfs cephfs_metadata ECtemppool

最好的问候

1 个答案:

答案 0 :(得分:0)

我想要一个问题: 下面的命令是工作! :

ceph osd擦除代码配置文件设置EC临时池

ceph osd擦除代码配置文件集EC-temp-pool规则集-failure-domain = host k = 4 m = 2 --force

ceph osd pool创建ECtemppool 128 128擦除EC-temp-pool

ceph osd池创建cephfs_metadata 128

ceph osd池设置ECtemppool allow_ec_overwrites true

ceph fs新的cephfs cephfs_metadata ECtemppool