我有7台服务器
Server1:mon,mgr,mds
服务器2:mon,mgr,mds
Server3:mon,mgr,mds
Server4:osd.0,osd.1
Server5:osd.2,osd.3
Server6osd.4,osd.5
Server7:mon,mgr,mds
每个osd大小为4T
和:
ceph osd树
ID类别权重类型名称状态权重PRI-AFF
-1 21.83098根默认值
-3 7.27699主机cephnode01
0硬盘3.63899 osd.0向上1.00000 1.00000
1硬盘3.63899 osd.1向上1.00000 1.00000
-5 7.27699主机cephnode02
2硬盘3.63899 osd.2向上1.00000 1.00000
3硬盘3.63899 osd.3上1.00000 1.00000
-7 7.27699主机cephnode03
4硬盘3.63899 osd.4向上1.00000 1.00000
5硬盘3.63899 osd.5向上1.00000 1.00000
每2.0秒:ceph -s
2018年8月14日星期二09:52:47
集群:
@user.route('/delete', methods=['POST'])
@login_required
def delete_account():
current_user.delete()
flash('Your account has been successfully deleted.', 'success')
return redirect(url_for('core.home'))
服务:
id: 6b28cabd-b94a-4a74-8d9e-00b8c9a61de4
health: HEALTH_WARN
Reduced data availability: 128 pgs inactive, 128 pgs incomplete
cephnode01,cephmon01,cephnode02,cephnode03,cephmon03
mon: 5 daemons, quorum
数据:
mgr: cephmds01(active), standbys: cephmon03, cephmon02, cephmon01
mds: cephfs-1/1/1 up {0=cephmon03=up:active}, 3 up:standby
osd: 6 osds: 6 up, 6 in
断电期间
健康:HEALTH_WARN
pools: 2 pools, 256 pgs
objects: 279 objects, 1.0 GiB
usage: 8.1 GiB used, 22 TiB / 22 TiB avail
pgs: 50.000% pgs not active
128 incomplete
128 active+clean
当我重新启动所有服务器时,所有数据丢失,并且我必须删除池并 重新创建池
在erorr下面显示
健康:HEALTH_WARN
Reduced data availability: 128 pgs inactive, 128 pgs incomplete
当我将暗恋地图#rule从主机更改为osd,然后运行正常时。
但是我需要主持人。
我使用blow命令创建池。
我使用了纠删码。
ceph osd池创建ECtemppool 128128擦除默认值
ceph osd擦除代码配置文件设置了默认的crusf-failure-domain = osd crust-
root =默认k = 4 m = 2 --force
rados -p ECtemppool ls
ceph osd池创建cephfs_metadata 128
ceph osd池设置ECtemppool allow_ec_overwrites true
ceph fs新的cephfs cephfs_metadata ECtemppool
最好的问候
答案 0 :(得分:0)
我想要一个问题: 下面的命令是工作! :
ceph osd擦除代码配置文件设置EC临时池
ceph osd擦除代码配置文件集EC-temp-pool规则集-failure-domain = host k = 4 m = 2 --force
ceph osd pool创建ECtemppool 128 128擦除EC-temp-pool
ceph osd池创建cephfs_metadata 128
ceph osd池设置ECtemppool allow_ec_overwrites true
ceph fs新的cephfs cephfs_metadata ECtemppool