此问题有任何指针吗?尝试了很多事情都无济于事。
此命令失败,错误为.container .content
Can't read superblock
更多可能有用的信息
sudo mount -t ceph worker2:6789:/ /mnt/mycephfs -o name=admin,secret=AQAYjCpcAAAAABAAxs1mrh6nnx+0+1VUqW2p9A==
ceph状态和ceph osd状态都完全没有问题
uname -a Linux cephfs-test-admin-1 4.14.84-coreos #1 SMP Sat Dec 15 22:39:45 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux
一些系统日志输出:
dmesg | tail
[228343.304863] libceph: resolve 'worker2' (ret=0): 10.1.96.4:0
[228343.322279] libceph: mon0 10.1.96.4:6789 session established
[228343.323622] libceph: client107238 fsid 762e6263-a95c-40da-9813-9df4fef12f53
ceph -s
cluster:
id: 762e6263-a95c-40da-9813-9df4fef12f53
health: HEALTH_WARN
too few PGs per OSD (16 < min 30)
services:
mon: 3 daemons, quorum worker2,worker0,worker1
mgr: worker1(active)
mds: cephfs-1/1/1 up {0=mds-ceph-mds-85b4fbb478-c6jzv=up:active}
osd: 3 osds: 3 up, 3 in
data:
pools: 2 pools, 16 pgs
objects: 21 objects, 2246 bytes
usage: 342 MB used, 76417 MB / 76759 MB avail
pgs: 16 active+clean
ceph osd status
+----+---------+-------+-------+--------+---------+--------+---------+-----------+
| id | host | used | avail | wr ops | wr data | rd ops | rd data | state |
+----+---------+-------+-------+--------+---------+--------+---------+-----------+
| 0 | worker2 | 114M | 24.8G | 0 | 0 | 0 | 0 | exists,up |
| 1 | worker0 | 114M | 24.8G | 0 | 0 | 0 | 0 | exists,up |
| 2 | worker1 | 114M | 24.8G | 0 | 0 | 0 | 0 | exists,up |
+----+---------+-------+-------+--------+---------+--------+---------+-----------+
ceph -v
ceph version 12.2.3 (2dab17a455c09584f2a85e6b10888337d1ec8949) luminous (stable)
答案 0 :(得分:0)
因此,在发现问题之后是由于XFS分区问题...
不知道我一开始是怎么想的。
简而言之:
尝试使用xfs创建分区失败。
即运行mkfs.xfs /dev/vdb1
只会挂起。操作系统仍会正确创建和标记分区,但它们会损坏-这是您只有在尝试通过安装Can't read superblock
错误来挂载时才能发现的事实。
因此ceph这样做:
1.运行部署
2.创建XFS分区mkfs.xfs ...
3.操作系统会创建那些有问题的分区
4.由于您仍然可以读取OSD的状态,因此所有状态报告都可以正常运行,日志不会报告任何问题(mkfs.xfs并未报告错误,只是挂起了错误)
5.当您尝试挂载cephFS或使用块存储时,由于分区损坏而使整个炸弹爆炸。
根本原因:仍然未知。但是我怀疑从我的云提供商调配/附加SSD磁盘级别时,某些操作没有正确完成。现在可以正常使用