我有一个带有一个池的Ceph节点,其大小分别为3和98 OSD。因此,如果1个OSD发生故障,我们不必担心丢失数据,但是有多少OSD发生故障,我们会关心此问题吗? 无论如何,请帮助我了解一个OSD关闭,将任何复制数据任务转移到新OSD时会发生什么情况?
答案 0 :(得分:0)
这取决于哪些OSD已关闭。如果ceph有足够的时间和空间来恢复发生故障的OSD,则您的集群可以在一个动作集中的两个发生故障的OSD中幸存下来。但是,这又取决于您的实际配置(ceph osd树)和规则集。还请记住,为了在OSD发生故障后重新平衡,由于群集丢失了整个OSD,因此群集可以更快地填充。当OSD关闭10分钟后,恢复将开始,然后将其标记为“出”并开始重新映射。