我安装了一个安装了HDP 2.3的6 Node Hadoop集群。
节点组成2个驱动器一个是50 TB,另一个是2 TB,现在2 TB的磁盘已满。但我想从所有节点中删除此磁盘,并且只想使用50 TB磁盘用于Hadoop。
问题
我可以安全地删除数据磁盘而不会导致群集上的丢失/损坏块。
更新
mount命令的输出在
之下/dev/sda6 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on /dev/shm type tmpfs (rw)
/dev/sda3 on /boot type ext4 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
/tmp on /tmp type none (rw,bind)
/var/tmp on /var/tmp type none (rw,bind)
/home on /home type none (rw,bind)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
/dev/sdc1 on /data1 type xfs (rw)
/dev/sdb1 on /data type xfs (rw)
属性dfs.datanode.data.dir的值是 / data / hadoop / hdfs / data,/ data1 / hadoop / hdfs / data
答案 0 :(得分:0)
您无法使用2 TB驱动器,因为NameNode元数据可能会损坏。 Namenode将等待来自此节点的块报告,如果未报告块报告形式的数据块,它将接近安全模式。
一种解决方法是,您可以将所有数据复制到50 TB驱动器并格式化Namenode。您无法在数据敏感的情况下执行此操作。