重启后HDFS阻塞损坏

时间:2017-03-09 10:16:23

标签: hadoop mapreduce hdfs namenode

我在ubuntu 16.10上有Hadoop

一切正常:我可以上传输入文件HDFS&执行map-reduce操作。但是,当我重新启动PC时,所有HDFS块都已损坏,NameNode在SafeMode中启动

所以我必须

1)离开SafeMode

2)用

删除所有损坏的块
hdfs fsck -delete

3)重新上传输入文件

然后它可以正常工作,直到下次重启。

有人可以为我解决这个问题。 感谢

2 个答案:

答案 0 :(得分:1)

我解决了我的问题。我使用此链接检查我的配置文件 http://www.bogotobogo.com/Hadoop/BigData_hadoop_Install_on_ubuntu_single_node_cluster.php

我忘了在我的hdfs目录中使用sudo chown -R hduser:hadoop /usr/local/hadoop_tmp

答案 1 :(得分:0)

extension PollTableViewCell {

      func setCollectionViewDataSourceDelegate<D: UICollectionViewDataSource & UICollectionViewDelegate>(_ dataSourceDelegate: D, forRow row: Int) {

        theCollectionView.delegate = dataSourceDelegate
        theCollectionView.dataSource = dataSourceDelegate
        theCollectionView.tag = row
        theCollectionView.setContentOffset(theCollectionView.contentOffset, animated:false) // Stops collection view if it was scrolling.
        theCollectionView.reloadData()
    }

    var collectionViewOffset: CGFloat {
        set {
            theCollectionView.contentOffset.x = newValue
        }

        get {
            return theCollectionView.contentOffset.x
        }
    }
}