我们已经设置了2台机器的hadoop集群,我们正在尝试在我们的实时项目中实现集群,我们需要在多节点集群中有关上传数据的信息,假设我有9个数据节点,哪个从节点我们需要上传data.can我可以选择将数据上传到2个从节点,如果我将数据上传到hdfs,它是否被复制到另一个从节点?正如我们观察到当前hdfs使用/ tmp location incase如果/ tmp已满,HDFS将使用哪个位置。
答案 0 :(得分:0)
添加更多簇的目的是扩大数据存储空间。 您是否正在寻找安全集群,授予某些用户shold的权限将数据上传到HDFS? right如果意味着您可以实施KERBEROS原则或授权用户上传数据!
数据复制 是的,一旦将数据上传到HDFS,它就会将数据复制到节点中。一旦数据节点停止发生,就会注意从退役节点移动到另一个节点的数据。