Hadoop集群。数据在群集数据节点上自动复制

时间:2017-07-16 13:36:16

标签: hadoop

  1. 在Hadoop集群中,数据是自动复制到数据节点还是必须编程?

  2. 如果必须编程,那我该怎么办呢?

1 个答案:

答案 0 :(得分:1)

  1. dfs.replication的默认值为3.这存在于hdfs.site.xml配置文件中。这意味着当您设置hadoop集群时,它会自动配置为每个块复制三次。

  2. 可以使用以下方式进行更改:

    • 您可以更改dfs.replicationhdfs-site.xml的值,并将其设置为您想要的整数(1表示没有副本)

    • 您可以使用setrep命令将复制因子作为每个文件的值传递:

      hadoop fs -setrep -w 3 /user/hadoop/file.txt

      这将复制file.txt 3次。