自动将文件从本地复制到Hadoop

时间:2016-11-01 15:07:19

标签: linux hadoop cron hdfs

我想每小时将更新的文件从本地文件系统复制到Hadoop,因为我想放入cron。是否有任何hadoop命令可用于将更新的文件从本地复制到Hadoop?

2 个答案:

答案 0 :(得分:0)

您可以使用各种数据提取工具,如Flume,Nifi等。

如果您需要有关这些工具的任何帮助,请与我们联系。

答案 1 :(得分:0)

下面的代码? 在包含文件的文件夹中

files=$(find . -type f -mmin -60)

for f in $files
do
  hadoop fs -cp $f /hadoopdest
done

可能是创建文件的另一个循环:

files_c=$( find . -type f -cmin -60)