Hadoop只生成一个来自reducer的输出

时间:2013-04-25 10:14:35

标签: java image-processing hadoop mapreduce hdfs

虽然我知道Hadoop通常不用于图像处理,但作为概念验证,我一直在尝试使用Hadoop实现图像处理。 在这样做的过程中,我成功实现了Sobel边缘检测算法,以使用MapReduce模型并在Hadoop下运行。

我的程序应该从HDFS获取一个文件夹作为输入并处理文件夹中的文件并将输出写入HDFS。但是,它正在考虑输入文件夹中的单个文件并将单个文件写为输出。

以下是文件https://gist.github.com/ardahal/f0046e50e04fadc28a96

的源代码

1 个答案:

答案 0 :(得分:0)

这将是半自动的,但总比没有好。 假设您的输入目录是:/user/hadoop/inpur_dir/input_i.txt

Path pth = "/user/hadoop/inpur_dir/input_"

for(int i = 0; i < number_of_image; i++){
    FileInputFormat.addInputPath(job, pth.suffix(i+".txt") );
}

这是multiple output。这比我之前提出的要好