Hadoop:使用flume spool dir将csv文件复制到hdfs,错误:INFO source.SpoolDirectorySource:Spooling Directory Source runner已关闭

时间:2017-02-20 18:51:08

标签: hadoop hadoop-streaming flume-ng

我试图使用flume spool目录将csv文件复制到hdfs。因为我是Hadoop概念的初学者。请帮我解决以下问题

hdfs目录:/ home / hdfs
水槽目录:/ etc / flume /

请找到flume-hwdgteam01.conf文件,如下所示

$DataArr[] = "('$fieldVal1', '$fieldVal2', '$fieldVal3')";

我按照以下方式执行命令:

/ usr / bin / flume-ng agent --conf conf --conf-file /home/hwdgteam01/nandan/config/flume-hwdgteam01.conf -Dflume.root.logger = DEBUG,console --name hwdgteam01 < / p>

OR

/ usr / bin / flume-ng agent -n hwdgteam01 -f /home/hwdgteam01/nandan/config/flume-hwdgteam01.conf

/ usr / bin / flume-ng agent -n hwdgteam01 -f /home/hwdgteam01/nandan/config/flume-hwdgteam01.conf

OR

/ home / hwdgteam01 / nandan / config / flume-ng agent -n hwdgteam01 -f

OR

/home/hwdgteam01/nandan/config/flume-hwdgteam01.conf

但没有任何结果,我收到以下错误flume error msg

请让我知道我哪里出错了。 谢谢你的帮助

0 个答案:

没有答案