文件系统异常:找不到文件。引起:无效的后代文件名hdfs

时间:2016-01-12 06:33:38

标签: pentaho hadoop2 pentaho-spoon

我正在尝试在pentaho中执行hadoop-mapreduce。我在作业中有 hadoopcopyfiles 步骤来指定文件的输入路径。如果我的输入文件位置具有root访问权限,则可以正常工作。(即。)已经在根文件夹中创建的文件。但是,如果我将源文件作为我的本地文件位置,它会在pentaho日志中给出以下错误

2016/01/12 11:44:57 - Spoon - Starting job...
2016/01/12 11:44:57 - samplemapjob1 - Start of job execution
2016/01/12 11:44:57 - samplemapjob1 - Starting entry [Hadoop Copy Files]
2016/01/12 11:44:57 - Hadoop Copy Files - Starting ...
2016/01/12 11:44:57 - Hadoop Copy Files - Processing row source File/folder source : [file:///home/vasanth/Desktop/my.txt] ... destination file/folder : [hdfs://WEB2131:9000/new1/]... wildcard : [null]
2016/01/12 11:45:03 - Hadoop Copy Files - ERROR (version 6.0.0.0-353, build 1 from 2015-10-07 13.27.43 by buildguy) : File System Exception: Could not find files in "file:///home/vasanth/Desktop".
2016/01/12 11:45:03 - Hadoop Copy Files - ERROR (version 6.0.0.0-353, build 1 from 2015-10-07 13.27.43 by buildguy) : Caused by: Invalid descendent file name "hdfs:".

我试过给

  

sudo chmod 777 /home/vasanth/Desktop/my.txt

但错误仍然存​​在。我可以解决这个问题吗?

0 个答案:

没有答案