在Mesos 0.21.0上使用Hadoop 2.3.0发出错误" sh:1:hadoop:not found"在奴隶

时间:2014-12-29 04:58:55

标签: hadoop apache-spark mesos

我正在使用Mesos 0.21.0上的Hadoop 2.3.0设置spark。当我在主人身上尝试火花时,我从mesos奴隶的stderr得到这些错误信息:

  

警告:在InitGoogleLogging()写入STDERR之前记录

     

I1229 12:34:45.923665 8571 fetcher.cpp:76]获取URI   'HDFS://10.170.207.41/spark/spark-1.2.0.tar.gz'

     

I1229 12:34:45.925240 8571 fetcher.cpp:105]从中下载资源   'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz'到   “/ TMP / mesos /从站/ 20141226-161203-701475338-5050-6942-S0 /框架/ 20141229-111020-701475338-5050-985-0001 /执行人/ 20141226-161203-701475338-5050-6942-S0 /运行/ 8ef30e72-d8cf-4218-8a62-bccdf673b5aa /火花1.2.0.tar.gz'

     

E1229 12:34:45.927089 8571 fetcher.cpp:109] HDFS copyToLocal失败:   hadoop fs -copyToLocal'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz'   “/ TMP / mesos /从站/ 20141226-161203-701475338-5050-6942-S0 /框架/ 20141229-111020-701475338-5050-985-0001 /执行人/ 20141226-161203-701475338-5050-6942-S0 /运行/ 8ef30e72-d8cf-4218-8a62-bccdf673b5aa /火花1.2.0.tar.gz'

     

sh:1:hadoop:未找到

     

无法获取:hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz

     

无法与奴隶同步(可能已退出)

有趣的是,当我切换到从属节点并运行相同的命令时

  

hadoop fs -copyToLocal'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz'   “/ TMP / mesos /从站/ 20141226-161203-701475338-5050-6942-S0 /框架/ 20141229-111020-701475338-5050-985-0001 /执行人/ 20141226-161203-701475338-5050-6942-S0 /运行/ 8ef30e72-d8cf-4218-8a62-bccdf673b5aa /火花1.2.0.tar.gz'

,一切顺利。

1 个答案:

答案 0 :(得分:0)

启动mesos slave时,必须通过以下参数指定hadoop安装的路径:

--hadoop_home=/path/to/hadoop

如果没有它,它就不适合我,即使我设置了HADOOP_HOME环境变量。