我正在使用Mesos 0.21.0上的Hadoop 2.3.0设置spark。当我在主人身上尝试火花时,我从mesos奴隶的stderr得到这些错误信息:
警告:在InitGoogleLogging()写入STDERR之前记录
I1229 12:34:45.923665 8571 fetcher.cpp:76]获取URI 'HDFS://10.170.207.41/spark/spark-1.2.0.tar.gz'
I1229 12:34:45.925240 8571 fetcher.cpp:105]从中下载资源 'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz'到 “/ TMP / mesos /从站/ 20141226-161203-701475338-5050-6942-S0 /框架/ 20141229-111020-701475338-5050-985-0001 /执行人/ 20141226-161203-701475338-5050-6942-S0 /运行/ 8ef30e72-d8cf-4218-8a62-bccdf673b5aa /火花1.2.0.tar.gz'
E1229 12:34:45.927089 8571 fetcher.cpp:109] HDFS copyToLocal失败: hadoop fs -copyToLocal'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz' “/ TMP / mesos /从站/ 20141226-161203-701475338-5050-6942-S0 /框架/ 20141229-111020-701475338-5050-985-0001 /执行人/ 20141226-161203-701475338-5050-6942-S0 /运行/ 8ef30e72-d8cf-4218-8a62-bccdf673b5aa /火花1.2.0.tar.gz'
sh:1:hadoop:未找到
无法获取:hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz
无法与奴隶同步(可能已退出)
有趣的是,当我切换到从属节点并运行相同的命令时
hadoop fs -copyToLocal'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz' “/ TMP / mesos /从站/ 20141226-161203-701475338-5050-6942-S0 /框架/ 20141229-111020-701475338-5050-985-0001 /执行人/ 20141226-161203-701475338-5050-6942-S0 /运行/ 8ef30e72-d8cf-4218-8a62-bccdf673b5aa /火花1.2.0.tar.gz'
,一切顺利。
答案 0 :(得分:0)
启动mesos slave时,必须通过以下参数指定hadoop安装的路径:
--hadoop_home=/path/to/hadoop
如果没有它,它就不适合我,即使我设置了HADOOP_HOME环境变量。