/ bin / bash:/ bin / java:没有这样的文件或目录

时间:2015-11-28 06:27:57

标签: java macos hadoop mapreduce yarn

我试图在Mac OS X EL Captain 10.11上使用Java 1.7 SDK和Hadoop2.7.1运行一个简单的wordcount MapReduce程序,我在容器日志“stderr”中收到以下错误消息 / bin / bash:/ bin / java:没有这样的文件或目录

申请日志 -

5/11/27 02:52:33 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
15/11/27 02:52:33 INFO client.RMProxy: Connecting to ResourceManager at /192.168.200.96:8032
15/11/27 02:52:34 INFO input.FileInputFormat: Total input paths to process : 0
15/11/27 02:52:34 INFO mapreduce.JobSubmitter: number of splits:0
15/11/27 02:52:34 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1448608832342_0003
15/11/27 02:52:34 INFO impl.YarnClientImpl: Submitted application application_1448608832342_0003
15/11/27 02:52:34 INFO mapreduce.Job: The url to track the job: http://mymac.local:8088/proxy/application_1448608832342_0003/
15/11/27 02:52:34 INFO mapreduce.Job: Running job: job_1448608832342_0003
15/11/27 02:52:38 INFO mapreduce.Job: Job job_1448608832342_0003 running in uber mode : false
15/11/27 02:52:38 INFO mapreduce.Job:  map 0% reduce 0%
15/11/27 02:52:38 INFO mapreduce.Job: Job job_1448608832342_0003 failed with state FAILED due to: Application application_1448608832342_0003 failed 2 times due to AM Container for appattempt_1448608832342_0003_000002 exited with  exitCode: 127
For more detailed output, check application tracking page:http://mymac.local:8088/cluster/app/application_1448608832342_0003Then, click on links to logs of each attempt.
Diagnostics: Exception from container-launch.
Container id: container_1448608832342_0003_02_000001
Exit code: 127
Stack trace: ExitCodeException exitCode=127:
    at org.apache.hadoop.util.Shell.runCommand(Shell.java:545)
    at org.apache.hadoop.util.Shell.run(Shell.java:456)
    at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:722)
    at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:211)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
    at java.util.concurrent.FutureTask.run(FutureTask.java:262)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
    at java.lang.Thread.run(Thread.java:745)


Container exited with a non-zero exit code 127
Failing this attempt. Failing the application.
15/11/27 02:52:38 INFO mapreduce.Job: Counters: 0

我正在运行的命令

hadoop jar wordcount.jar org.myorg.WordCount /user/gangadharkadam/input/ /user/gangadharkadam/output/

我的ENV变量是 -

export   JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_79.jdk/Contents/Home
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.1
export HADOOP_MAPRED_HOME=/usr/local/hadoop/hadoop-2.7.1
export HADOOP_COMMON_HOME=/usr/local/hadoop/hadoop-2.7.1
export HADOOP_HDFS_HOME=/usr/local/hadoop/hadoop-2.7.1
export YARN_HOME=/usr/local/hadoop/hadoop-2.7.1
export HADOOP_CONF_DIR=/usr/local/hadoop/hadoop-2.7.1/etc/hadoop
export HADOOP_CLASSPATH=$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:HADOOP_HOME/sbin:$M2_HOME/bin:$ANT_HOME/bin:$IVY_HOME/bin:$FB_HOME/bin:$MYSQL_HOME/bin:$MYSQL_HOME/lib:$SQOOP_HOME/bin

问题似乎是因为YARN使用的JAVA可执行文件的路径与您的操作系统中的路径不同。 “stderr”中失败任务的本地日志显示 - / bin / bash:/ bin / java:没有这样的文件或目录

我试图创建一个从$ JAVA_HOM / bin / java到/ bin / java的软链接,但在El Captian OS X中却不允许创建软链接。新的OS X EL Captian具有无根登录,用户无法在某些受限制的文件夹(如/ bin /)上创建任何内容。 我们非常感谢您对这个问题的任何解决方法。谢谢。

7 个答案:

答案 0 :(得分:31)

此答案适用于Hadoop 2.6.0及更早版本。 禁用SIP并创建符号链接确实提供了一种解决方法。 一个更好的解决方案是修复hadoop-config.sh,以便正确地获取你的JAVA_HOME

HADOOP_HOME/libexec/hadoop-config.sh中查找# Attempt to set JAVA_HOME if it is not set

下面的if条件

删除导出JAVA_HOME行中的额外括号,如下所示。改变这个

if [ -x /usr/libexec/java_home ]; then
    export JAVA_HOME=($(/usr/libexec/java_home))
else
    export JAVA_HOME=(/Library/Java/Home)
fi

if [ -x /usr/libexec/java_home ]; then
    // note that the extra parentheses are removed
    export JAVA_HOME=$(/usr/libexec/java_home)
else
    export JAVA_HOME=/Library/Java/Home
fi

完成此更改后重新启动纱线。

更详细的信息可以在https://issues.apache.org/jira/browse/HADOOP-8717找到,似乎Hadoop 3.0.0-alpha1是第一个带有修复的版本。

答案 1 :(得分:4)

使用以下命令代替YARN启动$HADOOP_PREFIX/sbin/start-yarn.sh为我解决了这个问题。

$HADOOP_PREFIX/sbin/yarn-daemon.sh start resourcemanager;

$HADOOP_PREFIX/sbin/yarn-daemon.sh start nodemanager;

如以下链接所述

https://issues.apache.org/jira/browse/HADOOP-8717

答案 2 :(得分:2)

当我使用您提到的配置安装hadoop 2.7.1时,我遇到了同样的错误。我按照这个链接来了解为什么我收到此错误。

https://cloudcelebrity.wordpress.com/2014/01/31/yarn-job-problem-application-application_-failed-1-times-due-to-am-container-for-xx-exited-with-exitcode-127/

但是,当我在OS X El Capitan上运行时...我需要无根(禁用系统完整性保护)然后继续

sudo ln -s /usr/bin/java /bin/java

完成上述更改后,请不要忘记启用SIP,以确保MAC安全。 在此更改之后,map-reduce程序将按预期工作

答案 3 :(得分:1)

转到档案./libexec/hadoop-config.sh

并添加JAVA=$JAVA_HOME

“之前#如果没有设置,则尝试设置JAVA_HOME if [[ -z $JAVA_HOME ]]; then

这应该可以解决您的问题

答案 4 :(得分:1)

以上都没有帮助我。我为我修好的是:

hadoop-env.sh

中设置/usr/local/Cellar/hadoop/etc/hadoop/hadoop-env.sh

改变了这个:

export JAVA_HOME=${JAVA_HOME}

对此:

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home

此用户的所有功劳:https://stackoverflow.com/a/39676720/992347

干杯

答案 5 :(得分:0)

这条线错了。

export    $JAVA_HOME=

应该开始

export JAVA_HOME=

查找变量时只能使用$

答案 6 :(得分:0)

以下顺序有助于解决MacOS 10.5.17 Catalina上的Hadoop 2.7.3中的问题

  • 通过运行找出安装Java的路径:

/usr/libexec/java_home

示例路径:

/Library/Java/JavaVirtualMachines/adoptopenjdk-8.jdk/Contents/Home

  • 在其中添加Java安装路径作为$JAVA_HOME环境变量的值

hadoop_installation_folder/etc/hadoop/hadoop-env.sh如下:

export JAVA_HOME=/Library/Java/JavaVirtualMachines/adoptopenjdk-8.jdk/Contents/Home

  • 重新启动纱线过程:

hadoop_installation_folder/sbin/stop-yarn.sh hadoop_installation_folder/sbin/start-yarn.sh

  • 重新运行失败的地图缩减应用程序