Apache Spark“无法启动org.apache.spark.deploy.master.Master:” - RHEL7

时间:2016-07-06 21:20:34

标签: apache-spark

我在通过start-master.sh脚本启动Apache Spark时遇到问题。我一直在四处寻找,似乎找不到任何曾经遇到过这个问题的人:

这是我在启动时遇到的完整错误(日志列出相同的错误,没有其他内容):

failed to launch org.apache.spark.deploy.master.Master:
  /usr/local/spark/bin/spark-class: line 87: exec: -X: invalid option
  exec: usage: exec [-cl] [-a name] [command [arguments ...]] [redirection ...]

查看/ usr / local / spark / bin / spark-class,特别是80-87行,我看到以下内容:

# The launcher library will print arguments separated by a NULL character, to allow arguments with
# characters that would be otherwise interpreted by the shell. Read that in a while loop, populating
# an array that will be used to exec the final command.
CMD=()
while IFS= read -d '' -r ARG; do
   CMD+=("$ARG")
done < <("$RUNNER" -cp "$LAUNCH_CLASSPATH" org.apache.spark.launcher.Main "$@")
exec "${CMD[@]}"

我对“exec”不是很熟悉,但我绝对不会在这里看到任何“-X”标志作为选项传递。

我在StackOverflow上找到了这个answer,它详细说明了Spark启动过程所需要的内容,所以看起来我的问题是从命令控制方面的bash到java的交接。同样,我对“执行”还不太了解,以完全理解这里发生的事情或者如何开始解决这个问题。

为了它的价值,我确实检查了以确保我的JAVA_HOME设置正确,我相信它。

之前有没有人见过这个问题或者知道如何开始解决这个问题?

0 个答案:

没有答案