我是spark / scala的新手......我已经设置了一个完全分布式的集群 火花/斯卡拉和sbt。 当我测试并发出命令pyspark时,我得到以下错误:
/ home / hadoop / spark / bin / spark-class第75行 / usr / lib / jvm / java-7-openjdk-amd64 / jre / bin / java - 没有这样的文件或 目录
我的bashrc包含:
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
hadoop-env.sh contains export JAVA_HOME=/usr/lib/jvm/java7-openjdk-amd64/jre/
conf/spark-env.sh contains JAVA_HOME=usr/lib/jvm/java7-openjdk-amd64/jre
spark-class contains
if [ -n "${JAVA_HOME"}]; then RUNNER="${JAVA_HOME}/bin/java" else if [ "$( command -v java ) " ] then RUNNER = "java"
有人可以协助我需要改变以获得正确的java路径
答案 0 :(得分:0)
我发现问题与从.bashrc到etc的所有路径都匹配到spark.conf