spark-class java没有这样的文件或derectory

时间:2017-07-10 12:33:19

标签: apache-spark pyspark

我是spark / scala的新手......我已经设置了一个完全分布式的集群 火花/斯卡拉和sbt。 当我测试并发出命令pyspark时,我得到以下错误

  

/ home / hadoop / spark / bin / spark-class第75行   / usr / lib / jvm / java-7-openjdk-amd64 / jre / bin / java - 没有这样的文件或   目录

我的bashrc包含:

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64 

hadoop-env.sh contains export JAVA_HOME=/usr/lib/jvm/java7-openjdk-amd64/jre/ 
conf/spark-env.sh contains JAVA_HOME=usr/lib/jvm/java7-openjdk-amd64/jre 
spark-class contains 
if [ -n "${JAVA_HOME"}]; then RUNNER="${JAVA_HOME}/bin/java" else if [ "$( command -v java ) " ] then RUNNER = "java"

有人可以协助我需要改变以获得正确的java路径

1 个答案:

答案 0 :(得分:0)

我发现问题与从.bashrc到etc的所有路径都匹配到spark.conf