我为hadoop 2.4下载了预构建的spark,当我尝试在python中启动SparkContext时,我收到以下错误:
ClassNotFoundException: org.apache.spark.launcher.Main
以下代码应该是正确的:
import sys, os
os.environ['SPARK_HOME'] = '/spark-1.5.1-bin-hadoop2.4/'
sys.path.insert(0, '/spark-1.5.1-bin-hadoop2.4/python/')
os.environ['PYTHONPATH'] = '/usr/local/Cellar/python/2.7.9/Frameworks/Python.framework/Versions/2.7/lib/python2.7/site-packages/'
import pyspark
from pyspark import SparkContext
sc = SparkContext('local[2]')
答案 0 :(得分:0)
原来我的问题是我的mac上的默认JDK是Java 1.6,Spark 1.5放弃了对Java 1.6(reference)的支持。我使用installer from oracle升级到Java 1.8,它修复了问题。