让Spark 1.5在mac local上运行

时间:2015-10-20 08:21:39

标签: python apache-spark ipython

我为hadoop 2.4下载了预构建的spark,当我尝试在python中启动SparkContext时,我收到以下错误:

ClassNotFoundException: org.apache.spark.launcher.Main

以下代码应该是正确的:

import sys, os
os.environ['SPARK_HOME'] = '/spark-1.5.1-bin-hadoop2.4/'
sys.path.insert(0, '/spark-1.5.1-bin-hadoop2.4/python/')
os.environ['PYTHONPATH'] = '/usr/local/Cellar/python/2.7.9/Frameworks/Python.framework/Versions/2.7/lib/python2.7/site-packages/'
import pyspark
from pyspark import SparkContext
sc = SparkContext('local[2]')

1 个答案:

答案 0 :(得分:0)

原来我的问题是我的mac上的默认JDK是Java 1.6,Spark 1.5放弃了对Java 1.6(reference)的支持。我使用installer from oracle升级到Java 1.8,它修复了问题。