'Javapackege'对象不可调用:pyspark错误

时间:2018-04-12 11:39:27

标签: pyspark

这是我的简单python脚本,我想使用self.__sql_context进行一些SQL操作。

conf = SparkConf().setMaster('local[*]') sc = SparkContext.getOrCreate(conf) self.__sql_context = SQLContext.getOrCreate(sc)

sc = SparkContext.getOrCreate(conf)行正在抛出像'Javapackage' object is not callable这样的异常(我试过......除了这里,所以我开始知道它就在这条线上)。

我怀疑java或spark配置存在一些问题。任何人都可以帮助原因吗?提前谢谢!

我正在使用CLOUDERA的VM,CENTOS 6.7

0 个答案:

没有答案