我正在尝试在我的本地计算机上运行我的Scala作业(MacBook pro osx10.13.3
)并且我在运行时遇到错误。
我的版本:
2.11.12
2.3.0
3.0.0
我通过brew
安装了所有内容。
例外是:
Caused by: java.lang.StringIndexOutOfBoundsException: begin 0, end 3, length 2
发生在那条线上:
val conf = new SparkConf()
.setAppName(getName)
.setMaster("local[2]")
val context = new SparkContext(conf)
最后一行是抛出异常的地方。
我的理论是,Hadoop
和spark
版本不能合作,但我无法在线查找Hadoop
应该spark 2.3.0
的{{1}}版本。
谢谢。
答案 0 :(得分:2)
所以我弄明白了我的问题。
首先,是的,我不需要安装Hadoop。感谢您指出了这一点。 第二,我安装了java10而不是java8。删除它解决了其余的问题。
谢谢大家!