我为hadoop 2.4下载了预先构建的spark 1.2.1。然后我尝试使用./bin/spark-shell启动spark shell,我收到以下错误消息:
在/ Users / XXXX / Software Libraries / Java Libraries / General / spark-1.2.1-bin-hadoop2.4 / lib中找不到Spark程序集 你需要在运行这个程序之前构建Spark。
为什么即使我下载了预建版本,也无法使用此错误启动?
答案 0 :(得分:4)
尽管看起来很奇怪,但进入我的主目录可以解决问题。也许与我的目录名称中包含空格的事实有关,但我无法确定。
答案 1 :(得分:0)
build / mvn -Pyarn -Phadoop-2.4 -Dhadoop.version = 2.4.0 -DskipTests clean package