我已阅读文档,但无法找到以下问题的答案:
我更喜欢设置一个已经运行的spark集群(即添加一个jar以便能够使用SnappyContext),还是必须使用捆绑的spark?如果可能,请协助:SPARK_HOME似乎是由发射器在运行时设置的
在哪里定义JAVA_HOME?。现在我在所有snappy服务器节点上的bin / spark-class中完成了它
使用scala 2.11构建SnappyData
理解的, 赛义夫
答案 0 :(得分:0)
现在我们不支持使用股票Spark运行Snappy,但我们正在努力。现在你可以使用Snappy版本的Spark。
对于Q2,您可以在启动Snappy服务器之前在命令行中设置JAVA_HOME。
我们还没有使用scala 2.11测试Snappy。所以不确定可能会出现什么问题。