使用自定义spark和scala设置snappydata 2.11

时间:2016-03-21 18:42:27

标签: snappydata

我已阅读文档,但无法找到以下问题的答案:

  • 我更喜欢设置一个已经运行的spark集群(即添加一个jar以便能够使用SnappyContext),还是必须使用捆绑的spark?如果可能,请协助:SPARK_HOME似乎是由发射器在运行时设置的

  • 在哪里定义JAVA_HOME?。现在我在所有snappy服务器节点上的bin / spark-class中完成了它

  • 使用scala 2.11构建SnappyData

理解的, 赛义夫

1 个答案:

答案 0 :(得分:0)

现在我们不支持使用股票Spark运行Snappy,但我们正在努力。现在你可以使用Snappy版本的Spark。

对于Q2,您可以在启动Snappy服务器之前在命令行中设置JAVA_HOME。

我们还没有使用scala 2.11测试Snappy。所以不确定可能会出现什么问题。