如何使用所有snappydata集群服务器启动spark-shell?

时间:2016-03-22 01:02:39

标签: snappydata

我似乎找不到使用conf / servers

中设置的所有服务器启动shell的方法

只发现可以使用/bin/snappy-job.sh提交到群集作业,我在其中指定了潜在客户位置,但是想尝试实时shell来使用整个群集执行一些测试

谢谢,

赛义夫

1 个答案:

答案 0 :(得分:2)

请看这个链接。它告诉我们如何启动spark-shell并将其连接到snappy商店。

http://snappydatainc.github.io/snappydata/connectingToCluster/#using-the-spark-shell-and-spark-submit

基本上你需要提供locator属性,这个定位器与你用来启动snappy集群的定位器相同。

$ bin/spark-shell --master local[*] --conf snappydata.store.locators=locatorhost:port --conf spark.ui.port=4041

请注意,通过上述操作,可以创建不同的计算群集来运行程序。当您从此shell运行代码时,snappy群集不用于计算。从snappy商店以有效的方式获取所需的表定义和数据。

将来我们可能会使这个shell连接到snappy集群,使得它使用snappy集群本身作为其计算集群。