apache spark实现

时间:2016-08-09 09:49:29

标签: java apache-spark

我尝试使用struts2框架在java中的web应用程序中找到了实现apache spark的最佳解决方案。

我有很少的机器可以用于司机和工人。

我有一个Web应用程序可以完成大量的数据库操作,我希望它可以通过使用hdfs的spark来完成。

我可以在本地的单个独立java项目上运行spark,但我想将它用作集群。

我在网上阅读了很多线程和信息,但我无法找到在集群上实现它的方法,因此我的应用程序所需的任何大量处理都将由spark完成。

我不是在使用像cloudera或亚马逊服务这样的付费服务的州......

1 个答案:

答案 0 :(得分:1)

以下是有关在主人和奴隶中安装Spark的分步指南。它非常全面:

http://data-flair.training/blogs/install-deploy-run-spark-2-x-multi-node-cluster-step-by-step-guide/

如果成功,您应该能够在主设备上看到一个显示整个群集的spark-ui。不可否认,设置是一个漫长的过程, 我自己已经完成了这个过程,所以如果你有任何具体问题可以随意提问。

完成后,使用spark-submit脚本启动应用程序:

./bin/spark-submit \
  --class <main-class> \
  --master <master-url> \
  --deploy-mode <deploy-mode> \
  --conf <key>=<value> \
  ... # other options
  <application-jar> \
  [application-arguments]

确保授予主人网址以群集模式而不是本地[*]等运行您的应用程序。