用Java编写Spark独立程序的环境/工具?

时间:2014-11-18 12:16:01

标签: java eclipse bigdata apache-spark

我想用Java实现一个独立的Spark程序。我正在使用Amazon集群来运行该应用程序。由于我是初学者,我想知道哪个是编写Spark程序的最佳环境。它还提供调试功能吗? 目前,我正在本地机器上编写Eclipse程序,并通过Maven-Wagon将jar导出到AWS。问题是我无法使用调试。 任何帮助表示赞赏!

2 个答案:

答案 0 :(得分:0)

如果在本地模式下运行,可以在eclipse中调试它。创建像new JavaSparkContext("local[*]", "my app")这样的JavaSparkContext将以本地模式运行您的应用程序。

答案 1 :(得分:0)

您不需要在本地计算机上安装spark。只需在项目POM中添加Spark,scala依赖项并在eclipse中对其进行调试。像下面这样在Confing中传递本地代码,即可调试代码。

SparkConf sparkConf =新的SparkConf()。setMaster(“ 本地”)。setAppName(应用程序名称