在spark.lapply

时间:2017-05-04 07:57:16

标签: mysql r hadoop apache-spark

我正在运行sparkR(在Spark 2.0下)并使用这个很酷的函数spark.lapply。

我需要进行多次迭代,并在我拥有的Hadoop集群上并行处理它。

我的问题是:是否可以在spark.apply函数内并行运行mysql INSERT语句?我应该怎么做呢?

mysql服务器仅安装在边缘节点上,执行程序不在同一节点上。

谢谢!

0 个答案:

没有答案