标签: mysql r hadoop apache-spark
我正在运行sparkR(在Spark 2.0下)并使用这个很酷的函数spark.lapply。
我需要进行多次迭代,并在我拥有的Hadoop集群上并行处理它。
我的问题是:是否可以在spark.apply函数内并行运行mysql INSERT语句?我应该怎么做呢?
mysql服务器仅安装在边缘节点上,执行程序不在同一节点上。
谢谢!