标签: apache-spark
我们有火花丛 - > master和2个worker节点。当我们执行spark提交时 - 执行程序仅在单个工作节点上运行。为什么地图转换不会在两个工作节点上运行?任何设置或因素都适用于此? 谢谢
答案 0 :(得分:0)
请检查以下内容:
@Priya我认为你的问题是在代码中设置master(seMaster(local))。代码优先于cli设置。如果你删除它,你将使用master拥有所有资源。