假设我创建了一个Spark作业(在Java中),其中包括Spark代码(使用Dataset API)和非Spark代码。似乎Spark代码将自动并行化并在多台机器上运行。 Spark是否知道只在一台机器上运行常规Java /非Spark?
答案 0 :(得分:0)
Spark程序是标准的Scala / Java程序。除非您明确使用分布/并行化原语,否则代码将完全按原样运行。所以回答:
它只是不在乎。对于JVM,它是普通代码。Spark是否知道只在一台机器上运行常规Java /非Spark?