Apache Spark如何处理非Spark代码?

时间:2017-12-08 00:08:54

标签: apache-spark apache-spark-sql spark-dataframe

假设我创建了一个Spark作业(在Java中),其中包括Spark代码(使用Dataset API)和非Spark代码。似乎Spark代码将自动并行化并在多台机器上运行。 Spark是否知道只在一台机器上运行常规Java /非Spark?

1 个答案:

答案 0 :(得分:0)

Spark程序是标准的Scala / Java程序。除非您明确使用分布/并行化原语,否则代码将完全按原样运行。所以回答:

  

Spark是否知道只在一台机器上运行常规Java /非Spark?

它只是不在乎。对于JVM,它是普通代码。