使用Spark 2.2.0进行scala和pyspark之间的性能差异

时间:2017-10-27 12:57:47

标签: scala apache-spark pyspark

我一直认为Scala比许多操作的速度快得多,但最近我在博客中读到,自Spark 2发布以来,性能差异要小得多。

这可能是由于Dataframe的介绍吗?这是否意味着对数据帧的操作与Scala和pyspark的执行时间相同?

是否存在有关Scala / pyspark差异的详细最新绩效报告?

0 个答案:

没有答案