我应该在Spark 2.3.0中使用Scala 2.11.0或2.11.8吗?

时间:2019-02-18 06:19:02

标签: scala apache-spark

我正在尝试将Spark版本从1.6.2升级到2.3.0。我当前正在使用Scala 2.10版,但由于不再支持Scala 2.10,因此我需要升级到Scala 2.11.x版。我的问题是我应该升级到哪个子版本?我正在努力确定要使用哪个子版本。

我找不到任何可以比较不同Scala子版本的东西,但是我遇到了一些建议使用Scala 2.11.8版本的条目,并且使用Spark时Scala 2.11.0存在一个错误(不确定如何是的。

您的经验是什么,您推荐哪些子版本?谢谢!

1 个答案:

答案 0 :(得分:2)

作为documentation says,您可以使用兼容版本(2.11.x)。 因此,只需使用最新版本(今天为2.11.12)即可。