标签: scala apache-spark
我正在尝试将Spark版本从1.6.2升级到2.3.0。我当前正在使用Scala 2.10版,但由于不再支持Scala 2.10,因此我需要升级到Scala 2.11.x版。我的问题是我应该升级到哪个子版本?我正在努力确定要使用哪个子版本。
我找不到任何可以比较不同Scala子版本的东西,但是我遇到了一些建议使用Scala 2.11.8版本的条目,并且使用Spark时Scala 2.11.0存在一个错误(不确定如何是的。
您的经验是什么,您推荐哪些子版本?谢谢!
答案 0 :(得分:2)
作为documentation says,您可以使用兼容版本(2.11.x)。 因此,只需使用最新版本(今天为2.11.12)即可。