使用Scala 2.11编译Spark时,我们会收到与spark-sql相关的错误。
build/mvn -Dscala-2.11 -DskipTests clean package
Spark构建文档说: Spark尚不支持Scala 2.11的JDBC组件。
没有这个就必须有一种编译方式。
如何为Scala 2.11编译Spark?
答案 0 :(得分:3)
在构建运行之前:
./dev/change-scala-version.sh 2.11
更改Scala版本。奇怪的是,文档中没有提到这一点。
此外,错误可能与spark-sql没有直接关系,而是与Scala 2.10编译的一些依赖关系。