我指的是这里的项目:https://github.com/amplab/spark-indexedrdd
我的问题是:
写这个我也意识到Spark项目使用Scala 2.10.x.有没有理由没有转向2.11?
答案 0 :(得分:0)
我不相信它仍然保留,但您应该在github repo上打开一个问题,直接与作者核对。
因此,有关添加Scala 2.11支持的观点也应该在那里得到解答。
关于spark-core集成,关于该主题有JIRA discussion。该项目似乎是作为对spark-core的拉取请求启动的,但最后,他们决定将其作为单独的包保留。