"主" java.lang.ClassCastException:[Lscala.Tuple2;不能在Spark MLlib LDA中强制转换为scala.Tuple2

时间:2015-07-29 11:00:46

标签: java scala apache-spark apache-spark-mllib lda

我使用Spark 1.3.0(Scala 2.10.X)MLlib LDA算法和Spark Java API。当我尝试在运行时从LDA模型中读取文档主题分布时,我遇到以下问题。

"主" java.lang.ClassCastException:[Lscala.Tuple2;不能被施展为scala.Tuple2

我已经给出了以下相关代码:

DistributedLDAModel ldaModel = new LDA().setK(3).run(corpus);
RDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions();

如何在&#34; topicDist&#34;中阅读或显示内容(文档及其主题分发)。在JavaRDD?

1 个答案:

答案 0 :(得分:0)

我找到了解决方案,我在下面给出了它:

JavaRDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions().toJavaRDD();

List<Tuple2<Object, Vector>> list = topicDist.collect();