我使用Spark 1.3.0(Scala 2.10.X)MLlib LDA算法和Spark Java API。当我尝试在运行时从LDA模型中读取文档主题分布时,我遇到以下问题。
"主" java.lang.ClassCastException:[Lscala.Tuple2;不能被施展为scala.Tuple2
我已经给出了以下相关代码:
DistributedLDAModel ldaModel = new LDA().setK(3).run(corpus);
RDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions();
如何在&#34; topicDist&#34;中阅读或显示内容(文档及其主题分发)。在JavaRDD?
答案 0 :(得分:0)
我找到了解决方案,我在下面给出了它:
JavaRDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions().toJavaRDD();
List<Tuple2<Object, Vector>> list = topicDist.collect();