我正面临问题"例外:超出内存限制,通过allowDiskUse:true以选择加入。"对于示例代码
JavaMongoRDD aggregatedRdd = rdd .withPipeline(Arrays.asList(Document.parse(aggregateQuery), Document.parse(" {$ sort:{gatewaytime:-1}")));
有许多示例可以在mongo db aggregate()方法中通过allowDiskUse:true或在java中通过mongo客户端传递。
我没有找到任何示例或帮助如何使用Spark RDD.withPipeline()方法传递这些类型的选项,或者有比使用allowDiskUse更好的替代方法:true。
提前致谢。