我正在尝试将mongo spark集合加载到scala地图中。以下是我到目前为止所拥有的:
val mongoUri = "mongodb://<username>:<password>@<mongoHost>:<mongoPort>/<dbName>.<collectionName>"
val readConfig = ReadConfig(Map("spark.mongodb.input.uri" -> <mongo-uri>))
val mapFromMongo = MongoSpark.load(sc, readConfig)
.withPipeline(Seq(Document.parse("{ $match: {\"satisfyingCondition\" :{$eq: true} } }")))
.map(row => (row.getString(1), row.getString(0)))
.collectAsMap()
我在调试时遇到问题,想知道这是否是正确的方法。