我是新来的,所以我希望能对您有所帮助。
我使用Java中的Spark SQL和ML Spark创建了一个Apache Spark项目。我已经完成了这个项目,但是输出有一些问题。
我有一个Dataset<Row>
的决赛(决赛是数据集的名称),其中包含一些信息。当我将show()
与该数据集(finals.show();
一起使用时,我会得到以下信息:
[2018026,1,9.93,127.66,5.16,245.8,4.426875,6.91]
[2018026,1,9.97,127.89,5.36,244.8,4.426875,6.91]
[2018026,1,6.76,113.54,6.42,228.8,4.426875,6.91]
[2018026,1,6.92,114.2,6.81,224.0,4.426875,6.91]
[2018026,1,6.86,113.98,6.65,226.0,4.426875,6.91]
[2018026,1,6.81,113.76,6.58,227.4,4.426875,6.91]
[2018026,1,6.97,113.49,6.58,225.8,4.426875,6.91]
[2018026,1,6.97,114.42,6.67,221.6,4.426875,6.91]
(“,”是字段之间的分隔符)。
好吧,我正在尝试在文本文件中获得此输出,例如projectSpark.txt,但对我来说是不可能的。如何在文本文件上获取此信息?
我应该遍历Dataset<Row>
还是有一些方法可以做到这一点?
非常感谢你们。
致谢。
答案 0 :(得分:0)
在Java中,您可以执行以下操作:
finals.javaRDD().map(x -> x.toString()).saveAsTextFile("your/path");
它将数据集保存在单个文本文件中。