我尝试了这个,但是没有用。据我了解,Spark
不支持.dat
文件格式。我不想将文件写为.csv
或.json
,然后稍后通过shell脚本进行转换。
a.write.format("dat").save(outputPath)
答案 0 :(得分:0)
Spark格式函数不接受“ dat”作为参数。您可以在文档中获得更多信息:https://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html
很抱歉,您最简单的方法是创建csv
,然后将其转换为dat
。