Spark / Scala:将临时数据存储到csv文件中

时间:2018-12-05 10:16:39

标签: scala csv apache-spark

我有一个期望使用csv文件并用python编写的程序。

csv数据假设来自scala,它使用spark功能存储来自源的数据并将其存储到如下所示的temp表中。

abb.createOrReplaceTempView("tempt")

temp是上述火花命令Described的结果。

我想将临时数据存储到csvfile /tmp/something.csv中 但是我在scala中没有发现任何能满足我目的的东西。

请建议我,将tempt存储到csv文件中的最佳方法是什么

1 个答案:

答案 0 :(得分:1)

将“ temp”声明为tempTable允许您在Spark中编写SQL命令时引用它 如果要保存数据框,请使用abb.write.csv("file_name")